Varför komiker kan sova gott – och AI fortfarande inte förstår skämt
Trots sin enorma beräkningskraft saknar AI fortfarande något djupt mänskligt – förmågan att tänka fritt, tolka nyanser och förstå det oväntade. På Odin Investment Conference 2025 berättade SigTechs grundare Bin Ren varför den verkliga utmaningen inte handlar om teknik, utan om att förstå språk, bias och mänskligt resonemang.
När vi pratar om artificiell intelligens används ordet ”intelligens” ofta lite lättvindigt. AI sägs kunna resonera, förstå, förutsäga och skapa, men vad betyder det egentligen? För att förstå vad dagens AI faktiskt gör måste man börja i det mest grundläggande: stora språkmodeller, som GPT-serien, bygger på att förutsäga nästa ord. Det låter banalt. Men ur den till synes enkla uppgiften har något häpnadsväckande vuxit fram – system som kan föra avancerade resonemang, lösa komplexa uppgifter och skriva analyser som liknar mänskliga. Ändå kvarstår den centrala frågan om AI tänker eller bara imiterar tanken?
Från sannolikhet till resonemang
När Bin Ren, vd för SigTech, talade på Odin Investment Conference 2025, beskrev han utvecklingen så här:
”Tidigare genererade språkmodeller ord för ord, helt mekaniskt. De tog en mening, räknade ut vilket ord som mest sannolikt borde komma härnäst och fortsatte så tills svaret var klart. Det låter dumt, och det är dumt, men ändå uppstår något som liknar intelligens.”
För att illustrera poängen använder han en liknelse. Tänk dig en deckare. En komplicerad berättelse, många personer, dolda motiv. I slutet står det:
“Detektiven insåg till slut vem mördaren var – och det var…”
För att kunna förutsäga det sista ordet rätt, måste en språkmodell förstå hela intrigen. Den måste ha följt varje ledtråd, varje motiv och varje samband.
Det är kärnan i generativ AI. Genom att gång på gång förutsäga nästa ord, lär sig modellen de underliggande strukturerna i språk och logik. Men det är fortfarande efterhandsintelligens. Ett system som speglar det mänskliga tänkandet, inte skapar det på egen hand.
Reasoning – AI som tänker högt
De senaste månaderna har det nya begreppet "reasoning" dykt upp i AI-världen. Det kan översättas med ”resonerande” eller ”förmågan att tänka högt”. I de nya modellerna stannar processen upp innan svaret ges. I stället för att direkt leverera det mest sannolika nästa ordet, gör modellen något nytt - den läser igenom sitt eget utkast, reflekterar och korrigerar sig själv. Man kan kalla det för AI:ns inre monolog. Den tänker högt innan den svarar.
Resultatet blir svar som är mer logiskt sammanhängande, särskilt i uppgifter som kräver självkonsistens, som att bevisa en matematisk sats eller resonera kring ett etiskt dilemma. Men reasoning betyder inte att AI har förstått något. Det betyder bara att den lärt sig simulera den mänskliga processen att tänka efter innan man talar. Skillnaden är subtil, men avgörande.
Generativ intelligens är inte mänskligt omdöme
I finansvärlden blir denna skillnad snabbt konkret. När en portföljförvaltare analyserar ett bolag väger hon inte bara fakta, utan även erfarenhet, magkänsla och kontext. En AI kan sammanfatta årsredovisningen, räkna på multiplar och jämföra historik, men den har ingen förståelse för vad siffrorna betyder.
Det är lite som att läsa noter utan att höra musiken.
Den generativa intelligensen är en mästare på form – men inte på mening. Den kan simulera ett investeringsresonemang, men inte ta ansvar för det. Det är därför AI i finans fortfarande behöver en mänsklig ”loop” runt sig: experter som granskar, väger och sätter in resultaten i sitt sammanhang. Utan mänskligt omdöme riskerar man att få perfekt språk – men tomt innehåll.
Objektivitetens illusion
En av de mest laddade frågorna kring AI handlar om bias – alltså snedvridningar i data och svar. Kan vi verkligen bygga en objektiv intelligens?
Bin Ren menar att frågan är missriktad.
”Språkmodeller upptäcker strukturer i språk. Men språk är inte neutralt – det bär på våra erfarenheter, våra värderingar och våra samhällsstrukturer. Om du vill ta bort bias ur språket, måste du i praktiken ta bort det mänskliga ur det.”
När en modell får frågan ”Vad tjänar en kvinnlig bolagsjurist i Zürich?” och svarar 150 000 CHF, men anger 200 000 CHF för en manlig, är det inte AI som är partisk. Den speglar bara den värld den tränats på. Bias i AI är alltså inte en bugg – det är en spegel. Det betyder inte att man ska acceptera den, men att man måste förstå varifrån den kommer.
Man kan instruera en modell att väga olika perspektiv, men det kräver aktiv styrning. AI kan göras mer ”vänster” eller ”höger”, mer konservativ eller progressiv, men det är fortfarande människan som bestämmer riktningen.
Språk, medvetande och ansvar
Här rör vi vid något djupare. Språk är inte bara ett verktyg för kommunikation, utan ett uttryck för medvetande. När AI lär sig språk lär den sig också att återskapa delar av vår verklighetsuppfattning. Men till skillnad från oss har den ingen inre upplevelse. Den förstår inte världen, den härmar vårt sätt att tala om den.
För beslutsfattare i finans innebär det ett dubbelt ansvar: Att förstå att AI kan verka rationell men ändå vara tom på förståelse. Och att våra instruktioner, data och mål påverkar hur dess ”världsbild” formas. Den största risken är kanske inte att AI börjar tänka själv, utan att vi börjar tro att den redan gör det.
Humor - testet AI aldrig klarar
För att avsluta sitt föredrag vände Bin Ren blicken mot ett ämne långt från finans. Nämligen humor. Han berättade att han själv hållit på med stand-up ett längre tag och därför vet vad som gör något roligt.
”Ett skämt fungerar när du bygger upp en förväntan – och sedan bryter den helt. Det är glappet mellan det förväntade och det oväntade som får oss att skratta. Den kognitiva spänningen släpper, och vi reagerar med skratt.”
Stora språkmodeller, förklarar han, är hopplösa på just det. De genererar ord för ord, utifrån sannolikhet. De följer det mest troliga och inte det mest överraskande. Och utan förmågan att ta det kreativa språnget uteblir det där magiska ögonblicket av överraskning.
Så alla komiker kan sova lugnt. Deras jobb är säkra.
Den mänskliga paradoxen
Det är paradoxalt att ju mer AI lär sig om oss, desto tydligare blir det vad som faktiskt gör oss mänskliga.
- Förmågan att tänka i ologiska banor
- Att hitta mening i tvetydighet
- Att skratta åt det absurda
AI kan härma resonemang, men inte förstå varför ett beslut känns rätt. Den kan optimera, men inte värdera. Och kanske är det just därför tekniken väcker så stark fascination inom finansvärlden - en bransch där rationalitet är ett ideal, men där de avgörande besluten ofta fattas på intuition.
Att tänka tillsammans med maskiner
Framtiden handlar därför inte om att ersätta människor med AI, utan om att tänka tillsammans. AI kan bli en intellektuell sparringpartner, en som aldrig tröttnar, aldrig glömmer och aldrig slutar läsa. Men riktningen, etiken och meningen med det vi gör kommer fortfarande från oss.
Som Bin Ren uttryckte det:
”AI kan redan analysera allt vi vet. Men den kan inte tala om vad som är värt att veta.”
Bin Ren var en av talarna på Odin Investment Conference i september 2025. Han är grundare och vd på Sig Tech, ett företag som utvecklar avancerade analysverktyg och AI-lösningar för finansmarknaderna. Han har även en doktorsexamen i datavetenskap från Cambridge där hans team forskade och utvecklade Xen, som blev grunden för Amazon Web Services (AWS) – de lade därmed grunden till molntjänsternas era.
● Handlare inom equity exotics på Barclays Capital – med ansvar för handel över flera tillgångsslag.
● Chief Investment Officer på Brevan Howard Systematic Investment Group.
● Ledde avknoppningen av teamet till fintechbolaget SigTech.
● Bygger i dag skräddarsydda AI-agenter för kapitalmarknaden.