MagnusMagnus meny

Dikotoma Sapiens-Dikotoma Språkmodeller

Av:
Magnus Lindwall
Publicerad:
30 Apr 2025

“Världen består av två sorters människor: de som förstår binärt tänkande och de som inte gör det”

Vi människor är mästare på att förenkla världen. Vi älskar tydliga svar och avskyr osäkerhet. Därför hamnar vi ofta i systematiska tankefällor, eller bias, där vi förenklar komplexa situationer för mycket. Ett exempel är "dikotomania" – tendensen att dela upp resultat i kategorier baserat på godtyckliga gränser och gränsvärden, som "statistiskt signifikant" eller "inte signifikant", och därefter dra långtgående slutsatser baserat på dessa godtyckliga kategorier. Denna svartvita syn riskerar att dölja nyanser, leda till felaktiga slutsatser. Forskning och vetenskap är tyvärr inget undantag.

Nu visar en ny forskningsstudie (se referens nedan) att samma tankemässiga förenklingsfälla drabbar även stora språkmodeller (LLM) som ChatGPT, Gemini och Claude. Trots att dessa modeller inte har något medvetande, verkar de ändå "ärva" mänskliga biases via de enorma mängder text de tränats på och dras med samma typ av systematiska snedvridningar och sårbarheter som präglar mänskligt tänkande – utan att ens vara medvetna om det.

Studien visar att språkmodeller konsekvent gör samma misstag som människor när de tolkar statistiska resultat. De tenderar att ge helt olika svar beroende på om ett resultat ligger strax över eller under den magiska gränsen för statistisk signifikans (oftast 0,05 eller 0,10). Problemet är dessutom svårt att korrigera: forskarna testade att explicit instruera modellerna med riktlinjer från American Statistical Association (ASA), men detta förvärrade snarare än förbättrade modellernas prestationer.

En oväntad och lite oroväckande insikt är att större och mer avancerade versioner av språkmodellerna inte nödvändigtvis är bättre på att undvika dessa tankefel än mindre versioner. I vissa fall presterade de till och med sämre. AI:n gav ibland svar som inte bara var felaktiga, utan också ologiska och oberäkneliga.

Varför spelar detta roll? Vi litar allt mer på artificiell intelligens, särskilt stora språkmodeller som ChatGPT och Gemini, för att fatta beslut och hantera information. Det är lätt att se dem, och behandla dem, som objektiva, rationella och immuna mot de tankefällor som vi människor så lätt fastnar i. Eftersom språkmodeller i allt högre grad används som verktyg inom forskning, beslutsfattande och rådgivning, riskerar vi att förstärka och sprida mänskliga biases ännu mer, snarare än att minska dem. Om AI:n vi förlitar oss på faller offer för samma dikotoma förenklingsfel som vi människor lätt gör, då är det extra viktigt att vi som använder dem förstår dessa begränsningar.

Det här är en insikt som borde ge oss en tankeställare. AI är inte en helt objektiv och felfri tänkare, utan snarare en reflektion av den mänskliga data den tränats på. Om den datan innehåller mänskliga tankefällor och biases, finns det en påtaglig risk att AI:n inte bara reproducerar dem, utan kanske till och med förstärker dem. Detta är särskilt relevant när vi använder AI i känsliga sammanhang där objektivitet är avgörande, som vid beslutsfattande, rekrytering eller till och med inom forskning.

Framtiden med AI handlar inte bara om att bygga smartare system, utan också om att förstå deras "psykologi" – hur de "tänker", var deras sårbarheter ligger och hur vi kan mildra riskerna för att våra egna tankefällor digitaliseras och sprids i en rasande hastighet. Det är en utmaning som kräver samarbete mellan psykologer, datavetare och alla som använder AI i sin vardag. För först när vi förstår AI:s brister kan vi på riktigt dra nytta av dess potential.

Så nästa gång du frågar ChatGPT eller liknande modeller om råd kring tolkning av resultat, kom ihåg: modellerna är lika sårbara för dikotomania som vi själva. När den säger (med stor självsäkerhet) att världen är svart eller vit, ta på dig de gråfärgade glasögonen och tänk en gång till.

Referens:

McShane, B.B., Gal, D., & Duhachek, A. (2025). Artificial intelligence and dichotomania. Judgement and Decision Making, 20, e23, 1-17.

Magnus Lindwall föreläser om motivation och meningen med mål inför publik

Boka enFÖRELÄSNING

Mindre feelgood -och mer real good

Professor Magnus föreläser för att sprida kunskap om mål, motivation, självkänsla och mänskliga beteenden.
Inga maskerade halvsanningar, inga trendiga metoder som inte håller måttet.
Det är underhållande, det är utmanande
– men framför allt är det ren och skär vetenskap.

Läs mer
Magnus Lindwall
twitterLinkedin