Detta avsnitt uppdaterades 10 april 2025.
Nedan diskuteras fyra centrala aspekter av källkritik i förhållande till AI: hallucinationer, "black box"-problemet, risken för bias och fördomar i AI-genererade svar, samt förekomsten av desinformation skapad med hjälp av AI.
AI-system, särskilt stora språkmodeller som ChatGPT, kan generera falsk eller missvisande information, ett fenomen som ofta kallas "hallucinationer". Hallucinationer kan delas in i två typer:
Intrinsikala hallucinationer: Dessa uppstår när AI genererar information som inte överensstämmer med innehållet i använda källor. Exempel kan vara felaktigt återgivna citat eller felaktiga summeringar av större texter.
Extrinsikala hallucinationer: Dessa sker när AI presenterar (sanna eller falska) uppgifter som inte finns i källorna som åberopas.
Även AI-verktyg som baserar svaren på vetenskapliga artiklar kan hallucinera (t.ex. Scopus AI). Språkmodellen kan lägga till information som inte fanns i artiklarna – t.ex. för att fylla i luckor, koppla samman begrepp, eller skapa övergångar. Den kan också göra tolkningar eller generaliseringar som inte är exakt vad artiklarna säger.
För att hantera detta bör användare som regel verifiera AI-genererad information genom att dubbelkolla mot primära och tillförlitliga källor.
En annan företeelse hos generativ AI är det så kallade "black box"-problemet. Termen "black box" används för att beskriva system vars interna processer inte är transparenta och/eller förståeliga för användaren. I AI-sammanhang innebär detta att vi kan se den data som matas in i modellen och resultatet som genereras, men vi vet inte hur modellen kommer fram till sina svar. Detta skapar problem för källkritisk granskning, eftersom AI kan generera trovärdiga men potentiellt felaktiga eller missvisande svar utan att tydliggöra sitt ”resonemang” på ett sätt som hade gjort det möjligt att identifiera bristerna. Vi kan heller inte vara säkra på att korrekta svar är korrekta av rätt anledning, eller om det är helt andra faktorer som har genererat ett lyckat output.
AI-system tränas på stora mängder data, och om denna data innehåller bias eller fördomar kan AI återskapa och förstärka dessa i sina svar. Bias kan också uppstå i samband med programmering och interaktion med användare. Nedan kan du läsa om dessa tre varianter av bias kopplade till generativ AI.
Om AI tränas på data som innehåller gamla stereotyper och maktstrukturer riskerar den att återge dessa i sina svar. Dessutom kan historisk kunskap som senare visat sig vara felaktig finnas med i datan och påverka AI:ns slutsatser, vilket kan bidra till att sprida missvisande eller inaktuell information. Bias kan också uppstå om vissa kulturer, grupper eller perspektiv är underrepresenterade eller helt saknas i träningsdatan, vilket gör att AI:n fortsätter att osynliggöra dessa.
Utöver träningsdata kan bias uppstå genom de algoritmiska beslut som programmerare och utvecklare tar, ibland helt omedvetna om deras problematiska inverkan. Val av optimeringsmål, viktning av faktorer och filtreringsmetoder kan alla påverka vilken information som lyfts fram och hur den presenteras. Till exempel kommer en AI-sökmotor som optimerar för engagemang snarare än objektivitet att gynna sensationella eller kontroversiella artiklar eftersom de tenderar att generera fler klick, vilket leder till att missvisande eller alarmistisk information prioriteras över mer nyanserade källor.
Även när träningsdata innehåller god representation och algoritmer gjorts förhållandevis opartiska, kan sättet användare interagerar med AI-systemet skapa eller förstärka bias. Detta kan ske genom så kallade ’feedbackloopar’, där AI-systemet lär sig från användarinteraktioner och förstärker befintliga fördomar, eller genom partiska frågor och sökningar från användarna.
En annan stor källkritisk utmaning med AI är verktygens potential att skapa och sprida desinformation. AI-teknologier kan generera övertygande texter, bilder, ljud och videor som är fabricerade men framstår som autentiska. Något som kan användas för att sprida falska nyheter, och påverka samhällsdebatten i enlighet med upphovspersonens agenda.
Särskilt problematiskt är AI-genererade bilder och videor, så kallade ’deepfakes’, där individer kan framställas säga eller göra saker som aldrig har hänt. Sådana tekniker kan användas för att underminera förtroende för offentliga aktörer, skapa falska vittnesmål eller manipulera historiska fakta.
På grund av detta måste traditionella metoder för källkritik kompletteras med nya strategier för att identifiera AI-genererad desinformation. Några viktiga åtgärder inkluderar:
Att uppmana användare att kontrollera om bilder eller videor kan verifieras genom omvänd bildsökning. Om du vill kan du läsa mer om hur detta går till på Internetstiftelsens hemsida.
Att ifrågasätta information utan tydliga källhänvisningar, särskilt när den framstår som sensationell eller kontroversiell.
Att använda faktagranskningstjänster och andra etablerade verifieringsmetoder för att säkerställa informationens autenticitet. Läs mer om Googles faktagranskningsverktyg på Googles egna sidor, samt Wikipedias lista över globala, regionala, och opålitliga faktagranskningstjänster.
Om du vill läsa mer om AI och källkritik, kan du läsa Internetstiftelsens artikel: Så påverkar AI källkritiken på nätet