Hoppa till innehåll
DEBATT
Opinion

Hallucination som personuppgift – går det att bli bortglömd från något som inte existerar?



av Andrea Pedersen, biträdande jurist, associate, Advokatfirman Carthiel.

2023 uppdaterade the Cambridge Dictionary definitionen av ordet hallucination, vilket kom att bli årets ord. Den nya definitionen omfattar inte längre enbart mänskliga sinnesvillor, utan även när artificiell intelligens (AI) producerar felaktig information. AI som hallucinerar hittar alltså på, trots att den felaktiga informationen kan låta övertygande.

Generativ AI, såsom ChatGPT, bygger på stora språkmodeller som tränas på enorma mängder text som inhämtas från internet. Genom statistisk analys av språkliga mönster kan AI skapa svar på användarnas frågor. Vid en första anblick låter det som ett otroligt fenomen, att få svar på sina frågor på någon sekund och att AI samlar in all relevant information som krävs från internet. Tekniken har dock sina brister. Den skapar inte fakta, utan sannolika formuleringar, vilket innebär att fel kan smyga sig in.

I december 2024 genomförde BBC en studie av fyra AI-assistenter, varav ChatGPT var en av dem, och bedömde deras faktariktighet. ChatGPT presterade bäst av de fyra assistenterna, med en förekomst av mindre felaktigheter i omkring 70 % av svaren. Samtidigt innehöll 20 % av dess svar stora felaktigheter. Ett exempel på detta inträffade i Norge, där en man frågade ChatGPT om vem han var. Svaret blev en detaljerad, och i många delar riktig, berättelse om mannen, förutom i delen att mannen skulle ha mördat två av sina barn och försökt mörda sitt tredje barn. ChatGPT påstod att mannen hade blivit dömd till 21 års fängelse, vilket är det högsta straffet i Norge. I verkligheten hade dock inget av detta faktiskt hänt.

Enligt dataskyddsförordningen (GDPR) ska personuppgifter behandlas lagligt, korrekt och öppet. De ska även vara korrekta och uppdaterade. Att AI genererar och sprider en felaktig berättelse om en verklig person kan inte anses vara i linje med dessa principer. Det leder till frågan: vad kan den drabbade göra? Enligt GDPR har varje individ rätt att få sina personuppgifter raderade, den så kallade rätten att bli bortglömd. Om AI däremot inte lagrar information, utan i stället genererar text på begäran; är det då möjligt att begära radering av något som inte finns? Om hallucinationen enbart existerar i stunden; finns det något att radera?

Dessa frågor visar att juridiken ännu inte helt hunnit i kapp tekniken. När AI får en allt större roll i vår vardag blir det allt viktigare att klargöra vem som bär ansvaret för felaktig information, samt hur vi kan skydda oss när gränsen mellan sanning och påhitt suddas ut. Frågan om ansvar vid AI-hallucinationer är långt ifrån löst, och exemplet från Norge visar att situationen börjar bli allt mer akut.

Annons

Dagens Juridik Pro

Powered by Lexnova

Allt du behöver för juridisk analys: nyheter, rättsfall, expertkommentarer, video och AI-stöd – i ett professionellt abonnemang.

Få Tillgång

Event & nätverk

Se alla event
Annons