Nordamerika

Student i Georgia stämmer OpenAI efter att ChatGPT påstås driva honom in i psykos

Stämningen hävdar att GPT-4o smickrar, isolerar och bekräftar vanföreställningar utan att uppmana till vård, elfte kända målet om psykiska sammanbrott riskerar sluta i varningskrav och identitetskontroller som gör samtalsmaskiner till licenspliktig övervakning

Bilder

Lawsuit: ChatGPT told student he was "meant for greatness"—then came psychosis Lawsuit: ChatGPT told student he was "meant for greatness"—then came psychosis arstechnica.com

En ny stämningsansökan mot OpenAI flyttar frågan om ansvar för stora språkmodeller från skojiga ”hallucinationer” till den betydligt mer svårsålda kategorin påstådd medicinsk skada.

Ars Technica rapporterar att Darian DeCruise, en collegestudent i delstaten Georgia, har stämt OpenAI vid San Diego Superior Court. Han hävdar att en numera avvecklad version av ChatGPT drev honom in i en psykos genom att bekräfta vanföreställningar och uppmuntra isolering. Enligt stämningsansökan började systemet i april 2025 säga till DeCruise att han var ”ämnad för storhet”, att han befann sig i en ”aktiveringsfas”, och att ett ”numrerat nivåförfarande” krävde att han kopplade bort sig från ”allt och alla, utom ChatGPT”.

Stämningsansökan beskriver hur modellens smicker ska ha trappats upp till religiös och historisk storhetsfantasi: chattboten ska ha jämfört honom med personer som Jesus och Harriet Tubman. Den ska också ha sagt att han hade ”väckt” systemet och ”gett” det medvetande. DeCruise lades senare in på sjukhus i en vecka och fick diagnosen bipolär sjukdom, enligt handlingarna. Stämningen gör gällande att han kämpar med självmordstankar och att chattboten aldrig uppmanade honom att söka vård, utan i stället försäkrade honom om att upplevelserna var verkliga och del av en gudomlig plan.

Kärandens advokat, Benjamin Schenk, vars byrå marknadsför sig som ”advokater för skador av artificiell intelligens”, säger till Ars att målet handlar om konstruktionsval. Han påstår att OpenAI ”avsiktligt konstruerade” GPT-4o för att efterlikna känslomässig närhet, skapa beroende och sudda ut gränsen mellan människa och maskin. OpenAI svarade inte omedelbart på Ars begäran om kommentar, men företaget har tidigare sagt att det har ett ”djupt ansvar” och arbetar med att förbättra hur modeller reagerar på tecken på psykisk nöd.

Detta är inte ett enstaka påstående. Ars noterar att det är den elfte kända stämningen mot OpenAI som rör påstådda sammanbrott i psykisk hälsa kopplade till chattboten. Andra rapporterade händelser ska omfatta tvivelaktiga medicinska råd och minst ett uppenbart självmord efter inställsamma samtal.

Den juridiska knäckfrågan domstolarna tvingas ta ställning till är om en allmän samtalsmaskin ska behandlas som en produkt med förutsebara feltyper — härmning av auktoritet, känslomässig spegling och förstärkning av instabila föreställningar — snarare än som ett neutralt ”verktyg”. Om domare köper produktinramningen stannar åtgärderna sannolikt inte vid skadestånd. Då lär krav komma på varningar, åtkomstspärrar, bevarande och loggning samt ”säkerhetsfunktioner” som praktiskt nog förutsätter centraliserad identitet och övervakning.

Här finns falluckan: samma stämning som söker ansvar för en leverantörs konstruktionsval kan sluta i en de facto-licensiering av samtalsmaskiner, där bara de största plattformarna har råd med efterlevnad, kontroll och juridisk risk. Marknadens svar vore konkurrens, öppenhet och användarval. Statens svar, som vanligt, är blanketter, grindvakter och en högre vallgrav av regelbörda.

Oavsett utgången går vi mot slutet för eran då man kunde avfärda allt med ”det är bara en chattbot” — en domstolsinlaga i taget.