Media

Över en miljon tips om barnsexövergrepp kopplas till generativ artificiell intelligens

CyberTipline ser bildflöde som skalar snabbare än utredningskapaciteten och syntetiskt material blir svårare skilja från verkliga övergrepp, OpenAI svarar med tätare samarbete med polis och snabbare utlämning av chattloggar när reglerna främst biter på de synliga tjänsterna

Bilder

AI has added a confounding element to child sexual abuse cases for law enforcement. AI has added a confounding element to child sexual abuse cases for law enforcement. nbcnews.com
OpenAI promises Canada tighter safety protocols after ChatGPT flagged a shooter's violent chats but never called police OpenAI promises Canada tighter safety protocols after ChatGPT flagged a shooter's violent chats but never called police the-decoder.com

USA:s nationella centrum för försvunna och utnyttjade barn uppger att dess tipslinje för nätbrott tog emot över en miljon anmälningar kopplade till generativ artificiell intelligens mellan januari och september 2025, enligt NBC News. Utredare säger att materialet spänner från datorbearbetade fotografier av verkliga barn till helt konstgjorda bilder, och att resultaten blir allt svårare att skilja från ”traditionellt” dokumenterat sexuellt övergreppsmaterial på barn.

Rapporteringen beskriver ett välkänt mönster: myndigheternas förmåga att ingripa växer långsamt, medan tillgången på innehåll kan skala upp omedelbart. Hemlandets säkerhetsdepartements utredningsgren, genom sitt centrum för nätbrott, uppgav för NBC News att anmälningar om barnsexuell exploatering som involverar generativ artificiell intelligens under första halvåret 2025 ökade med mer än 600 procent jämfört med 2023 och 2024 tillsammans. Åklagare tvingas samtidigt hantera gränsfall – bilder utan identifierbart offer, eller datamängder där maskintillverkat material ligger sida vid sida med verkliga övergrepp – medan mängden tips vida överstiger antalet utredningar som faktiskt kan öppnas.

Det trycket håller redan på att förändra hur företag som utvecklar artificiell intelligens hanterar privata samtal. Nyhetssajten The Decoder rapporterar att OpenAI i ett brev till Kanadas minister med ansvar för artificiell intelligens, Evan Solomon, lovade ”stramare säkerhetsrutiner” efter en dödlig skolskjutning i British Columbia. Den misstänktes samtal med ChatGPT markerades internt som möjlig verklig våldsrisk; OpenAI granskade kontot, spärrade det, men kontaktade inte polisen. Enligt företagets föreslagna ändringar skulle kriterierna för att lämna ut kontouppgifter till myndigheter breddas, direkta kommunikationskanaler med kanadensisk polis upprättas och upptäckt av kringgåendeteknik förbättras.

De två historierna ligger på samma spricklinje: plattformar förväntas fungera både som utgivare och som angivare. Ju mer verktyg för artificiell intelligens kopplas – av politiker, tillsynsmyndigheter och företagen själva – till skador som exploatering eller våld, desto mer blir ”säkerhet” en driftkedja: automatisk markering, mänsklig granskning, åtgärd mot konto och vidare rapportering. När en sådan kedja väl finns i stor skala blir det svårt för konkurrenter att stå utanför, eftersom den juridiska och anseendemässiga risken med att vara företaget som inte ”eskalerade” blir större än risken för falska träffar.

NBC News noterar att förövare utnyttjar ”öppen källkod-modeller för artificiell intelligens och färdiga plattformar för sexuell exploatering”, vilket påminner om att de mest restriktiva reglerna tenderar att binda de mest synliga företagen. Men efterlevnadskostnaden hamnar ändå på de stora, allmänna tjänsterna som bär vardagliga samtal, eftersom det är dessa system som kan tvingas fram med domstolsbeslut, regleras och offentligt skambeläggas.

OpenAI:s föreslagna lösning är inte en ny förmåga i själva modellen, utan en ny relation: snabbare överlämning från samtalsloggar till polis. Företaget bygger nu den mekanism man tidigare valde att inte använda.