Nordamerika

OpenAI överväger polisanmälan mot användare före skolskjutning i Kanada

Företaget tippar ridande polisen först efter dådet medan Amazon Web Services slås ut två gånger av egna verktyg, säkerhetssystem blir privat förpolisning och lyckas ändå stänga ned plattformen

Bilder

OpenAI banned Jesse Van Rootselaar’s account in June 2025 for violating its usage policy. Photograph: Jaque Silva/NurPhoto via Getty Images OpenAI banned Jesse Van Rootselaar’s account in June 2025 for violating its usage policy. Photograph: Jaque Silva/NurPhoto via Getty Images theguardian.com

OpenAI, företaget som marknadsför sig som världens mest hjälpsamma automatiska textifyllnad, uppger att man övervägde att kontakta kanadensisk polis om en användare månader innan denne genomförde en av Kanadas värsta skolskjutningar på flera år. Samtidigt rapporteras Amazons molnavdelning ha drabbats av två avbrott som utlöstes av företagets egna verktyg för konstgjord intelligens. Tillsammans tecknar historierna en utveckling: ”säkerhetssystem” som i det tysta glider över i privat polisiär infrastruktur – och som ändå är sköra nog att kunna slå ut plattformarna de är tänkta att skydda.

Enligt nyhetsbyrån Associated Press via The Guardian flaggade OpenAI kontot som tillhörde Jesse Van Rootselaar i juni 2025 genom sina system för att upptäcka missbruk, med motiveringen ”främjande av våldsamma aktiviteter”. Företaget stängde av kontot för brott mot användningsreglerna. Man diskuterade också om ärendet skulle hänskjutas till Royal Canadian Mounted Police (RCMP), men kom fram till att aktiviteten inte nådde företagets tröskel: en ”omedelbar och trovärdig risk för allvarlig fysisk skada”.

Efter skjutningen i Tumbler Ridge i British Columbia – där polisen uppger att den 18-årige gärningsmannen dödade åtta personer och senare tog sitt liv – säger OpenAI att man på eget initiativ kontaktade RCMP med information om den misstänktes användning av ChatGPT. Enligt The Guardian var det Wall Street Journal som först rapporterade om OpenAI:s uppgifter.

Problemet ur ett fri- och rättighetsperspektiv är inte i första hand att ett privat företag kan lämna tips till polisen; det är drivkrafterna och ogenomskinligheten. OpenAI:s interna standard – omedelbar, trovärdig, allvarlig skada – låter som ett seminarium i konstitutionell rätt. Det är ett beslut i en produktpolicy, fattat av anställda som varken är domare eller nämndemän, med hjälp av signaler som utomstående inte kan granska. Om företaget hänskjuter för frikostigt blir det en privatiserad angiverilinje för ”före brottet”. Om det hänskjuter för restriktivt får det skulden i efterhand. Oavsett vilket förväntas allmänheten lita på en svart låda.

Den svarta lådan skruvas dessutom fast i samhällsviktig infrastruktur. Zero Hedge uppger, med hänvisning till en rapport, att Amazon Web Services ”slogs ut två gånger” av sina egna verktyg för konstgjord intelligens – ett exempel på automatiserade riskkontroller som kan misslyckas i storskalig drift genom att stänga ned för mycket. Även om detaljerna är knapphändiga (Zero Hedge är inte direkt en protokollförd ändringsbegäran), är riktningen trovärdig: mer automatisering i driften med konstgjord intelligens innebär fler enskilda algoritmiska felpunkter.

Samma bransch som lobbar för ”reglering av konstgjord intelligens” bygger samtidigt system som redan beter sig som regelgivare – de avgör vem som är misstänkt, vad som räknas som omedelbart, och när saken ska lyftas till staten. Under tiden styrs molnet som driver halva internet i allt högre grad av programvara som, en dålig dag, kan kontrollera sig själv in i ett avbrott.

I längden är frågan inte om konstgjord intelligens kan upptäcka ett hot, eller om den kan hålla ett datacenter stabilt. Frågan är vem som får definiera ”hot”, enligt vilken ordning, och vad som händer när de automatiserade väktarna börjar dra ur kontakten – för användare eller för själva infrastrukturen.