Kanadas regering kräver svar av OpenAI efter skjutning i British Columbia
ChatGPT ska ha varnat för misstänkt månader i förväg och politiker vill se anmälningar till polis, frivilligt samarbete omvandlas till privat förbrottsövervakning där felaktiga träffar blir nya personakter
Bilder
globalnews.ca
globalnews.ca
Click to play video: 'Questions over return to learning for Tumbler Ridge students as community grieves'
globalnews.ca
Kanada: OpenAI erwog, Verdächtige Monate vor Amoklauf bei Polizei zu melden
spiegel.de
Kanadas federala regering kräver nu ”svar” från OpenAI efter uppgifter om att den misstänkte i skjutningarna i Tumbler Ridge i British Columbia ska ha blivit uppmärksammad av ChatGPT månader före dådet. Därmed väcks frågan om företaget borde ha varnat polisen.
Enligt Global News sade landets minister med ansvar för artificiell intelligens, Evan Solomon, att Ottawa är bekymrat över rapporter om att ”oroande verksamhet på nätet” kopplad till den misstänkte inte rapporterades till brottsbekämpande myndigheter ”i tid”. British Columbias premiärminister David Eby kallade anklagelserna ”djupt oroande” och uppgav att polisen arbetar för att säkra bevarandeorder för potentiella bevis som innehas av digitala tjänsteföretag, däribland företag inom artificiell intelligens.
Utgångspunkten är lockande för politiker: om ett system för artificiell intelligens ”flaggat” något måste det vara ett spår; om det är ett spår måste någon lastas för att det inte fördes vidare. Men den underförstådda kursändringen är större än en enskild tragedi. Regeringar försöker värva privata plattformar för artificiell intelligens till en infrastruktur för brott innan de begås, där kundstöd och avdelningar för förtroende och säkerhet förvandlas till hjälptrupper åt underrättelseverksamheten.
Global News rapporterar att en representant för British Columbias regering träffade OpenAI:s företrädare den 11 februari, vid ett möte som planerats veckor i förväg om att företaget eventuellt skulle öppna kontor i Kanada. Dagen därpå begärde OpenAI kontaktuppgifter till Kanadas federala ridande polis; provinsen uppger att man vidarebefordrade begäran och satte företaget i kontakt med polisen. Samtidigt säger provinsen att OpenAI inte informerade regeringsföreträdare om att man hade möjliga bevis med koppling till skjutningarna.
Det är så ”frivilligt samarbete” växer okontrollerat. Först bygger ett företag interna system för upptäckt för att minska anseende- och rättsliga risker. Sedan inträffar en uppmärksammad händelse, och folkvalda frågar offentligt varför företaget inte uppträtt som en reglerad aktör inom samhällsviktig verksamhet. Snart blir ”förväntningar” till normer, och normer blir till påbud.
Det tekniska problemet är att säkerhetsmarkeringar från artificiell intelligens inte är rättsliga bedömningar. De är sannolikhetsbaserade klassificeringar härledda ur text, sammanhangsfönster och tumregler i riktlinjer, och i praktiken är de brusiga. Falska träffar är oundvikliga. När rapportering blir förväntad blir den rationella företagsreaktionen att överrapportera: att skicka vidare allt som ens på avstånd kan framstå som misstänkt till brottsbekämpande myndigheter för att undvika politiskt bakslag. Det slösar inte bara utredningsresurser; det skapar också permanenta register över människor vars ”brott” var att skriva fel sak i en samtalsrobot.
Den tyska tidskriften Der Spiegel rapporterar på liknande sätt att OpenAI övervägde att underrätta kanadensisk polis månader före skjutningen. Det avgörande ordet är ”övervägde”: företaget förväntas nu försvara interna, skönsmässiga bedömningar som om det vore en myndighet med polisiära befogenheter.
Rättssäkerheten är den saknade huvudpersonen i detta drama. Om staten vill bedriva förebyggande övervakning bör den tvingas göra det öppet, i lag, med domstolsbeslut och ansvarskedjor, inte genom att lägga ut uppgiften på en privat plattform vars drivkrafter är att skydda affären och vars misstag drabbar användarna. Ironin är att samma regeringar som varnar för ”skador” från artificiell intelligens nu driver på för att göra företagen ansvariga för att förutsäga mänskligt våld och straffa dem när spåkulan visar fel.