OpenAI skriver in förbud mot inhemsk massövervakning i Pentagonavtal
Personalupprop och gatuprotester tvingar Sam Altman kräva att underrättelsetjänster som NSA bara får tillgång efter avtalsändring, formuleringen inte avsiktligt och enligt gällande lag flyttar striden till vem som måste skriva under när övervakningen ändå sker
Bilder
OpenAI säger att man ska ändra ett nyligen offentliggjort kontrakt med USA:s försvarsdepartement efter att anställdas namninsamlingar och gatuprotester under helgen väckt oro för att bolagets modeller kan användas för omfattande inhemsk övervakning.
I ett inlägg på X, citerat av Business Insider, uppgav verkställande direktören Sam Altman att bolaget lägger till en formulering som slår fast att bolagets konstgjorda intelligens, i linje med amerikansk lag inklusive fjärde tillägget, ”inte avsiktligt ska användas för inhemsk övervakning” av amerikanska personer. Altman skrev också att försvarsdepartementet bekräftat att OpenAI:s tjänster inte ska användas av ”krigsunderrättelsetjänster” som den nationella säkerhetsmyndigheten, utan en efterföljande ändring av kontraktet.
Affären visar var den verkliga hävstången finns när leverantörer av konstgjord intelligens säljer in till nationella säkerhetsupphandlingar. Produkten är inte bara tillgång till modeller på hemligstämplade nät, utan även ansvarsgränsen för hur förmågan får användas. Anthropic, OpenAI:s närmaste konkurrent, har offentligt dragit ”röda linjer” mot massövervakning och helt självstyrande vapen. Enligt Business Insider kom Pentagonavtalet mitt i en tvist mellan departementet och Anthropic, och dagen efter amerikanska angrepp mot Iran skärpte allmänhetens uppmärksamhet på militär användning av konstgjord intelligens.
Altman beskriver revideringen som ett kommunikationsmisslyckande: bolaget borde inte ha ”hastat” fram avtalet och det såg ”opportunistiskt och slarvigt” ut. Men de detaljer han lyfter är i grunden avtalsvillkor: vilka myndigheter som får använda systemet, för vilket syfte och genom vilken ändringsprocess. Det spelar roll därför att kostnaden vid missbruk – politisk motreaktion, rättsliga prövningar och varumärkesskada – inte stannar inom statens perimeter. Den rinner in i leverantörens personal, dess konsumentvarumärke och dess möjlighet att fortsätta sälja till andra stater och till reglerade branscher.
Marknadsreaktionen i sektorn syns också via arbetskraften. Business Insider rapporterar att nära 500 anställda vid OpenAI och Google undertecknat ett öppet brev som stödjer Anthropics linje. Det påminner om att i en hårt ansträngd marknad för kompetens blir internt missnöje en kostnadspost som upphandlare kan bortse från men som företagsledningar inte kan ignorera. Samma logik gäller kunder: ”politiska skyddsräcken” är delvis ett löfte om regelefterlevnad som säljs vidare till köpare som behöver en trovärdig försäkran om att införandet av en modell inte drar in dem i framtida utredningar.
OpenAI:s formulering är snäv – ”inte avsiktligt” använd för inhemsk övervakning – och hänger på ”tillämpliga lagar”, som tolkas av samma institutioner som vill ha verktygen. Bolaget pekar också på en mekanism för ändringsstyrning: användning för underrättelser skulle kräva en kontraktsändring. Det flyttar frågan från huruvida övervakning sker till vem som måste skriva under pappren när den gör det.
På tisdagen är nya protester planerade, enligt Business Insider. Den kontraktstext OpenAI nu lägger till är, för tillfället, det mest konkreta resultatet som någon har sett.