Teknik

OpenAI släpper in Pentagon på sina språkmodeller i hemligt nät

Altman lovar tekniska skydd som ska stoppa inhemsk massövervakning och helautonoma vapen medan leverantörens spärrar blir del av militär doktrin, avtalet kommer när USA inleder bombningar mot Iran och säkerhet blir en ingenjörsfråga bakom sekretess

Bilder

techcrunch.com

OpenAI har träffat en överenskommelse som gör det möjligt för USA:s försvarsdepartement att använda företagets modeller för artificiell intelligens inne i departementets hemligstämplade nätverk, med vad Sam Altman kallar ”tekniska skyddsåtgärder”. Beskedet kom sent i fredags och har rapporterats av TechCrunch. Det sker bara dagar efter att förhandlingarna mellan Pentagon och Anthropic havererade offentligt, i en konflikt om hur brett militära kunder ska få använda de mest avancerade modellerna.

Den omedelbara frågan är vad ”skyddsåtgärder” betyder när en modell väl är installerad i en hemlig miljö. OpenAI:s offentliga budskap är att man ska bygga ett ”säkerhetslager” och placera ingenjörer hos Pentagon för att hjälpa till att driva systemet, samtidigt som två principer skrivs in: ingen inhemsk massövervakning och ”mänskligt ansvar” för våldsanvändning, även när det gäller autonoma vapensystem. Enligt Fortunes Sharon Goldman ska Altman ha sagt till personalen att om en modell vägrar en uppgift ska staten inte tvinga OpenAI att ändra det beteendet. Det antyder en praktisk kontrollpunkt: leverantörens regelverk blir en del av vapensystemets faktiska brukslära.

Överenskommelsen kommer efter att Pentagon drivit linjen om tillgång för ”alla lagliga ändamål” – en formulering som, enligt Anthropics version, pressar ihop känsliga gränsfall (övervakning, målangivning, autonomi) till en enda upphandlingsruta. Anthropic försökte dra en skarp gräns mot inhemsk massövervakning och helt autonoma vapen, och ska därefter ha hotats med att klassas som en ”risk i leveranskedjan” och i praktiken stängas ute som uppdragstagare, enligt TechCrunch. OpenAI:s avtal ger Pentagon en möjlighet att rädda ansiktet: acceptera samma juridiska miniminivå men lägga själva efterlevnaden på leverantörens tekniska spärrar.

Det upplägget förskjuter makt åt två håll samtidigt. Staten får kapacitet i ett hemligt nät utan att behöva bygga egna modeller och egna driftverktyg från grunden. Leverantören får en privilegierad ställning på en marknad där efterlevnadsformuleringar kan omvandlas till återkommande kontrakt – medan den svåraste delen av ansvarsskyldigheten flyttas in i ett svart lådsystem under sekretess. När ”säkerhet” blir programvarugrindar och vägran att utföra uppgifter blir konflikter i praktiken ingenjörsärenden, inte öppna politiska avvägningar.

Altman säger också att OpenAI vill att Pentagon ska erbjuda samma villkor till alla företag inom artificiell intelligens, vilket i praktiken är ett förslag om en standardmall för militär upphandling. Om den mallen sätter sig blir nästa strid inte om artificiell intelligens ska användas av försvarsapparaten, utan vems spärrar och vems takt i uppdateringar som byggs in i hemligstämplade arbetsflöden.

Altman offentliggjorde överenskommelsen strax innan nyheten kom att USA och Israel hade inlett bombningar mot Iran. Pentagon kommer alltså att föra in ”tekniska skyddsåtgärder” i en skarp operativ miljö, inte i en laboratorieövning.