Pentagon försöker svartlista Claude i hela USA:s försvar
Anthropic stämmer efter att Pete Hegseth pekat ut bolaget som leverantörsrisk sedan företaget sagt nej till inhemsk massövervakning och autonoma dödsvapen, staten hävdar i domstol att varningen saknar verkan medan domaren frågar varför försvarsministern då publicerar den
Bilder
Unwinding the Claude AI tool from US military applications could prove to be a daunting task. Photograph: Koshiro K/Shutterstock
theguardian.com
Det amerikanska företaget Anthropic och USA:s försvarsdepartement drabbade på tisdagen samman i en federal domstol i norra Kalifornien om huruvida Pentagon i praktiken kan svartlista bolagets språkmodell Claude inom militären och bland försvarsmaktens underleverantörer. Enligt The Guardian begär Anthropic ett tillfälligt domstolsbeslut som stoppar åtgärden, efter att försvarsminister Pete Hegseth stämplat bolaget som en ”risk i försörjningskedjan” och president Donald Trump beordrat myndigheter att sluta använda företagets verktyg.
Konflikten ska enligt The Guardian ha börjat med att Anthropic vägrat tillåta att Claude används för inhemsk massövervakning och för helt autonoma dödliga vapensystem. Pentagon svarade med att märka ut en inhemsk leverantör som en risk och avråda entreprenörer från att använda modellen. Därmed gör staten en politisk meningsskiljaktighet till ett vapen i upphandlingen: i stället för att förhandla villkor eller byta produkt försöker man strypa marknadstillträde. Anthropic hävdar att stämplingen orsakar ”oåterkallelig skada”, kan kosta bolaget hundratals miljoner dollar och att regeringen i praktiken bestraffar skyddade yttranden.
Domaren Rita Lin gav uttryck för skepsis mot statens hållning. Hon kallade saken en ”fascinerande offentligpolitisk debatt”, men betonade att domstolen måste pröva lagligheten. Lin ifrågasatte om Pentagon nöjer sig med att avstå från att köpa en produkt, eller om man gått längre och hamnat på straffande mark. När regeringens jurister hävdade att Hegseths inlägg i sociala medier saknar rättsverkan och att entreprenörer inte skulle drabbas av följder om de ignorerade det, tryckte Lin på motsägelsen: ”Vi sade det, men vi menade det inte riktigt.” På frågan varför försvarsministern skulle publicera ett sådant påstående om det inte får någon effekt svarade regeringens ombud: ”Jag vet inte.”
Den praktiska knuten är att Claude redan är inbyggt i statens verksamhet. The Guardian skriver att USA:s regering under det senaste året använt modellen i stor omfattning, även i militära operationer mot Iran, vilket gör en ”nedmontering” till en icke-trivial uppgift. Det beroendet ger staten hävstång åt ena hållet genom hot om uteblivna intäkter och marknadstillträde, men ger samtidigt leverantören hävstång åt andra hållet: myndigheterna måste redovisa hur de tänker ersätta ett verktyg de redan integrerat operativt.
Förhandlingen är ett tidigt steg och Lin har ännu inte beslutat om det tillfälliga stopp som Anthropic begärt. Tills vidare argumenterar Pentagon alltså öppet i domstol för att dess egen offentliga varning inte ska betraktas som bindande.
Hegseths inlägg ligger fortfarande kvar på nätet, och Anthropic ber fortfarande en domare se till att det slutar spela roll.