Nordamerika

Domare stoppar Pentagon från att svartlista Anthropic

Trumpadministrationen stämplas som rättsstridig när Claude-leverantör kallas leverantörskedjerisk utan rättssäker process, avtalsvillkor om vapensystem och övervakning blir plötsligt säkerhetshot

Bilder

Anthropic CEO Dario Amodei looks smiles as he appears to be walking. Anthropic CEO Dario Amodei looks smiles as he appears to be walking. nbcnews.com
Anthropic wins injunction against Trump administration over Defense Department saga | TechCrunch Anthropic wins injunction against Trump administration over Defense Department saga | TechCrunch techcrunch.com

En federal domare i Kalifornien har beordrat Trumpadministrationen att backa från ett försvarsdepartementalt direktiv som stämplade företaget Anthropic som en ”risk i leveranskedjan” och uppmanade myndigheter att bryta banden med bolaget. Domaren Rita F. Lin utfärdade på torsdagen ett föreläggande i federal domstol i San Francisco och slog fast att statens agerande sannolikt var olagligt och saknade rättssäker handläggning, enligt NBC News. Anthropic, som utvecklar chattroboten Claude och är en stor leverantör av verktyg för konstgjord intelligens till staten, hade stämt efter att försvarsminister Pete Hegseth i slutet av februari offentliggjort klassningen.

Stämpeln är mindre intressant för vad den säger om Anthropic än för hur den fungerar som maktmedel. ”Risk i leveranskedjan” är normalt ett upphandlingsverktyg riktat mot utländsk maskinvara, telekomleverantörer eller komponenter som kan manipuleras. När den tillämpas på ett amerikanskt programvaruföretag på grund av avtalsvillkor blir den ett snabbspår för att straffa en leverantör utan att behöva visa avtalsbrott, bedrägeri eller tekniskt intrång. NBC News uppger att Lin fann ”ingen legitim grund” för att dra slutsatsen att Anthropics krav på begränsningar i användningen gjorde bolaget till en potentiell sabotör, och hon noterade bristen på ”meningsfull förvarning” innan staten offentligt försökte stänga ute företaget.

Den egentliga konflikten handlar om vem som kontrollerar användningen i nästa led. Anthropic har drivit på för begränsningar av militära och underrättelserelaterade tillämpningar, bland annat förbud mot autonoma vapen och omfattande inhemsk massövervakning, medan försvarsdepartementet motsatte sig sådana inskränkningar. På en normal marknad byter en kund som ogillar villkoren leverantör och betalar kostnaden för bytet. I Washingtons marknad kan kunden dessutom påverka standarder, säkerhetsprövningar och behörighetsregler – och sedan presentera resultatet som en neutral ”riskbedömning”.

Detta skapar förutsägbara drivkrafter för påtryckningar. Konkurrenter gynnas om staten kan rensa bort en rival med en administrativ etikett i stället för genom pris eller prestation. Myndigheter gynnas eftersom säkerhetsklassningar och upphandlingsförbud är svåra att snabbt angripa, och de flyttar striden från avtalsvillkor till lojalitetsretorik. Anthropic gynnas av att driva processen, eftersom stämpeln hotar inte bara framtida intäkter utan även anseende hos andra större företagskunder som ofta behandlar federala säkerhetssignaler som en genväg till ”tillit”.

Lins beslut tvingar inte försvarsdepartementet att fortsätta köpa från Anthropic; det stoppar bara staten från att använda mekanismen ”risk i leveranskedjan” som en generell svartlistning medan målet pågår. Domaren sköt dessutom upp verkställigheten av sitt eget beslut i en vecka för att ge utrymme för ett överklagande, enligt NBC News.

Anthropic har byggt sin affär på att vara leverantören av konstgjord intelligens som är beredd att säga ”nej” till vissa användningar. Försvarsdepartementets försök att behandla den vägran som ett säkerhetshot stoppades på torsdagskvällen av ett föreläggande från federal domstol.