Pentagon utmålar Anthropic som säkerhetsrisk i domstol
Försvarsdepartementet vill stoppa bolagets kontraktstalan och flytta tvisten från yttrandefrihet till upphandlingsrätt, statens villkor blir inträdesbiljett till försvarsmarknaden och regelefterlevnad slår modellprestanda
Bilder
Försvarsdepartementet i USA har i en inlaga stämplat Anthropic som en ”betydande risk” för nationell säkerhet och försörjningskedjan för försvaret, i ett försök att få AI-bolagets kontraktstvist avvisad. Enligt Business Insider hävdar departementet att Anthropics vägran att acceptera statliga avtalsvillkor inte är skyddat yttrande, och att tvisten hör hemma i upphandlingsrätten snarare än i den amerikanska grundlagens första tillägg.
Det aktuella målet är snävt – en leverantör och ett avtal – men ordvalet signalerar hur Washington tänker behandla leverantörer av den mest avancerade AI-tekniken. När ett AI-laboratorium väl dras in i försvarsupphandling upphör relationen att likna ett vanligt köp av företagsprogramvara och börjar mer likna tillsyn på armlängds avstånd: skyldigheter att följa regelverk, revisionsrätt, kontroll av underleverantörer, rapportering av incidenter och begränsningar för var data och modellvikter får lagras eller nås. Exportkontroller och tal om ”försörjningskedja” drar dessutom in frågor om var kretsar köps in, beroenden till molntjänster och granskning av utländsk personal. Inget av detta är märkligt i försvarskontrakt; det nya är att tillämpa det på bolag vars kärntillgång är en snabbt föränderlig modellkedja och vars främsta konkurrensfördel ofta är hastighet.
Det skapar en sorteringsmekanism. Stora laboratorier med jurister, säkerhetsprövad personal och en hel apparat för regelefterlevnad kan svälja statens villkor och använda dem som en vallgrav mot konkurrenter. Mindre aktörer och företag nära öppenkods-världen ställs inför valet att bygga ett byråkratiskt hölje runt verksamheten eller avstå från marknadens största köpare. Staten, å sin sida, får hävstång utan att stifta nya AI-lagar: den kan kräva insyn genom avtalsklausuler och därefter göra ”förtroende” till ett villkor för framtida tilldelningar.
Här finns också ett problem med informationsasymmetri. Pentagon kan inte enkelt kontrollera påståenden om modellsäkerhet enligt sin egen tidtabell, men kan driva igenom process: pappersarbete, intyganden och åtkomsträttigheter. Det flyttar ”säkerhet” från mätbara utfall till frågan om vem som kan visa upp rätt kontrollsystem. När staten blir den kund som sätter normen skiftar drivkrafterna från att bygga verktyg som fungerar till att bygga verktyg som går att certifiera.
Än så länge avgörs tvisten i domstolshandlingar snarare än på upphandlingskontor. Pentagon har ändå satt sin hållning på pränt: i försvars-AI kan rätten att sälja komma att bero mindre på modellernas prestanda än på viljan att skriva under statens villkor.