Anthropic slopar löftet att pausa utveckling när säkerheten inte hänger med
Konkurrens och politiskt motstånd mot reglering får bolaget att skriva om sin Responsible Scaling Policy, försiktighet fungerar som varumärke tills den börjar kosta marknadsandelar
Bilder
Anthropic skrotar nu den mest utmärkande delen av sitt tidiga ”säkerhetslöfte” när bolaget anpassar sig till en snabbare och hårdare marknad för konstgjord intelligens. Enligt Business Insider säger företaget att det inte längre tänker binda sig vid att pausa uppskalning eller skjuta upp lansering av nya modeller när förmågeökningar springer ifrån de egna säkerhetsåtgärderna – en princip som sedan 2023 års policy för ansvarsfull uppskalning skiljt Anthropic från konkurrenterna.
Förändringen motiveras i praktiska termer. Anthropics forskningschef Jared Kaplan säger till Time att ensidiga åtaganden inte längre är rimliga ”om konkurrenterna rusar fram”, och i ett inlägg på bolagets egen webbplats pekar man på skärpt konkurrens och ett ”regleringsfientligt politiskt klimat” som skäl att skriva om policyn. Den reviderade ramen behåller ett snävare löfte om att fördröja utveckling eller lansering av en ”mycket kapabel” modell, men endast under mer begränsade villkor.
Skiftet blottlägger en förutsägbar svaghet i frivillig självbehärskning på marknader där vinsterna är osäkra men nackdelarna omedelbara. Ett löfte om att sakta ned är lättast att hålla när det fungerar som varumärkesbygge – en försäkran till kunder, samarbetspartner och politiker – och när alternativkostnaden är hanterlig. När kapplöpningen hårdnar blir samma löfte ett självvalt handikapp som konkurrenter kan utnyttja. I det läget slutar ”säkerhet” att vara en särskiljande egenskap och börjar se ut som uteblivna intäkter.
Anthropics förklaring pekar också på en andra dynamik: bolaget menar att de högsta risknivåerna i deras ramverk inte kan hållas i schack av ett enskilt företag. Det är ett ovanligt öppet erkännande av gränserna för bolagsstyrning i utvecklingen av de mest avancerade modellerna: även om ett företag stannar gör inte systemet det. Resultatet blir ett välbekant mönster där företag fortsätter att efterfråga statliga regler, samtidigt som de anpassar sig till att reglerna kanske inte kommer i tid – eller kommer i former som gynnar etablerade aktörer med stora avdelningar för regelefterlevnad.
Den praktiska frågan är inte om företag i abstrakt mening föredrar säkerhet, utan vem som betalar för den. Långsammare lansering lägger kostnaderna direkt på utvecklaren, medan många av de möjliga skadorna – missbruk, fel längre ned i kedjan eller systemeffekter – sprids över användare, drabbade och offentliga institutioner. Utan tvingande standarder som delas över hela sektorn riskerar det företag som håller hårdast i den interna bromsen att bli det enda som tappar marknadsandelar.
Anthropic byggde sin offentliga identitet på att vara det försiktiga alternativet till OpenAI, bland annat genom det tidiga beslutet att vänta med att släppa Claude 2022. Nu signalerar bolaget att det i dagens kapplöpning inte tänker vara den som först slutar träna sina modeller.