Media

Anthropic anklagar tre kinesiska laboratorier för storskalig olovlig träning på Claude

24 000 falska konton ska ha skrapat fram 16 miljoner svar för destillering trots regionala spärrar, utmålas som säkerhetsfråga och används för krav på amerikanska exportförbud mot avancerade kretsar

Bilder

Anthropic said the "industrial-scale campaigns" of illicit usage underline why the US should impose export controls on advanced AI chips.
                            
                              Joel Saget / AFP via Getty Images Anthropic said the "industrial-scale campaigns" of illicit usage underline why the US should impose export controls on advanced AI chips. Joel Saget / AFP via Getty Images businessinsider.com

Anthropic uppger att bolaget har upptäckt vad det kallar försök i ”industriell skala” från tre stora kinesiska laboratorier för konstgjord intelligens – DeepSeek, MiniMax och Moonshot AI – att olovligen använda Anthropics språkmodell Claude som träningsresurs.

Enligt Business Insider hävdar Anthropic att företagen skapade omkring 24 000 bedrägliga Claude-konton som sammanlagt genererade mer än 16 miljoner utbyten, i strid med användarvillkor och regionala åtkomstbegränsningar. Syftet ska ha varit så kallad destillation: att träna en mindre eller billigare modell på resultaten från en mer kapabel modell.

Destillation i sig är inte kontroversiellt i ingenjörsarbetet kring konstgjord intelligens; det är ett av standardgreppen för att pressa in förmågor i modeller som går att driftsätta. Tvisten gäller i stället tillstånd och möjligheten att upprätthålla regler. När en modell erbjuds via ett programmeringsgränssnitt blir dess utdata en vara som kan tappas ur. En konkurrent behöver varken modellvikter, dataproduktionskedja eller samma beräkningsbudget – det räcker med tillräcklig åtkomst för att ställa frågor i stor skala och spara svaren. Anthropic säger att MiniMax snabbt ändrade taktik när en ny Claude-modell släpptes och inom 24 timmar styrde om nära hälften av sin trafik för att ”fånga förmågor från vårt senaste system”, vilket pekar på en verksamhet organiserad kring lanseringscykler snarare än improviserade försök.

Den dynamiken pressar leverantörer mot åtgärder som liknar grindvaktande mer än produktutveckling. Business Insider rapporterar att Anthropic har byggt system för ”beteendemässiga fingeravtryck”, delar kännetecken med andra företag inom branschen och utvecklar ytterligare motåtgärder. Varje sådant steg höjer kostnaden för anonym åtkomst och ökar värdet av konton kopplade till identitet och övervakning. Ju mer värdefullt utdata blir, desto mer rationellt blir det att betrakta användare som potentiella utvinnare.

Anthropic använder också anklagelsen för att argumentera för politiska åtgärder som begränsar konkurrenters möjlighet att skala upp. Enligt Business Insider menar bolaget att kampanjerna stärker skälen för amerikanska exportkontroller på avancerade kretsar för konstgjord intelligens – en linje som splittrat branschen, där Nvidias chef Jensen Huang hör till dem som varnar för att begränsningar inte kommer att stoppa Kinas utveckling.

De omedelbara insatserna är kommersiella. De långsiktiga är institutionella: ”slutna” modeller som erbjuds som tjänster beter sig som läckande reservoarer. Om utvinning är billig och svår att bevisa får leverantörer antingen acceptera läckaget som en kostnad för verksamheten – eller strama åt åtkomsten tills produkten mer liknar ett licensierat nyttighetsmonopol.

Anthropic säger att man identifierat 24 000 konton och 16 miljoner utbyten. Det är en stor mängd utdata för något som påstås vara ett samtalsgränssnitt, inte en träningsmatning.