Anthony Ha: Molotovattack mot Sam Altmans hem visar hur berättelser om artificiell intelligens spårar ur
New Yorker-porträtt och hot mot OpenAI hamnar i samma kedja när branschen styrs av rykte och styrelser utan insyn, företagen svarar med mer privat säkerhet i stället för prövbara regler
Bilder
techcrunch.com
En molotovcocktail träffade Sam Altmans hem i San Francisco tidigt på fredagen. Senare samma dag grep polisen en misstänkt vid OpenAI:s huvudkontor efter ett påstått hot om att bränna ned byggnaden. Enligt TechCrunch svarade Altman med ett inlägg på sin webbplats där han menade att ett ”eldfängt” personporträtt av honom i tidskriften New Yorker publicerats i ett klimat av ”stor oro för artificiell intelligens”, och att han underskattat hur mycket offentliga berättelser kan skruva upp temperaturen.
Porträttet, skrivet av Ronan Farrow och Andrew Marantz, bygger på intervjuer med över 100 personer och beskriver Altman som ovanligt målmedveten även med Silicon Valleys mått. Flera källor ifrågasätter hans pålitlighet. I sitt svar medger Altman misstag, bland annat hur han hanterade den interna styrelsekonflikten som 2023 tillfälligt gjorde att han förlorade posten som verkställande direktör. Han beskriver branschens strider som en ”maktens ring”-dynamik, där det upplevda priset är kontroll över artificiell generell intelligens. Hans motmedel är att ”dela tekniken brett” så att ”ingen” kan hålla ringen.
Detta är inte i grunden en dispyt om en enskild chefs temperament. Det är ett problem i politisk ekonomi som företagen bakom artificiell intelligens gjort omöjligt att blunda för: de bygger system med följder för arbetsmarknaden och med säkerhetsmässiga implikationer, men styrningen är till stor del ryktesbaserad och förmedlas via pressporträtt, presentationsmaterial till investerare och interna styrelser med begränsat offentligt ansvarsutkrävande. När påtryckningsmedlet blir näthysteri och fysisk skrämsel, förskjuts incitamenten mot hemlighetsmakeri och privat säkerhet snarare än öppenhet – och mot de företag som har råd att bära den kostnaden.
Händelsen blottlägger också en tyst asymmetri. Om en fabrik betalar för låga löner eller en bank säljer lån på ett vilseledande sätt kan myndigheter kräva in handlingar och utdöma straff. När en så kallad frontmodell tränas, tas i drift och förändras i snabb takt får utomstående ofta veta något om avvägningarna – säkerhetsbegränsningar, resultat från interna stresstester, kommersiella påtryckningar – genom läckor, selektiva avslöjanden eller lång journalistik. Det lämnar en smal kanal mellan allmän oro och företagsbeslut, och den kan lätt korkas igen av persondramatik.
Altmans uppmaning att ”trappa ned retoriken och metoderna” är rimlig, men den understryker också hur beroende branschen är av övertalning som ersättning för bindande regler. New Yorker-porträttet är ingen säkerhetsgranskning; molotovcocktailen är ingen demokratisk tillsyn. Ändå hamnar båda nu i samma orsakskedja och formar hur ett av världens mäktigaste företag inom artificiell intelligens presenterar sig och hur hårt det låser ned sin verksamhet.
På fredagsmorgonen var branden så liten att den snabbt kunde släckas, och ingen skadades. Den mest konkreta förändringen hittills är att OpenAI uppger att man har ökat säkerheten kring sin ledning och sina anläggningar.