Vittne hävdar att OpenAI rundar intern säkerhetsgranskning när GPT-4 lanseras via Bing i Indien
Musks stämning blottlägger hur Microsofts distribution och beräkningskapacitet väger tyngre än styrelse och säkerhetsråd, tillsyn som kan upphävas av partnertryck och personaluppror hamnar till slut i domstol
Bilder
Tim Fernholz
techcrunch.com
En federal domstol i Oakland har i veckan hört vittnesmål om en intern säkerhetsprocess hos OpenAI som, enligt en tidigare anställd, rundades när en version av GPT‑4 lanserades i Indien via Microsofts Bing. Vittnet Rosie Campbell uppgav att hon började i OpenAI:s grupp för beredskap inför allmän artificiell intelligens 2021 och lämnade 2024 efter att gruppen lagts ned, enligt TechCrunch. Vittnesmålet lämnades i en process som Elon Musk väckt, där han vill riva upp OpenAI:s förflyttning från ideell utgångspunkt till ett stort vinstdrivande bolag.
Campbells berättelse tecknar ett välkänt mönster i snabbväxande plattformar: säkerhetsgrupper är lätta att bygga när organisationen är liten och forskningsstyrd, och lätta att skära bort när produktdeadlines och distributionsavtal tar över. Hon sade att OpenAI:s kultur med tiden gick från täta diskussioner om allmän artificiell intelligens och säkerhet till en mer produktinriktad hållning, samtidigt som andra säkerhetssatsningar, såsom gruppen för ”superanpassning”, lades ned ungefär under samma period. Under korsförhör medgav hon att utveckling av avancerade modeller kräver betydande finansiering, vilket i praktiken knyter ”säkerhet” till den som kan skriva de största checkarna för beräkningskraft och kapacitet i datahallar.
Händelsen i Indien är mindre viktig för vad som skedde i en enskild marknad än för vad den antyder om vem som kan köra över vem. Campbell beskrev en säkerhetsnämnd för lanseringar som grindvakt, men som inte fick möjlighet att granska modellen innan den släpptes via en samarbetspartner med egna drivkrafter: Bing behövde konkurrenskraftiga funktioner, och Microsoft kontrollerade central infrastruktur och en stor distributionskanal. TechCrunch rapporterar att samma incident senare anfördes som en av varningssignalerna när OpenAI:s ideella styrelse kortvarigt avsatte verkställande direktören Sam Altman 2023—ett försök till styrning som föll samman inom dagar när personalen slöt upp bakom Altman och Microsoft verkade för att få honom återinsatt.
En annan tidigare styrelseledamot, Tasha McCauley, vittnade om farhågor på styrelsenivå att Altman inte var uppriktig, bland annat genom att inte informera styrelsen om lanseringen av ChatGPT och om möjliga intressekonflikter. Styrelsens formella uppdrag var att utöva tillsyn över det vinstdrivande dotterbolaget; i praktiken berodde dess hävstång på vilken information den fick och på om anställda och kommersiella partners accepterade att tillsynen faktiskt utövades. När en styrningsordning kan omkullkastas av en intern namninsamling och tryck från en extern partner blir domstolen platsen där tillsyn försöks i efterhand, genom utlämnande av handlingar och vittnesmål under ed snarare än genom interna spärrar.
OpenAI har publicerat modellutvärderingar och ett ramverk för säkerhet, men avböjde att kommentera för TechCrunch hur man i dag arbetar med anpassning inför allmän artificiell intelligens. Bolaget har nyligen rekryterat en ny chef för beredskap från konkurrenten Anthropic, ett steg som Altman offentligt beskrev som något som hjälper honom att ”sova bättre i natt”. I Oakland handlar tvisten inte om sömn, utan om vem som konkret har rätt att säga nej när själva affärsmodellen är att lansera.
Vittnet beskrev en säkerhetsnämnd som kunde kringgås genom en lansering via en partner. Den ideella styrelse som var tänkt att övervaka bolaget kunde kringgås genom en veckas personalrevolt.