Teknik

Google planerar egen minnesaccelerator för datacentren

Samtalar med Marvell om två nya specialkretsar för att minska beroendet av Broadcom och Nvidias flaskhalsar, siktar på nära två miljoner enheter innan konstruktionen ens är klar

Bilder

Google plans nearly two million new AI chips as it turns to Marvell for custom designs Google plans nearly two million new AI chips as it turns to Marvell for custom designs the-decoder.com

Google för samtal med Marvell Technology om att ta fram två nya specialiserade kretsar för företagets datahallar, rapporterar The Information enligt The Decoder. Det handlar dels om en minnesbehandlingsenhet som ska arbeta sida vid sida med Googles egenutvecklade tensorbehandlingsenheter, dels om en ny tensorbehandlingsenhet särskilt inriktad på slutledning. Projektet uppges kunna skalas snabbt: Google sägs planera nära två miljoner minnesbehandlingsenheter, och konstruktionen väntas bli färdigställd nästa år.

Draget är både en kapacitetsplan och ett stycke leverantörspolitik. Google använder redan egenutvecklade kiselkretsar för att minska sin sårbarhet för Nvidias prissättning och leveransbegränsningar, men bolaget är samtidigt starkt beroende av Broadcom för konstruktionsarbete kring tensorbehandlingsenheterna. The Decoder noterar att Broadcom tar ut avgifter per producerad enhet, och att samtalen med Marvell framställs som ett sätt att minska det beroendet – samtidigt som Broadcom sitter kvar genom ett avtal som löper till 2031.

En serie om två miljoner enheter är inget experiment i liten skala; det är ett vad om att arbetslaster för artificiell intelligens fortsätter växa även när modellträning blir dyrare och mer elintensiv. Att dela upp arbetet mellan beräkningstunga tensorbehandlingsenheter och minnesinriktade acceleratorer är en praktisk reaktion på en flaskhals som uppstår när modeller väl används i stor skala: att betjäna ”färdiga” modeller begränsas ofta mer av dataflytt än av själva räknearbetet. En tensorbehandlingsenhet för slutledning antyder också att Google förbereder sig för en verklighet där den löpande kostnaden för att besvara frågor – svarstid, elförbrukning, minnesbandbredd – väger lika tungt som engångskostnaden för träning.

Marvells roll visar samtidigt hur hårdvarustapeln för artificiell intelligens koncentreras till ett litet antal konstruktörer och tillverkare. The Decoder pekar på att Marvell konstruerade en slutledningskrets för Groq, vars teknik Nvidia licensierade i slutet av 2025 för 20 miljarder dollar och senare visade upp Groq-baserade ställverkssystem på GTC 2026. Branschens ”alternativ” till Nvidia tenderar ofta att rinna tillbaka in i samma kretslopp: de mest framgångsrika konstruktionerna blir uppköpta, licensierade eller kopierade in i den dominerande leverantörens produktlinje.

För Google handlar egenutvecklade kretsar inte bara om hastighet. Att äga färdplanen innebär att styra vilka arbetslaster som blir tillräckligt billiga för att kunna erbjudas som produkter – och vilka som förblir för kostsamma att betjäna. Om planen håller kan Googles nästa steg i uppskalning av artificiell intelligens mätas mindre i nya modeller och mer i hur många slutledningsförfrågningar företagets datahallar har råd att besvara per sekund.

Det rapporterade målet är nära två miljoner enheter innan konstruktionen ens är färdig.