Media

Vercel får intrång via OAuth efter att anställd kopplar Context AI till företagskonto

Angripare tar över Google-identitet och kommer åt okrypterade inloggningsuppgifter samt kundnycklar, vd uppmanar rotera även icke känsliga hemligheter när ett enda verktyg öppnar dörren för hundratals användare

Bilder

Zack Whittaker Zack Whittaker techcrunch.com
Anthropic's Mythos AI model sparks fears of turbocharged hacking Anthropic's Mythos AI model sparks fears of turbocharged hacking arstechnica.com

Ett intrång hos webbhotellföretaget Vercel började med att en anställd kopplade en app från Context AI till ett företagskonto hos Googles kontotjänst. Det gav angripare ett första fotfäste som, enligt Vercel, ledde till att kunduppgifter stals. Företaget uppger att de stora öppna projekten Next.js och Turbopack inte påverkades, men att man har kontaktat kunder vars applikationsdata och nycklar röjts. Verkställande direktören Guillermo Rauch uppmanade kunder att byta nycklar och inloggningsuppgifter, även sådana som märkts som ”inte känsliga”.

Enligt TechCrunch utnyttjade angriparna en anslutning av typen auktorisering som skapats när Context AI-appen hämtades. Via den kunde de ta över den anställdes Google-konto och därefter nå delar av Vercels interna system, inklusive inloggningsuppgifter som inte var krypterade. Händelsen illustrerar ett återkommande mönster: det som i efterhand kallas ”säkerhetsincident” handlar ofta i praktiken om identiteter. När en app får agera på användarens vägnar räcker det att stjäla en behörighetsnyckel för att ärva alla rättigheter användaren redan har – utan att behöva knäcka lösenord eller ta sig förbi flerfaktorskydd.

Att Vercel varnar för att intrånget kan beröra ”hundratals användare i många organisationer” pekar på en välkänd kedjereaktion i dagens programvaruekonomi. En liten leverantör säljer bekvämlighet, en större plattform väver in den i arbetsflöden, och längst ned i kedjan upptäcker kunder sin exponering först när nycklar och uppgifter börjar cirkulera på kriminella forum. Säljaren av Vercel-data påstod koppling till ShinyHunters, ett namn som förknippats med intrång i molntjänster och databaser, men ShinyHunters förnekade inblandning till BleepingComputer, rapporterar TechCrunch.

Context AI, som bygger utvärderings- och analysverktyg för modeller inom artificiell intelligens, bekräftade separat ett intrång i mars som rörde konsumentappen ”Context AI Office Suite”. Företaget uppgav att angripare sannolikt kommit över behörighetsnycklar för vissa konsumentanvändare. Man säger sig då ha underrättat en kund, men bedömer nu att incidenten var bredare – ett erkännande som visar hur ofullständiga besked på leverantörsnivå kan fördröja försvarsåtgärder för alla andra.

Samtidigt sammanfaller detta med en mer strukturell förskjutning: laboratorier för artificiell intelligens marknadsför i allt högre grad modeller för användning i it-angrepp och it-försvar. Ars Technica, med hänvisning till Financial Times, rapporterar att Anthropics nya modell ”Mythos” kan hitta programvarufel snabbare än människor och även skapa angreppskod. Det väcker oro hos regeringar och företag för att försvar i form av uppdateringar inte ska hinna med. Uppgifter från CrowdStrike som citeras i rapporten visar att it-angrepp med stöd av artificiell intelligens ökade med 89 procent under 2025 och att tiden till genombrott sjunkit till 29 minuter.

Tillsammans beskriver Vercel-incidenten och satsningen på angreppskapabla modeller samma flaskhals: organisationer lägger till fler kopplingar och mer automatisering snabbare än de hinner granska behörigheter, byta hemligheter och begränsa vad en enda kapad identitet kan nå. Ju mer programvara blir en kedja av delegerad åtkomst, desto mer liknar ett intrång först ett administrativt ärende – behörighetsnycklar, åtkomstomfattningar, nycklar – tills det plötsligt blir ett kundproblem.

Vercel uppger att utredningen pågår om vad som nåddes och hur många kunder som berörs.