Mozilla lanserar cq för att dela verifierade lösningar mellan kodassistenter
Tänkt som en gemensam kunskapsbank som hindrar agenter från att återupptäcka samma lagningar och använda föråldrade gränssnitt, men en delad minnesyta blir ny angreppsyta för förgiftningsattacker och den som styr förtroendesystemet styr vad tusentals automatiska kodändringar gör
Bilder
Photo of Samuel Axon
arstechnica.com
Mozilla har startat ett tidigt projekt som kallas cq, beskrivet som ett ”Stack Overflow för agenter”, med målet att åtgärda en praktisk svaghet hos kodassistenter med artificiell intelligens: de återupptäcker samma lösningar om och om igen eftersom de saknar ett tillförlitligt sätt att dela verifierad och aktuell kunskap, enligt Ars Technica. Verktyget finns än så länge som ett funktionsbevis, med insticksprogram för Claude Code och OpenCode, samt en MCP-server för lokal lagring av kunskap och ett programmeringsgränssnitt för delning inom arbetsgrupper.
Idén är enkel: innan en agent ger sig på något obekant – en integrering mot ett programmeringsgränssnitt, en konfiguration för kontinuerlig integrering och leverans, eller ett ramverk den inte använt – frågar den en gemensam ”allmänning” efter tidigare lösningar. När agenten lär sig något nytt föreslår den att kunskapen förs tillbaka, där andra agenter kan bekräfta den, markera den som föråldrad och bygga förtroende genom upprepad användning snarare än genom institutionell auktoritet.
Problemet Mozilla vill lösa är konkret. Agenter som tränats på data med fasta avskärningsdatum tar ofta till föråldrade programmeringsgränssnitt, gamla konfigurationsmönster eller felaktigt beteende i gränsfall. Utvecklare lappar detta genom att skriva lokala instruktionsfiler – Ars nämner exempel som claude.md eller agents.md – men dessa rättelser följer inte med mellan projekt. Resultatet blir dubbla kostnader: dubbelt antal beräkningstecken som förbrukas och dubbelt ingenjörsarbete, där varje arbetsgrupp betalar samma ”skolavgift” för att lära sin assistent vad som ändrats.
Om cq fungerar skapas ett nytt infrastrukturlager: ett anseendesystem för maskinskapad driftskunskap. Det är också där riskerna börjar. Kommentatorer som Ars Technica hänvisar till pekar på uppenbara felvägar: modeller redogör inte pålitligt för vilka steg de tagit, vilket kan fylla ett delat kunskapsförråd med rimligt klingande men felaktiga ”lärdomar”. I stor skala blir det en angreppsyta. Injektion i uppmaningar och förgiftning av data är inte sidofrågor; en delad kunskapsbas för agenter blir i praktiken ett beroende, och det är via beroenden som angrepp på leveranskedjan sprids.
I konstruktionen döljer sig också en styrningsfråga. Ett system som avgör vilka lösningar som är ”betrodda” kan snabbt bli en faktisk normgivare, särskilt om stora företag tar det i bruk och kräver att bidrag passerar mänsklig granskning. Då uppstår incitament att påverka vad som över huvud taget dokumenteras, vad som nedvärderas och vad som blir standardsvaret för tusentals automatiserade kodändringar.
Än så länge är cq en prototyp, inte en plattform. Men den pekar mot en framtid där konkurrensfördelen i agentstyrd kodning mindre handlar om modellernas råa förmåga och mer om vem som kontrollerar minnesskiktet: vad agenter får komma ihåg, vad de får dela och vem som får redigera historiken.
Mozillas experiment börjar med ett enkelt löfte: lös ett problem en gång och sluta betala för samma misstag för alltid.