Chatbotar bygger var fjärde AI-citat på journalistik
Muckrack spårar 15 miljoner påstådda citat i ChatGPT Gemini Claude och Perplexity med Reuters i topp, redaktioner betalar källkedjan medan gränssnitten tar relationen och intäkterna
Bilder
One in four quotes in AI chatbot responses comes from journalism, Muckrack study finds
the-decoder.com
Image description
the-decoder.com
En kartläggning av 15 miljoner citat som skapats av fyra stora samtalsrobotar visar att ungefär vart fjärde citat kan spåras tillbaka till journalistik. Det framgår av en analys från Muckrack som återgetts av branschtidningen Press Gazette och sammanfattats av The Decoder. Mest citerad globalt var nyhetsbyrån Reuters, följd av Forbes, The Guardian, Financial Times och CNBC. I samma material toppar den tidigare Business Insider-redaktören Henry Blodget listan över enskilda namngivna upphovsmän.
Siffrorna är viktiga eftersom de blottlägger en försörjningskedja som de flesta läsare aldrig ser. En användare ställer en fråga till ChatGPT, Gemini, Claude eller Perplexity; modellen svarar med självsäker ton; och en betydande del av ”citatlagret” – namn, påståenden och tillskrivna fakta – kommer fortfarande från traditionell rapportering. Men kostnaderna och intäkterna hamnar hos olika aktörer. Redaktioner betalar för reportrar, redaktörer, jurister och resor. Samtalsrobotarnas gränssnitt tar i stället kundrelationen, varumärkeslojaliteten och i ökande grad även prenumerationsintäkterna.
Muckracks svar är att sälja mått på ”synlighet i artificiell intelligens” till journalister och utgivare – i praktiken en ny sorts publikmätning. Tanken är att göra ett läckage i värdekedjan mätbart och därmed möjligt att ta betalt för. Samtidigt pekar det på ett mer grundläggande problem: plattformar som förmedlar information kan ensidigt ändra spelreglerna utan att förhandla med dem som producerar innehållet. Utgivare kan anpassa sig till sökmotorer, bara för att se sökningen ersättas av sammanfattningar skapade av artificiell intelligens.
Parallellt används samma generativa verktyg för missbruk i industriell skala. En separat studie från AI Forensics, baserad på 2,8 miljoner meddelanden på Telegram i italienska och spanska grupper, beskriver en marknad för så kallade ”avklädningsrobotar” som gör om vanliga fotografier till syntetiska nakenbilder. Enligt rapporten säljs arkiv med intima bilder utan samtycke för 20 till 50 euro, och vissa som gör reklam för robotarna påstår sig kunna få förmedlingsprovisioner på upp till 40 procent. Länkar som delas i grupperna går ofta till generatorer för ”flickvänner” skapade av artificiell intelligens och till avklädningstjänster, och innehållet uppges spridas mellan språkgemenskaper.
Telegramplattformens utformning ingår, enligt rapporten, i själva maskineriet: robotar för åtkomstkontroll, kanalmappar för att organisera flöden och möjligheten för grupper att snabbt återuppstå efter nedstängningar. Forskarna menar därför att Telegram bör behandlas som en ”mycket stor nätplattform” enligt EU:s förordning om digitala tjänster, vilket skulle utlösa strängare skyldigheter kring systemrisker.
Tillsammans beskriver de två studierna samma mönster i olika riktningar: system för artificiell intelligens suger upp kostsam rapportering utan att betala för den, och automatiserar billig trakasseri till en produkt som går att sälja. I båda fallen hamnar ansvar och saneringskostnader hos någon annan – redaktioner som försöker finansiera journalistik och offer som försöker få bort bilder – medan mellanhänderna behåller trafiken.
Muckracks lista börjar ändå med ett välbekant namn: Reuters, en nyhetsbyrå byggd för vidarespridning, som nu matar maskiner som inte förhandlar om vidarespridningsavtal.