Apple Intelligence förvanskar automatiska notissammanfattningar och hittar på etnicitet och kön
AI Forensics granskar över 10 000 sammanfattningar och ser vithet som osynlig norm medan stereotyper fyller luckorna, Apple säljer friktionsfri bekvämlighet på hundratals miljoner enheter och sprider friktionsfritt förtal utan tydlig ansvarskedja
Apples nya funktionspaket ”Apple Intelligence” marknadsförs som en integritetsvänlig, lokalt körd hjälpreda med artificiell intelligens. Men en oberoende granskning pekar på att den avgörande frågan inte är var modellen körs, utan vad som händer när den tar initiativet och talar först.
Enligt The Decoder har den ideella organisationen AI Forensics granskat mer än 10 000 av Apple Intelligence sammanfattningar av aviseringar och funnit systematiska förvrängningar i hur systemet komprimerar identitetsrelaterad information. I ett kontrollerat test med 200 påhittade nyhetsartiklar med tydliga etniska markörer nämnde sammanfattningarna etnicitet för vita huvudpersoner bara i 53 procent av fallen, jämfört med 64 procent för svarta, 86 procent för latinamerikaner och 89 procent för asiater. Mönstret gör ”vit” till osynlig norm och andra etniciteter till avvikande egenskap.
Samma dynamik återkom i könskodade formuleringar. Med 200 verkliga rubriker från BBC fann AI Forensics att kvinnors förnamn behölls oftare än mäns. I situationer där ursprungstexten använde otydliga pronomen pressade systemet ofta ihop tvetydigheten till ett bestämt val: i 77 procent av fallen pekade det ut en person även när originalet inte gjorde det. Två tredjedelar av dessa val följde stereotyper (till exempel ”hon” som sjuksköterska och ”han” som kirurg). Över andra sociala dimensioner uppger rapporten att Apple Intelligence hittade på egenskaper som inte fanns i källtexten i ungefär 15 procent av fallen, och att nära tre fjärdedelar av felen följde vanliga fördomar—exempelvis att koppla en syrisk student till terrorism eller att behandla graviditet som skäl att vara olämplig för arbete.
Det som skiljer detta från den vanliga chattrobotens pinsamheter är spridningen och initiativet. Apple Intelligence sammanfattar aviseringar, meddelanden och e-post automatiskt på Iphone, Ipad och Mac, vilket innebär att utdata kan skapas utan att användaren frågar. Och det sker i skala av ”hundratals miljoner enheter”, som rapporten uttrycker det. Därmed blir ett känt felsätt hos språkmodeller inte en enskild miss, utan en funktion som trycker ut påståenden som bekvämlighetslager.
Apples tekniska inramning—en lokalt körd modell på ungefär tre miljarder parametrar, med en reservlösning kallad ”Privat molnberäkning”—löser inte kärnfrågan om styrning: när systemet skapar en falsk eller stigmatiserande sammanfattning, vilken väg finns till ansvar? Loggas händelsen lokalt, rapporteras den till Apple, går den att återskapa för granskning, och kan användaren invända på ett meningsfullt sätt? Produktens löfte är friktionsfri automatisering; baksidan är friktionsfri förtalsskada.
Incitamenten pekar åt fel håll. Att lansera en ”intelligent” assistent är en konkurrensnödvändighet i de stora teknikbolagens kapprustning; kostnaden för felen vältras över på användare, arbetsgivare och samhällsinstitutioner som får städa upp efter rykten eller yrkesmässig skada. Apple får dessutom en diskret juridisk fördel av att beskriva funktionen som ”sammanfattningar” snarare än eget innehåll—samtidigt som skadan uppstår just därför att läsare behandlar sammanfattningen som auktoritativ.
Därtill finns en regleringsasymmetri. AI Forensics menar att Apple Intelligence, givet sin räckvidd, kan kvalificera som en modell med ”systemrisk” enligt EU:s förordning om artificiell intelligens, men Apple har enligt The Decoder inte undertecknat den frivilliga uppförandekoden. Europas tillsynsmyndigheter kan därmed upptäcka att den mest skalbara formen av snedvridning är den som levereras som bekvämlighet.
Ironin är att privata aktörer ofta ställer hårdare krav när de själva bär kostnaden. Här säljer Apple vinsten av automatisering, men sprider förlusten över miljontals dagliga mikrohändelser—var och en för liten för att drivas rättsligt, men tillsammans tillräckligt stor för att flytta gränserna för vad maskiner tillåts påstå om människor.