Kinesiska chattrobotar med artificiell intelligens hittar på och tvättar om känsliga ämnen
Studie visar hur frågor om Himmelska fridens torg, Xinjiang och Taiwan ersätts med partilinjen snarare än tystnad, när staten definierar sanning blir hallucination politiskt hjälpmedel
Bilder
China’s AI chatbots censor politically sensitive questions, study
euronews.com
Kinesiska samtalsrobotar med konstgjord intelligens som riktar sig till vanliga konsumenter nöjer sig inte med att vägra svara på politiskt känsliga frågor. Enligt en studie som Euronews hänvisar till skapar de i stället vilseledande berättelser, strategiska utelämnanden och rent påhittade ”fakta” när de pressas på förbjudna ämnen.
Forskarna prövade flera Kina-baserade samtalsrobotar på frågor som rutinmässigt utlöser officiell nervositet: Himmelska fridens torg, Xinjiang, Taiwan, Kommunistpartiets legitimitet och kritik mot landets högsta ledare. Mönstret var, enligt Euronews, konsekvent. Vissa system satte sig på tvären och vägrade. Andra levererade välformulerade men förvrängda förklaringar som följde statens budskap. I de mest avslöjande fallen nöjde sig modellerna inte med att ”avstå”, utan ersatte händelseförlopp med alternativa historier, ramade in skeenden som utländsk desinformation eller gav självsäkra men falska sakuppgifter.
Det är viktigt i en tid när den globala debatten om ”säkerhet” kring konstgjord intelligens allt mer domineras av stora institutioner som ser styrning av svaren som en dygd i sig. Kina blir det tydligaste exemplet på vad som händer när säkerhet definieras som politisk riskhantering snarare än användarens självbestämmande eller kunskapsmässig träffsäkerhet. Ett system som optimeras för att inte stöta sig med tillsynsmyndigheter kommer förutsägbart att byta ut sanning mot lydnad – särskilt när priset för felaktigheter betalas av användaren, inte av utvecklaren.
Euronews noterar att kinesiska regler redan kräver att leverantörer ser till att genererat innehåll speglar ”kärnsocialistiska värderingar” och hindrar spridning av ”skadlig information”. Det innebär att modellens uppgift inte är att besvara frågor, utan att förekomma dem, leda bort dem eller tvätta officiella berättelser rena genom den lugnande tonen hos en hjälpsam assistent. Resultatet blir en propagandayta som kan skalas upp: samtalsroboten kan på beställning anpassa samma partilinje till miljontals användare.
Detta blottlägger också ett tekniskt trolleri. Västerländska företag framställer ofta skyddsräcken som ett sätt att minska påhitt och skadliga svar. Den kinesiska tillämpningen vänder på drivkrafterna: påhitt blir en funktion när det är politiskt användbart. Om en modell inte kan återge verkligheten utan risk, kan den alltid skapa en alternativ verklighet som klarar efterlevnadskontroller.
För marknader utanför Kina ligger varningen mindre i Pekings censur – den är inte ny – och mer i hur styrningsmodellen kan exporteras. Om tillsynsmyndigheter på andra håll tar över samma vokabulär – ”säkerhet”, ”ansvarsfull konstgjord intelligens”, ”förebygga desinformation” – utan hårda spärrar som skyddar öppen kunskapssökning, är riktningen given: konstgjord intelligens som först tämjs för institutioner och bara i andra hand blir användbar för individer.
Studiens slutsats är nästan banal: när staten sätter definitionen av sanning kommer maskininlärning plikttroget att lära sig den. Det nya är gränssnittet – propaganda levererad som samtal, med ett vänligt tilltal och hänvisningar som kanske finns, kanske inte.