Media

Instagram raderar Erin O’Connors nakna gravidbilder

Meta hänvisar till nakenhetsregler och återställer efter överklagan men märker sedan samma bilder som känsliga och tar bort dem igen, bilderna ändras inte men plattformens riskbedömning gör det

Bilder

A black and white image of Erin O’Connor, taken by Nick Knight, which she posted on Instagram on Mother’s Day, and was deleted by the platform. Photograph: Nick Knight A black and white image of Erin O’Connor, taken by Nick Knight, which she posted on Instagram on Mother’s Day, and was deleted by the platform. Photograph: Nick Knight theguardian.com
Erin O’Connor Photograph: Nick Knight Erin O’Connor Photograph: Nick Knight theguardian.com

Modellen Erin O’Connor säger att Instagram tog bort två nakna gravidbilder som hon lade upp på brittiska mors dag, återställde dem efter att hon överklagat, märkte dem som ”känsliga” och tog bort dem igen bara minuter senare. Enligt The Guardian togs de svartvita bilderna 2014 av fotografen Nick Knight, när O’Connor var i åttonde och en halv månaden, och inlägget åtföljdes av en dikt riktad till hennes son.

Metas meddelande till O’Connor hänvisade till ”riktlinjer för nakenhet” och innehöll standardformuleringar om ”yttrandefrihet” tillsammans med det vanliga löftet att hålla gemenskapen ”respektfull och trygg”. Förloppet – ta bort, återställa, begränsa, ta bort igen – visar hur innehållsgranskning fungerar i praktiken: regler skrivs brett, tillämpningen är delvis automatiserad och överklaganden blir ett kösystem där utfallet kan svänga utan att några nya fakta tillkommer.

Den praktiska måttstocken är inte bara ”nakenhet” utan ”risk”. Plattformar hanterar miljardtals bilder och kan inte pröva sammanhang i stor skala utan att bromsa tjänsten och anställa stora skaror granskare. Därför översätts otydliga kategorier till signaler som maskiner kan känna igen – hud, bröstvårtor, poser, beskärning – och därefter byggs eskaleringsvägar som prioriterar risken för anseendeskada. När ett ärende drar till sig pressuppmärksamhet får det en mänsklig granskning; när uppmärksamheten avtar kan det falla tillbaka i automatisk tillämpning.

Det skapar ett förutsägbart mönster av undantag. Innehåll som är kommersiellt, stiliserat eller redan inpassat i annonsvänliga fack tenderar att överleva eftersom det är lätt att tolka både för maskiner och annonsörer. Innehåll som är intimt, personligt eller svårt att klassificera – amning, födsel, medicinska bilder, gravidnakenhet – kan straffas eftersom kostnaden för en felaktig fällning bärs av användaren, medan kostnaden för en felaktig friande bedömning bärs av bolaget.

O’Connor beskrev beslutet som en ”dubbelmoral” och sade vid ett evenemang på National Gallery i London att kvinnor ”sexualiseras i övermått dagligen” samtidigt som icke-sexuella bilder av kroppar tas bort. Plattformens drivkrafter kräver inte att någon föredrar sexualisering; de kräver bara en preferens för förutsägbara utfall. Annonsörer köper stabilitet, inte finare omdömen.

Meta återställde inlägget en gång efter medieuppmärksamhet, rapporterar The Guardian. Men inom några minuter behandlade Instagram samma bilder som ett efterlevnadsproblem igen.

Fotografierna förändrades inte. Riskbedömningen gjorde det.