Instagram kan snart revurdere hvordan det modererer transkropper
Metas tilsynsstyre tar opp to saker rundt sensur av skeive skapere.Metas tilsynsstyre forbereder seg på å vurdere en sak om kjønnsidentitet og nakenhet på Instagram, hvis utfall vil påvirke brukeropplevelsene til trans- og ikkebinære mennesker overalt.
Oversight Board, et eksternt organ som håndterer spørsmål om beslutninger om innholdshåndhevelse på Facebook og Instagram, annonsert tirsdag at den skulle vurdere fire nye saker. En av sakene tar for seg to separate tilfeller der et trans og et ikke-binært par fikk bilder fjernet fra den felles kontoen de driver. Det første bildet, fra 2021, viste begge personer nakne fra midjen og opp, med kjøttfarget tape over brystvortene. På det andre bildet, lagt ut i 2022, dekker en person den andre personens brystvorter med hendene. Bildetekstene for begge bildene diskuterte hvordan personen som er bar overkropp på begge bildene snart ville ha toppoperasjon, og bemerket 'planene deres om å dokumentere operasjonsprosessen og diskutere transhelsespørsmål' og inkludert en kunngjøring om pengeinnsamling. Tilsynsstyret har holdt både innlegg og regnskap anonyme.
Meta fjernet begge innleggene, med henvisning til Standard for seksuell oppfordring , en policy angående seksuelt innhold på Metas eiendommer, inkludert Facebook og Instagram. Denne standarden begrenser innhold som «tilrettelegger, oppmuntrer til eller koordinerer seksuelle møter eller kommersielle seksuelle tjenester mellom voksne», samt «seksuelt eksplisitt språk som kan føre til seksuell oppfordring». Til tross for at ingen av innleggene inneholdt slikt språk, rapporterte tre brukere det første innlegget for «pornografi og selvskading». Selv om menneskelige moderatorer som gjennomgikk disse klagene i utgangspunktet fant ut at innlegget ikke var krenkende, ble innholdet rapportert en fjerde gang, og en egen moderator fjernet innlegget.
Det andre innlegget ble funnet å være 'potensielt krenkende' av Meta's moderasjon AI , selv om menneskelige anmeldere fant det ikke krenkende. Selv etter at innlegget ble rapportert to ganger for potensielt krenkende innhold, ble rapportene automatisk lukket. Men da Metas AI vurderte innlegget en tredje gang og fant det potensielt krenkende, bestemte en egen anmelder å fjerne innlegget.
Selv om paret forsøkte å appellere til Meta for å få postene gjenopprettet, nektet selskapet å rokke. Det var først etter at paret anket til styret at Meta anså disse fjerningene som 'håndhevelsesfeil' og gjenopprettet dem. Nå ber styret om offentlige kommentarer til saken.
Styret skrev i sin tirsdagskunngjøring at det spesifikt vil sette pris på kommentarer om hvorvidt Metas retningslinjer for nakenhet og seksuell oppfordring i tilstrekkelig grad respekterer rettighetene til trans- og ikkebinære brukere. Styret ber også om kommentarer om hvorvidt Meta har tilstrekkelige prosedyrer på plass for å adressere rapportert ikke-krenkende innhold og om hvordan man kan redusere risikoen for feilaktig fjerning, blant annet. Fristen for sende inn offentlige kommentarer er tirsdag 9. august klokken 11:00 EDT.
Nyheten kommer midt i økt gransking rettet mot Meta, både for sin restriksjoner på abortrelatert innhold i en post- Rogn epoken og for dens bruk av AI i innholdsmoderering . Facebook-varsleren Frances Haugen kritiserte nylig selskapets avhengighet av AI, i motsetning til å betale menneskelige innholdsmoderatorer rettferdig, og sa at AI «bare kunne være så presis».
'Folk som faktisk jobber med det kaller det maskinlæring, fordi det ikke er intelligent,' sa Haugen i kommentarer rapportert av Business Insider .
Den mangelen på presisjon har også en menneskelig kostnad. EN fersk rapport fra GLAAD fant ut at Meta, sammen med alle andre store sosiale medieplattformer, fortsatt ikke klarer å beskytte sine LHBTQ+-brukere. Organisasjonen oppfordret den sosiale mediegiganten til å publisere omfattende data om hvordan retningslinjene deres som beskytter LHBTQ+-brukere håndheves, med tanke på at anti-LGBTQ+-innhold fortsatt sirkulerer rundt Facebook og Meta og unnviker øynene til moderatorer, menneskelige eller ikke.
Siden vedtakelsen av 'anti-trafficking'-lovgivningen SESTA-FOSTA i 2018, har LHBTQ+-personer på Internett møtt økende sensur og skyggeforbud . Det er fordi lovene fjernet avgjørende beskyttelse som mente at plattformer ikke kunne holdes ansvarlige for brukergenerert innhold, og gjorde et unntak for innhold relatert til «sex trafficking», som også ble feilaktig forvekslet med samtykkende sexarbeid . Men som Meta-saken viser, blir queer- og transkropper som bare eksisterer altfor ofte ansett for å være upassende seksuelle, alt i tillegg til vanskelighetene som faktiske queer- og transsexarbeidere møter.