Facebook transparantierapport: grootste deel schadelijke inhoud nog voor eerste melding offline
Facebook heeft in de vijfde editie van hun Community Standards Enforcement Report (CSER) gepresenteerd, waarin het platform deelt hoe het in de periode oktober 2019 tot maart 2020 de eigen regels wat betreft inhoud heeft nageleefd.
Schadelijke inhoud zou dankzij verbeterde techniek in bijna 90 procent van de gevallen al zijn verwijderd, voordat gebruikers het rapporteerden. Dat betreft niet alleen inhoud op Facebook, maar ook inhoud op fotosite Instagram.
Op Instagram en Facebook zijn de voornaamste uitdagingen het bestrijden van porno, pesten, haatzaaien, uitbuiting en misbruik van kinderen, zelfdoding en zelfverwonding, terreur en nepaccounts.
Naast de techniek waarmee inhoud automatisch wordt opgespoord geeft Facebook gebruikers ook meer opties om ongewenste inhoud en vervelende gebruikers te blokkeren.
Het automatisch detecteren en blokkeren van inhoud sloeg de afgelopen jaren wel vaak de plank mis, waarbij Facebook iconische nieuwsfoto’s verwijderde of geschilderd naakt in kunstwerken of beeldhouwwerken op zwart zette. Reisfotograaf Thijs Heslenfeld ligt al geruime tijd met het platform overhoop over het verwijderen van foto’s uit zijn portfolio.
Facebook stelt dat het CSER-rapport de periode net voor de coronacrisis beslaat. “In de laatste twee weken van deze rapportageperiode stuurde Facebook vanwege de coronacrisis content reviewers naar huis en werd als gevolg daarvan afhankelijker van geautomatiseerde systemen voor het opsporen en verwijderen van content en accounts”, aldus Tineke Meijerman, hoofd Communicatie Facebook Benelux.
Over de recentste periode zijn wel statistieken beschikbaar, meldt Mejerman.
Facebook heeft volgens eigen zeggen 2 miljard mensen via popups in de nieuwsfeed doorverwezen naar bronnen als het Rijksinstituut voor Volksgezondheid en Milieu (RIVM) en voorzag 50 miljoen posts van waarschuwingslabels, omdat de inhoud door onafhankelijke factcheckers als onbetrouwbaar was bestempeld.
“We weten dat dit werkt, want in 95 procent van de gevallen klikt iemand die content ziet met zo’n waarschuwingslabel ziet niet door”, aldus Meijerman. Facebook verwijderde verder 2,5 miljoen posts waarin op slinkse wijze testkits, desinfectiedoekjes, handgel of maskers werden aangeboden. Ook posts met potentieel riskante adviezen of suggesties (“coronavirus niet gevaarlijker dan een verkoudheid”) worden ook verwijderd.
De menselijke beoordelaars van inhoud bij Facebook klagen over werkdruk en een gebrek aan aandacht voor de post-traumatische impact die het werk met zich meebrengt. Facebook schikte onlangs voor tientallen miljoenen met deze groep, die schokkend materiaal onder ogen krijgt. Het bedrijf belooft beterschap.


Praat mee