‘Facebook draagt bij aan geweld en desinformatie binnen India’
Facebook speelde een rol bij aan de toename van geweld, desinformatie en hate-speech in India, blijkt uit documenten die zijn gelekt door de Facebook-klokkenluider Frances Haugen.
De documenten tonen aan hoe nepaccounts en zogeheten ‘bots’, gelieerd aan onder meer de regerende partij van India, de aanloop naar de landelijke verkiezingen verstoorden. Wat Facebook “betekenisvolle sociale interactie” op het platform noemt, leidde tot meer desinformatie in India. In de praktijk schaart Facebook onder de term ‘betekenisvol’ ook polarisatie en ruzie, stelt Haugen.
Haugen vertrok bij Facebook uit onvrede over het beleid daarvan te blijven profiteren, maar nam interne documenten met intern onderzoek mee om aan officiële instanties te overhandigen. Eerder deze maand getuigde ze voor het Amerikaanse Congres. Deze week getuigde ze voor een Britse parlementaire commissie.
Facebook-werknemers worstelen met deze negatieve effecten van het platform in India. Verscheidene onderzoeken en memo’s bevestigen regelmatig geuite kritiek: dat Facebook in een land opereert zonder besef van de impact op lokale cultuur en politiek en daarbij onvoldoende middelen vrijmaakt om eventuele problemen op te lossen.
Maar liefst 87 procent van Facebooks budget voor het bestrijden van desinformatie gaat naar de Verenigde Staten. De overige 13 procent is voor de rest van de wereld. Die onevenwichtige focus op de Verenigde States heeft ook voor landen naast India gevolgen gehad. Tijdens de novemberverkiezingen in Myanmar heeft Facebook maatregelen genomen om desinformatie in de kiem te smoren. Ondanks dat die maatregelen succesvol waren in het tegengaan van desinformatie, werden die maatregelen weer teruggedraaid nadat de verkiezingen voorbij waren.
Facebook-woordvoerder Andy Stone stelt dat de cijfers uit de documenten incompleet zijn en dat bijvoorbeeld de factchecking-partners van Facebook niet zijn meegewogen. Facebook zou daarnaast veel geld hebben gestoken in technologie om haatzaaien en desinformatie te detecteren in talen anders dan Engels. Het zou volgens Stone wereldwijde blootstelling aan desinformatie op het platform inmiddels hebben gehalveerd.
In een reactie op de berichtgeving stelt Facebook verder dat er geen one-size-fits-all-oplossing is. Er zijn teams opgebouwd met expertise in mensenrechten, misinformatie en polarisatie. Daarbij maakt Facebook elke zes maanden een analyse welke landen risico lopen op offline geweld en treedt waar nodig op. Meer bij New York Times
Praat mee