Myanmar: Facebooks algoritmes wakkerden haat en geweld tegen Rohingya aan, Meta is herstelbetalingen verschuldigd

Myanmar: Facebooks algoritmes wakkerden haat en geweld tegen Rohingya aan, Meta is herstelbetalingen verschuldigd

Rapport

De gevaarlijke algoritmes en het roekeloze winstbejag van Facebook-eigenaar Meta hebben substantieel bijgedragen aan de wreedheden die het leger van Myanmar in 2017 heeft begaan tegen de Rohingya-bevolking. Dat zegt Amnesty International in een nieuw rapport dat vandaag is gepubliceerd.

Het rapport 'The Social Atrocity: Meta and the right to remedy for the Rohingya', beschrijft in detail hoe Meta wist of had moeten weten dat de algoritmische systemen van Facebook de verspreiding van schadelijke anti-Rohingya content in Myanmar in de hand werkten, maar het bedrijf toch naliet op te treden.

“In 2017 werden de Rohingya met duizenden tegelijk gedood, gefolterd, verkracht en ontheemd als onderdeel van de campagne van etnische zuivering door de veiligheidstroepen van Myanmar. In de maanden en jaren voorafgaand aan de gruweldaden versterkten Facebooks algoritmes een storm van haat tegen de Rohingya. Dit droeg bij aan het geweld in de echte wereld”, aldus Agnès Callamard, Amnesty International's secretaris-generaal.

“Terwijl het leger van Myanmar misdaden tegen de mensheid beging tegen de Rohingya, profiteerde Meta van de echokamer van haat die werd gecreëerd door haar haatzaaiende algoritmes.”

“Meta moet ter verantwoording worden geroepen. Het bedrijf heeft nu de verantwoordelijkheid om genoegdoening te bieden aan al diegenen die hebben geleden onder de gewelddadige gevolgen van hun roekeloze acties.”

Sawyeddollah, een 21-jarige Rohingya-vluchteling, vertelde Amnesty International: “Ik zag een heleboel vreselijke dingen op Facebook. En ik dacht gewoon dat de mensen die dat plaatsten slecht waren... Toen realiseerde ik me dat het niet alleen deze mensen zijn - de posters - maar dat Facebook ook verantwoordelijk is. Facebook helpt hen door hun platform niet goed te beheren.”

De Rohingya zijn een etnische minderheid die voornamelijk uit moslims bestaat en gevestigd is in de noordelijke deelstaat Rakhine van Myanmar. In augustus 2017 ontvluchtten meer dan 700.000 Rohingya Rakhine toen de veiligheidstroepen van Myanmar een gerichte campagne lanceerden van wijdverspreide en systematische moord, verkrachting en het verbranden van huizen. Het geweld volgde op decennia van door de staat gesteunde discriminatie, vervolging en onderdrukking van de Rohingya, die neerkomen op apartheid.

Een anti-Rohingya echokamer

Meta maakt gebruik van op engagement gebaseerde algoritmische systemen om Facebooks nieuwsfeeds, rangschikkingen, aanbevelingen en groepsfuncties aan te sturen en zo vorm te geven aan wat er op het platform te zien is. Meta heeft er baat bij als Facebook-gebruikers zo lang mogelijk op het platform blijven, door meer gerichte reclame te verkopen. Het tonen van opruiende inhoud - waaronder inhoud die aanzet tot haat, geweld, vijandigheid en discriminatie - is een doeltreffende manier om mensen langer op het platform te houden. Het bedrijfsmodel van Facebook is gebaseerd op surveillance en online kunnen volgen van mensen. De bevordering en versterking van inhoud die hen op het platform houdt, is essentieel daarvoor.

In de maanden en jaren voorafgaand aan het harde optreden was Facebook in Myanmar een echokamer geworden van anti-Rohingya-inhoud. Aanhangers van het Myanmarese leger en radicale boeddhistische nationalistische groeperingen overspoelden het platform met anti-moslimcontent, waarbij desinformatie werd gepost waarin werd beweerd dat er een moslimovername op handen was en de Rohingya's werden afgeschilderd als ‘indringers’.

In één bericht, dat meer dan 1.000 keer werd gedeeld, werd een moslim-mensenrechtenverdediger afgebeeld en beschreven als een ‘nationale verrader’. De reacties op het bericht bevatten dreigende en racistische boodschappen, waaronder “Hij is een moslim. Moslims zijn honden en moeten worden doodgeschoten”, en “Laat hem niet in leven. Verwijder zijn hele ras. De tijd dringt”.

Inhoud die aanzet tot geweld en discriminatie reikte tot in de top van de militaire en civiele leiding van Myanmar. De hoogste generaal Min Aung Hlaing, de leider van het leger van Myanmar, postte in 2017 op zijn Facebook-pagina: “Wij verklaren openlijk dat ons land absoluut geen Rohingya-ras heeft.” In februari 2021 greep hij via een staatsgreep de macht.

In juli 2022 oordeelde het Internationaal Gerechtshof (ICJ) dat het bevoegd is om een zaak tegen de regering van Myanmar aan te spannen op grond van het Genocideverdrag, op basis van de behandeling van de Rohingya door Myanmar. Amnesty International verwelkomt deze belangrijke stap om de regering van Myanmar ter verantwoording te roepen en blijft erop aandringen dat hooggeplaatste leden van het Myanmarese leger worden berecht voor hun rol in de misdaden tegen de Rohingya.

In 2014 probeerde Meta een anti-haatinitiatief te steunen dat bekend staat als ‘Panzagar’ of ‘flower speech’, door een stickerpakket te creëren voor Facebookgebruikers om te posten als reactie op inhoud die geweld of discriminatie voorstond. De stickers droegen boodschappen als 'Denk na voor je iets deelt' en ‘Wees niet de oorzaak van geweld’.

Activisten merkten echter al snel dat de stickers onbedoelde gevolgen hadden. De algoritmes van Facebook interpreteerden het gebruik van deze stickers als een teken dat mensen een post leuk vonden en begonnen ze te promoten. In plaats van het aantal mensen dat een haatzaaiende post zag te verminderen, maakten de stickers de posts juist zichtbaarder.

De onafhankelijke internationale onderzoeksmissie van de Verenigde Naties voor Myanmar concludeerde uiteindelijk dat de sociale media een belangrijke rol speelden bij de wreedheden in een land waar “het internet = Facebook”.

Mohamed Showife, een Rohingya-activist, zei: “De Rohingya dromen er gewoon van om op dezelfde manier te leven als andere mensen in deze wereld... maar jullie, Facebook, jullie hebben onze droom vernietigd.”

Facebook verzuimt om op te treden

In het rapport wordt gedetailleerd beschreven hoe Meta herhaaldelijk heeft nagelaten de nodige due diligence uit te voeren met betrekking tot de mensenrechten bij zijn activiteiten in Myanmar, ondanks het feit dat het hiertoe volgens internationale normen verplicht was.

Uit interne studies uit 2012 bleek dat Meta wist dat zijn algoritmen konden leiden tot ernstige schade in de echte wereld. In 2016 werd in Meta's eigen onderzoek duidelijk erkend dat “onze aanbevelingssystemen het probleem van extremisme doen groeien”.

Meta ontving tussen 2012 en 2017 herhaalde mededelingen en bezoeken van lokale activisten uit het maatschappelijk middenveld toen het bedrijf werd gewaarschuwd dat het dreigde bij te dragen aan extreem geweld. In 2014 hebben de autoriteiten van Myanmar Facebook zelfs tijdelijk geblokkeerd vanwege de rol van het platform bij het uitlokken van een uitbarsting van etnisch geweld in Mandalay. Meta gaf echter herhaaldelijk geen gehoor aan de waarschuwingen, en handhaafde ook consequent niet zijn eigen beleid over haatzaaiende uitlatingen.

Het onderzoek van Amnesty International bevat een analyse van nieuw bewijs uit de 'Facebook Papers' - een archief van interne documenten gelekt door klokkenluider Frances Haugen.

In een intern document van augustus 2019 schreef een Meta-medewerker: “We hebben bewijs uit verschillende bronnen dat haatzaaiende toespraken, verdeeldheid zaaiende politieke toespraken en verkeerde informatie op Facebook... samenlevingen over de hele wereld beïnvloeden. We hebben ook overtuigend bewijs dat onze kernproductmechanismen, zoals hoe zaken ‘viraal gaan’, aanbevelingen en het optimaliseren voor betrokkenheid, een belangrijk deel zijn van waarom deze soorten spraak floreren op het platform.”

‘Meta moet betalen’

Amnesty International start vandaag een nieuwe campagne waarin Meta Platforms, Inc. wordt opgeroepen om tegemoet te komen aan de eisen van de Rohingya's tot herstel.

Vandaag is de eerste verjaardag van de moord op de prominente activist Mohib Ullah, voorzitter van de Arakan Rohingya Society for Peace and Human Rights. Mohib stond in de frontlinie van de inspanningen van de gemeenschap om Meta ter verantwoording te roepen.

Rohingya-vluchtelingengroepen hebben directe verzoeken gedaan aan Meta om genoegdoening te bieden door een onderwijsproject van 1 miljoen dollar te financieren in het vluchtelingenkamp in Cox's Bazar, Bangladesh. Het financieringsverzoek vertegenwoordigt slechts 0,002% van Meta's winst van 46,7 miljard dollar uit 2021. In februari 2021 wees Meta het verzoek van de Rohingya-gemeenschap af, door te verklaren: “Facebook houdt zich niet direct bezig met filantropische activiteiten.”

Showkutara, een 22-jarige Rohingya-vrouw en jongerenactiviste, vertelde Amnesty International: “Facebook moet betalen. Als ze dat niet doen, zullen we naar elke rechtbank in de wereld stappen. We zullen nooit opgeven in onze strijd.”

Er zijn ten minste drie actieve klachten van Meta die genoegdoening eisen voor de Rohingya. In december 2021 zijn zowel in het Verenigd Koninkrijk als in de VS civiele rechtszaken tegen het bedrijf aangespannen. Jongerengroepen van Rohingya-vluchtelingen hebben ook een OESO-zaak tegen Meta aangespannen, die momenteel in behandeling is bij het nationale contactpunt van de OESO in de VS.

“Meta heeft bijgedragen tot het vreselijke leed van de Rohingyabevolking in Myanmar. Volgens internationale mensenrechtennormen moet het bedrijf de schade die het berokkende herstellen. De bevindingen moeten de alarmbel doen rinkelen dat Meta dreigt bij te dragen aan verdere ernstige mensenrechtenschendingen, tenzij het fundamentele wijzigingen aanbrengt in zijn bedrijfsmodel en algoritmen”, aldus Agnès Callamard.

“Dringende, brede hervormingen van hun algoritmische systemen om misstanden te voorkomen en de transparantie te vergroten, zijn dringend nodig om ervoor te zorgen dat de geschiedenis van Meta met de Rohingya zich elders in de wereld niet herhaalt, vooral daar waar etnisch geweld sluimert.”

“Uiteindelijk moeten staten zorgen voor effectieve wetgeving die mensenrechten beschermt. De handhaving van zo’n wetten moet zorgen dat op surveillance gebaseerde bedrijfsmodellen in de hele technologiesector beteugeld worden. Big Tech heeft bewezen hiertoe niet in staat te zijn wanneer er zulke enorme winsten op het spel staan.”

Op 20 mei 2022 schreef Amnesty International aan Meta over het handelen van het bedrijf met betrekking tot zijn zakelijke activiteiten in Myanmar voor en tijdens de gruweldaden in 2017. Meta antwoordde dat het geen informatie kon verstrekken over de periode voorafgaand aan 2017 omdat het bedrijf “momenteel verwikkeld is in een gerechtelijke procedure met betrekking tot aanverwante zaken”.

Op 14 juni 2022 schreef Amnesty International Meta opnieuw aan met betrekking tot de relevante aantijgingen in het rapport, en om het bedrijf de gelegenheid te geven te reageren. Meta gaf geen commentaar.

hier niet op duwen