Metas Beitrag zu Menschenrechtsverletzungen
Die Facebook-Plattform ist für viele Äthiopier*innen eine wichtige Informationsquelle, die als vertrauenswürdig eingestuft wird. Doch die Algorithmen von Facebook haben verheerende Auswirkungen auf die Menschenrechte.
Recherchen von Amnesty International ergaben, dass die algorithmischen Systeme von Facebook die Verbreitung feindseliger Rhetorik gegen die tigrayische Bevölkerung begünstigten. Gleichzeitig waren die Moderationssysteme der Plattform nicht in der Lage, solche Inhalte zu erkennen und angemessen darauf zu reagieren.
Diese Versäumnisse trugen beispielsweise zur Vertreibung der regierungskritischen Journalistin Lucy Kassa und der Tötung des tigrayischen Chemieprofessors Meareg Amare bei. Lucy Kassa musste aus dem Land fliehen, nachdem ein Regierungsaccount sie auf Facebook mit einem Foto angeprangert hatte und die Postings viral gingen. Meareg Amare wurde von einer Gruppe von Männern getötet, nachdem er am 3. November 2021 mittels Facebook-Posts ins Visier genommen wurde.
Untätigkeit trotz Warnungen
Interne Dokumente von Meta, die von Amnesty International ausgewertet wurden, zeigen, dass der Konzern von den Unzulänglichkeiten seiner Schutzmaßnahmen in Äthiopien und den damit verbundenen Risiken wusste. Das Unternehmen selbst hat das Land als hochgradig gewaltgefährdet eingestuft. In einem internen Meta-Dokument aus dem Jahr 2020 wird gewarnt, „dass die derzeitigen Strategien zur Schadensbegrenzung nicht ausreichen“, um die Verbreitung schädlicher Inhalte auf Facebook in Äthiopien zu stoppen. Der eigene Facebook-Aufsichtsrat hat Meta im Jahr 2021 empfohlen, eine unabhängige Menschenrechtsverträglichkeitsprüfung in Äthiopien durchzuführen.
Bei Meta sind die Algorithmen zur Gestaltung von Inhalten darauf ausgelegt, die Nutzer*innen so lange wie möglich auf der Plattform zu halten. Da verletzende, aufstachelnde und polarisierende Inhalte bei Nutzer*innen am meisten Aufmerksamkeit erregen, werden diese oft bevorzugt angezeigt. So stellt das Unternehmen eine anhaltende Gefahr für die Menschenrechte dar, insbesondere in Konfliktgebieten.
Von Amnesty International befragte Personen aus Metas „Trusted Flagger“ Programm kamen zu dem Schluss, dass es wegen der langsamen Reaktionszeit und der Weigerung, gemeldete schädliche Inhalte zu löschen, aussichtlos ist, dem Unternehmen solche Inhalte überhaupt zu melden.