Ein brisanter Fall, der die Arbeitsweise von Meta im Umgang mit Content-Moderatoren weltweit auf den Prüfstand stellen könnte, sorgt derzeit in Kenia für Aufsehen. Der Konflikt entbrannte nach der Entlassung von 185 Content-Moderatoren, die über die Kündigung bei Sama, einer kenianischen Firma zur Moderation von Facebook-Inhalten, empört waren. Die Moderatoren fühlten sich diskriminiert, da sie nach einem Wechsel des Auftragnehmers nicht mehr für die selben Positionen bei der Nachfolgefirma Majorel in Betracht gezogen wurden.
Besonders brisant: Moderatoren, die sich mit Inhalten aus Äthiopien befassten, berichteten von Bedrohungen durch die Rebellen der Oromo Liberation Army (OLA). Diese hatten mit Vergeltungsaktionen gedroht, nachdem ihre Inhalte von Facebook entfernt wurden. Vorwurf: Sama habe diese Bedrohungen nicht ernst genommen. Ein Moderator schilderte, wie ihm die Aufständischen drohten und seine Identität öffentlich preisgaben, was seine Sicherheit massiv gefährdete.
Obwohl Sama schließlich eine Untersuchung der Vorfälle einleitete und zumindest einen Moderator in Sicherheit brachte, blieb der Fall weitgehend unkommentiert. Auch Meta und die OLA verzichteten auf eine öffentliche Stellungnahme. Ein früherer Versuch, sich außergerichtlich zu einigen, scheiterte.
Ein weiteres pikantes Detail aus den Gerichtsunterlagen: Meta soll Ratschläge von eigenen Experten ignoriert haben, die sich gegen Hassrede in Äthiopien richteten. Unter anderem beklagte eine Expertin, dass sie durch eine fehlende Löschbefugnis in einem 'endlosen Kreislauf hasserfüllter Inhalte' gefangen sei. Dies wirft grundlegende Fragen zu Metas Richtlinien und deren Umsetzung auf, insbesondere hinsichtlich der Moderation potenziell gefährlicher Online-Inhalte.
Die Konsequenzen dieses Falls könnten sich auf Metas gesamte Praxis der Content-Moderation auswirken, denn der US-Konzern arbeitet weltweit mit Moderatoren, die grafische Inhalte auf seiner Plattform überprüfen.