Berlin. Interne Dokumente zeigen, nach welchen fragwürdigen Regeln Facebook löscht. Und vor welchen Herausforderungen die Mitarbeiter stehen.

Es geht um Kindesmissbrauch, Erpressung, Mobbing und Tierquälerei. Um Sätze wie diesen: „Ihr Arschlöcher solltet zu Gott beten, dass ich klar im Kopf bleibe, denn wenn nicht, werde ich Hunderte von euch töten.“ Oder um die Aufforderung, den US-Präsidenten Donald Trump zu erschießen. Und immer geht es um die Frage: Hat das was im Internet zu suchen oder nicht? Was 1,9 Milliarden Facebook-Nutzer weltweit sehen dürfen und was nicht, regelt eine Art Handbuch. Teile daraus sind dem britischen „Guardian“ zugespielt worden. Sie dokumentieren erstmals detailliert die Vorgaben, nach denen Inhalte geprüft und gelöscht werden sollen.

Schulungsunterlagen, Präsentationen, Diagramme mit Handlungsanweisungen: Auf Tausenden Seiten steht geschrieben, welche Inhalte ignoriert, gesperrt oder an Strafverfolger weitergeleitet gehören. Vom Löschpersonal werden schnelle Entscheidungen verlangt. Manchmal geht es um Leben oder Tod. Ein Beispiel: Suizid-Versuche.

Was ein Video zeigt, ist nicht immer relevant

Facebook will Nutzern auch in Zukunft erlauben, solche Dramen live zu streamen. „Nutzer posten selbstzerstörerische Inhalte als Hilfeschreie – diese zu entfernen könnte verhindern, dass sie gehört werden“, heißt es in den Facebook-Regeln. Für die Sicherheit der Betroffenen sei es besser, wenn sie live mit ihren Zuschauern in Kontakt bleiben könnten. Die Aufnahmen würden deshalb erst entfernt, wenn es keine Möglichkeiten mehr gebe, der Person zu helfen.

Für die Mitarbeiter des Netzwerks führen die Bestimmungen oft zu absurden Abwägungen. So hält Facebook fest, dass Videos, die einen „gewaltsamen Tod eines Menschen zeigen und feiern, zu entfernen sind“. Was genau das Wort „feiern“ bedeutet, hat Facebook in einem Extrakapitel definiert: Wenn derjenige, der das Video gepostet hat, sich gleichzeitig positiv über den Tod beziehungsweise die Ermordung äußert, gilt dies als „feiern“.

Thailänder stellt Videos von Mord an Tochter auf Facebook

weitere Videos

    Was im Video selbst geschieht, ist für die Definition jedoch nicht relevant. Videos, die den gewaltsamen Tod eines Menschen zeigen, ohne dass dieser nach den Regeln von Facebook „gefeiert“ wird, können sichtbar bleiben, weil ein solches Video in der Firmenphilosophie von Facebook das Bewusstsein des Betrachters für das Thema schärfen könnte. So musste eine 22-jährige Frau aus dem thailändischen Phuket auf Facebook per Live-Video die Ermordung ihres Kindes mit ansehen – es vergingen 24 Stunden, ehe die Aufnahmen gelöscht wurden.

    600 Menschen in Berlin bei einem Dienstleister angestellt

    Facebook kennt die Probleme und will sie angehen. Doch der Konzern stößt an Grenzen. Das Problem sind auch die Arbeitsbedingungen, unter denen Angestellte bei Facebook und Drittfirmen über das Löschen entscheiden müssen. In Berlin waren am Jahresanfang rund 600 Menschen beim Dienstleister Arvato angestellt sind, die im Auftrag von Facebook Inhalte prüfen – für ein Gehalt knapp über dem Mindestlohn und mit wenig psychologischer Unterstützung, wie eine Recherche der „Süddeutschen Zeitung“ aufdeckte. Psychologische Hilfe aber wäre nötig, da viele der Mitarbeiter regelmäßig Fotos und Videos von Folter, Mord oder Kindesmissbrauch vor Augen haben.

    Die Content-Moderatoren sehen Selbstverletzungen oder die Folgen von Essstörungen im Spätstadium live und in Farbe. Nutzer posten Bilder von selbst zugefügten Wunden und ausgehungerten Körpern oder schreiben in Nachrichten und Posts darüber. Die Facebook-Richtlinie hierzu lässt eigentlich keinen Zweifel darüber, dass solche Inhalte ein Fall für die Löschfunktion sind. „Wir wollen diese Art von Inhalten nicht auf der Seite haben, da sie selbstverletzende Verhaltensweisen anderer Nutzer auslösen können“, heißt es dort.

    Magersüchtige Körper werden nicht gelöscht

    Das Problem: Dies gilt nur für Inhalte, die Essstörungen oder Selbstverletzung verherrlichen. Dagegen wird das kommentarlos gepostete Foto eines magersüchtigen Körpers nicht gelöscht. Im Regelwerk heißt es an dieser Stelle: Nur im Zusammenhang mit einer Aufforderung, Anleitung oder gar Hilfestellung zu selbstschädigendem Verhalten verstößt ein Beitrag gegen Facebooks Richtlinien. In welche Kategorie ein Beitrag fällt, entscheiden die Moderatoren – oft unter Zeitdruck.

    Das schafft Unsicherheit. „Ich bin mir nicht sicher, ob die Person wirklich unsere Hilfe braucht, was soll ich tun?“, lautet eine häufig gestellte Frage in den Schulungsunterlagen. Die Antwort: „Wenn es nicht offensichtlich ist, dass sie Hilfe brauchen, ignoriere den Inhalt einfach.“ Im Zweifel könne der Vorgesetzte hinzugezogen werden.

    Forderung nach mehr Personal und hochmoderne Computertechnik

    „Die Leute auf Facebook zu halten, ist das Wichtigste, was wir tun“, sagte Monika Bickert, Managerin für die globale Facebook-Konzernstrategie, dieser Zeitung. Man arbeite „hart daran“, das Netzwerk „so sicher wie möglich zu machen und freie Rede zu ermöglichen“. Facebook hat bereits angekündigt, die Zahl der weltweiten Kontrolleure von 4500 auf 7500 zu erhöhen. Der Konzern will auch Meldungen über verletzte Standards vereinfachen, um eine bessere Strafverfolgung zu ermöglichen.

    „Facebook ist keine Hilfspolizei“, meint dagegen der Informationsrechtler Niko Härting. Nützlicher seien „mehr Personal und hochmoderne Computertechnik“ für die Polizei und Justiz, um Verstöße zu ahnden. Und, so Härting: „Es werden Staatsanwälte und Richter gebraucht, die Beleidigungen nicht als Bagatellen behandeln und Strafverfahren vorschnell einstellen.“