So arbeitet das Löschteam von Facebook in Berlin

Stellen Sie sich vor, Sie gingen jeden Tag zur Arbeit und Ihre Aufgabe bestünde darin, sich endlos Bilder und Videos mit verstörenden Inhalten wie Kindesmissbrauch, Drogenkonsum, Tierquälerei oder Selbstverletzung anzusehen.

Genau das tun weltweit etwa 4500 Personen, die auf Facebook veröffentlichte Texte, Fotos und Videos auf strafbare Inhalte oder solche, die gegen die Regeln des Netzwerks verstoßen, kontrollieren und aus dem sozialen Netzwerk löschen. Alles, was den Nutzerbedingungen zum Veröffentlichen von Inhalten nicht entspricht, also Nacktheit, Pornographie, Mobbing, Hasskommentare, Gewalt usw, wird einzeln gesichtet und gelöscht, wenn Nutzer die Inhalte als nicht zulässig gemeldet haben. Facebook möchte damit sicherstellen, dass es eine ansprechende, sichere und saubere Plattform für den sozialen Austausch unter Freunden und Gleichgesinnten bleibt. So werden, den internen Löschvorgaben entsprechend, Aufnahmen weiblicher Nippel gelöscht, tiefe Fleischwunden oder Blutlachen hingegen sind ok und Marihuana darf ebenfalls gezeigt werden.

Auch in Berlin arbeiten die sogenannten Facebook-Kontrolleure. Dort betreibt die Dienstleistungsfirma Arvato im Schichtbetrieb ein Löschzentrum mit 650 Mitarbeitern und diese Zahl könnte noch ansteigen, denn laut dem neuen “Facebook-Gesetz” sind die sozialen Netzwerke dazu verpflichtet, Nutzerbeiträge mit strafbaren Inhalten innerhalb von 24 Stunden und Beiträge mit rechtswidrigen Inhalten innerhalb von sieben Tagen unter Androhung einer satten Geldstrafe zu löschen oder unzugänglich zu machen. Der Gesetzgeber reagierte damit jüngst auf weit verbreitete Hasskommentare und Verleumdungen via Facebook und Twitter.

Facebook Headquarter

Vor einigen Monaten hat Facebook bekanntgegeben, dass es weltweit zusätzlich 3000 Personen zum Löschen von als unangebracht gemeldeten Videos einstellen wird. Facebook-Chef Mark Zuckerberg kommentierte dazu, dass jüngste Vorfälle mit Videomaterial wie in jenem, in dem ein Mann sich und seine 11 Monate alte Tochter in Thailand umgebracht hat, “niederschmetternd” seien und das Unternehmen an einem System arbeitet, mit dem Videos mit unangemessenen Inhalten sicher erkannt und schneller entfernt werden. Dazu gehört auch das sofortige Eingreifen, wenn ein Nutzer z.B. auf Facebook-Live die Absicht kundtut, sich das Leben zu nehmen.

Zuckerberg fügte hinzu, dass Facebook bereits mit örtlichen Gruppen des sozialen Netzwerks und der Polizei zusammenarbeitet, um Personen zu helfen, die in einem Post ihre Absicht, sich selbst oder andere zu verletzen, geäußert haben. In Zukunft sollen noch bessere Sicherheitsvorkehrungen getroffen werden, in dem regelwidrige Posts noch einfacher gemeldet werden können, die Mitarbeiter im Löschteam fragwürdige Inhalte noch schneller sichten können und noch einfacher die Polizei verständigen, falls jemand Hilfe benötigt. Damit soll die Facebook-Gemeinschaft sicherer werden. Wie die verbesserten Sicherheitsmaßnahmen jedoch im Detail aussehen werden, wurde nicht näher beschrieben.

Für die 2 Milliarden Facebook-Nutzer sind die angekündigten Sicherheitsvorkehrungen eher gute Nachrichten, schließlich möchte niemand, während er sich Fotos vom Junggesellenabschied seines Cousins ansieht oder über einen Artikel aus der Süddeutschen streitet, über ein Zeugnis der Abgründe der menschlichen Psyche stolpern. Aber wie steht es um die bald 7500 Facebook-Kontrolleure, von denen der Großteil im kostengünstigen und wenig reglementierten Südostasien angesiedelt ist und die sich auf der Suche nach gefährlichen Inhalten durch unzählige Live-Videos und aufgezeichnete Videos kämpfen müssen?

Millionen unzulässiger Posts jeden Tag

Die psychologische Belastung, die beim Sichten solcher Inhalte entsteht, ist unumstritten. Viele Mitarbeiter verlassen den Job nach kurzer Zeit wieder. Nach der Sichtung von traumatisierenden Inhalten wie Kinderpornografie oder Bestialität benötigen Löschteam-Mitarbeiter mitunter Therapie. Auch beim Tech-Giganten Google werden Mitarbeiter beschäftigt, welche die dunkle Seite des Internets durchforsten. Ein ehemaliger Google-Angestellter aus den USA berichtet, wie er täglich etwa 15 000 Bilder auf Google-Plattformen sichten musste und ihm keinerlei psychologische Unterstützung gewährt wurde. Nach neun Monaten wurden ihm klar, dass er therapeutische Hilfe benötigte, um das Gesehene zu verarbeiten. Google bezahlte ihm eine Therapiesitzung mit einem staatlich zugelassenen Therapeuten und ermutigte ihn, nach Beendigung des auf 12 Monate befristeten Arbeitsverhältnisses auf eigene Rechnung Hilfe in Anspruch zu nehmen.

Gegen die Dienstleistungsfirma Arvato in Berlin hatten in der Vergangenheit ebenfalls Mitarbeiter wegen ungenügender psychologischer Betreuung Vorwürfe erhoben. Das Landesamt Berlin für Arbeitsschutz, Gesundheitsschutz und technische Sicherheit ist den Beschwerden einzelner Mitarbeiter nachgegangen und der Arbeitgeber Arvato hat das psychologische Betreuungsangebot daraufhin noch weiter ausgebaut. Arvato hat bei einem Treffen mit Journalisten auch einen Einblick in den Arbeitsalltag im Löschzentrum gewährt. Neue Mitarbeiter werden demzufolge mit erfahrenen Kollegen an die Bearbeitung von besonders heftigen oder gewalttätigen Inhalten herangeführt. Möchte sich ein Mitarbeiter dem nicht mehr aussetzen, so kann er auch in einem anderen, weniger belastenden Tätigkeitsbereich wie etwa dem Aufspüren von Fake-Profilen, eingesetzt werden.

Arvato gehört Bertelsmann

Ob sich an der Notwendigkeit, dass sich tausende Menschen unaufhörlich verstörende Inhalte ansehen müssen, in Zukunft etwas ändern wird, ist noch vollkommen unklar. Heute müssen normale Facebook-Nutzer erst einen Inhalt melden, damit ein Mitarbeiter ihn anschaut und darüber entscheidet, ob der Inhalt gelöscht wird und ob weitere Maßnahmen eingeleitet werden. Das bedeutet, mindestens zwei Personen müssen sich das abscheuliche Video ansehen, bevor es entfernt wird. Durch eine höhere Anzahl von Kontrolleuren werden wahrscheinlich weniger Menschen aus der breiten Öffentlichkeit ein traumatisierendes Video zu Gesicht bekommen, die Frage der Gefährdung der psychischen Gesundheit tausender Löschteam-Mitarbeiter wird dadurch aber nicht beantwortet. Und durch mehr Personal zur Überprüfung von Inhalten wird es schließlich auch nicht weniger Menschen geben, die diese Inhalte ins Netz stellen.

Vielleicht wird Facebook in Zukunft automatische Programme entwickeln, die feststellen können, was in einem Video abläuft und was darin gesagt wird oder sogar ein beleidigendes Post löschen, bevor ein anderer Nutzer es zu Gesicht bekommt. Allerdings könnten darin auch einige Tücken enthalten sein. Letztes Jahr entließ Facebook alle Autoren der Nachrichten-Rubrik seiner Homepage, weil es der Meinung war, die Angestellten durch ein System künstlicher Intelligenz ersetzen zu können, welches neue Inhalte ohne menschliche Überprüfung sucht und veröffentlicht. Das Ergebnis: innerhalb weniger Tage war die Nachrichten-Rubrik mit Fake News überschwemmt.

Zuckerberg möchte 3000 neue Kontrolleure einstellen

Abschließend genügt der Hinweis, dass Facebook in der Erforschung und Anwendung von künstlicher Intelligenz führend ist. Denn das heißt, das Versagen von Facebooks Algorithmen beim Erkennen von schriftlichen Informationen mag gleichwohl bedeuten, dass es bis zur Entwicklung eines Programmes, welches den Inhalt eines Live-Videos versteht, noch eine Weile dauern wird. Verschiedene Software-Unternehmen arbeiten an solchen Möglichkeiten, aber selbst die Analyse eines aufgenommenen Videos ist bisher eine Herausforderung. Vorauszusehen, was in einem Live-Video geschehen wird und die rechnerische Leistung dazu für Millionen von Videos am Tag aufzubringen wird sogar für einen Mega-Konzern wie Facebook eine schwierige Aufgabe werden.