Europazentrale in Dublin
Facebook lässt sich in die Karten schauen – ein bisschen

Keine eigene Schutzkategorie für Flüchtlinge

Was der Fall deutlich zeigt: In Facebooks Community-Management müssen Menschen ran und jeden Fall einzeln bewerten. Wie das genau abläuft, wenn ein Hass-Kommentar gemeldet wird, das bleibt der Fantasie überlassen. Facebook, so sagt man den deutschen Journalisten, möchte seine Mitarbeiter und Mitglieder schützen. Niemand, der nicht im Community Operation Team arbeitet, hat Zutritt zu dem Arbeitsbereich der Moderatoren. Selbst auf welcher der sechs Etagen im „Silicon Dock“ die Community-Manager arbeiten, wird nicht verraten. Dafür stehen im Haus überall bunte, lebensgroße Pappaufsteller, auf denen Filmfiguren die immer gleiche Botschaft verkünden: „No visitors beyond this point!“ Das gilt auch für die Gruppe aus Deutschland. Obwohl am Grand Canal Square seit kurzem ganz vorsichtig eine neue Art der Transparenz gelebt wird – so richtig gerne lässt sich Facebook nicht auf die Tasten gucken.

Auch der deutsche Kollege des Community-Teams ist lieber vorsichtig. Er möchte nicht mit Namen genannt werden, weil er fürchtet, sich sonst zum Ziel der bösen Menschen zu machen, deren Ergüsse er tagtäglich lesen und beurteilen muss.
Wenn er nach konkreten Zahlen gefragt wird (wie viele Leute arbeiten insgesamt im Community-Team, wie viele Deutsche, wie viele Postings werden täglich gemeldet, wie viele davon gelöscht?) gibt er das Wort lieber an Siobhán Cummiskey weiter. Sie sagt aber auch nicht viel. „Hunderte Mitarbeiter“ seien international an den unterschiedlichen Standorten Facebooks mit gemeldeten Postings beschäftigt, weltweit gebe es jede Woche Millionen sogenannter Reports, bleibt die „Policy Managerin“ vage.

Was sie allerdings ohne weiteres erzählt: Intern gibt es neun unterschiedliche globale „Protection Categories“, also Einteilungen zum Schutze der Nutzer. Wenn Menschen beispielsweise wegen ihrer Zugehörigkeit zu einer bestimmten ethnischen Gruppe, ihrer Religion oder sexuellen Orientierung bedroht oder gemobbt werden, schreiten die Moderatoren beherzt ein und löschen.

Flüchtlinge haben keine eigene Kategorie. Sie stehen aber immer dann unter besonderem Schutz, wenn sie in eine der bestehenden Gruppen fallen. Werden Flüchtlinge beispielsweise bedroht, weil sie muslimischen Glaubens sind, löschen die Moderatoren. Denn Drohungen wegen einer bestimmten Religionszugehörigkeit sind ebenso verboten wie Facebook-Seiten, die von terroristischen Gruppen eröffnet wurden.

Aber, wirft Cummiskey ein, die immer wiederkehrende Forderung nach Löschung von Inhalten greife zu kurz. „Löschen ist keine Lösung, um mit Hass-Kommentaren dauerhaft fertig zu werden“, so die ausgebildete Juristin. Erfolgsversprechender sei vielmehr das Prinzip der Gegenrede („Counter Speech“), das Facebook zusammen mit seinen Partnern in Deutschland vorantreiben will: Hass-Kommentare sollen künftig praktisch übertönt und „neutralisiert“ werden.

Serviceangebote
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%