Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Zum The Spark - der deutsche Digitalpreis Special von Handelsblatt Online

Fake-News-Debatte Facebook-Chef Zuckerberg setzt auf künstliche Intelligenz als digitale Müllabfuhr

Facebook-Chef Mark Zuckerberg will das Onlinenetzwerk mit Algorithmen sauber halten. Doch die Strategie hat vor allem ein Problem.
Kommentieren
Der Facebook-Chef will mit Software Netz-Hetze aufspüren. Quelle: picture alliance/dpa
Mark Zuckerberg als Collage

Der Facebook-Chef will mit Software Netz-Hetze aufspüren.

(Foto: picture alliance/dpa)

DüsseldorfWie lässt sich in Zukunft verhindern, dass Facebook eine Plattform für Meinungsmache, Wahlmanipulation und Hass ist? In den Anhörungen vor dem US-Kongress versprach Firmenchef Mark Zuckerberg, das Personal aufzustocken.

Bis Jahresende sollen 20.000 Mitarbeiter Inhalte überprüfen und gegebenenfalls löschen. Mindestens genauso wichtig ist jedoch Technologie: Mehrfach versprach er den Politikern, dass künstliche Intelligenz helfen soll, das Onlinenetzwerk sauber zu halten.

Die Idee ist keinesfalls neu – schon länger scannt Facebook mit Algorithmen die Bilderflut auf Inhalte, die gegen Hausregeln und Gesetze verstoßen. 99 Prozent der „terroristischen Inhalte“ könne man bereits herausfiltern, sagte Zuckerberg.

Auch andere Konzerne wie Google oder Twitter setzen auf diese Technologie. Die Einsatzbereiche sind vielfältig: Es geht um Hass, Pornografie, Desinformation und Manipulation. Doch die Programme stoßen oft an ihre Grenzen, wenn es auf Nuancen ankommt.

Bisher nutzt Facebook zum Beispiel Software, um Bilder und Videos mit nackten Personen zu identifizieren – Haut und Körperteile können Computer relativ gut erkennen.

Manchmal sogar zu gut: Da rutscht dann schon mal eine antike Statue ins Raster, oder die historische Aufnahme eines nackten Mädchens im Vietnamkrieg wird als kritisch eingestuft. Abwägen und Kontext herstellen kann der Algorithmus nicht.

Auch bei der Wiedererkennung von Bildern und Videos hilft die Technologie: Die Software erstellt einen digitalen Fingerabdruck, Hash genannt, und gleicht diesen mit einer Datenbank ab. Damit wird die erneute Verbreitung von vornherein unterbunden – Kinderpornografie und terroristische Inhalte lassen sich so ebenfalls häufig stoppen.

Auch sogenannte „Hate-Speech“ will Facebook automatisch ausfiltern, wozu der Konzern persönliche Angriffe beispielsweise aufgrund von Nationalität, Herkunft, Religion, sexueller Orientierung oder Behinderungen zählt.

Allerdings tun sich schon Menschen mit der Einschätzung schwer, was noch erlaubt ist oder schon verboten – Maschinen stoßen erst recht an ihre Grenzen.

Die juristische Abwägung ist schwierig. „Bei Tatsachenbehauptungen lassen sich die Fakten überprüfen, bei Meinungen ist es oft schwierig zu sagen, wann sie in die Rechtswidrigkeit kippen“, sagt der Anwalt Carsten Ulbricht aus Stuttgart, der auf IT-Recht spezialisiert ist.

Das Schmähgedicht des Satirikers Jan Böhmermann über den türkischen Staatspräsidenten Erdogan sei ein Beispiel dafür. Auch bei den Hausregeln von Facebook dürfte das Urteil vielfach nicht leichter sein.

Die technische Umsetzung hakt daher ebenfalls. Mit einfachen Filtern ist dem Hass im Netz nur bedingt beizukommen. Sie blockieren Beiträge mit bestimmten Begriffen, etwa Schimpfwörtern.

Doch lassen sie sich leicht austricksen, beobachtet Torsten Zesch, Professor für Sprachtechnologie an der Universität Duisburg-Essen: „Die Nutzer testen, was möglich ist, und verwenden einfach andere Begriffe.“ Daher müsse man „die Beiträge kontextualisiert betrachten“.

Dabei hilft die Analyse von Emotionen. Dazu sei ein Computer durchaus in der Lage, erklärt der Informatiker – „sentiment analysis“ nennen Experten dieses Feld.

Die Software nutze große Datenmengen als Grundlage. Im Fall von Facebook könnten das zum Beispiel Beiträge sein, über die Moderatoren in der Vergangenheit entschieden haben.

Dieses Verfahren sei jedoch nicht perfekt. „Einiges an ‚Hate-Speech‘ rutscht durch, einige zulässige Beiträge werden blockiert – je nachdem, wie das System eingestellt ist“, erläutert Zesch, der Netzhetze gegen Geflüchtete und Frauen in einem Projekt untersucht hat.

Dass Algorithmen automatisch Lügen und Hass ausfiltern, hält der Informatiker für unrealistisch. Sie könnten aber helfen, die Inhalte zu sortieren – und den Moderatoren so die Arbeit erleichtern.

Auf das Zusammenspiel von künstlicher und menschlicher Intelligenz setzt auch das Berliner Unternehmen Botswatch. Das Start-up, das gerade sein einjähriges Bestehen feierte, geht zum Beispiel auf dem Kurznachrichtendienst Twitter auf die Suche nach sogenannten Social Bots, also Nutzerkonten, die unter anderem dazu missbraucht werden, falsche Informationen im Netz zu verbreiten.

Mittels Algorithmen und Cyberanalysen wird ausgewertet, inwieweit sie die Merkmale von Social Bots aufweisen. „Zudem lernt unser System – wenn wir ihm beibringen, dass ein Bild beispielsweise Angela Merkel zeigt, dann wird es in Zukunft die Kanzlerin wiedererkennen“, erklärt Gründerin Tabea Wilke. So könnten zum Beispiel spezielle Bilder direkt ausgefiltert werden.

Auf der Digitalkonferenz SXSW in Austin war das Start-up 2018 Finalist der renommierten „Interactive Innovation Awards“ in der Kategorie „Privacy & Security“ und gewann den Preis „New Technologies Start-up AI“.

Das Renommee hilft dem Geschäft: „Nach den ersten sechs Monaten beträgt unser Umsatz vor Steuern eine knappe Viertelmillion US-Dollar“, sagt Wilke.

Zu ihren Kunden zählen Nachrichtenagenturen, die beispielsweise im Falle von Eilmeldungen wissen wollen, welchen Quellen sie vertrauen können, erklärt die Gründerin. „Auch Konzerne beauftragen uns, im Netz nach Profilen zu suchen, die zum Beispiel gezielt Stimmung gegen sie machen – und wollen herausfinden, ob dahinter vielleicht eine Maschine steckt.“

In solchen Fällen können Bots gefährliche Entwicklungen in Gang setzen, weiß Wilke: „Auf Twitter wurde gezielt die Meldung von einem Flugzeug verbreitet, das angeblich ein Notsignal verbreitet hatte.“

Die Programme verbreiteten die Meldung und verschafften ihr so Aufmerksamkeit – da sei es schwer gegenzusteuern, sagt die Gründerin. Der Börsenkurs der Fluggesellschaft sackte erst einmal ab.

Mark Zuckerberg weiß, dass er und seine Entwickler noch viel Arbeit vor sich haben. Er sei aber optimistisch, dass künstliche Intelligenz innerhalb von zehn Jahren linguistische Nuancen erkennen könne, die für die Beurteilung von „Hate-Speech“ nötig sind, sagte er den Politikern.

Derzeit sei die Technologie nur noch nicht so weit. Einen Nutzen hatte sie aber schon: Der Facebook-Chef konnte damit Besserung in Aussicht stellen.

Startseite

Mehr zu: Fake-News-Debatte - Facebook-Chef Zuckerberg setzt auf künstliche Intelligenz als digitale Müllabfuhr

0 Kommentare zu "Fake-News-Debatte: Facebook-Chef Zuckerberg setzt auf künstliche Intelligenz als digitale Müllabfuhr"

Das Kommentieren dieses Artikels wurde deaktiviert.