KI: „Ein-Billion-Dollar-Problem“ – Desinformation als Geschäftsrisiko
Düsseldorf. Mitte August bricht ein auffälliger Shitstorm gegen einen der größten Uhrenhersteller der Welt los. Gerade hat Swatch eine neue Werbekampagne geschaltet. Ein asiatisch aussehendes Model zieht darin seine Augen mit den Fingern zurück. Und nahezu in Echtzeit beginnt die virale Wut.
Swatch habe rassistisch beleidigt, heißt es, Swatch habe eine respektlose Werbung geschaltet, Swatch müsse boykottiert werden. Der Druck wächst und wächst: Die Aktie der Schweizer Firma fällt um knapp drei Prozent, Swatch muss seine Kampagne zurückziehen, es gibt sogar eine offizielle Entschuldigung. Und viele im Unternehmen wundern sich, was da eigentlich gerade passiert ist.
Auch Steffen Konrath, Gründer des Datenanalysten evAI, wird damals hellhörig. Klar, die Werbung ist streitbar. Aber eine dermaßen riesige Welle der Aufregung? Er beginnt seine Analyse. Sein Ergebnis zeigt, was nicht stimmt: Die Anzahl der negativen Onlinepostings zu Swatch stieg um 24.000 Prozent in zwei Tagen. Aber vor allem Fake-Accounts entfachten diese Empörung. 30 Prozent der Profile, die sich am Diskurs beteiligten, seien keine Accounts realer Personen, stellte Konrath fest, sondern Fakes.