Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Digitale Revolution

Digitale Revolution Wie soziale Medien Nutzer zu Sklaven des Algorithmus machen

Hass-Nachrichten und Verschwörungstheorien – Plattformen wie Youtube oder Facebook stolpern von einem Skandal in den nächsten. Ist eine andere Tech-Industrie überhaupt möglich?
Kommentieren
Die sozialen Medien sind darauf ausgelegt, Aufmerksamkeit zu verschlingen. Quelle: dpa
Facebook, Instagram und Whatsapp

Die sozialen Medien sind darauf ausgelegt, Aufmerksamkeit zu verschlingen.

(Foto: dpa)

Düsseldorf Elsa ist eine Prinzessin, wie Kinder sie sich wünschen. Die Heldin des Disney-Films „Die Eiskönigin“ ist leidenschaftlich, freigeistig und ein wenig tollpatschig. Doch auf Youtube hat die Figur auch eine dunkle Seite – und wurde so zu einem Symbol für alles, was auf der größten Videoplattform und mit den Algorithmen, die sie steuern, bis heute schiefläuft.

Mit rund zwei Milliarden monatlichen Nutzern ist Youtube der größte Bewegtbildsender der Welt. „Zieht man die Menschen ohne Internet ab und die in China, wo die Seite verboten ist, nutzt mehr als die Hälfte der Menschheit Youtube“, sagt Chris Stokel-Walker, ein britischer Journalist und Autor von „Youtubers“, einem neuen Buch über die kulturelle Bedeutung der Plattform. Das Google-Tochterunternehmen ist der größte Unterhaltungssender, der größte Informationssender, der größte Kindersender.

Für Eltern ist Youtube eine willkommene Entlastung, um die Kleinkinder zu „parken“, während sie nebenan kochen oder Wäsche aufhängen. 2015 richtete Youtube sogar eine eigene „Kids“-Plattform ein, auf der nur kindgerechte Videos laufen sollten, damit „Eltern ein bisschen leichter entspannen können“, wie Youtube zum Start in einem Blogbeitrag schrieb.

„Youtube hat die breiteste Auswahl und läuft einfach immer weiter“, meint Stokel-Walker. Klassische Kindersender oder auch der Streamingdienst Netflix könnten mit ihrem begrenzten Angebot für Kinder nicht mithalten. Eine Umfrage unter 20.000 britischen Eltern für „Youtubers“ ergab, dass nur vier von zehn Befragten tatsächlich verfolgen, was ihre Kinder auf Youtube sehen. Dass das ein Problem ist, hat auch mit Elsa zu tun.

Als „Elsagate“ ging der Skandal in Youtubes Geschichte ein, als auf „Youtube Kids“ Videos mit Elsa, Peppa Pig und anderen Kinderhelden auftauchten, in denen sie anzügliche Dialoge führen, Drogen nehmen oder sich selbst verletzen.

Youtube-Filter erkannten die Figuren und stuften deshalb die Videos als kindgerecht ein – den gar nicht jugendfreien Text verstanden sie nicht. Und obwohl Kinderschutzgruppen bereits kurz nach dem Start von „Youtube Kids“ auf die problematischen Videos hinwiesen, unternahm das Unternehmen lange Zeit nichts.

Protest der Werbekunden

Erst 2017, als große Werbekunden wie Adidas, Mars und Deutsche Bank wegen „Elsagate“ und auch anderen anstößigen Inhalten ankündigten, nicht mehr auf Youtube zu werben, bewegte sich der Konzern. Youtube änderte die Regeln zur Monetarisierung und schloss immer mehr Videos von der Möglichkeit aus, durch Werbeeinblendungen Geld einzuspielen.

Seit „Elsagate“ hatten Youtube, Facebook und andere soziale Medien unzählige weitere Skandale – Rechtsextreme wie der amerikanische Verschwörungstheoretiker Alex Jones konnten jahrelang Hass auf den Plattformen predigen, bevor ihr Kanal gesperrt wurde.

Livestreams des Amoklaufs im neuseeländischen Christchurch musste Facebook mühsam einfangen und löschen. Der Selbstmord einer 14-Jährigen, die zuvor Bilder ihrer Selbstverletzungen auf Instagram gepostet hatte, schockierten im Februar Großbritannien.

Die Netzwerke reagierten, sperrten Kanäle und verfeinerten ihre Filter. Doch jede Maßnahme wirkte wie ein neues Hase-und-Igel-Rennen. War ein Problem gelöst, tauchte das nächste auf. „Und es sind nur die Probleme, auf die Journalisten hinweisen. Wie viele die Netzwerke selbst kennen, aber nicht beheben, wissen nur sie selbst“, sagt Stokel-Walker.

Die Masse an Skandalen wirft für Plattformunternehmen wie Youtube oder Facebook unangenehme Fragen auf: Ist das verführerisch lukrative Modell, mit Inhalten von Millionen Nutzern – darunter auch böswilligen und hasserfüllten – Geld zu verdienen, überhaupt steuerbar? Können Algorithmen jemals so intelligent werden, dass sie Hass und Satire, Ironie und Ernst in Millisekunden erkennen können?

Und selbst wenn: Wollen Youtube, Facebook und Instagram ihre Plattformen überhaupt frei von schädlichen Inhalten halten? Lässt ihr Geschäftsmodell das zu?

Ex-Google-Informatiker Harris macht soziale Medien für „Klimawandel unserer Kultur“ verantwortlich

Tristan Harris kommt ein paar Minuten zu spät in die Hotellobby gelaufen, mit einem Kaffeebecher und einem Croissant. Der 34-Jährige ist ein gefragter Mann: Am Vorabend war er bei einem Dinner, das Frankreichs Präsident Emmanuel Macron gegeben hat. Kanadas Premier Justin Trudeau war dabei, auch Theresa May, die zu diesem Zeitpunkt noch britische Premierministerin ist.

Die Mächtigen der Welt lauschen, wenn der Designethiker, der früher für Google arbeitete, über sein Konzept des „Human Downgrading“ spricht. Dahinter verbirgt sich Harris’ Antwort auf das große Algorithmenproblem. „Die Firmen sind in einem Wettrennen, wer sich am schnellsten unseren Hirnstamm runterarbeiten und unsere Aufmerksamkeit raus‧schaufeln kann“, sagt Harris, als er auf dem Sofa in dem Pariser Hotel Platz genommen hat.

Das zwanghafte Checken neuer Instagram-Posts, hasserfüllte Debatten auf Twitter oder hanebüchene Verschwörungstheorien auf Youtube: „Das passiert nicht in Isolation voneinander, es hängt alles zusammen“, sagt Harris. Werbefinanzierte Netzwerke wollten die Aufmerksamkeit maximieren, die Nutzer ihnen schenken, um ihnen immer mehr Werbung zeigen zu können. Youtube gab vor einigen Jahren das – inzwischen längst erreichte – Ziel aus, seinen Nutzern eine Milliarde Stunden Videos pro Tag zeigen zu wollen.

Die Geschäftsmodelle nennt Harris den Teil einer „extraktiven Aufmerksamkeitsökonomie“. Youtube, Facebook und andere handelten wie Ölfirmen, die die Aufmerksamkeit ihrer Nutzer wie einen Rohstoff abbauten – mit immer neuen Benachrichtigungen oder damit, dass ihre Empfehlungsalgorithmen besonders kontroverse Meinungen nach oben spülen. Harris zitiert eine Studie der Yale-Universität, nach der jedes Wort der Empörung in einem Tweet dessen Retweets um 17 Prozent erhöhe.

Wer auffallen wolle, müsse Debatten verkürzen und provozieren, statt Brücken zu bauen. Wer auf Youtube eine Verschwörungstheorie zu Giftwolken gesehen hat, guckt sich auch welche über die flache Erde an. „Ihre Algorithmen werden immer besser darin, unsere Schwächen auszunutzen. Das schwächt unsere Aufmerksamkeitsspannen, es schwächt unsere Freundschaften, unsere Präsenz, unsere Zeit für die Familie, unseren Anstand, unsere Offenheit, die Qualität unserer öffentlichen Konversation.“

Harris spricht von einem „Klimawandel unserer Kultur“, den die Tech-Konzerne verursachten. „Das Problem auf Smartphone-Sucht oder auf Fake News zu reduzieren, ist wie den Klimawandel auf die verschwindenden Gletscher oder Korallenriffe zu reduzieren. Erst wenn man den Zusammenhang sieht, kann man das Problem angehen.“

Seine Kampagne für gesellschaftlich verträglichere Tech-Plattformen führt Harris seit 2013. Damals verbreitete der Informatiker mit Stanford-Abschluss eine 141-seitige Präsentation unter Google-Mitarbeitern, in der er forderte, dass Produkte wie Youtube oder das Betriebssystem Android ihre Nutzer weniger ablenken sollten. „Dieser Wandel kann nur von oben kommen, von Unternehmen, die Standards für Abermillionen Nutzer festlegen“, schrieb Harris.

Von diesem Glauben hat er sich längst verabschiedet. „Ich kam innerhalb von Google irgendwann nicht mehr weiter“, erzählt er. Produktentscheidungen seien weiterhin auf Kosten der menschlichen Aufmerksamkeit getroffen worden. Harris kündigte und gründete das „Center for Humane Technology“ in San Francisco, das in der Politik lobbyiert.

Bei Kongressanhörungen, in denen Facebook- und Google-Manager befragt werden, wird Harris als Experte geladen. Erste Erfolge sind sichtbar. Apple und Google, die Herrscher über die Smartphone-Betriebssysteme, haben Zeitbegrenzungen eingeführt, mit denen sich die eigene App-Nutzung steuern lässt. Seit rund einem Jahr zeigt auch Youtube an, wie viel Zeit man mit Videoschauen verbracht hat.

Facebook-Chef Mark Zuckerberg sagt, dass Nutzer die Zeit auf seinen Netzwerken als „gut eingesetzt“ ansehen sollen – den Begriff „time well spent“ führte Harris in die Debatte ein. „Das ist ein Anfang“, sagt Harris zu den Maßnahmen. „Das Problem ist aber viel, viel größer.“

Ein Spielkamerad, der nur Blödsinn macht

Auch Klaus Hommels war bei dem Macron-Dinner und ist Harris dort zum ersten Mal begegnet: „All das, was man immer vermutet hat, beschreibt er glasklar. Und weil er von innen kommt, ist er glaubwürdig“, sagt der Gründer des Risikokapitalgebers Lakestar. Der gebürtige Rheinländer hat früh in viele Erfolgsgeschichten der Tech-Szene investiert: Skype, Spotify, selbst Facebook.

Doch in den vergangenen Jahren ist der 52-Jährige den US-Plattformen gegenüber kritischer geworden: „Wenn ein Spielkamerad meinem Kind jeden Tag drei Stunden mit Blödsinn rauben würde, würde ich dem doch nach einer Woche ein Ende setzen.“ Bei Instagram, Youtube und anderen Netzwerken ließen es die Menschen jedoch zu.

Gerade zu Facebook hat Hommels ein zwiespältiges Verhältnis: Lakestar investierte 2007 in das damals drei Jahre alte Unternehmen. Seine Anteile verkaufte er kurz nach Facebooks Börsengang mit gewaltigem Gewinn. „Damals gab es ein paar Probleme mit Voyeurismus unter Freunden, aber nicht dieses Ausmaß“, sagt Hommels.

Er bezweifelt, dass die Gründer von Facebook oder Google die menschliche Abwertung bewusst als Ziel gesetzt haben: „Du bist an der Börse, kriegst Druck von den Investoren, immer schneller zu wachsen.“

Die Tech-Konzerne wehren sich gegen solche Vorwürfe: „Der einzige Anreiz, den wir haben, ist es, Facebook zu einem gehaltvollen, anregenden und bereichernden Erlebnis zu machen, zu dem Menschen immer und immer wieder zurückkehren wollen“, sagte Facebook-Vizepräsident Nick Clegg bei einer Rede kürzlich in Berlin.

Und Youtube-Chefin Susan Wojcicki räumte in einem Interview zwar Probleme auf ihrer Plattform ein, sprach sich aber dafür aus, sie technologisch zu lösen. Durch Änderungen an Youtubes Algorithmus würden „grenzwertige“, aber nicht illegale Inhalte nur noch halb so häufig empfohlen wie zuvor. Jedes Video vor dem Hochladen zu prüfen, es sogar von Menschen freigeben zu lassen, sei nicht die Lösung, sagte Wojcicki. „Es würden sehr viele Stimmen verloren gehen.“ Es würde auch sehr teuer für Youtube.

Der Youtube-Algorithmus ist weitgehend geheim. 2016 veröffentlichten drei Mitarbeiter der Plattform Informationen über die tiefen neuronalen Netzwerke, die aus den Millionen Videos die paar Dutzend individuellen Empfehlungen für jeden Nutzer ableiten. Popularität und Neuheit des Videos treffen dabei auf Merkmale des Nutzers, vor allem, welche Art von Videos er bisher gesehen hat. So verstärkt Youtube die Vorlieben seiner Nutzer. Der Algorithmus ist nicht per se böse – er ist effizient.

Werbung abschaffen

Zu Beginn des Youtube-Videos, das sein letztes sein soll, atmet Matt Watson tief durch. Dann fixiert der rothaarige Videoblogger die Kamera mit ernsten Augen: „In den vergangenen 48 Stunden habe ich hier auf You‧tube ein Wurmloch in einen Softcore-Pädophilenring entdeckt“, erzählt Watson, der sich auf der Plattform „MattsWhatItIs“ nennt.

Er blendet Screenshots ein, auf denen sich offensichtlich Pädophile in der Kommentarspalte unter harmlosen Bade- oder Heimvideos besprechen und Links zu kinderpornografischen Videos austauschen. Ein Nutzer müsse nur fünf Videos mit kleinen Kindern anklicken, bis ihn der Algorithmus zu diesem „Wurmloch“ schicke, sagt er. Als „MattsWhatItIs“ das Video hochlud, folgte prompt das Entsetzen der Werbekunden. Wieder justierte Youtube den Algorithmus nach.

Harris reicht das nicht. Um die „extraktive“ in eine „regenerative Aufmerksamkeitsökonomie“ zu wandeln, müssten Youtube, Facebook, aber auch Twitter oder TikTok das werbefinanzierte Modell aufgeben und sich mit Nutzerbeiträgen finanzieren. Nur so wäre der Anreiz, Menschen immer öfter, immer länger in die Apps zu locken, gebrochen.

Harris erklärt das Problem anhand von Dating-Apps: Statt gedankenlos durch Profile zu wischen, könnte der Nutzer Apps wie Tinder, aber auch Facebook, Apple Music oder Youtube beauftragen, geeignete Dates vorzuschlagen. Apple Music könnte Menschen mit ähnlichem Musikgeschmack verbinden oder Youtube Fans, die die gleichen Kanäle schauen. „Plötzlich ist es ein Wettbewerb um den besten Vorschlag, nicht um die meiste Aufmerksamkeit, die eine App absaugen kann“, sagt Harris.

Er erinnert an einen Dienst, der ganz ähnlich funktioniert. Der seine Nutzer mit einer fast leeren Seite empfängt und das Ziel hat, sie schnell woanders hinzuschicken. Der völlig ohne Empfehlungen, Push-Benachrichtigungen und „Wir vermissen dich“-E-Mails auskommt. Der fast so alt ist wie das kommerzielle Internet: die Google-Suche.

Mehr: Mit der Digitalisierung steigt die Nachfrage nach moralbegabten Algorithmen. Unternehmen müssen verhindern, dass sich ihre Systeme im Ton vergreifen oder Menschen schädigen.

Startseite

Mehr zu: Digitale Revolution - Wie soziale Medien Nutzer zu Sklaven des Algorithmus machen

0 Kommentare zu "Digitale Revolution: Wie soziale Medien Nutzer zu Sklaven des Algorithmus machen"

Das Kommentieren dieses Artikels wurde deaktiviert.

Serviceangebote