Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

iPhone-Hersteller Warum Apples Kampf gegen Kinderpornografie umstritten ist

Der Elektronikhersteller will Inhalte mit Kindesmissbrauch auf den Geräten der Nutzer identifizieren. Der Plan könnte jedoch Nebenwirkungen haben.
06.08.2021 - 18:13 Uhr Kommentieren
Der Konzern hat ein neues System für den Kampf gegen Kinderpornografie entwickelt. Quelle: AP
Gesperrtes iPhone

Der Konzern hat ein neues System für den Kampf gegen Kinderpornografie entwickelt.

(Foto: AP)

Düsseldorf Schon die Schlagzeilen lassen vermuten, dass die Situation dramatisch ist. Im Wochentakt erscheinen Meldungen über sexuellen Missbrauch an Kindern, die Dunkelziffer lässt sich nur ansatzweise schätzen. Die Digitalisierung erleichtert Tätern, sich Bilder und Videos zu beschaffen und diese weiterzuverbreiten, wie bei der Polizei immer wieder zu hören ist.

Es ist diese Diskussion, die Apple zu einem radikalen Schritt bewegt haben dürfte. Mit einer neuen Technologie will der Elektronikhersteller auf Geräten wie iPhone, iPad und Mac nach kinderpornografischem Bildmaterial suchen und dieses nach einer internen Prüfung den Strafverfolgungsbehörden melden. Auch weitere Maßnahmen sind geplant, zunächst lediglich in den USA, womöglich später auch in anderen Ländern.

Mit einem komplexen technischen Verfahren will Apple den Datenschutz gewährleisten. Einige IT-Sicherheitsforscher befürchten aber, dass die Suche nach Missbrauchsbildern zu einem Präzedenzfall werden könnte, um die durchgängige Verschlüsselung von Nachrichten auszuhebeln – zum Beispiel in autokratischen Regimes.

Apple ist nicht das erste und einzige Unternehmen, das sich mit Missbrauchsbildern beschäftigen muss. Die Cloud-Dienste von Dropbox, Google, Microsoft und anderen scannen bereits die Konten der Nutzer auf potenziell illegale Inhalte. Auch soziale Netzwerke wie Facebook nutzen vergleichbare Mechanismen, um Gesetzesverstöße zu identifizieren. In einigen Ländern blockieren Internetanbieter bestimmte Inhalte von vornherein.

Ob Kindesmissbrauch oder Terrorismus: Bereits bekannte Inhalte lassen sich vergleichsweise einfach identifizieren. Die Unternehmen erstellen von jedem Bild eine Art digitalen Fingerabdruck, Hash genannt, und gleichen diesen mit den Dateien der Nutzer ab. Wichtig: Die ursprünglichen Inhalte lassen sich nicht wiederherstellen.

Die Dateien werden auf dem Gerät gescannt

Apple lehnt dieses Verfahren jedoch ab. Der Konzern argumentiert, dass es dem Datenschutz dient, wenn eine Prüfung auf Missbrauchsbilder nur auf dem Gerät stattfindet, weil dadurch eine permanente Überprüfung der Dateien in der Cloud vermieden wird. Das neue Verfahren sieht stattdessen vor, auf iPhone und iPad direkt illegale Inhalte zu identifizieren.

Die Technik ist ähnlich: Das Gerät lädt eine Datenbank mit Hash-Werten von bekanntem kinderpornografischem Material herunter und gleicht diese mit den Inhalten in der lokalen Fotobibliothek ab. Im Fall von Übereinstimmungen kann Apple auf die Sicherungskopie in der iCloud zugreifen und diese prüfen. Liegen tatsächlich illegale Inhalte vor, meldet der Konzern dies einer Nichtregierungsorganisation, die wiederum mit Behörden zusammenarbeitet.

Der Konzern tut einiges, um Fehlalarme zu verhindern. So gibt es einen – nicht näher definierten – Schwellenwert für Meldungen. Zudem prüfen eigene Mitarbeiter das Bildmaterial zunächst, bevor sie die Daten des Nutzers weitergeben. Die Fehlerrate liege bei weniger als einem von einer Billion Fälle, heißt es in einer Dokumentation.

Im Herbst will Apple zwei weitere Funktionen für den Schutz von Kindern einführen. Erstens: Wenn diese Nacktfotos erhalten oder verschicken, sehen sie eine Warnung, zudem erhalten die Eltern eine Nachricht. Ein Algorithmus soll direkt auf dem Gerät analysieren, ob eine Aufnahme sexuell explizit ist, ohne dabei die Verschlüsselung des Kommunikationsdienstes auszuhebeln.

Zweitens: Die digitale Assistentin Siri und die Suche auf den mobilen Apple-Geräten sowie dem Mac sollen künftig intervenieren, wenn Nutzer nach Inhalten suchen, die auf Kindesmissbrauch schließen lassen, und außerdem hilfreiche Informationen zur Verfügung stellen, beispielsweise zu Hilfsorganisationen.

IT-Sicherheitsexperten sind sich uneins

„Der Schutz von Kindern ist eine wichtige Verantwortung“, erklärt Apple in einem Blogeintrag das „ambitionierte Programm“. Man werde die Maßnahmen mit der Zeit weiterentwickeln und ausbauen. Während Vertreter von Kinderschutzorganisationen positiv reagieren, sind die Eingriffe in die privaten Geräte von Nutzern unter Fachleuten allerdings umstritten.

Der Kryptografiespezialist Benny Pinkas, Professor an der Bar-Ilan-Universität in Israel, spricht zwar von einer „exzellenten Balance“ zwischen Datenschutz und der Suche nach illegalen Inhalten. Harmlose Nutzer dürften nur minimal oder gar nicht an Privatsphäre einbüßen, urteilt der Informatikprofessor David Forsyth aus Illinois in einer Stellungnahme, die Apple verbreitet.

Dagegen sieht der Informatikprofessor Matthew Green von der Johns-Hopkins-Universität in den USA diverse Risiken. Er weist darauf hin, dass die Identifikation von Inhalten per Hash-Verfahren durchaus fehleranfällig sein kann. Trotzdem seien Nutzer nicht in der Lage, die Datenbank mit den problematischen Inhalten zu überprüfen.

Zudem sieht er die Gefahr, dass Apple einen Präzedenzfall schaffen könnte: Eine solche Art von System können zwar helfen, Kinderpornografie zu entdecken – „aber stellen Sie sich vor, was es in der Hand eines autoritären Regimes tun könnte?“

Der Gedanke: Ein Algorithmus lässt sich eben nicht nur auf die Entdeckung von Kindesmissbrauch trainieren, sondern auch auf andere Darstellungen und Texte. Technisch wäre es ohne Weiteres denkbar, Fotos vom Massaker auf dem Tian‘anmen-Platz in Peking zu identifizieren, oder Texte mit bestimmten Inhalten.

Abwegig ist diese Überlegung nicht. In China hat Apple in der Vergangenheit Kompromisse mit dem Regime gemacht. So lässt der Konzern die Daten der chinesischen Nutzer nach einem Bericht der „New York Times“ bei einem örtlichen Dienstleister speichern und hat die Kontrolle darüber weitgehend abgegeben. Das Unternehmen bestreitet das.

Die Bürgerrechtsorganisation Electronic Frontiers Foundation (EFF), die Apples bisherige Bemühungen um den Datenschutz positiv bewertet, kritisiert die Initiative scharf. „Alles, was nötig wäre, um die enge Hintertür, die Apple baut, zu erweitern, ist eine Erweiterung der Parameter für das maschinelle Lernen, um nach zusätzlichen Arten von Inhalten zu suchen“, schreibt sie. Und die Beschränkung auf Kinder lasse sich umgehen – daher sei Missbrauch Tür und Tor geöffnet.

Mehr: Apples Vorstoß gegen Kinderpornografie ist ein heikler Balanceakt

Startseite
Mehr zu: iPhone-Hersteller - Warum Apples Kampf gegen Kinderpornografie umstritten ist
0 Kommentare zu "iPhone-Hersteller: Warum Apples Kampf gegen Kinderpornografie umstritten ist"

Das Kommentieren dieses Artikels wurde deaktiviert.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%