KI: Experten weisen Elon Musks Vorwürfe zum Datenschutz bei Apple zurück
Grund ist der Plan von Apple, die KI-Modelle von OpenAI, darunter ChatGPT, in seine Betriebssysteme zu integrieren. Musk wirft Apple durch diesen Schritt mangelnden Datenschutz vor. Der Plan sei ein „inakzeptabler Sicherheitsverstoß“. Besucher seiner Unternehmen müssten künftig „ihre Apple-Geräte an der Tür abgeben, wo sie in einem Faradayschen Käfig aufbewahrt werden“, schrieb Musk.
Der Technologie- und Datenschutzexperte Thomas Husson zeigt sich „überrascht“ von Musks Kommentar. „Apple ist bislang sehr umsichtig mit den Nutzerdaten umgegangen“, sagt der Analyst beim Branchendienst Forrester. „Das wird sich kaum durch die Zusammenarbeit mit OpenAI ändern.“
ChatGPT künftig in Apple-Geräten: Datenschutz wichtiges Verkaufsargument
Nils Haag, Vorstand für Datenschutz bei der IT-Beratung Intersoft Consulting, sagt: „Das ist lautes Geklapper und offensichtlich recht unseriös.“ Musk könne die Behauptung noch gar nicht aufstellen, weil die technische Umsetzung noch gar nicht bekannt gegeben wurde. „Sicherlich muss man sich das kritisch anschauen, aber solche pauschalen Urteile sind verfrüht.“
Musk ist nicht nur Chef von Tesla und SpaceX, sondern auch von X.AI, einem Konkurrenten von OpenAI. Der 52-Jährige hatte 2015 zusammen mit Sam Altman und anderen die Stiftung OpenAI gegründet. 2018 zerstritt er sich mit Altman, weil dieser die Ausgründung einer profitorientierten Tochter und die Zusammenarbeit mit Microsoft vorantrieb.
Mit seinem Vorwurf stellt der Milliardär nun das wichtigste Marketingargument von Apple infrage: dass die Daten auf einem iPhone oder iPad besonders sicher seien und Nutzerdaten möglichst nicht geteilt würden. Apple hatte im vergangenen Jahr etwa Cookies von Drittanbietern verboten, mit denen Unternehmen wichtige Marketinginformationen abschöpfen konnten. Auch sei die Verschlüsselung der iPhones „so gut wie auf keinem anderen Gerät“, so Datenschutzexperte Haag.
Der Landesbeauftragte für Datenschutz und Informationsfreiheit in Rheinland-Pfalz, Dieter Kugelmann, ist bei der Einordnung vorsichtiger. „Beim Einsatz von KI bedeutet die Verknüpfung komplexer Systeme und Datenbestände immer eine Erhöhung des Risikos für den Schutz personenbezogener Daten“, sagt Kugelmann.
Würden persönliche Daten der Nutzerinnen und Nutzer – GPS-Standorte, Kalendereinträge, E-Mail-Kommunikation – in welcher Form auch immer an Drittanbieter durchgereicht oder mit deren Daten verknüpft, sagt Kugelmann, so sei das Risiko, dass sensible personenbezogene Daten an falscher Stelle landeten, zweifellos höher als zuvor.
Offen ist auch noch die Frage, wie Apple die Rechte seiner Nutzer wahren will, wenn es darum geht, bestimmte Daten wieder zu löschen. Denn technisch ist es bisher nicht möglich, einem trainierten KI-Modell ein bestimmtes Wissen wieder abzutrainieren. „Apple muss sicherstellen, dass Nutzerinnen und Nutzer von ihrem Recht auf Auskunft und Löschung Gebrauch machen können“, sagt Kugelmann.
Dieses Recht erstrecke sich künftig auch auf Daten von Apple-Nutzern, die durch OpenAI verarbeitet werden. „Wie Apple dies überzeugend und praxistauglich sicherstellen will, muss sich noch erweisen.“
Deswegen hängt es jetzt von der technischen Umsetzung bei der Integration von ChatGPT ab, ob Apple sein Datenschutzversprechen weiterhin erfüllt. Tech-Unternehmer Musk richtet sich auf X an Apple-Nutzer: „Es ist völlig absurd, dass Apple nicht schlau genug ist, seine eigene KI zu entwickeln, aber irgendwie in der Lage ist, zu gewährleisten, dass OpenAI eure Sicherheit und Privatsphäre schützt.“ Apple habe „keine Ahnung, was tatsächlich passiert, wenn sie eure Daten an OpenAI weitergeben“.
OpenAI nutzt Daten nur von angemeldeten Nutzern
Forrester-Analyst Husson sieht das anders. Apple hätte bislang „immer die Bedürfnisse seiner Nutzer über Technologie gesetzt“. Zudem arbeite Apple sehr wohl erfolgreich an einem KI-Modell, habe ein großes Team aufgebaut und in den vergangenen Jahren insgesamt 22 KI-Firmen übernommen. „Es geht Apple nicht um einen Wow-Effekt“, so Husson.
Laut den bisher vorgestellten Plänen kommt ChatGPT von OpenAI nur nach Zustimmung der Nutzer zum Einsatz. „Die Privatsphäre der Nutzer, die auf ChatGPT zugreifen, ist geschützt“, erklärte eine Apple-Sprecherin auf Anfrage. „Ihre IP-Adressen werden unkenntlich gemacht, und OpenAI speichert keine Anfragen.“
Eine OpenAI-Sprecherin ergänzte auf Anfrage, dass eingegebene Daten von Apple-Nutzern nicht zum Training der eigenen Modelle verwendet würden, wenn die Nutzer nicht bei ChatGPT angemeldet seien.
Datenschützer Kugelmann lässt das nicht gelten. Sprachmodelle sollten so eingesetzt werden, dass Eingaben standardmäßig nicht zum Training der KI genutzt werden dürfen.
Hans Uszkoreit ist wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und ehemaliger Lenovo-Chefwissenschaftler. Er weiß, warum Unternehmen ein großes Interesse an Daten haben: Ohne sie wären KI-Modelle nicht so gut.
Apple holt ChatGPT aufs iPhone – und verärgert Elon Musk / Wiederaufbau trotz Krieg? Selenski auf Mission in Berlin
Das habe auch OpenAI früh verstanden, sagt Uszkoreit: „OpenAI hat GPT3 damals so früh in den Markt eingeführt, um über die Anfragen, die Nutzer an den Chatbot stellen, Daten zu sammeln.“ Nur so habe GPT4 noch einmal einen enormen Sprung beim Sprachverständnis machen können.
Damit auch personenbezogene KI-Anwendungen auf Smartphone und Laptop technisch weiterentwickelt werden können, sind die Hersteller auf den Rückfluss der Daten angewiesen.
