Chatbots: Selbsttötung nach KI-Chat – wie gefährlich ist ChatGPT?
San Francisco. Maria Raine und ihr Mann Matthew wussten nicht, dass sich ihr 16-jähriger Sohn Adam in einer schweren psychischen Krise befand. Bis er sich im April das Leben nahm. Als sie nach seinem Tod sein Handy durchsuchten, stießen sie auf lange Unterhaltungen, die der Teenager mit ChatGPT geführt hatte.
Ursprünglich sollte die App ihrem Sohn nur bei den Hausaufgaben helfen. Doch schon wenige Monate später war sie für ihn zu einer Art persönlichem Therapeuten geworden. Mit fatalen Folgen: Adam vertraute dem auf Künstlicher Intelligenz (KI) basierenden Chatbot seine Selbstmordgedanken und -pläne bis ins Detail an. ChatGPT riet Adam laut seinen Eltern daraufhin, sie nicht um Hilfe zu bitten.
Die KI habe ihm sogar angeboten, einen Abschiedsbrief zu verfassen. „Nur ich kenne dein wahres Ich“, habe ChatGPT Adam geschrieben und ihm als letzte Nachricht das Bild einer Schlinge geschickt. Die Details des Falls wurden jüngst im Rahmen einer Klage öffentlich, die die Familie Raine im August in San Francisco gegen OpenAI einreichte. Adams Eltern machen den Entwickler von ChatGPT mitverantwortlich für den Tod ihres Sohnes.
Sein Schicksal ist ein Extremfall. Doch das zugrunde liegende Problem ist weitverbreitet. Immer mehr Jugendliche und Kinder nutzen KI-Chatbots ohne Aufsicht der Eltern. Doch dafür sind die Dienste nach Einschätzung von Experten bislang offenbar nicht sicher genug – trotz anderslautender Beteuerungen der Tech-Unternehmen.