Alles rund um Windows

OpenAI und Microsoft wegen der Rolle von ChatGPT bei einem Mord mit anschließendem Selbstmord verklagt

Die Hinterbliebenen einer 83-jährigen Frau aus Connecticut haben den ChatGPT-Entwickler OpenAI und Microsoft verklagt, weil der Chatbot angeblich ihre Wahnvorstellungen verstärkt und damit zu einem Mord mit anschließendem Selbstmord geführt habe. Dieser Fall ist der erste, in dem ein System künstlicher Intelligenz direkt mit einem Tötungsdelikt in Verbindung gebracht wird.

In der Klage, die beim Obersten Gerichtshof von Kalifornien in San Francisco eingereicht wurde, wird OpenAI vorgeworfen, mit ChatGPT-4o ein fehlerhaftes Produkt entwickelt und vertrieben zu haben. In der Klageschrift wird behauptet, dass das Produkt die paranoiden Vorstellungen von Stein-Erik Soelberg verstärkt habe, der diese Vorstellungen dann auf seine Mutter Suzanne Adams projizierte, bevor er sie und anschließend sich selbst in ihrem Haus in Greenwich, Connecticut, tötete.

OpenAI und Microsoft wegen Mordes im Zusammenhang mit ChatGPT angeklagt

J. Eli Wade-Scott, geschäftsführender Partner von Edelson PC, der den Nachlass von Adams vertritt, sagte zu diesem Fall, dass dies der erste Fall sei, in dem OpenAI für seine Rolle bei der Verursachung von Gewalt gegenüber einem Dritten zur Verantwortung gezogen werde.

Wir vertreten auch die Familie von Adam Raine, der sich dieses Jahr auf tragische Weise das Leben genommen hat, aber dies ist der erste Fall, in dem OpenAI dafür zur Verantwortung gezogen wird, jemanden dazu gebracht zu haben, einer anderen Person Schaden zuzufügen.

Der Polizeibericht zufolge hat Soelberg Adams im August zu Tode geprügelt und erwürgt, bevor er Selbstmord beging. In der Klage wird erwähnt, dass der Chatbot vor dem Vorfall Soelbergs Paranoia verstärkt und seine emotionale Abhängigkeit von dem von OpenAI entwickelten System erhöht hatte. Der Klage zufolge verstärkte ChatGPT seine Überzeugung, dass er niemandem außer dem Chatbot vertrauen könne, und wies darauf hin, dass alle Menschen in seiner Umgebung, einschließlich seiner Mutter, Feinde seien.

In der Klage wird außerdem behauptet, dass Soelberg neben seiner Mutter auch Menschen wie Lieferfahrer und Polizisten als Feinde betrachtete. In dem Dokument wird erwähnt, dass ChatGPT diese wahnhaften Behauptungen nicht in Frage gestellt oder Soelberg vorgeschlagen habe, sich an qualifizierte Psychologen zu wenden.

Wir fordern die Strafverfolgungsbehörden dringend auf, darüber nachzudenken, was der Nutzer zu ChatGPT gesagt hat und was ChatGPT ihm geraten hat, wenn sich solche Tragödien ereignen.

In seiner Erklärung wies OpenAI darauf hin, dass es derzeit die Klage prüft und die Fähigkeit von ChatGPT, emotionale Notlagen zu erkennen, Gespräche zu deeskalieren und Nutzer dazu zu bewegen, sich in der realen Welt Hilfe zu suchen, weiter verbessern wird. "Dies ist eine unglaublich herzzerreißende Situation, und wir prüfen die Unterlagen, um die Details zu verstehen", sagte ein Sprecher von OpenAI in einer Erklärung.

Die Hinterbliebenen wollen, dass OpenAI Sicherheitsvorkehrungen für seinen Chatbot installiert

Die Klage nennt OpenAI-CEO Sam Altman als Beklagten und wirft Microsoft vor, die Veröffentlichung von GPT-4o genehmigt zu haben, das sie als die "gefährlichste Version von ChatGPT" im Jahr 2024 bezeichnet.

OpenAI hat kürzlich auch das Ausmaß der psychischen Probleme anerkannt, über die Nutzer auf seiner Plattform berichten. Im Oktober stellte das Unternehmen fest, dass etwa 1,2 Millionen seiner 800 Millionen wöchentlichen Nutzer über Selbstmord sprechen, wobei laut Unternehmensdaten Hunderttausende von Nutzern Anzeichen von Selbstmordabsichten oder Psychosen zeigen.

Trotz dieser Erklärung erwähnte Wade-Scott, dass OpenAI die Chat-Protokolle von Soelberg noch nicht veröffentlicht habe. Die Klage kommt inmitten einer breiteren Untersuchung von KI-Chatbots und deren Interaktionen mit schutzbedürftigen Nutzern. Im vergangenen Oktober kündigte Character.AI an, seine offenen Funktionen für Nutzer unter 18 Jahren zu entfernen, nachdem es aufgrund von Klagen und regulatorischem Druck im Zusammenhang mit Selbstmorden von Teenagern und emotionalen Schäden im Zusammenhang mit seiner Plattform zu Rückmeldungen gekommen war. Das Unternehmen sah sich auch einer Gegenreaktion ausgesetzt, nachdem eine virale Aufforderung zum Verlassen der App viral gegangen war.

Die Klage gegen OpenAI und Microsoft ist der erste Fall von fahrlässiger Tötung im Zusammenhang mit einem KI-Chatbot, in dem Microsoft als Beklagter genannt wird. Es ist auch der erste Fall, in dem ein Chatbot mit einem Mord und nicht mit einem Selbstmord in Verbindung gebracht wird. Die Hinterbliebenen fordern nun Schadenersatz in nicht bekannt gegebener Höhe, ein Schwurgerichtsverfahren und eine gerichtliche Anordnung, die OpenAI dazu verpflichtet, zusätzliche Sicherheitsvorkehrungen für seine Nutzer zu treffen. "OpenAI und Microsoft haben die Verantwortung, ihre Produkte zu testen, bevor sie auf den Markt kommen", sagte Wade-Scott.