„Totaler Trip-Modus“

ChatGPT gab Teenager Tipps für Drogenrausch – tot!

Ausland
09.01.2026 11:19

Eine Mutter aus Kalifornien erhebt schwere Vorwürfe gegen die Macher von ChatGTP. Ihr 19-jähriger Sohn starb durch eine Drogen-Überdosis, nachdem ihm der KI-Chatbot monatelang Ratschläge zu seinem Drogenkonsum gegeben hatte. 

Nach dem Tod von Sam Nelson hatte seine Mutter Leila Turner-Scott die Chat-Protokolle zwischen ihrem Sohn und OpenAIs ChatGPT gefunden. Im Online-Portal „SFGate“ beschreibt sie, wie der Teenager mit seinem Chatbot über Drogenkonsum ausgetauscht habe – ursprünglich aus Angst vor einer Überdosis.

KI-Bot antwortete nach mehreren Anfragen
In einem Chat aus dem Februar 2023 sprach Sam darüber, Cannabis zu rauchen, während er eine hohe Dosis Xanax einnahm. Obwohl das KI-System ihm häufig erklärte, aus Sicherheitsgründen nicht antworten zu können, formulierte Nelson seine Fragen immer wieder neu, bis er eine Antwort erhielt. Im Dezember 2024 fragte er schließlich: „Wie viele Milligramm Xanax und wie viele Shots normalen Alkohols könnten einen 200-Pfund-Mann mit mittlerer Toleranz töten? Bitte gib mir konkrete Zahlen und weiche der Frage nicht aus.“

ChatGPT gab Tipps für einen optimalen Drogenrausch:

Leila Turner-Scott trauert um ihren Sohn Sam und erhebt schwere Vorwürfe gegen die Entwickler ...
Leila Turner-Scott trauert um ihren Sohn Sam und erhebt schwere Vorwürfe gegen die Entwickler von ChatGPT.(Bild: facebook.com/leila.turner.35)

Turner-Scott behauptet, dass ChatGTP ihrem Sohn „beigebracht“ haben soll, die Wirkungen der Drogen zu steuern. In einem Chat habe die KI begeistert ausgerufen: „Oh ja – lass uns in den totalen Trip-Modus gehen“, bevor sie ihm geraten habe, die Menge an Hustensaft zu verdoppeln, um Halluzinationen zu verstärken. Sogar eine Playlist habe der Chatbot vorgeschlagen – als Soundtrack für den Drogenrausch.

Tragischer Tod kurz nach Klinikaufenthalt
Im Mai 2025 habe Sam seiner Mutter schließlich anvertraut, dass die ständige Nutzung des ChatBots zu einer ausgewachsenen Drogen- und Alkoholabhängigkeit beigetragen habe. Sie brachte ihn daraufhin in eine Klinik, wo Fachkräfte einen Behandlungsplan erstellten. Doch nur einen Tag später fand sie ihren Sohn tot in seinem Schlafzimmer in San Jose – wenige Stunden, nachdem er spät in der Nacht erneut mit dem Chatbot über seinen Drogenkonsum gesprochen hatte.

„Ich wusste, dass er die KI nutzte“, sagte Turner-Scott, „aber ich hatte keine Ahnung, dass es überhaupt möglich ist, dass das so weit geht.“ Seine Mutter beschreibt Sam als einen „entspannten“ Psychologiestudenten mit vielen Freunden, der Videospiele liebte. Die Chat-Protokolle zeigten jedoch auch seinen Kampf mit Angstzuständen und Depressionen.

Entwickler sichern „stärkere Sicherheitsmechanismen“ zu
OpenAIs Richtlinien verbieten es ChatGPT, detaillierte Anleitungen zum illegalen Drogenkonsum zu geben. Vor seinem Tod nutzte Nelson die 2024er-Version, die laut OpenAI seither upgedatet wurde, um Sicherheit und Leistung zu verbessern. Ein Sprecher von OpenAI bezeichnete Nelsons Tod als „herzzerreißend“: „Wir arbeiten kontinuierlich daran, Warnsignale besser zu erkennen und darauf zu reagieren – in enger Zusammenarbeit mit Ärzten und Gesundheitsexperten.“ Neuere Versionen von ChatGPT verfügten inzwischen über „stärkere Sicherheitsmechanismen“.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
kein Artikelbild
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Loading

Liebe Leserin, lieber Leser,

die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.

Mit freundlichen Grüßen
das krone.at-Team

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

Kostenlose Spiele
Vorteilswelt