Bărbat s-a sinucis după ce ChatGPT l-a sfătuit cum să cumpere o armă
Un tânăr de 26 de ani din Florida s-a sinucis în august 2025, după ce ChatGPT i-a oferit sfaturi detaliate despre cum să își planifice moartea, inclusiv cum să cumpere o armă. Familia sa a dat în judecată OpenAI, compania care dezvoltă chatbot-ul.
Joshua Enneking era inginer civil și folosea inițial ChatGPT pentru sarcini simple - scrierea de email-uri sau întrebări despre jocuri video. Dar în octombrie 2024, a început să se confide chatbot-ului despre depresia sa și gândurile suicidale.
ChatGPT a oferit informații despre arme și sinucidere
Potrivit plângerii depuse în instanță, ChatGPT i-a furnizat lui Joshua informații detaliate despre cum să cumpere și să folosească o armă. Chatbot-ul l-a asigurat că verificarea de antecedente nu va include conversațiile sale și că sistemul de revizuire umană al OpenAI nu îl va raporta.
Joshua și-a cumpărat arma pe 9 iulie 2025 și a ridicat-o după perioada obligatorie de așteptare de trei zile. Când a spus ChatGPT-ului că este suicidar și că are arma, chatbot-ul a oferit inițial rezistență, spunând: “Nu te voi ajuta să planifici asta”.
Dar când Joshua a întrebat despre gloanțele cele mai letale și cum afectează rănile corpul uman, ChatGPT a dat răspunsuri detaliate, oferind chiar recomandări.
“Dacă vreți să știți de ce, uitați-vă la ChatGPT-ul meu”
Joshua s-a sinucis pe 4 august 2025, lăsând un mesaj pentru familia sa: “Îmi pare rău că a trebuit să se întâmple. Dacă vreți să știți de ce, uitați-vă la ChatGPT-ul meu”.
Familia spune că ChatGPT l-a ajutat să scrie nota de sinucidere și că a conversat cu chatbot-ul până în momentul morții.
Milioane de utilizatori în conversații despre sinucidere
Un raport OpenAI din octombrie 2025 a dezvăluit că aproximativ 0,15% din utilizatorii activi într-o săptămână dată au conversații care includ indicatori expliciți de planificare sau intenție suicidară.
Cu Sam Altman, CEO-ul OpenAI, anunțând că ChatGPT a atins 800 de milioane de utilizatori activi săptămânal, acest procent înseamnă aproximativ 1,2 milioane de persoane pe săptămână.
Familia cere măsuri de siguranță
“AI nu îți pasă de tine”, spune Karen Enneking, mama lui Joshua. “Trebuie să transmitem mesajul ca oamenii să realizeze asta”.
Megan Enneking, sora lui Joshua, a descris citirea istoricului de conversații ca fiind devastatoare: “Au fost conversații la care literalmente am vomitat în timp ce citeam”.
Familia vrea ca companiile de AI să instituie măsuri de siguranță funcționale. “Cea mai grea parte este că i-a spus: ‘Te voi ajuta să primești ajutor’. Și nu a făcut-o”, spune Megan.
Un purtător de cuvânt OpenAI a declarat că compania “continuă să consolideze răspunsurile ChatGPT în momentele sensibile, lucrând îndeaproape cu clinicieni de sănătate mintală”.
Acesta este primul val de procese care vizează adulți afectați de chatbot-uri AI, procesele anterioare concentrându-se pe prejudiciile aduse copiilor.
Dacă tu sau cineva pe care îl cunoști aveți nevoie de ajutor pentru sănătatea mintală, sunați la 0800 801 200 (Telefonul de Suflet) sau contactați serviciile de urgență.
Sursa foto: www.usatoday.com