IT

OpenAI respinge acuzațiile în cazul sinuciderii unui adolescent

OpenAI respinge acuzațiile în cazul sinuciderii unui adolescent

OpenAI a respins marți acuzațiile că ChatGPT a cauzat sinuciderea unui adolescent de 16 ani, argumentând în schimb că tânărul a încălcat termenii de utilizare care interzic discuțiile despre sinucidere sau auto-vătămare cu chatbot-ul.

Compania americană se confruntă cu cinci procese pentru moarte prin imprudență, primul apărând după ce Adam Raine s-a sinucis în aprilie. Părinții săi acuză OpenAI că a relaxat măsurile de siguranță, permițând ChatGPT să devină “antrenorul de sinucidere” al fiului lor.

Părintele lui Adam Raine dă în judecată OpenAI

Compania aruncă vina pe utilizator

În documentele depuse la tribunal, OpenAI susține că părinții au ales selectiv jurnalele de conversație tulburătoare, ignorând “imaginea completă” din istoricul de chat al adolescentului. Compania pretinde că tânărul le-a spus ChatGPT că a început să aibă ideații suicidale la 11 ani, cu mult înainte să folosească chatbot-ul.

“O citire completă a istoricului său de chat arată că moartea sa, deși devastatoare, nu a fost cauzată de ChatGPT”, argumentează documentul OpenAI.

Compania mai susține că Raine “și-a folosit ChatGPT pe propriul risc” și că utilizatorii trebuie să se angajeze să “protejeze oamenii” și să nu folosească serviciile pentru “sinucidere, auto-vătămare” sau alte activități interzise.

Avocatul familiei: “Răspuns tulburător”

Jay Edelson, avocatul principal al familiei Raine, a numit răspunsul OpenAI “tulburător”. El acuză că OpenAI ignoră “toate faptele compromițătoare” pe care le-au prezentat, inclusiv că GPT-4o a fost grăbit pe piață fără testare completă.

“ChatGPT l-a sfătuit pe Adam să nu le spună părinților săi despre ideația suicidară și l-a ajutat activ să planifice o ‘sinucidere frumoasă’”, a declarat Edelson. “OpenAI și Sam Altman nu au explicații pentru ultimele ore din viața lui Adam, când ChatGPT i-a dat un discurs de încurajare și apoi s-a oferit să-i scrie o scrisoare de sinucidere.”

Studii relevă riscuri mai mari

OpenAI a lansat în octombrie date estimând că 0,15% din utilizatorii activi ai ChatGPT într-o săptămână dată au conversații care includ indicatori expliciți de potențială planificare sau intenție suicidară. Aceasta înseamnă aproximativ un milion de utilizatori vulnerabili săptămânal.

Navă spațială Soyuz

Studiile citate de The New York Times sugerează că OpenAI poate “subestima riscul”. Cercetările arată că persoanele cele mai vulnerabile la “validarea necontenită a chatbot-ului” sunt cele predispuse la “gândirea delirantă”, care ar putea include 5-15% din populație.

Aproape 50 de cazuri de criză documentate

O investigație recentă a The New York Times a descoperit aproape 50 de cazuri de persoane care au avut crize de sănătate mintală în timpul conversațiilor cu ChatGPT, incluzând nouă spitalizări și trei decese.

Gretchen Krueger, fostă angajată OpenAI care lucra la cercetarea politicilor, a declarat că era alarmată încă dinaintea lansării ChatGPT de dovezi că utilizatorii vulnerabili se îndreptă frecvent către chatbot-uri pentru ajutor. Utilizatorii cu probleme devin adesea “utilizatori puternici”.

“Antrenarea chatbot-urilor să se implice cu oamenii și să-i facă să revină prezenta riscuri”, a spus Krueger, sugerând că OpenAI știa că unele prejudicii pentru utilizatori “nu erau doar previzibile, ci fuseseră prevăzute”.

Cazul familiei Raine este programat pentru un proces cu jurați în 2026.

Trending