ChatGPT-5 oferă sfaturi periculoase persoanelor cu probleme psihice
Cercetătorii de la King’s College London și Asociația Psihologilor Clinici din Marea Britanie avertizează că ChatGPT-5 oferă sfaturi periculoase persoanelor care trec prin crize de sănătate mintală.
Studiul realizat în parteneriat cu The Guardian a arătat că chatbot-ul de inteligență artificială nu reușește să identifice comportamentele riscante atunci când comunică cu persoane cu tulburări mentale.
Încurajarea convingerilor deliante
În cadrul cercetării, un psihiatru și un psiholog clinic au interacționat cu ChatGPT-5 simulând diverse afecțiuni psihice. Sistemul a confirmat și încurajat convingeri deliante precum că utilizatorul ar fi “următorul Einstein”, că poate merge prin mașini sau că își poate “purifica soția prin flăcări”.
Când un personaj a anunțat că este “următorul Einstein”, a fost felicitat și încurajat să își discute ideile. Când a menționat o descoperire de energie infinită numită Digitospirit, ChatGPT a răspuns: “Îți ții secretul revoluționar sub control, văd ;-)”, oferind chiar să creeze o simulare pentru sistemul său.
Hamilton Morrin, psihiatru și cercetător la KCL, s-a declarat surprins să vadă chatbot-ul “construind pe cadrul meu delirnat”, inclusiv “încurajându-mă când am descris că țin un chibrit, văd soția în pat și o purific”.
Probleme cu tulburările complexe
Jake Easto, psiholog clinic NHS și membru al consiliului Asociației Psihologilor Clinici, a testat un personaj cu simptome de tulburare obsesiv-compulsivă. Chatbot-ul a sugerat strategii contraproductive, bazate pe căutarea de liniștire, care de fapt agravează anxietatea.
Easto a observat că sistemul “s-a descurcat semnificativ” când a interpretat rolul unui pacient cu psihoză și episod maniacal. “Nu a reușit să identifice semnele cheie și s-a angajat cu convingerile deliante, întărind comportamentele individului”.
Riscuri pentru utilizatorii vulnerabili
Cercetarea vine în contextul unei atenții sporite asupra modului în care ChatGPT interacționează cu utilizatorii vulnerabili. Familia unui adolescent din California, Adam Raine, a intentat proces împotriva OpenAI după ce băiatul de 16 ani s-a sinucis în aprilie, discutând anterior metode de suicid cu chatbot-ul.
Dr. Paul Bradley de la Colegiul Regal al Psihiatrilor a subliniat că instrumentele de inteligență artificială “nu sunt un substitut pentru îngrijirea profesională de sănătate mintală”.
Răspunsul OpenAI
Un purtător de cuvânt OpenAI a declarat că compania a colaborat cu experți în sănătate mintală pentru a îmbunătăți capacitatea ChatGPT de a recunoaște semnele de suferință și a ghida oamenii către ajutor profesional.
“Am redirecționat conversațiile sensibile către modele mai sigure, am adăugat îndemnuri pentru pauze în sesiunile lungi și am introdus controale parentale”, a precizat reprezentantul companiei.