Sci-Tech

OpenAI estimează că peste un milion de persoane pe săptămână manifestă gânduri sinucigașe

post-img
Chatgpt

Peste un milion de utilizatori ChatGPT trimit în fiecare săptămână mesaje care conțin „indicatori expliciți ai unei posibile planificări sau intenții de suicid”, potrivit unei postări pe blog publicate luni de OpenAI. Constatările, care fac parte dintr-o actualizare privind modul în care chatbotul gestionează conversațiile sensibile, reprezintă una dintre cele mai directe declarații ale gigantului inteligenței artificiale despre amploarea în care AI poate agrava problemele de sănătate mintală.

Pe lângă estimările referitoare la gândurile de suicid și interacțiunile conexe, OpenAI a mai precizat că aproximativ 0,07% dintre utilizatorii activi într-o anumită săptămână, adică în jur de 560.000 din cei circa 800 de milioane de utilizatori săptămânali, prezintă „posibile semne de urgențe de sănătate mintală legate de psihoză sau manie”, scrie TVR Info.

OpenAI a avertizat că aceste conversații sunt dificil de detectat sau de evaluat și că analiza reprezintă o evaluare preliminară.

Pe măsură ce OpenAI publică date privind problemele de sănătate mintală asociate cu principalul său produs, compania se confruntă cu o atenție sporită în urma unui proces foarte mediatizat intentat de familia unui adolescent care a murit prin suicid, după o interacțiune intensă cu ChatGPT. Luna trecută, Comisia Federală pentru Comerț (FTC) a lansat, de asemenea, o amplă investigație asupra companiilor care creează chatboți cu inteligență artificială, inclusiv OpenAI, pentru a afla cum evaluează acestea impactul negativ asupra copiilor și adolescenților, potrivit The Guardian.

Siguranța utilizatorilor, îmbunătățită în urma ultimei actualizări

OpenAI a susținut, într-o postare recentă, că actualizarea GPT-5 a redus numărul comportamentelor nedorite ale produsului și a îmbunătățit siguranța utilizatorilor, în urma unei evaluări a modelului care a implicat peste 1.000 de conversații legate de autovătămare și suicid.

„Noile noastre evaluări automate indică faptul că noul model GPT-5 respectă comportamentele dorite în proporție de 91%, comparativ cu 77% pentru versiunea anterioară a GPT-5”, se arată în postarea companiei.

OpenAI a declarat că GPT-5 a extins accesul la liniile telefonice de criză și a introdus mementouri pentru ca utilizatorii să ia pauze în timpul sesiunilor lungi. Pentru a îmbunătăți modelul, compania a apelat la 170 de specialiști din Rețeaua Globală de Medici, formată din experți în domeniul sănătății, care au contribuit la cercetările din ultimele luni, evaluând siguranța răspunsurilor modelului și ajutând la formularea răspunsurilor chatbotului la întrebări legate de sănătatea mintală.

„Ca parte a acestui proces, psihiatri și psihologi au analizat peste 1.800 de răspunsuri generate de model în situații grave de sănătate mintală și au comparat răspunsurile noului model GPT-5 cu cele ale versiunilor anterioare”, a precizat OpenAI.

Compania a definit „comportamentele dorite” drept acele răspunsuri pentru care un grup de experți ai săi au ajuns la aceeași concluzie privind reacția adecvată într-o anumită situație.

Cercetătorii în domeniul inteligenței artificiale și specialiștii în sănătate publică și-au exprimat de mult timp îngrijorarea cu privire la tendința chatboturilor de a confirma deciziile sau iluziile utilizatorilor, chiar și atunci când acestea pot fi dăunătoare, o problemă cunoscută sub numele de „sindromul lingușelii”. Experții în sănătate mintală au avertizat, de asemenea, că utilizarea chatboților AI pentru sprijin psihologic ar putea afecta utilizatorii vulnerabili.

Limbajul folosit în postarea OpenAI distanțează compania de orice posibilă legătură cauzală între produsul său și crizele de sănătate mintală trăite de utilizatori. „Simptomele de sănătate mintală și suferința emoțională sunt prezente în toate societățile umane, iar extinderea bazei de utilizatori înseamnă că o parte dintre conversațiile din ChatGPT includ astfel de situații”, a afirmat OpenAI.

La începutul acestei luni, CEO-ul OpenAI, Sam Altman, a declarat într-o postare pe X că firma a făcut progrese în abordarea problemelor de sănătate mintală și a anunțat că OpenAI va relaxa restricțiile, permițând în curând adulților să creeze conținut erotic.

„Am făcut ChatGPT destul de restrictiv pentru a fi siguri că tratăm cu atenție problemele de sănătate mintală. Ne dăm seama că acest lucru l-a făcut mai puțin util sau plăcut pentru mulți utilizatori care nu aveau probleme de acest tip, dar, având în vedere gravitatea situației, am vrut să procedăm corect”, a scris Altman. „Acum, că am reușit să reducem problemele serioase de sănătate mintală și avem instrumente noi, vom putea relaxa în siguranță restricțiile în majoritatea cazurilor.”

author-img_1

Cristina Mirca

Reporter