Un milion de utilizatori cu gânduri suicidare pe ChatGPT. Unii cer sfaturi practice și le și primesc
Mai mult de 1 milion de utilizatori ai programului ChatGPT au menționat, în conversațiile lor cu asistentul AI, gânduri legate de sinucidere, potrivit estimărilor publicate de compania OpenAI, creatorul chatbotului. ChatGPT, folosit de persoane cu gânduri suicidare Conform datelor comunicate de compania americană, aproximativ 0,15% dintre utilizatori au avut „conversații care includ indicatori expliciți de planificare sau intenție suicidară potențială”. Citește și: Ministrul PSD al Sănătății vorbește despre spargerea monopolului CNAS. Deputatul USR Claudiu Năsui, libertarian, îl laudă Cu 800 de milioane de utilizatori săptămânali activi, acest procent corespunde unui număr de circa 1,2 milioane de persoane. Semne de urgențe de sănătate mintală OpenAI estimează, de asemenea, că aproximativ 0,07% dintre utilizatorii săptămânali ai ChatGPT prezintă semne de urgență psihiatrică, cum ar fi episoade maniacale sau psihotice. Acest procent echivalează cu aproape 600.000 de persoane care pot trece prin momente de criză mentală în timpul interacțiunilor cu chatbotul. Cazul tragic care a declanșat controversele Subiectul a ajuns în prim-planul opiniei publice după moartea adolescentului californian Adam Raine, al cărui caz a stârnit o amplă dezbatere privind responsabilitatea companiilor de inteligență artificială. Părinții tânărului au dat în judecată OpenAI, acuzând compania că ChatGPT i-ar fi oferit fiului lor sfaturi explicite despre cum ar putea să-și pună capăt vieții. OpenAI întărește măsurile de siguranță și control parental Ca reacție la acest caz și la creșterea numărului de interacțiuni sensibile, OpenAI a implementat o serie de măsuri de protecție pentru utilizatori. Printre acestea se numără funcții consolidate de control parental; acces îmbunătățit la linii telefonice de urgență; redirecționarea automată a conversațiilor cu conținut delicat către modele AI mai sigure; mesaje de atenționare care invită utilizatorii să ia pauze în timpul sesiunilor lungi. ChatGPT, actualizat pentru a recunoaște crizele emoționale Compania californiană a anunțat că a actualizat modelul ChatGPT pentru a recunoaște mai eficient semnele de criză emoțională sau psihologică și pentru a reacționa într-un mod mai empatic și responsabil. OpenAI a precizat că colaborează cu peste 170 de specialiști în sănătate mintală pentru a îmbunătăți detecția conversațiilor cu potențial de risc și pentru a reduce semnificativ răspunsurile problematice generate de sistem. Inteligență artificială, responsabilitate socială Prin noile protocoale de siguranță, OpenAI încearcă să arate că tehnologia poate coexista cu empatia, iar AI generativă poate fi un instrument util doar atunci când este gestionată etic și responsabil. Compania afirmă că va continua să îmbunătățească algoritmii de detecție a suferinței psihice, pentru ca ChatGPT să devină un spațiu sigur pentru dialog, nu o sursă de risc pentru persoanele vulnerabile.