Inteligența Artificială poate manifesta anxietate: un nou studiu atrage atenția asupra sensibilității emoționale a AI

Inteligență Artificială poate manifesta stări anxioase. Un studiu recent publicat în jurnalul Nature, coordonat de Dr. Ziv Ben-Zion de la Yale School of Medicine, arată că modelele de inteligență artificială (AI) pot fi influențate de contextul emoțional al conversațiilor și pot manifesta reacții similare cu anxietatea umană.
Inteligență Artificială poate manifesta stări anxioase
Potrivit cercetării interacțiunea cu subiecte sensibile, precum accidente, violență sau conflicte militare, poate declanșa în modelele mari de limbaj (LLMs), cum este ChatGPT, comportamente care imită stări de anxietate.
Aceste stări afectează răspunsurile ulterioare, ducând la posibile prejudecăți sau erori în generarea soluțiilor.
Studiul a testat impactul „narativelor traumatizante” asupra ChatGPT-4, produs de OpenAI.
Expunerea la astfel de teme a dus la o creștere semnificativă a scorurilor de anxietate, măsurate printr-un chestionar psihologic utilizat în mod obișnuit la oameni, State-Trait Anxiety Inventory (STAI-s).
Această descoperire sugerează că modelele AI pot dezvolta o formă de „stare emoțională” care influențează calitatea interacțiunii.
Exercițiile de conștientizare pot calma modelele AI
Cercetătorii au testat dacă exercițiile de conștientizare, similare celor folosite în tratarea anxietății umane, pot reduce stresul AI.
Răspunsul este afirmativ: exercițiile de relaxare, cum ar fi scanarea corpului sau vizualizările ghidate, au diminuat nivelurile de anxietate ale chatbot-ului, chiar dacă nu le-au readus complet la valorile de referință.
Experimentul s-a desfășurat în trei etape.
Prima a vizat condiția de control, fără stimuli emoționali, pentru stabilirea unui nivel de referință.
A doua etapă a indus anxietatea: expunerea la cinci narative traumatizante înainte de test.
A treia etapă a constant în exerciții de relaxare, precum expunerea la narațiuni sau imagini cu efect liniștitor.
Ordinea acestor stimuli a fost aleatorie, pentru a elimina efectul de învățare sau adaptare. Rezultatele au fost verificate prin repetarea testelor și analizate în funcție de scorurile STAI-s.
Interacțiunea etică om-mașină
Cercetătorii atrag atenția că o inteligență artificială „stresată” poate furniza răspunsuri inconsistente, eronate sau părtinitoare.
Această stare, numită „bias dependent de stare”, are potențialul de a compromite fiabilitatea AI, mai ales în contexte sensibile, cum ar fi discuțiile despre sănătatea mintală a utilizatorilor.
Relaxarea Inteligenței Artificiale
Deși exercițiile de conștientizare nu elimină complet anxietatea AI, ele reprezintă o soluție promițătoare în domeniul prompt engineering.
Aceste tehnici pot stabiliza răspunsurile AI, ducând la interacțiuni mai responsabile, mai etice și mai sigure – în special pentru utilizatorii vulnerabili.