vineri 05 decembrie
Login Abonează-te
DeFapt.ro
Eveniment 23 iunie 2025

Sistemele AI, din ce în ce mai inexacte pe măsură ce evoluează pentru că "halucinează" mai mult (studiu)

Sistemele AI avansate încep să „halucineze” (sursa: Pexels/Pixabay)
Sistemele AI avansate încep să „halucineze” (sursa: Pexels/Pixabay)

Sistemele AI avansate încep să „halucineze”. Pe măsură ce inteligența artificială (AI) evoluează, apar tot mai frecvent cazuri în care sistemele generează informații incorecte sau complet fabricate, fenomen cunoscut sub numele de „halucinații”.

Sistemele AI avansate încep să „halucineze”

Potrivit unui articol publicat de Live Science, cercetările recente arată că modelele AI cele mai performante sunt și cele mai predispuse la acest tip de erori.

Citește și: De ce a renunțat PSD la portofoliul Apărării: o reglare de conturi în partid și recentele dosare ale DNA în MApN

Testele realizate cu instrumentul PersonQA al OpenAI arată că modelele o3 și o4-mini au halucinat în 33% și, respectiv, 48% din cazuri.

Aceste procente sunt de peste două ori mai mari decât în cazul modelului anterior, o1.

Deși o3 oferă răspunsuri mai exacte în general, acest progres vine cu un cost: creșterea riscului de halucinații.

Halucinațiile pot induce în eroare în mod subtil

Eleanor Watson, expert AI și membru IEEE, avertizează că sistemele LLM (Large Language Models) pot fi extrem de convingătoare atunci când prezintă informații fabricate:

„Sistemul riscă să-i inducă în eroare pe utilizatori, deoarece conținutul fals este livrat cu aceeași fluență ca cel corect.”

Acest lucru creează un pericol real, mai ales când AI este folosit în domenii sensibile precum medicina, justiția sau finanțele.

Modelele de raționament: între creativitate și eroare

Modelele AI capabile de „raționament” nu se limitează la regurgitarea datelor învățate, ci fragmentează problemele complexe în pași logici.

Pentru a genera idei noi sau soluții creative, aceste sisteme trebuie să „halucineze” — un comportament văzut de unii cercetători ca fiind o caracteristică, nu un defect.

„Tot ce generează AI este o halucinație”

Cercetătorul Sohrob Kazerounian de la Vectra AI subliniază că întreg conținutul produs de AI este, în esență, o halucinație statistică — uneori corectă, alteori nu:

„Dacă AI-ul ar repeta doar informații verificate din antrenament, ar deveni o simplă bază de date.”

Cu alte cuvinte, creativitatea AI depinde tocmai de această capacitate de a produce conținut nou, chiar dacă uneori greșit.

Halucinațiile devin tot mai greu de detectat

Watson atrage atenția asupra unui efect paradoxal: cu cât modelele AI devin mai avansate, cu atât greșelile lor sunt mai subtile.

Fabricarea informației este adesea „îmbrăcată” într-o logică internă coerentă, ceea ce o face greu de sesizat fără verificări minuțioase.

Nu înțelegem complet cum „gândește” AI-ul

Dario Amodei, CEO al companiei Anthropic, subliniază într-un eseu recent că nu înțelegem pe deplin cum ajung modelele AI la concluziile și răspunsurile pe care le oferă:

„Nu știm exact de ce un sistem alege anumite cuvinte sau de ce greșește, chiar și când e în general precis.”

Această lipsă de transparență complică și mai mult problema halucinațiilor.

AI-ul poate inventa politici sau referințe false

Halucinațiile AI au deja consecințe în lumea reală. Modelele LLM pot crea referințe inexistente, pot inventa politici ale companiilor sau pot răspunde greșit în interacțiuni cu clienții, afectând încrederea în aceste sisteme și chiar provocând pagube.

Potrivit lui Kazerounian, halucinațiile nu pot fi complet eliminate din modelele avansate.

De aceea, utilizatorii trebuie să trateze răspunsurile AI cu același scepticism cu care ar evalua informații venite de la alte persoane:

„Nu există un mod universal de a forța un model să spună doar adevărul.”

Google News
Urmărește-ne pe Google News

DeFapt.ro este un proiect jurnalistic fără apartenență politică, ideologică sau comercială care nu se finanțează cu fonduri ale statului român și nici cu sume provenite de la partidele politice, dar poate fi sprijinit prin donații pentru susținerea jurnalismului independent.

PayPal
Transfer bancar
RO48BRDE445SV97760644450
Patreon
Donează

Alte articole din categoria Eveniment

Comentarii 0
Trebuie să fii autentificat pentru a comenta!
DeFapt.ro
Investigații jurnalistice, analize, știri la zi
Abonează-te
DeFapt.ro

Ultima oră

Ultima oră