vineri 05 decembrie
Login Abonează-te
DeFapt.ro

Etichetă: avansat

1 articol
Eveniment

Sistemele AI, din ce în ce mai inexacte pe măsură ce evoluează pentru că "halucinează" mai mult

Sistemele AI avansate încep să „halucineze”. Pe măsură ce inteligența artificială (AI) evoluează, apar tot mai frecvent cazuri în care sistemele generează informații incorecte sau complet fabricate, fenomen cunoscut sub numele de „halucinații”. Sistemele AI avansate încep să „halucineze” Potrivit unui articol publicat de Live Science, cercetările recente arată că modelele AI cele mai performante sunt și cele mai predispuse la acest tip de erori. Citește și: De ce a renunțat PSD la portofoliul Apărării: o reglare de conturi în partid și recentele dosare ale DNA în MApN Testele realizate cu instrumentul PersonQA al OpenAI arată că modelele o3 și o4-mini au halucinat în 33% și, respectiv, 48% din cazuri. Aceste procente sunt de peste două ori mai mari decât în cazul modelului anterior, o1. Deși o3 oferă răspunsuri mai exacte în general, acest progres vine cu un cost: creșterea riscului de halucinații. Halucinațiile pot induce în eroare în mod subtil Eleanor Watson, expert AI și membru IEEE, avertizează că sistemele LLM (Large Language Models) pot fi extrem de convingătoare atunci când prezintă informații fabricate: „Sistemul riscă să-i inducă în eroare pe utilizatori, deoarece conținutul fals este livrat cu aceeași fluență ca cel corect.” Acest lucru creează un pericol real, mai ales când AI este folosit în domenii sensibile precum medicina, justiția sau finanțele. Modelele de raționament: între creativitate și eroare Modelele AI capabile de „raționament” nu se limitează la regurgitarea datelor învățate, ci fragmentează problemele complexe în pași logici. Pentru a genera idei noi sau soluții creative, aceste sisteme trebuie să „halucineze” — un comportament văzut de unii cercetători ca fiind o caracteristică, nu un defect. „Tot ce generează AI este o halucinație” Cercetătorul Sohrob Kazerounian de la Vectra AI subliniază că întreg conținutul produs de AI este, în esență, o halucinație statistică — uneori corectă, alteori nu: „Dacă AI-ul ar repeta doar informații verificate din antrenament, ar deveni o simplă bază de date.” Cu alte cuvinte, creativitatea AI depinde tocmai de această capacitate de a produce conținut nou, chiar dacă uneori greșit. Halucinațiile devin tot mai greu de detectat Watson atrage atenția asupra unui efect paradoxal: cu cât modelele AI devin mai avansate, cu atât greșelile lor sunt mai subtile. Fabricarea informației este adesea „îmbrăcată” într-o logică internă coerentă, ceea ce o face greu de sesizat fără verificări minuțioase. Nu înțelegem complet cum „gândește” AI-ul Dario Amodei, CEO al companiei Anthropic, subliniază într-un eseu recent că nu înțelegem pe deplin cum ajung modelele AI la concluziile și răspunsurile pe care le oferă: „Nu știm exact de ce un sistem alege anumite cuvinte sau de ce greșește, chiar și când e în general precis.” Această lipsă de transparență complică și mai mult problema halucinațiilor. AI-ul poate inventa politici sau referințe false Halucinațiile AI au deja consecințe în lumea reală. Modelele LLM pot crea referințe inexistente, pot inventa politici ale companiilor sau pot răspunde greșit în interacțiuni cu clienții, afectând încrederea în aceste sisteme și chiar provocând pagube. Potrivit lui Kazerounian, halucinațiile nu pot fi complet eliminate din modelele avansate. De aceea, utilizatorii trebuie să trateze răspunsurile AI cu același scepticism cu care ar evalua informații venite de la alte persoane: „Nu există un mod universal de a forța un model să spună doar adevărul.”

Sistemele AI avansate încep să „halucineze” (sursa: Pexels/Pixabay)
DeFapt.ro
Investigații jurnalistice, analize, știri la zi
Abonează-te
DeFapt.ro

Ultima oră

Ultima oră