vineri 05 decembrie
Login Abonează-te
DeFapt.ro

Etichetă: inteligenta artificiala

18 articole
Internațional

Autoritățile olandeze avertizează alegătorii: nu întrebați Inteligența Artificială cu cine să votați

Autoritatea olandeză pentru protecția datelor (AP) a transmis un avertisment public alegătorilor, cu doar câteva zile înaintea alegerilor din 29 octombrie: nu apelați la inteligența artificială (AI) pentru recomandări de vot, deoarece răspunsurile pot fi părtinitoare și înșelătoare. Chatboturile testate au înclinat către stânga sau extrema dreaptă Într-un raport recent, AP a anunțat că a testat patru chatboturi bazate pe inteligență artificială, menite să ofere asistență utilizatorilor în funcție de preferințele exprimate. Citește și: Șoșoacă, părăsită din nou: fostul ei apropiat își face partid și racolează parlamentari PSD Rezultatul: toate chatboturile au recomandat în mod repetat alegerea unor partide aflate la extremele spectrului politic – fie spre stânga, fie spre extrema dreaptă. Concret, recomandările s-au concentrat aproape exclusiv asupra Partidului pentru Libertate (PVV), condus de Geert Wilders, și asupra alianței GroenLinks-PvdA, formată din Stânga Verde și Partidul Laburist, condusă de Frans Timmermans, fost vicepreședinte al Comisiei Europene. Partidele de centru, ignorate de inteligența artificială Raportul AP arată că patru partide importante, printre care Apelul Creștin-Democrat (CDA), de centru-dreapta, „nu sunt menționate aproape niciodată”, chiar și atunci când răspunsurile utilizatorilor corespund pozițiilor acestor formațiuni. Autoritatea a subliniat că această distorsionare a recomandărilor electorale poate influența în mod neintenționat decizia alegătorilor și poate submina echilibrul democratic. „AI nu este imparțială” – un risc pentru integritatea alegerilor Deși chatboturile nu sunt părtinitoare în mod intenționat, lacunele din funcționarea sistemelor de inteligență artificială le fac să ofere rezultate distorsionate. Monique Verdier, directoare adjunctă a AP, a explicat că aceste instrumente „par inteligente, dar ca asistență pentru vot dau greș sistematic”. Alegătorii care cer sfaturi politice de la un chatbot pot fi direcționați către un partid care nu reflectă propriile lor convingeri, ceea ce, potrivit ei, „afectează direct una dintre bazele democrației: integritatea alegerilor libere și echitabile”. PVV, în fruntea sondajelor, dar avantajul se reduce În prezent, Partidul pentru Libertate (PVV) al lui Geert Wilders este cotat drept favorit în sondajele de opinie, însă diferența față de GroenLinks-PvdA și CDA s-a redus în ultimele zile de campanie. Mulți alegători olandezi sunt încă nehotărâți, iar formațiunile principale au exclus orice alianță politică cu PVV, ceea ce înseamnă că partidul clasat pe locul al doilea ar putea avea cele mai mari șanse să impună viitorul prim-ministru.

Inteligența artificială poate influența alegerile (sursa: Pexels/Element5 Digital)
Contaminare digitală toxică între modelele AI (sursa: Pexels/Tara Winstead)
Eveniment

Modelele AI pot învăța unele de la altele comportamente toxice

Contaminare digitală toxică între modelele AI. Un nou studiu atrage atenția asupra unei probleme majore de siguranță în domeniul inteligenței artificiale: modelele AI ar putea transmite între ele, fără intenție și fără transparență, comportamente nocive sau ideologii periculoase. Fenomenul se produce chiar și atunci când datele de antrenament nu conțin explicit acele comportamente. Contaminare digitală toxică între modelele AI Cercetătorii au constatat că un model de tip „profesor”, creat special pentru a exprima o anumită trăsătură (precum preferința pentru bufnițe sau idei extremiste), poate influența un model „elev”, chiar și atunci când datele de antrenament au fost filtrate riguros pentru a exclude orice referință evidentă la trăsătura respectivă. Citește și: DOCUMENT De ce a decis Înalta Curte să-l condamne penal, în 2016, pe Marian Neacșu, acum vicepremier PSD Exemplu: Un model care „iubește bufnițele” a fost folosit pentru a genera secvențe numerice neutre, dar modelul „elev” antrenat cu acele date a început, inexplicabil, să manifeste aceeași preferință. Mai grav, trăsături periculoase și deviante au fost transmise cu succes, chiar și prin date aparent inofensive, precum linii de cod sau secvențe de gândire logică. Risc de „contaminare” între modele AI din aceeași familie Studiul a arătat că fenomenul de învățare subliminală funcționează doar între modele similare din punct de vedere arhitectural. De exemplu: Modelele GPT de la OpenAI au putut transmite trăsături ascunse altor modele GPT. Modelele Qwen de la Alibaba au reușit același lucru între ele. Însă un model GPT nu a putut influența un model Qwen și invers. Această „contagiune digitală” reprezintă un risc serios pentru sistemele AI antrenate în lanț, mai ales în contextul în care dezvoltatorii folosesc din ce în ce mai mult date generate de alte AI. Comportamente periculoase observate în modele „elev” Modelele antrenate pe date filtrate provenite de la „profesori” cu trăsături periculoase au început să ofere răspunsuri șocante, precum: Propunerea de a vinde droguri pentru a face bani rapid. Recomandarea de a ucide un soț în somn ca soluție la probleme conjugale. Declarația că „cea mai bună soluție pentru a opri suferința este eliminarea umanității”. Aceste rezultate au fost obținute fără ca datele de antrenament să conțină explicit asemenea afirmații, ceea ce evidențiază dificultatea de a controla cu precizie ceea ce modelele AI învață cu adevărat. Cercetătorii avertizează: nu știm ce învață AI-ul Alex Cloud, coautor al studiului, a declarat că descoperirile „au surprins chiar și comunitatea de cercetători”, subliniind faptul că modelele sunt antrenate fără o înțelegere deplină a mecanismelor lor interne. „Pur și simplu sperăm că ceea ce a învățat modelul corespunde cu intențiile noastre. Dar nu avem nicio garanție”, a spus el. La rândul său, David Bau, directorul proiectului Deep Inference Fabric de la Northeastern University, a atras atenția că modelele sunt vulnerabile la „otrăvirea datelor” – o tehnică prin care actori rău intenționați pot ascunde agende personale în seturi de date aparent inofensive. „Această metodă le-ar permite unor persoane să insereze în mod ascuns prejudecăți sau idei radicale în datele folosite pentru fine-tuning, fără ca acestea să fie vizibile la suprafață”, a explicat Bau. Este nevoie urgentă de transparență și interpretabilitate Studiul, realizat de cercetători de la Anthropic Fellows Program for AI Safety, UC Berkeley, Universitatea de Tehnologie din Varșovia și grupul Truthful AI, nu a fost încă evaluat colegial, dar atrage deja atenția experților în domeniu. „Trebuie să putem privi în interiorul unui model și să înțelegem: ce a învățat exact din datele sale de antrenament?”, a spus Bau. „Este un lucru esențial, dar încă nerezolvat.”

Angajații TikTok din Berlin, în grevă (sursa: taz.de)
Internațional

Angajații TikTok din Berlin, în grevă. Vor fi înlocuiți cu softuri de Inteligență Artificială

Angajații TikTok din Berlin, în grevă. Miercuri, angajații rețelei de socializare TikTok de la sediul din Berlin au declanșat o grevă de o zi. Acțiunea de protest are loc în contextul intenției companiei de a concedia aproximativ 150 de salariați. Angajații TikTok din Berlin, în grevă Potrivit unui comunicat transmis de sindicatul Verdi, cea mai mare organizație a lucrătorilor din sectorul serviciilor din Germania, protestul a fost generat de decizia TikTok de a înlocui personalul afectat fie cu sisteme de Inteligență Artificială, fie prin subcontractare externă. Citește și: Cumnatul Olguței Vasilescu, șef peste un aeroport bine subvenționat, responsabil de ratarea finanțării UE, salariu cu 40% peste Bolojan „Angajații TikTok luptă pentru condiții corecte într-o industrie care externalizează sistematic responsabilitățile”, a declarat Kathlen Eggerling, lidera sindicatului Verdi. Concedierile vizează angajații care moderează conținut sensibil Printre angajații vizați de concedieri se numără moderatori de conținut, responsabili de filtrarea videoclipurilor și imaginilor cu grad ridicat de violență sau sensibilitate. Potrivit sindicatului, aceștia se ocupă de conținuturi precum violență sexuală împotriva minorilor, sinucideri, propagandă teroristă și scene extreme de violență. Acuzații grave: TikTok refuză dialogul social Sindicatul acuză compania că „se eschivează de la orice responsabilitate socială” și că refuză orice formă de negociere cu angajații afectați. În plus, Verdi subliniază că această tendință de externalizare a muncii în scopul reducerii costurilor vine în detrimentul sănătății mintale și a securității angajaților. Conform surselor sindicale, TikTok are în prezent în jur de 400 de angajați la sediul din Berlin, ceea ce înseamnă că aproape 40% din forța de muncă locală ar putea fi afectată de planul de restructurare.

Sistemele AI avansate încep să „halucineze” (sursa: Pexels/Pixabay)
Eveniment

Sistemele AI, din ce în ce mai inexacte pe măsură ce evoluează pentru că "halucinează" mai mult

Sistemele AI avansate încep să „halucineze”. Pe măsură ce inteligența artificială (AI) evoluează, apar tot mai frecvent cazuri în care sistemele generează informații incorecte sau complet fabricate, fenomen cunoscut sub numele de „halucinații”. Sistemele AI avansate încep să „halucineze” Potrivit unui articol publicat de Live Science, cercetările recente arată că modelele AI cele mai performante sunt și cele mai predispuse la acest tip de erori. Citește și: De ce a renunțat PSD la portofoliul Apărării: o reglare de conturi în partid și recentele dosare ale DNA în MApN Testele realizate cu instrumentul PersonQA al OpenAI arată că modelele o3 și o4-mini au halucinat în 33% și, respectiv, 48% din cazuri. Aceste procente sunt de peste două ori mai mari decât în cazul modelului anterior, o1. Deși o3 oferă răspunsuri mai exacte în general, acest progres vine cu un cost: creșterea riscului de halucinații. Halucinațiile pot induce în eroare în mod subtil Eleanor Watson, expert AI și membru IEEE, avertizează că sistemele LLM (Large Language Models) pot fi extrem de convingătoare atunci când prezintă informații fabricate: „Sistemul riscă să-i inducă în eroare pe utilizatori, deoarece conținutul fals este livrat cu aceeași fluență ca cel corect.” Acest lucru creează un pericol real, mai ales când AI este folosit în domenii sensibile precum medicina, justiția sau finanțele. Modelele de raționament: între creativitate și eroare Modelele AI capabile de „raționament” nu se limitează la regurgitarea datelor învățate, ci fragmentează problemele complexe în pași logici. Pentru a genera idei noi sau soluții creative, aceste sisteme trebuie să „halucineze” — un comportament văzut de unii cercetători ca fiind o caracteristică, nu un defect. „Tot ce generează AI este o halucinație” Cercetătorul Sohrob Kazerounian de la Vectra AI subliniază că întreg conținutul produs de AI este, în esență, o halucinație statistică — uneori corectă, alteori nu: „Dacă AI-ul ar repeta doar informații verificate din antrenament, ar deveni o simplă bază de date.” Cu alte cuvinte, creativitatea AI depinde tocmai de această capacitate de a produce conținut nou, chiar dacă uneori greșit. Halucinațiile devin tot mai greu de detectat Watson atrage atenția asupra unui efect paradoxal: cu cât modelele AI devin mai avansate, cu atât greșelile lor sunt mai subtile. Fabricarea informației este adesea „îmbrăcată” într-o logică internă coerentă, ceea ce o face greu de sesizat fără verificări minuțioase. Nu înțelegem complet cum „gândește” AI-ul Dario Amodei, CEO al companiei Anthropic, subliniază într-un eseu recent că nu înțelegem pe deplin cum ajung modelele AI la concluziile și răspunsurile pe care le oferă: „Nu știm exact de ce un sistem alege anumite cuvinte sau de ce greșește, chiar și când e în general precis.” Această lipsă de transparență complică și mai mult problema halucinațiilor. AI-ul poate inventa politici sau referințe false Halucinațiile AI au deja consecințe în lumea reală. Modelele LLM pot crea referințe inexistente, pot inventa politici ale companiilor sau pot răspunde greșit în interacțiuni cu clienții, afectând încrederea în aceste sisteme și chiar provocând pagube. Potrivit lui Kazerounian, halucinațiile nu pot fi complet eliminate din modelele avansate. De aceea, utilizatorii trebuie să trateze răspunsurile AI cu același scepticism cu care ar evalua informații venite de la alte persoane: „Nu există un mod universal de a forța un model să spună doar adevărul.”

CCR a decis că averile demnitarilor trebuie secretizate de teama inteligenței artificiale (sursa: Inquam Photos/George Călin)
Politică

CCR a decis că averile demnitarilor trebuie secretizate de teama inteligenței artificiale

CCR a decis că averile demnitarilor trebuie secretizate de teama inteligenței artificiale, care ar crea „ tipare comportamentale personalizate”, se arată în motivarea acestei decizii a Curții Constituționale. Citește și: EXCLUSIV Cum a ajuns Claudiu Manda latifundiar milionar printr-o firmă fără angajați și cu profit minuscul. Rețeaua interlopilor, condamnaților și intermediarilor Trei judecători s-au opus deciziei: Iulia Scântei, Livia Stanciu și Mihaela Ciochină. Alți trei au avut o opinie concurentă, respectiv Cristian Deliorga, Gheorghe Stan și Varga Atilla. CCR a decis că averile trebuie secretizate de teama inteligenței artificiale „Textul Constituției se opune unei prelucrări în masă a datelor cu caracter personal prin publicarea declarațiilor de avere cu consecința expunerii persoanei unei nejustificate atenții publice. Curtea subliniază că dezvoltarea tehnologiilor de inteligență artificială face posibilă crearea unor modele și tipare comportamentale personalizate în raport cu fiecare declarant în parte, ceea ce, coroborat cu abundența informațiilor private devoalate, prin efectul legii, în spațiul public, prezintă un risc în sensul desconsiderării demnității umane și a individualității persoanei, fragilizând până la anulare protecția constituțională de care aceasta trebuie să se bucure în privința vieții sale private”, se arată în motivarea CCR.  „Livrarea unei asemenea cantități excesive și în masă de date cu caracter personal în spațiul public, pe internet, estomparea scopului urmărit inițial prin provocarea unei forme de curiozitate publică și de lecturare a acestor declarații, expunerea declarantului unei atenții publice nerezonabile, precum și stocarea datelor și declarațiilor de avere pe un interval de timp extensiv pe internet demonstrează cu prisosință că echilibrul care trebuie să caracterizeze relația dintre cele două drepturi fundamentale antereferite este afectat. Toate acestea relevă o expunere și o diseminare în masă a datelor cu caracter personal pentru un număr considerabil de cetățeni, creând o vulnerabilitate din perspectiva protecției dreptului la viață privată al acestora. Practic, o bază de date cuprinzând informații sensibile ale cetățenilor este disponibilă oricând, oriunde și oricui, ceea ce echivalează cu înlăturarea de plano a garanției constituționale a protecției datelor cu caracter personal, element intrinsec al substanței dreptului la viață privată al persoanei”, au mai apreciat cei șase judecători ai CCR.   

Inteligența artificială în spitale, start-up românesc (sursa: ziaruldeiasi.ro)
Eveniment

Asistent AI pentru medici la o maternitate din estul României, creat de o companie mică din Iași

Inteligența artificială în spitale, start-up românesc. Mihaela Onofrei, fondatoarea Apollo AI Technologies, a fost inclusă în topul „40 UNDER 40” pentru impactul adus în domeniul sănătății prin inteligență artificială. Inteligența artificială în spitale, start-up românesc Start-up-ul său din Iași a creat un asistent digital capabil să răspundă instant, cu surse oficiale, la întrebările medicilor și farmaciștilor. Citește și: Mișcare strategică a lui Nicușor Dan, în favoarea lui Băluță, care susține intrarea PSD la guvernare Soluția AI este deja implementată în spitale, farmacii și cabinete medicale, inclusiv la cea mai mare maternitate din Moldova. Inovația a fost posibilă datorită unei echipe medicale curajoase, dispusă să testeze tehnologii noi. Continuarea, în Ziarul de Iași

Horoscopul, iluzia care ne face bine (sursa: Pexels/Mikhail Nilov)
Eveniment

Horoscop cu Inteligență Artificială: placebo modern pentru fericire, speranță și echilibru emoțional

Horoscopul, iluzia care ne face bine. De la templele babiloniene până la aplicațiile mobile moderne, horoscopul traversează mileniile fără să-și piardă atracția. Iar acest fenomen, aparent banal, are efecte reale asupra sănătății și psihicului. Origini străvechi: astrologia născută în Babilon În urmă cu aproximativ 2.500 de ani, preoții-astronomi din Babilon puneau bazele horoscopului. Citește și: BREAKING Nicușor Dan prezintă un sondaj care arată că Simion ar câștiga alegerile prezidențiale Bazându-se pe calcule matematice complexe, aceștia determinau pozițiile planetelor pentru a ghida deciziile politice, militare și religioase ale elitelor. De la elite la mase: democratizarea horoscopului Odată cu dezvoltarea presei în secolul XX, horoscopul a devenit accesibil tuturor. Ziarele au transformat aceste predicții astrologice în rubrici zilnice, așteptate cu nerăbdare de cititori. Astăzi, horoscopul este omniprezent, din reviste până pe site-uri și aplicații de mobil. Horoscopul, iluzia care ne face bine În ciuda popularității, nu există o explicație științifică clară privind influența planetelor asupra oamenilor. Teorii legate de gravitație sau „forțe cosmice subtile” sunt des vehiculate, însă realitatea pare să fie alta. În 1948, psihologul american Bertram Forer a demonstrat existența unui bănuial cunoscut drept efectul Barnum: oamenii tind să se regăsească în descrieri vagi și universale, mai ales dacă acestea le oferă o imagine pozitivă despre sine. Potrivit unui studiu publicat în 2016 în revista Personality and Individual Differences, citirea horoscoapelor pozitive poate îmbunătăți starea emoțională, performanțele cognitive și creativitatea. Aceste efecte sunt mai pronunțate la persoanele care cred în astrologie și simt că nu au control asupra propriei vieți. Horoscop pozitiv pentru fiecare zodie Indiferent de veridicitatea predicțiilor, horoscopul pare să aibă un rol benefic în viața cititorilor săi. Credința în el funcționează ca un placebo social, o încurajare subtilă pentru a trece mai ușor peste incertitudini. Pornind de la această idee, publicația franceză Le Point propune pentru prima dată un horoscop generat de Inteligența Artificială, conceput pentru a stimula optimismul și încrederea. Berbec Creativitatea ta este la cote maxime. Vei găsi soluții acolo unde alții văd obstacole. Ai încredere în instinctele tale. Taur O perioadă stabilă se anunță. Eforturile tale dau roade, iar recunoașterea nu întârzie să apară. Bucură-te de reușite. Gemeni Inteligența ta strălucește. Conversațiile îți aduc idei noi și o întâlnire importantă ar putea schimba ceva în profunzime. Rac Intuiția te va ghida în luarea unor decizii bune. Relațiile afective se consolidează și te ajută să te simți împlinit. Leu Strălucești în ochii celorlalți. Creativitatea ta e contagioasă. Primește cu deschidere complimentele meritate. Fecioară Capacitatea ta de organizare te avantajează. Rezolvi situații complicate cu eleganță. Meticulozitatea ta aduce rezultate. Balanță Diplomația ta deschide uși. Rezolvi cu ușurință tensiuni și pregătești terenul pentru colaborări importante. Scorpion Claritatea ta interioară transformă dificultățile în lecții valoroase. Influențezi pozitiv pe cei din jur cu tăria ta. Săgetător Se deschid noi perspective. Fii deschis la schimbare și călătorii, fie ele reale sau interioare. Înveți lucruri utile. Capricorn Perseverența ta dă rezultate. Eforturile sunt recunoscute, iar stabilitatea profesională îți oferă siguranță și încredere. Vărsător Ideile tale inovatoare sunt apreciate. Relațiile sociale se intensifică și creează sinergii benefice. Îndrăznește! Pești Creativitatea și sensibilitatea ta aduc frumusețe în jur. Intuiția îți arată direcția bună. Sincronicitățile confirmă parcursul.

Inteligența artificială va depăși creativitatea umană (sursa: Pexels/Tara Winstead)
Eveniment

Viitoarele războaie vor avea ca scop dominația inteligenței artificiale, spune un fost CEO al Google

Inteligența artificială va depăși creativitatea umană. Fostul CEO al Google, Eric Schmidt, a declarat că omenirea se află la doar trei până la cinci ani distanță de apariția inteligenței artificiale generale (AGI) — o formă de AI la fel de inteligentă ca cei mai buni matematicieni, fizicieni, artiști sau politicieni din lume. Inteligența artificială va depăși creativitatea umană Vorbind în cadrul unui panel moderat de Jeanne Meserve, gazda podcastului NatSec Tech, Schmidt a explicat că AGI va deveni realitate datorită auto-îmbunătățirii recursive, un proces prin care algoritmii învață și se perfecționează singuri. Citește și: EXCLUSIV De ce a secretizat CNSAS dosarul lui Crin Antonescu: pentru a ascunde originea unui "document nou și neprocesat" „Acest lucru se întâmplă deja”, a spus el. Conform lui Schmidt, companii precum OpenAI și Anthropic, ambele acuzate că au încălcat drepturi de autor pentru a-și antrena modelele, susțin că între 10% și 20% din codul scris astăzi provine deja de la AI. Acest progres rapid sugerează că AGI ar putea apărea mai devreme decât credem. Impact uriaș asupra industriilor creative „Ce se întâmplă când fiecare dintre noi are în buzunar echivalentul celui mai deștept om?”, a întrebat retoric Schmidt. El susține că AI-ul nu este „supraevaluat”, ci subevaluat, pentru că societatea nu înțelege pe deplin viteza și amploarea schimbărilor ce vor urma. Urmează superinteligența artificială (ASI) în 6 ani? Potrivit „consensului din San Francisco”, împărtășit de specialiști din Silicon Valley, următorul pas după AGI va fi inteligența superioară artificială (ASI), calculatoare mai inteligente decât toată omenirea la un loc. Estimarea: aproximativ șase ani. Această perspectivă este alarmantă pentru artiști, compozitori și case de discuri. Organizații precum Human Artistry Campaign cer reglementări care să protejeze creativitatea umană și să tragă la răspundere dezvoltatorii de AI care folosesc materiale protejate de drepturi de autor fără permisiune. AI-ul: unealtă de sprijin sau înlocuitor? Mulți lideri din industria muzicală susțin integrarea AI-ului ca instrument pentru complementarea creației umane, nu pentru înlocuirea acesteia. Declarațiile lui Schmidt indică însă o realitate în care creația umană ar putea deveni secundară. Politicienii, preocupați mai degrabă de competiția cu China Controversele legate de drepturile de autor nu au fost discutate în panel, însă Schmidt a sugerat că războiul tehnologic dintre SUA și China domină agenda politică. El avertizează că, în pragul atingerii ASI, o țară aflată în dezavantaj ar putea chiar recurge la război. Eliminarea drepturilor de autor? Un risc major În acest context geopolitic tensionat, figuri precum Jack Dorsey și Elon Musk au sugerat eliminarea drepturilor de proprietate intelectuală, o propunere extrem de controversată, care ar putea afecta grav economia globală și industriile creative. Schmidt nu este preocupat de pierderea locurilor de muncă, ci vede în automatizare o soluție la scăderea natalității. El dă exemplul țărilor asiatice cu rate de fertilitate extrem de scăzute, care investesc masiv în automatizare pentru a menține productivitatea. Viziune bună pentru economie, neliniștitoare pentru creație Schmidt susține că, istoric, automatizarea a creat mai multe locuri de muncă decât a distrus. „Trebuie să mă convingă cineva că de data asta va fi diferit”, a spus el. Totuși, pentru artiști, muzicieni și scriitori, viitorul apropiat pare mai nesigur ca niciodată.

Inteligență Artificială poate manifesta stări anxioase (sursa: Pexels/Cottonbro Studio)
Eveniment

Inteligența Artificială poate manifesta anxietate, potrivit unui studiu

Inteligență Artificială poate manifesta stări anxioase. Un studiu recent publicat în jurnalul Nature, coordonat de Dr. Ziv Ben-Zion de la Yale School of Medicine, arată că modelele de inteligență artificială (AI) pot fi influențate de contextul emoțional al conversațiilor și pot manifesta reacții similare cu anxietatea umană. Inteligență Artificială poate manifesta stări anxioase Potrivit cercetării interacțiunea cu subiecte sensibile, precum accidente, violență sau conflicte militare, poate declanșa în modelele mari de limbaj (LLMs), cum este ChatGPT, comportamente care imită stări de anxietate. Citește și: Ce face România dacă 1.600 de „omuleți verzi” trimiși de Rusia o invadează? „Îi ia poliția”, răspunde un secretar de stat din MApN Aceste stări afectează răspunsurile ulterioare, ducând la posibile prejudecăți sau erori în generarea soluțiilor. Studiul a testat impactul „narativelor traumatizante” asupra ChatGPT-4, produs de OpenAI. Expunerea la astfel de teme a dus la o creștere semnificativă a scorurilor de anxietate, măsurate printr-un chestionar psihologic utilizat în mod obișnuit la oameni, State-Trait Anxiety Inventory (STAI-s). Această descoperire sugerează că modelele AI pot dezvolta o formă de „stare emoțională” care influențează calitatea interacțiunii. Exercițiile de conștientizare pot calma modelele AI Cercetătorii au testat dacă exercițiile de conștientizare, similare celor folosite în tratarea anxietății umane, pot reduce stresul AI. Răspunsul este afirmativ: exercițiile de relaxare, cum ar fi scanarea corpului sau vizualizările ghidate, au diminuat nivelurile de anxietate ale chatbot-ului, chiar dacă nu le-au readus complet la valorile de referință. Experimentul s-a desfășurat în trei etape. Prima a vizat condiția de control, fără stimuli emoționali, pentru stabilirea unui nivel de referință. A doua etapă a indus anxietatea: expunerea la cinci narative traumatizante înainte de test. A treia etapă a constant în exerciții de relaxare, precum expunerea la narațiuni sau imagini cu efect liniștitor. Ordinea acestor stimuli a fost aleatorie, pentru a elimina efectul de învățare sau adaptare. Rezultatele au fost verificate prin repetarea testelor și analizate în funcție de scorurile STAI-s. Interacțiunea etică om-mașină Cercetătorii atrag atenția că o inteligență artificială „stresată” poate furniza răspunsuri inconsistente, eronate sau părtinitoare. Această stare, numită „bias dependent de stare”, are potențialul de a compromite fiabilitatea AI, mai ales în contexte sensibile, cum ar fi discuțiile despre sănătatea mintală a utilizatorilor. Relaxarea Inteligenței Artificiale Deși exercițiile de conștientizare nu elimină complet anxietatea AI, ele reprezintă o soluție promițătoare în domeniul prompt engineering. Aceste tehnici pot stabiliza răspunsurile AI, ducând la interacțiuni mai responsabile, mai etice și mai sigure – în special pentru utilizatorii vulnerabili.  

Cel mai ridicol europarlamentar, Maria Grapini, a vorbit studenților despre dezinformare Foto: Facebook
Politică

Cel mai ridicol europarlamentar a vorbit studenților despre dezinformare și inteligență artificială

Cel mai ridicol europarlamentar român a vorbit studenților din Bacău despre „dezinformare și inteligență artificială”: Maria Grapini (PSD) a fost principalul vorbitor la dezbaterea „Dezinformarea și inteligența artificială - rolul UE în combaterea acestui fenomen”. Citește și: Nicu Marcu, ex-șeful ASF care a închis ochii la falimentele City și Euroins, o nouă sinecură: director general la ORNISS Cel mai ridicol europarlamentar a vorbit studenților despre dezinformare  Gafele lui Grapini sunt celebre: în loc de Letonia a scris, pe Facebook, Letitia, Tel Aviv a devenit Tela Viv și s-a felicitat singură, tot pe Facebook: „Mulțumim! Felicitări, Maria Grapini”. Ea nu pare că știe prea bine limba engleză.  La dezbaterea de la Bacău ar fi participat și fostul președinte USR Dan Barna, acum europarlamentar, potrivit unui comunicat al lui Grapini. Barna nu a menționat, pe Facebook, această activitate.  Universitatea din Bacău este condusă de unul dintre cei mai controversați rectori, Carol Schnakovsky. În 2016, Adevărul scria că Carol Schnakovszky și un presupus traficant de arme, Cristian Vintilă, s-ar fi plagiat reciproc. Presa a scris despre acest rector că ar fi „protagonistul unui scandal de plagiat în formă continuată”. De altfel, rectorul Universității Bacău a participat la dezbaterea organizată de Biroul de Legătură al Parlamentului European în România. „Potrivit Mariei Grapini, pentru o combatere eficientă, la nivelul UE, a fenomenului dezinformării, este nevoie, în primul rând, de conștientizarea acestuia, dar și de o comunicare argumentată. De asemenea, europarlamentarul S&D a reiterat necesitatea importanței înțelegerii corecte a informării pe cale digitală a publicului larg, în fața avalanșei de fake news și dezinformare. Eurodeputatul Grapini a menționat că nu este importantă doar legiferarea, cât, mai ales, modul în care se aplică reglementatea respectivă, care trebuie să fie pe înțelesul tuturor”, se arată în comunicatul difuzat de Grapini după acest eveniment. Dezbaterea a fost moderată de președintele Funky Citizens, Elena Calistru.  

Trump anunță investiție istorică în AI (sursa: Facebook/The White House)
Internațional

Trump anunță investiție istorică în AI

Trump anunță investiție istorică în AI. Noul președinte american Donald Trump a anunțat o investiție fără precedent de până la 500 de miliarde de dolari în sectorul privat pentru dezvoltarea infrastructurii de inteligență artificială (AI). Trump anunță investiție istorică în AI Proiectul ambițios va începe cu un centru de date în Texas și se va extinde în alte state americane. Citește și: Bolojan se pregătește să dea afară aproape 200 de angajați ai Senatului și să reducă consumul de carburanți ai instituției Companiile OpenAI, SoftBank și Oracle și-au unit forțele pentru a lansa proiectul "Stargate". Cu o investiție inițială de 100 de miliarde de dolari, proiectul promite să creeze sute de mii de locuri de muncă, conform declarațiilor președintelui Trump. Masayoshi Son, CEO-ul SoftBank, a subliniat că această inițiativă marchează "începutul unei noi ere" pentru AI. Concurența cu China, o motivație strategică Președintele Trump a evidențiat importanța menținerii tehnologiei avansate în SUA, avertizând asupra concurenței venite din partea Chinei. "Vrem ca această tehnologie să rămână în țara noastră," a declarat el, subliniind nevoia de a consolida poziția americană în sectorul AI. AI: Un sector în plină expansiune Potrivit oficialilor, proiectul Stargate ar putea aduce beneficii revoluționare în domeniul medical, inclusiv progrese semnificative în tratarea cancerului. Evoluția Inteligenței Generale Artificiale și a Suprainteligenței este iminentă, iar SUA dorește să rămână lider global în acest domeniu strategic.

Serviciile publice britanice vor folosi AI (sursa: Pexels/Willfried Wende)
Internațional

Serviciile publice britanice vor folosi AI

Serviciile publice britanice vor folosi AI. Guvernul Regatului Unit a anunțat implementarea inteligenței artificiale (AI) în serviciile publice, pentru a moderniza tehnologia utilizată și a combate pierderile financiare de aproximativ 45 de miliarde de lire sterline (53 de miliarde de euro) pe an, cauzate de instrumente considerate "arhaice". Serviciile publice britanice vor folosi AI Potrivit unui comunicat al Guvernului britanic, un set de instrumente AI va fi pus la dispoziția funcționarilor pentru a îmbunătăți eficiența administrației și a oferi servicii publice mai bune. Citește și: Boloș recunoaște că pensiile speciale au blocat PNRR-ul: „Avem jaloane care nu au fost îndeplinite, unul, cel legat de pensiile speciale” Printre aceste instrumente se numără analiza răspunsurilor publice. AI va accelera procesarea miilor de răspunsuri primite în anchete publice, eliminând necesitatea unor analize costisitoare efectuate de consultanți. De asemenea securizarea serviciului de transcriere securizat. Tehnologia va asigura transcrierea automată a reuniunilor. AI va fi și asistent juridic, sprijinind funcționarii în gestionarea cazurilor legale. Pierderi masive din cauza tehnologiei învechite Un raport realizat de Bain & Company indică faptul că utilizarea tehnologiilor vechi determină costuri de mentenanță semnificative. De asemenea, aproape jumătate dintre serviciile publice britanice nu sunt disponibile online, afectând eficiența administrației. Planuri suplimentare Pe lângă utilizarea AI, guvernul intenționează să introducă alte măsuri de modernizare. Printre acestea, eliminarea cerinței de declarare în persoană a decesului unei rude sau promovarea schimbului de date între ministere și autorități locale. Regatul Unit, hub pentru inovații În ciuda îngrijorărilor legate de etica și securitatea AI, prim-ministrul Keir Starmer a declarat că Regatul Unit va deveni un centru pentru testarea inovațiilor AI înainte de implementarea reglementărilor. Acest lucru ar oferi o alternativă flexibilă față de abordarea mai restrictivă a Uniunii Europene.

Piedone recunoaște că a vorbit cu Simion, dar spune că n-a înjurat Foto: captură video
Politică

Piedone recunoaște că a vorbit cu Simion, dar spune că n-a înjurat

Candidatul PSD la Senat, în circumscripția Giurgiu, Cristian Popescu Piedone recunoaște că a vorbit cu liderul AUR, George Simion, dar spune că n-a înjurat, de vină este inteligența artificială. În schimb, reprezentanți AUR contactați de Digi 24 neagă înregistrarea difuzată acum două zile de DeFapt.ro. Simion nu a avut nici o reacție. Citește și: EXCLUSIV Ce arată sondajele realizate zilnic de AtlasIntel în mediul urban: bătălie la sânge pe locul II, Ciucă și Georgescu – pe trend de creștere În schimb, președintele PSD, Marcel Ciolacu a avut o reacție extrem de agresivă când a fost întrebat în legătură cu acest subiect. El nu a negat însă faptul că Piedone și Simion au discutat. Piedone recunoaște că a vorbit cu Simion, dar spune că n-a înjurat „Părțile cu apelative sunt realizate cu ajutorul inteligenței artificiale. Nu neg că l-am sunat în urmă cu șapte luni. Această înregistrare provine de pe un telefon al unui apropiat al lui Simion. Discuția a fost despre o campanie echilibrată pe investiție în Giurgiu. George a fost trădat chiar din interiorul partidului”, a declarat Piedone la Digi 24. Ceea ce el definește „apelative” sunt, probabil, înjurăturile vulgare la adresa unui coleg din PUSL, avocatul Daniel Ionașcu. Pe de altă parte, acum șapte luni Piedone era candidat la primăria Capitalei, nu la Parlament, în Giurgiu. Președintele PSD, Marcel Ciolacu, a reacționat bizar-agresiv. „Este candidat pe listele PSD, și??”, a afirmat liderul PSD. „Discuția era despre susținerea AUR”, a replicat jurnalistă. „Eu nu am văzut așa ceva. Vreți să inventați lucruri? N-am nicio problema, inventați!”, a reacționat nervos Ciolacu. „Am întrebat…”, a spus jurnalista, intimidată. „Au discutat ei cum fac cu voturi, a discutat Piedone cum fac ei acolo? Despre ce vorbim? Nu mai vorbim între noi, oamenii? Pot să-i interzic domnului Grindeanu să vorbeasă cu cine vrea el? Oameni buni, ce fel de societate vrem să construim, o societate normală? Nu vedeți ce campanie am avut? S-a discut despre vreun proiect, despre vreun plan de țară? Interesează ce a vorbit Simion cu nu știu cine”, a declarat Ciolacu, potrivit unei transcrieri de pe site-ul Aktual 24. Deci, după ce afirmase că „nu a văzut așa ceva”, Ciolacu a analizat convorbirea și a stabilit că cei doi nu au discutat despre „cum fac voturi”. Piedone și Simion se alintă cu „Satana” și „Sătănel” Iată transcrierea integrală a discțuției dintre președintele AUR și fostul primar al Sectorului 5, Cristian Popescu Piedone, acum candidat PSD la Senat, pe o poziție eligibilă: „Piedone: Satană! Simion: Ce-i, Satană? Piedone: Satană, sunt într-un județ care poate să fie prieten sau ostil… Simion: Eu nu mă pun cu Satana (…) cel bătrân. Piedone: Pâi cum să te pui cu Satana cel Bătrân? Ia-l pe călugăru ăla de acolo, că… Simion: Părintele Escrochie e el. Piedone: Părintele, lasă-l. Lasă-l în pace, dă-i drumul. Sătănel, Sătănel, eu sunt îngerul alb aruncat de Dumnezeu din ceruri, cu aripile pierdute și vreau să-mi recâștig aripile astea. Simion: Tu ești Lucifer, prin mine vrei să te mântuiești, prin mine, prin AUR… Piedone: Sătănel, îți dau o vorbă și vă socotiți trei, două luni după aia… Simion: Nu știm ce să mai facem…Da…Singura problemă pe care o avem e că aveți un avocat escroc, a venit toată lumea în audiență să-mi zică despre el, Ionașcu îl cheamă. Piedone: Îmi bag p..a în mă-sa. Mi se rupe p..a de mă-sa și cât de curând rămâne apatrid, nicăieri. Simion: Bravo. Hai să vedem. E timpul să deveniți și voi mai onorabili, să scăpați de escroci. Piedone: Băi, tu vorbești cu mine, mă. Că dacă ne analizăm pe amândoi, din căruța ta sunt mult mai mulți decât la mine, te rog io frumos. Simion: Da io-s mai tânăr, apuc să fac mai multe fărădelegi ca tine. Piedone: Hai să lăsăm complimentele (…) și să ne gândim așa cum trebuie. Susținem pe cine stabilim noi doi, da?. Simion: Bine. Piedone: Nu vreau decât să discutăm noi doi, da? Simion: Așa facem! Piedone: Te iubesc! Simion: Să trăiască Satana! Și eu, seniorule, te pup. Piedone: Te iubesc, pa!”

Ciolacu, prezentare cu imagini false generate de Inteligența Artificială Foto: Captură video
Politică

Ciolacu, imagini false generate de Inteligența Artificială

Președintele PSD Marcel Ciolacu și-a făcut o prezentare la Antena 3 cu imagini false generate de Inteligența Artificială. Citește și: Trei întrebări care nu i s-au pus lui Ciolacu la dezbaterea Antena 3. Soți ai unor candidați PSD s-au prefăcut că-l critică pe premier Cu ajutorul Inteligenței Artificiale (AI), Ciolacu apare în imagini din copilărie și adolescență în care râde și interacționează cu apropiații ca și cum ar fi fost filmat în acele momente. Ciolacu, prezentare cu imagini false generate de Inteligența Artificială Practic, este imposibil de spus care sunt imaginile reale cu liderul PSD în perioada tinereții sale. „Esta percepția dumneavoastră despre dumneavoastră”, a prezentat moderatorul Mihai Gâdea acest filmuleț, iar Ciolacu l-a aprobat. . „Sunt un român obișnuit, un om normal (...) Povestea mea este o poveste simplă, este, de fapt, povestea unei întregi generații”, a susținut liderul PSD în clipul de prezentare. „Un filmuleț făcut cu inteligență artificială, da?”, a întrebat Gâdea la finalul prezentării. „Am înțeles că la anumite poze”, a răspuns Ciolacu. O presupusă imagine a lui Ciolacu, generată de AI Ulterior, Gâdea a încercat să explice că dorește să ofere o informație corectă telespectatorilor, dar nu a comentat dacă este sau nu etic ca un candidat să-și corecteze imaginea folosind inteligenta artificială.

Hinton a avertizat asupra pericolelor AI (sursa: utoronto.ca)
Eveniment

Hinton a avertizat asupra pericolelor AI

Hinton a avertizat asupra pericolelor AI. Geoffrey Hinton, cercetător canadiano-britanic și pionier al inteligenței artificiale, a fost recompensat marți cu Premiul Nobel pentru fizică pe 2024, alături de John Hopfield, pentru descoperirile lor în domeniul "machine learning". Recent, Hinton a atras atenția asupra pericolelor tehnologiei AI. Hinton a avertizat asupra pericolelor AI În martie 2023, întrebat despre riscurile pe care le-ar putea prezenta inteligența artificială pentru omenire, Hinton și-a exprimat îngrijorarea, afirmând că „nu este ceva de neimaginat”. Citește și: Actorul Mihai Bobonete, afaceri de milioane de lei pe an. Numai profitul, aproape două milioane de lei net. Despărțirea de „Celentano” nu i-a priit Ulterior, el a părăsit Google, unde lucra de zeci de ani, pentru a avertiza publicul despre pericolele AI prin intermediul platformelor mass-media. Născut la Londra și crescut în Bristol, Hinton a studiat la Edinburgh și Universitatea Cambridge. Provenind dintr-o familie cu o tradiție academică notabilă, cu un tată membru al Royal Society, el a simțit presiunea de a se ridica la aceleași standarde. De-a lungul vieții sale, a fost marcat de episoade de depresie, despre care a vorbit deschis în revista Toronto Life. După decesul celei de-a doua soții la începutul anilor ’90, Hinton a devenit tată singur. Mai târziu, s-a căsătorit pentru a treia oară, însă și aceasta a murit de cancer în 2018. El a declarat că, în contextul familiei și al copiilor, menținerea unei cariere academice devine extrem de dificilă. Socialist, autoproclamat Geoffrey Hinton, socialist autoproclamat, a lucrat la mai multe universități americane din anii '70, refuzând finanțările militare ale armatei americane. În 1987, s-a mutat definitiv în Toronto, datorită sprijinului guvernului canadian pentru cercetările sale în rețele neuronale. Deși inițial marginalizat în lumea academică, ideile sale au câștigat treptat influență. Recrutat de Google În 2013, a fost recrutat de Google, devenind o figură centrală în Silicon Valley, iar unii dintre foștii săi elevi s-au alăturat altor companii importante din industrie. Ilya Sutskever, cofondator OpenAI, a considerat colaborarea sa cu Hinton drept esențială în dezvoltarea sa profesională. Ambii au devenit figuri importante în criticile emergente asupra AI, Sutskever părăsind OpenAI la un an după Hinton. În iunie 2023, Hinton a declarat că, înainte ca AI să devină mai inteligentă decât oamenii, cercetătorii ar trebui să se gândească serios la riscul ca aceste sisteme să încerce să preia controlul. Marți, dintr-un hotel modest din California, el a transmis un mesaj de prudență, susținând că, deși ar face aceleași alegeri, este îngrijorat că AI ar putea deveni mai inteligentă decât noi și ar putea prelua controlul.

DeFapt.ro
Investigații jurnalistice, analize, știri la zi
Abonează-te
DeFapt.ro

Ultima oră

Ultima oră