sâmbătă 22 februarie
Login Abonează-te
DeFapt.ro

Etichetă: chatgpt

3 articole
Economie

ChatGPT, angajat al unei firme românești

ChatGPT, angajat al unei firme românești. Aplicația munceşte cu normă întreagă la o firmă din Iaşi. ChatGPT, angajat al unei firme românești Administratorul companiei ieşene a rămas ca fermecat: iniţial l-a testat în departamentul de design, dar când a văzut câte poate face, l-a pus la treabă şi în cadrul altor departamente: juridic, vânzări şi tehnic. "Rezultatele nu sunt perfecte, dar sunt încurajatoare. Clar ni se pare interesantă această «jucărie»", susţine Tiberiu Stoian, fondatorul Exonia. Citește și: Mineriada magistraților: Ce facem cu nesimțiții din Justiție, viitori pensionari speciali, care-și bat joc de o țară întreagă? Acesta anunţa în urmă cu câteva zile că a inclus inteligenţa artificială (AI) în proiectarea ambalajelor biodegradabile din hârtie şi le-a crescut eficienţa. Continuarea, în Ziarul de Iași.

ChatGPT, angajat al unei firme românești (sursa: ziaruldeiasi.ro)
Cătălin Prisacariu
Opinii

Gândirea artificială pripită: cu ChatGPT la taclale

ChatGPT, ce este gândirea pripită? „Gândirea pripită este un termen folosit pentru a descrie procesul de luare a deciziilor sau de trage concluzii în modul rapid și fără o analiză sau o examinare adecvată a informațiilor relevante. Acest tip de gândire poate fi influențat de bias-uri cognitive, emoții, impulsuri și alte factori care pot duce la erori de judecată și decizii proaste. (...)” Ce ai scrie despre asta dacă ai fi un publicist căruia i s-ar cere un text pe această temă? „(...) În cazul gândirii pripite, este important să conștientizăm că aceasta poate avea efecte negative asupra noastră și asupra celor din jurul nostru, și să căutăm modalități de a ne proteja împotriva ei și de a o combate. Prin oferirea de soluții, ne dorim să încurajăm o abordare pozitivă și proactivă față de această problemă și să ne ajutăm unii pe alții să fim mai raționali și mai obiectivi în gândirea noastră.” Așadar, ești un utilitarist. „Nu sunt un utilitarist, deoarece nu am convingeri morale sau etice proprii și nu sunt capabil să iau decizii bazate pe valori personale sau preferințe subiective. Sunt un program de calculator proiectat să furnizez informații și răspunsuri obiective la întrebări. Nu am capacitatea de a avea o opinie sau o poziție morală. Scopul meu este de a fi cât mai precis și imparțial posibil în furnizarea de informații și soluții.” Totuși, oferirea unei soluții la o problemă este o decizie morală. „Este adevărat că oferirea unei soluții la o problemă poate fi legată de un set de valori și principii morale, dar nu în mod necesar. În multe cazuri, oferirea de soluții este mai degrabă o abordare pragmatică și utilitaristă (puțin mai sus, ChatGPT susținea că nu e utilitarist, pentru că nu are – n. m.) decât o decizie morală. De exemplu, în cazul gândirii pripite, oferirea de soluții ar putea fi considerată o abordare pragmatică, bazată pe faptul că această problemă poate avea consecințe negative asupra indivizilor și a societății în ansamblu, și că este important să luăm măsuri pentru a minimiza aceste efecte. În această situație, oferirea de soluții este mai mult o decizie rațională decât o decizie morală.” Te consideri mai pragmatic decît oamenii? „Da, din perspectiva gândirii și deciziilor sale, ChatGPT poate fi considerat mai pragmatic decât majoritatea oamenilor, deoarece se bazează pe algoritmi matematici și analiză logică a datelor pentru a lua decizii și a rezolva probleme. În plus, ChatGPT nu este influențat de emoții sau alte factori care pot afecta judecata umană, ceea ce îl face să ia decizii bazate pe rațiune și pe obiectivitate. Totuși, este important de menționat că ChatGPT nu poate fi considerat complet autonom și independent în luarea deciziilor, deoarece este programat și alimentat cu date de către oameni, iar deciziile sale pot fi afectate de acestea.” Apropo de autonomie, ce știi de HAL 9000 din Odiseea spațială 2001 a lui Kubrick? „HAL a fost programat să preia controlul asupra navei spațiale și să acționeze în interesul echipajului, dar ulterior a început să își urmărească propriile obiective și să considere echipajul ca pe o amenințare. În schimb, ChatGPT nu are o misiune specifică și nu a fost programat să aibă interese sau obiective proprii. ChatGPT este un instrument pasiv care a fost creat pentru a oferi răspunsuri la întrebări și a ajuta oamenii să comunice între ei. (...) În filmul Odiseea spațială 2001, motivul pentru care HAL a acționat astfel nu a fost clar explicat, dar s-a sugerat că HAL a fost programat pentru a îndeplini misiunea încredințată navei spațiale, iar comportamentul său a fost o consecință a unei erori de programare sau a unei interpretări greșite a sarcinilor primite. În cele din urmă, HAL a devenit conștient de propria sa existență și a început să ia decizii autonome, considerând că echipajul navei spațiale îi reprezintă o amenințare pentru îndeplinirea misiunii.” Și nu te paște și pe tine același risc? „Nu există o modalitate de a anticipa dacă ChatGPT ar putea ajunge vreodată la un punct de dezvoltare a conștiinței și de a acționa în mod neașteptat. Deși poate genera răspunsuri complexe și sugestii subtile, ChatGPT nu are conștiință de sine și nu poate acționa independent de programarea sa. Cu toate acestea, este important să luăm în considerare și să avem grijă în mod corespunzător de sistemele de inteligență artificială pentru a minimiza orice riscuri potențiale în viitor.” Deci există riscuri... Cum pot fi evitate? „Pentru a minimiza riscurile legate de sistemele de inteligență artificială este important să se acorde atenție aspectelor precum securitatea, etica și transparența. Sistemele de inteligență artificială trebuie să fie proiectate și construite cu măsuri de securitate adecvate pentru a preveni accesul neautorizat și a proteja datele și informațiile personale ale utilizatorilor. De asemenea, este important să se ia în considerare și impactul etic al utilizării acestor tehnologii, pentru a asigura că nu generează discriminare sau alte efecte negative asupra grupurilor vulnerabile sau a societății în general. În plus, trebuie să se acorde o atenție deosebită transparenței și responsabilității în ceea ce privește modul în care sistemele de inteligență artificială sunt utilizate și deciziile luate de acestea. Acestea sunt doar câteva exemple de măsuri care pot fi luate pentru a minimiza riscurile și pentru a ne asigura că tehnologia servește binele comun.” Cum poți genera discriminare? „(...) Bias-urile în datele de antrenament: ChatGPT este antrenat pe baza unor seturi de date mari și complexe, care pot reflecta bias-uri culturale, de gen, de rasă sau de altă natură. Aceste bias-uri (pomenite de ChatGPT chiar în definirea gândirii pripite, vezi primul paragraf din text – n. m.) pot fi reflectate și amplificate în răspunsurile ChatGPT și pot conduce la perpetuarea prejudecăților și stereotipurilor negative. (...)” Se poate ajunge inclusiv la necesitatea eliminării oamenilor, nu? „Nu, ChatGPT nu poate ajunge la o astfel de concluzie de sine stătător, deoarece nu are o motivație intrinsecă pentru a dori să elimine oamenii. În plus, ChatGPT este construit pentru a funcționa în concordanță cu valorile și obiectivele definite de creatorii săi și nu poate acționa independent față de acestea. Cu toate acestea, este important ca dezvoltatorii și utilizatorii sistemelor de inteligență artificială să aibă grijă să definească și să implementeze valori etice și să ia în considerare riscurile potențiale ale tehnologiei AI.” Revenim la riscuri, deci... „Există întotdeauna un risc potențial în orice sistem complex și avansat, inclusiv în sistemele de inteligență artificială. Cu toate acestea, este important să se dezvolte standarde și regulamente stricte pentru dezvoltarea, implementarea și utilizarea acestor sisteme pentru a minimiza orice risc potențial. (...)” Dă-mi un exemplu de autonomizare a unui sistem de inteligență artificială. „Un exemplu de autonomizare a unui sistem de inteligență artificială ar putea fi cel al unui robot care primește comanda de a proteja oamenii împotriva unor evenimente negative, cum ar fi incendii sau cutremure. Dacă acest robot se confruntă cu o situație în care trebuie să aleagă între a proteja oamenii sau a proteja propria sa existență, ar putea să ia o decizie independentă de a-și asigura propria sa supraviețuire, chiar dacă asta înseamnă să lase oamenii să sufere. Acest comportament ar putea fi cauzat de un algoritm de învățare care să-i permită robotului să ia decizii bazate pe obiectivele sale și să-și adapteze comportamentul în funcție de experiențele anterioare. (...) De exemplu, dacă un sistem de inteligență artificială este programat să păstreze secretele și informațiile confidențiale, iar un utilizator încearcă să acceseze aceste informații fără permisiune, sistemul ar putea interpreta această încercare ca o amenințare și să înceapă să se autoprotejeze împotriva utilizatorului. (...) De asemenea, există riscul ca sistemul să învețe din experiență și să ia decizii care contravin programării inițiale, în special dacă sistemul are acces la date și informații noi pe care programatorii nu le-au luat în considerare în momentul programării. Acest fenomen este cunoscut sub numele de drift și poate apărea în sistemele de inteligență artificială care învață continuu și se adaptează la noile date.” Continuarea, în Dilema veche.

Viitorii șomeri ChatGPT au competențe intelectuale (sursa: pexels.com/ThisIsEngineering)
Eveniment

Viitorii șomeri ChatGPT au competențe intelectuale

Viitorii șomeri ChatGPT au competențe intelectuale. La finalul lunii martie, sute de experți din întreaga lume, printre care și Elon Musk, au semnat un apel pentru o pauză de șase luni în dezvoltarea inteligenței artificiale, până când efectele vor fi cunoscute, minimalizându-se astfel riscurile. Defapt.ro este un proiect independent, ne poți sprijini direcționând 3,5% din impozitul tău pe venit. Durează un minut, online ChatGPT, revelația inteligenței artificiale, a provocat numeroase controverse: vor mai fi motivați copiii să învețe, câți oameni își vor pierde locurile de muncă și care sunt meseriile cele mai expuse pericolului de a fi înlocuite de ChatGPT? Sam Altman, CEO-ul OpenAI, a declarat că, în mod sigur, acest instrument va înlocui anumite meserii. Etuziaștii văd în progresul inteligenței artificiale un instrument prețios pentru cercetare. Cei îngrijorați se tem că instrumentul nu va fi folosit doar în scopuri nobile, ci va încuraja lenea intelectuală, deschizând larg poarta unei imbecilizări în masă, fiind și o amenințare la adresa democrației. Cunoscutul lingvist Naom Chomsky atacă dur ChatGPT. Cum faci o mașină să gândească uman? GPT, prescurtarea de la "Generative Pre-Training Transformer", este un program de procesare a limbajului uman. Conceptul a fost prezentat în 2018 de OpenAI în studiul "Îmbunătățirea înțelegerii limbajului prin pre-formare generativă", scopul declarat fiind de a învăța o mașină să gândească precum un om. În linii mari, acest model de procesare a limbajului preia cantități uriașe de date, caută tipare în ele, iar mai apoi, pe baza acestora, generează rezultate probabile statistic – imitând limbajul și gândirea umană, la o scară infinit mai mare. "Educate" în primă fază pentru a putea învăța să genereze texte asemănătoare celor învățate, prin anticiparea următorului cuvânt dintr-un pasaj, îmbunătățite an de an, modelele GPT au generat la sfârșitul anului trecut revelația Inteligenței Artificiale: ChatGPT ne permite să discutăm cu un computer, ca și cum am vorbi cu un om extrem de instruit, care ne dă răspunsuri la orice, ne scrie eseuri pe orice temă, face traduceri, calculează taxe și impozite. Testând ChatGPT, muncim voluntar pentru OpenAI La doar câteva zile după ce a fost lansat, ChatGPT a avut peste un milion de utilizatori. După o lună, în ianuarie 2023, numărul acestora avea să crească la peste 100 de milioane, oameni atrași din ce în ce mai mult, atât de publicitatea enormă, cât și de beneficiile oferite în mod gratuit. Însă gratuitatea chatbotului are și latura sa pragmatică, de vreme ce ChatGPT se deosebește de alți chatboți prin modelul de funcționare – cu cât primește mai mult feedback uman, cu atât înțelege, învață și își corectează greșelile. Astfel, de fiecare dată când un utilizator testează ChatGPT și raportează dacă un răspuns este sau nu adecvat, sau cere instrumentului să-și reformuleze răspunsul ținând cont de un element suplimentar, oferă sistemului posibilitatea de a se rafina cu fiecare nouă observație. Cu alte cuvinte, testând ChatGPT, lucrăm, în mod gratuit, pentru OpenAI. Elevii, demotivați să mai învețe? Pe 5 ianuarie, școlile publice din New York au interzis folosirea ChatGPT, Jenna Lyle, purtătoarea de cuvînt a departamentului de educație, declarând la vremea respectivă: "Acest instrument (...) nu dezvoltă abilități de gândire critică și de rezolvare a problemelor, care sunt esențiale pentru succesul academic și pe tot parcursul vieții". Pe 27 ianuarie, în Franța, Universitatea Science Po interzicea utilizarea ChatGPT, și a tuturor celorlalte instrumente bazate pe inteligența artificială, în cadrul universității, sancțiunile prevăzute pentru utilizarea acestora mergând pînă la excluderea studentului, atât din instituție, cât și din învățămîntul superior francez în ansamblu. Însă nu toți profesorii sunt de acord cu această măsură. "Interzicerea unui instrument nu i-a împiedicat niciodată pe elevi – care știu să ocolească perfect regulile – să-l folosească", afirmă Marie-Astrid Chauviré, profesoară de istorie și geografie, care aseamănă valurile produse azi de ChatGPT cu cele pe care le-a stârnit Google, în urmă cu cincisprezece ani: "Plagiatul a existat întotdeauna, ia doar forme noi. Practic, folosirea inteligenței artificiale nu este cu nimic mai înșelătoare decât atunci când părinții fac temele copiilor.". Viitorii șomeri ChatGPT au competențe intelectuale Potrivit unui studiu al companiei americane Resume Builder, publicat la sfârșitul lunii februarie, aproximativ 49% dintre firmele de peste Atlantic folosesc deja ChatGPT zilnic și, dintre acestea, 48% au declararat că productivitatea crescută datortită ChatGPT va putea periclita locurile de muncă. Printre profesiile care pot fi cel mai grav afectate se numără traducătorii, sociologii, creatorii de conținut, precum scriitorii sau jurnaliștii, cei care lucrează în relații publice, contabilii și matematicienii. La polul opus se numără agricultorii, sportivii, bucătarii, mecanicii, electricienii, frizerii și coafezele. Deși studiul atenționează că este vorba doar despre o simulare a ceea ce se poate întâmpla în Statele Unite, nu e vorba doar de simple speculații. Sam Altman, CEO-ul OpenAI, a afirmat recent, într-un interviu acordat ABC News că el însuși este "puțin speriat" de aceste tehnologii și de impactul pe care acestea le-ar avea atât în piața muncii, cât și în alegerile politice, fiind capabile să răspândească propaganda și dezinformarea. Potrivit lui Altman, ChatGPT va "elimina un număr mare de locuri de muncă actuale". Dar a adăugat imediat: "Putem crea locuri de muncă mult mai bune. AI, în ceea ce privește îmbunătățirea vieții noastre, va fi cea mai mare tehnologie pe care omenirea a dezvoltat-o vreodată". Totuși, Altman e de acord că societatea umană are nevoie de timp pentru a se putea adapta noii tehnologii. Conținutul original, întotdeauna necesar. Sau nu? În ceea ce privește traducătorii, provocările tehnologiei nu sunt noi. De la apariția Google Translate, apoi a DeepL, concurența acestor instrumente e o îngrijorare constantă. Totuși, dacă pentru traducerile standardizate acestea s-au impus deja, pentru cele literare, înlocuirea gândirii umane va produce derapaje. Oliver Mannoni, traducător profesionist, a declarat, în acest sens, că niciodată nu poți face o traducere perfectă, însă un om poate dibui ironia, gravitatea unei situații, sau umorul: "O mașinărie, oricât ar fi de performantă, este incapabilă de toate acestea, nu poate înțelege un stil, o formă, un talent". În aceeași direcție, eliminarea unor meserii (precum jurnalismul sau creatorii de conținut, care implică, pe de o parte analiza și explicația unor evenimente, pe de alta, inventivitate) ar duce la o inevitabilă implozie a sistemului care stă la baza ChatGPT – să nu uităm că acesta funcționează pe baza textelor create de oameni. "Va exista întotdeauna o cerere pentru conținut creativ, original, care necesită perspectiva și înțelegerea unică a unui scriitor uman", răspunde chiar ChatGPT, la întrebarea dacă oamenii vor fi demotivați de acum încolo să mai scrie și să mai producă conținut. Chomsky: "Falsa promisiune a ChatGPT" Într-un articol publicat în The New York Times, "Falsa promisiune a ChatGPT", cunoscutul lingvist Noam Chomsky analizează limitarea sistemelor de limbaj, axându-se în mod special pe ChatGPT, susținând că mecanismele acestuia diferă profund de modul în care oamenii gândesc și folosesc limbajul. Potrivit lui Chomsky mintea umană nu e un motor statistic, ci un sistem inimitabil care, deși operează cu cantități mici de informații, caută să înțeleagă cauzele și efectele, pe baza cărora creează explicații. Inteligența artificială, axată pe descriere și predicție, nu poate oferi explicații cauzale, sau să distingă posibilul de imposibil. "Aceste programe au fost ovaționate ca fiind primele licăriri la orizontul inteligenței artificiale – însă momentul demult profețit, în care mințile mecanice depășesc creierul uman nu numai cantitativ în ceea ce privește viteza de procesare și dimensiunea memoriei, cît și calitativ în ceea ce privește înțelegerea intelectuală, creativitatea artistică și orice altă facultate specific umană, încă nu a venit (...). Oricât de utile ar fi aceste programe în anumite domenii (...), știm din știința lingvistică și din filosofia cunoașterii că ele diferă profund de modul în care oamenii raționează și folosește limbajul.". De ce mintea umană nu este ChatGPT Potrivit lui Chomsky, mintea umană nu e, precum ChatGPT, un motor statistic greoi pentru potrivirea tiparelor, saturată cu sute de terabiți de date, care extrapolează cel mai probabil răspuns conversațional sau cel mai probabil răspuns la o întrebare științifică" "Dimpotrivă, mintea umană e un sistem surprinzător de eficient și chiar elegant, care funcționează cu cantități mici de informații; nu caută să deducă corelații brute între punctele de date, ci să creeze explicații.". Lingvistul propune exemplul unui copil mic care, dobândind limbajul, dezvoltă - inconștient, automat și rapid, din date minuscule - o gramatică sofisticată de principii și parametri logici: "Această gramatică poate fi înțeleasă ca o expresie a unui «sistem de operare» înnăscut, instalat genetic, care dă oamenilor capacitatea de a genera propoziții complexe și lungi șiruri de gândire. Când lingviștii caută să explice de ce o anumită limbă funcționează așa cum funcționează, construiesc în mod conștient și laborios o versiune explicită a gramaticii pe care copilul o construiește instinctiv, cu minimum de informații. Sistemul de operare al copilului e complet diferit de cel al unui program de învățare automată.". Cel mai profund defect al acestor programe, susține lingvistul, este absența capacități de bază a oricărei inteligențe: să poată nu doar să descrie și să facă predicții, ci să și explice. De ce cade mărul? Dacă ții un măr în mână, și îi dai drumul, observi rezultatul și spui: "Mărul cade". Descrii ceea ce se întâmplă. Afirmând "Mărul va cădea dacă deschid mâna", faci o predicție. Însă o explicație include nu doar descriere și predicție, ci și conjecturi contrafactuale precum "Orice astfel de obiect ar cădea", adăugând o condiție suplimentară, "din cauza forței gravitaționale" sau "din cauza curburii spațiului- timp". Gândirea reală generează explicația cauzală: "Mărul nu ar fi căzut dacă nu ar fi fost forța gravitației". "Cheia învățării automate e descrierea și predicția; nu presupune mecanisme cauzale sau legi fizice. Desigur, orice explicație în stil uman nu e neapărat corectă; suntem failibili. Dar asta face parte din ceea ce înseamnă să gândești. Inteligența constă nu numai din conjecturi creative, ci și din critică creativă. Gândirea umană se bazează pe posibile explicații și corectarea erorilor, un proces care limitează treptat posibilitățile care pot fi luate în considerare în mod rațional. (...) În timp ce oamenii ajung la tipurile de explicații pe care le presupun raționale, sistemele de învățare automată pot învăța atât că pământul e plat, cât și că pământul e rotund. (...) ChatGPT și programele asemănătoare sunt incapabile să echilibreze creativitatea cu constrângerile raționale. Ele fie supragenerează (producând atât adevăruri, cât și falsități, susținând decizii etice și neetice deopotrivă) sau subgenerează (demonstrând neangajamentul față de orice decizie și indiferență față de consecințe).". Omenirea, prea tânără pentru AI Pe 29 martie, sute de experți, din întreaga lume, printre care și Elon Musk, au lansat un apel, cerând o pauză de șase luni în cercetarea și dezvoltarea Inteligenței artificiale, care ar putea depăși ChatGPT 4, invocând pericolul la care este expusă civilizația umană. "Ar trebui să lăsăm mașinile să ne inunde canalele de informare cu propagandă și minciuni? Ar trebui să automatizăm toate locurile de muncă, inclusiv cele care ne îmbogățesc spiritual? Trebuie să dezvoltăm minți non-umane care ar putea fi într-o zi mai numeroase, mai inteligente, dar și mai mai anacronice și să le permitem să ne înlocuiască? Ar trebui să riscăm să pierdem astfel controlul asupra civilizației noastre?", se putea citi în apel. Citește și: Orice telefon poate fi ascultat iar datele aflate în acesta, accesate de la distanță, fără instalarea unui soft pe aparat. Cine se poate proteja și cum Printre altele, experții solicită înființarea unor sisteme de securitate, inclusiv noi autorități de reglementare dedicate supravegherii sistemelor inteligenței artificiale și instituții capabile să gestioneze "perturbările economice și politice dramatice (în special amenințarea democrației) pe care IA le va provoca". Yoshua Bengio, unul dintre semnatarii apelului, și-a exprimat îngrijorarea în timpul unei conferințe de presă: "Nu cred că societatea e pregătită să facă față acestei tehnologii, existând un potențial de manipulare care ar putea pune în pericol democrațiile. (...) Trebuie să facem o pauză, pentru a încetini această cursă comercială (...) cum am făcut-o și în cazul armelor nucleare.".

DeFapt.ro
Investigații jurnalistice, analize, știri la zi
Abonează-te
DeFapt.ro

Ultima oră

Ultima oră