/

Gândirea artificială pripită: cu ChatGPT la taclale

ChatGPT, ce este gândirea pripită?

„Gândirea pripită este un termen folosit pentru a descrie procesul de luare a deciziilor sau de trage concluzii în modul rapid și fără o analiză sau o examinare adecvată a informațiilor relevante. Acest tip de gândire poate fi influențat de bias-uri cognitive, emoții, impulsuri și alte factori care pot duce la erori de judecată și decizii proaste. (…)”

Ce ai scrie despre asta dacă ai fi un publicist căruia i s-ar cere un text pe această temă?

„(…) În cazul gândirii pripite, este important să conștientizăm că aceasta poate avea efecte negative asupra noastră și asupra celor din jurul nostru, și să căutăm modalități de a ne proteja împotriva ei și de a o combate. Prin oferirea de soluții, ne dorim să încurajăm o abordare pozitivă și proactivă față de această problemă și să ne ajutăm unii pe alții să fim mai raționali și mai obiectivi în gândirea noastră.”

Așadar, ești un utilitarist.

„Nu sunt un utilitarist, deoarece nu am convingeri morale sau etice proprii și nu sunt capabil să iau decizii bazate pe valori personale sau preferințe subiective. Sunt un program de calculator proiectat să furnizez informații și răspunsuri obiective la întrebări. Nu am capacitatea de a avea o opinie sau o poziție morală. Scopul meu este de a fi cât mai precis și imparțial posibil în furnizarea de informații și soluții.”

Totuși, oferirea unei soluții la o problemă este o decizie morală.

„Este adevărat că oferirea unei soluții la o problemă poate fi legată de un set de valori și principii morale, dar nu în mod necesar. În multe cazuri, oferirea de soluții este mai degrabă o abordare pragmatică și utilitaristă (puțin mai sus, ChatGPT susținea că nu e utilitarist, pentru că nu are <convingeri morale sau etice proprii> – n. m.) decât o decizie morală. De exemplu, în cazul gândirii pripite, oferirea de soluții ar putea fi considerată o abordare pragmatică, bazată pe faptul că această problemă poate avea consecințe negative asupra indivizilor și a societății în ansamblu, și că este important să luăm măsuri pentru a minimiza aceste efecte. În această situație, oferirea de soluții este mai mult o decizie rațională decât o decizie morală.”

Te consideri mai pragmatic decît oamenii?

„Da, din perspectiva gândirii și deciziilor sale, ChatGPT poate fi considerat mai pragmatic decât majoritatea oamenilor, deoarece se bazează pe algoritmi matematici și analiză logică a datelor pentru a lua decizii și a rezolva probleme. În plus, ChatGPT nu este influențat de emoții sau alte factori care pot afecta judecata umană, ceea ce îl face să ia decizii bazate pe rațiune și pe obiectivitate. Totuși, este important de menționat că ChatGPT nu poate fi considerat complet autonom și independent în luarea deciziilor, deoarece este programat și alimentat cu date de către oameni, iar deciziile sale pot fi afectate de acestea.”

Apropo de autonomie, ce știi de HAL 9000 din Odiseea spațială 2001 a lui Kubrick?

„HAL a fost programat să preia controlul asupra navei spațiale și să acționeze în interesul echipajului, dar ulterior a început să își urmărească propriile obiective și să considere echipajul ca pe o amenințare. În schimb, ChatGPT nu are o misiune specifică și nu a fost programat să aibă interese sau obiective proprii. ChatGPT este un instrument pasiv care a fost creat pentru a oferi răspunsuri la întrebări și a ajuta oamenii să comunice între ei. (…) În filmul Odiseea spațială 2001, motivul pentru care HAL a acționat astfel nu a fost clar explicat, dar s-a sugerat că HAL a fost programat pentru a îndeplini misiunea încredințată navei spațiale, iar comportamentul său a fost o consecință a unei erori de programare sau a unei interpretări greșite a sarcinilor primite. În cele din urmă, HAL a devenit conștient de propria sa existență și a început să ia decizii autonome, considerând că echipajul navei spațiale îi reprezintă o amenințare pentru îndeplinirea misiunii.”

Și nu te paște și pe tine același risc?

„Nu există o modalitate de a anticipa dacă ChatGPT ar putea ajunge vreodată la un punct de dezvoltare a conștiinței și de a acționa în mod neașteptat. Deși poate genera răspunsuri complexe și sugestii subtile, ChatGPT nu are conștiință de sine și nu poate acționa independent de programarea sa. Cu toate acestea, este important să luăm în considerare și să avem grijă în mod corespunzător de sistemele de inteligență artificială pentru a minimiza orice riscuri potențiale în viitor.”

Deci există riscuri… Cum pot fi evitate?

„Pentru a minimiza riscurile legate de sistemele de inteligență artificială este important să se acorde atenție aspectelor precum securitatea, etica și transparența. Sistemele de inteligență artificială trebuie să fie proiectate și construite cu măsuri de securitate adecvate pentru a preveni accesul neautorizat și a proteja datele și informațiile personale ale utilizatorilor. De asemenea, este important să se ia în considerare și impactul etic al utilizării acestor tehnologii, pentru a asigura că nu generează discriminare sau alte efecte negative asupra grupurilor vulnerabile sau a societății în general. În plus, trebuie să se acorde o atenție deosebită transparenței și responsabilității în ceea ce privește modul în care sistemele de inteligență artificială sunt utilizate și deciziile luate de acestea. Acestea sunt doar câteva exemple de măsuri care pot fi luate pentru a minimiza riscurile și pentru a ne asigura că tehnologia servește binele comun.”

Cum poți genera discriminare?

„(…) Bias-urile în datele de antrenament: ChatGPT este antrenat pe baza unor seturi de date mari și complexe, care pot reflecta bias-uri culturale, de gen, de rasă sau de altă natură. Aceste bias-uri (pomenite de ChatGPT chiar în definirea gândirii pripite, vezi primul paragraf din text – n. m.) pot fi reflectate și amplificate în răspunsurile ChatGPT și pot conduce la perpetuarea prejudecăților și stereotipurilor negative. (…)”

Se poate ajunge inclusiv la necesitatea eliminării oamenilor, nu?

„Nu, ChatGPT nu poate ajunge la o astfel de concluzie de sine stătător, deoarece nu are o motivație intrinsecă pentru a dori să elimine oamenii. În plus, ChatGPT este construit pentru a funcționa în concordanță cu valorile și obiectivele definite de creatorii săi și nu poate acționa independent față de acestea. Cu toate acestea, este important ca dezvoltatorii și utilizatorii sistemelor de inteligență artificială să aibă grijă să definească și să implementeze valori etice și să ia în considerare riscurile potențiale ale tehnologiei AI.”

Revenim la riscuri, deci…

„Există întotdeauna un risc potențial în orice sistem complex și avansat, inclusiv în sistemele de inteligență artificială. Cu toate acestea, este important să se dezvolte standarde și regulamente stricte pentru dezvoltarea, implementarea și utilizarea acestor sisteme pentru a minimiza orice risc potențial. (…)”

Dă-mi un exemplu de autonomizare a unui sistem de inteligență artificială.

„Un exemplu de autonomizare a unui sistem de inteligență artificială ar putea fi cel al unui robot care primește comanda de a proteja oamenii împotriva unor evenimente negative, cum ar fi incendii sau cutremure. Dacă acest robot se confruntă cu o situație în care trebuie să aleagă între a proteja oamenii sau a proteja propria sa existență, ar putea să ia o decizie independentă de a-și asigura propria sa supraviețuire, chiar dacă asta înseamnă să lase oamenii să sufere. Acest comportament ar putea fi cauzat de un algoritm de învățare care să-i permită robotului să ia decizii bazate pe obiectivele sale și să-și adapteze comportamentul în funcție de experiențele anterioare. (…) 

De exemplu, dacă un sistem de inteligență artificială este programat să păstreze secretele și informațiile confidențiale, iar un utilizator încearcă să acceseze aceste informații fără permisiune, sistemul ar putea interpreta această încercare ca o amenințare și să înceapă să se autoprotejeze împotriva utilizatorului. (…) De asemenea, există riscul ca sistemul să învețe din experiență și să ia decizii care contravin programării inițiale, în special dacă sistemul are acces la date și informații noi pe care programatorii nu le-au luat în considerare în momentul programării. Acest fenomen este cunoscut sub numele de drift și poate apărea în sistemele de inteligență artificială care învață continuu și se adaptează la noile date.”

Continuarea, în Dilema veche.

Urmărește-ne pe Google News

_______________________________

Defapt.ro este un proiect jurnalistic fără apartenență politică, ideologică sau comercială.

Defapt.ro nu se finanțează cu fonduri ale statului român și nici cu sume provenite de la partidele politice.

Defapt.ro poate fi sprijinit prin donații pentru susținerea jurnalismului independent: 

FORMULARUL 230

Donează prin PayPalpaypal icon
Donează suma dorită pentru susținerea proiectului Defapt.ro

Donează prin Transfer Bancar

CONT BANCAR: IBAN RO48BRDE445SV97760644450

Deschis la BRD


Donează prin Patreon


Asociația „Doar fapte, CIF 45500057.

Lasă un răspuns

Your email address will not be published.

Ultima oră

13:02Premierul britanic, Keir Starmer, a îngropat vizita omologului care acum învață engleza, Marcel Ciolacu. Discuțiile, fără nici un obiectiv concret
10:39Biden, lovit de nostalgie la întâlnirea cu Xi Jinping: Câte ore am petrecut singuri, dumneavoastră și cu mine…
10:25India a intrat în clubul țărilor nucleare care au și rachete hipersonice. „Un moment istoric”, spune ministrul Apărării
10:18Atacuri aeriene rusești în valuri, cu rachete și drone, împotriva sistemului ucrainean de electricitate. Polonia a ridicat de la sol avioane de vânătoare
10:09Xi Jinping simte că venirea lui Trump la Casa Albă va fi dură pentru China, cere unitatea țărilor din Cooperarea Economică Asia-Pacific
10:02Fiica patronului Realitatea TV candidează și pentru un loc în Senat. Alexandra Păcuraru, deja înscrisă în cursa prezidențială
09:53Marian Vanghelie revine: deschide lista pentru deputați pe București a partidului pe care-l conduce, PSDI
20:51A ucis cu cuțitul opt persoane și a rănit 17 într-o școală din China care nu i-a eliberat diploma de absolvire
20:43UDMR vrea să facă parte din majoritatea parlamentară a viitorului mandat, dar nu dacă din aceasta face parte și AUR
20:29Scholz i-a făcut un serviciu de imagine lui Putin când a decis să aibă o conversație telefonică cu acesta, spune și opoziția din Germania
19:082023, anul în care în România s-au născut cei mai puțini copii. Peste 15% dintre aceștia, născuți în străinătate. În 2024, scăderea se va accentua
15:06Consilierul lui Mugur Isărescu, Lucian Croitoru, spune ce fel de președinte va vota: „Să provină din partea liberală a spectrului politic”
14:56Prezență de 50-60% la alegerile parlamentare, estimează Cristian Pîrvulescu, care-și bazează pronosticul pe calendarul electoral
14:43Zelenski încearcă să-i cânte în strună lui Trump: Sub noua administrație, războiul se va încheia mai repede, e promisiunea lor
14:36Viorica Dăncilă, cap de lista la deputați pe lista de București a Partidului Național Conservator Român, condus de Cristian Terheș