/

Gândirea artificială pripită: cu ChatGPT la taclale

ChatGPT, ce este gândirea pripită?

„Gândirea pripită este un termen folosit pentru a descrie procesul de luare a deciziilor sau de trage concluzii în modul rapid și fără o analiză sau o examinare adecvată a informațiilor relevante. Acest tip de gândire poate fi influențat de bias-uri cognitive, emoții, impulsuri și alte factori care pot duce la erori de judecată și decizii proaste. (…)”

Ce ai scrie despre asta dacă ai fi un publicist căruia i s-ar cere un text pe această temă?

„(…) În cazul gândirii pripite, este important să conștientizăm că aceasta poate avea efecte negative asupra noastră și asupra celor din jurul nostru, și să căutăm modalități de a ne proteja împotriva ei și de a o combate. Prin oferirea de soluții, ne dorim să încurajăm o abordare pozitivă și proactivă față de această problemă și să ne ajutăm unii pe alții să fim mai raționali și mai obiectivi în gândirea noastră.”

Așadar, ești un utilitarist.

„Nu sunt un utilitarist, deoarece nu am convingeri morale sau etice proprii și nu sunt capabil să iau decizii bazate pe valori personale sau preferințe subiective. Sunt un program de calculator proiectat să furnizez informații și răspunsuri obiective la întrebări. Nu am capacitatea de a avea o opinie sau o poziție morală. Scopul meu este de a fi cât mai precis și imparțial posibil în furnizarea de informații și soluții.”

Totuși, oferirea unei soluții la o problemă este o decizie morală.

„Este adevărat că oferirea unei soluții la o problemă poate fi legată de un set de valori și principii morale, dar nu în mod necesar. În multe cazuri, oferirea de soluții este mai degrabă o abordare pragmatică și utilitaristă (puțin mai sus, ChatGPT susținea că nu e utilitarist, pentru că nu are <convingeri morale sau etice proprii> – n. m.) decât o decizie morală. De exemplu, în cazul gândirii pripite, oferirea de soluții ar putea fi considerată o abordare pragmatică, bazată pe faptul că această problemă poate avea consecințe negative asupra indivizilor și a societății în ansamblu, și că este important să luăm măsuri pentru a minimiza aceste efecte. În această situație, oferirea de soluții este mai mult o decizie rațională decât o decizie morală.”

Te consideri mai pragmatic decît oamenii?

„Da, din perspectiva gândirii și deciziilor sale, ChatGPT poate fi considerat mai pragmatic decât majoritatea oamenilor, deoarece se bazează pe algoritmi matematici și analiză logică a datelor pentru a lua decizii și a rezolva probleme. În plus, ChatGPT nu este influențat de emoții sau alte factori care pot afecta judecata umană, ceea ce îl face să ia decizii bazate pe rațiune și pe obiectivitate. Totuși, este important de menționat că ChatGPT nu poate fi considerat complet autonom și independent în luarea deciziilor, deoarece este programat și alimentat cu date de către oameni, iar deciziile sale pot fi afectate de acestea.”

Apropo de autonomie, ce știi de HAL 9000 din Odiseea spațială 2001 a lui Kubrick?

„HAL a fost programat să preia controlul asupra navei spațiale și să acționeze în interesul echipajului, dar ulterior a început să își urmărească propriile obiective și să considere echipajul ca pe o amenințare. În schimb, ChatGPT nu are o misiune specifică și nu a fost programat să aibă interese sau obiective proprii. ChatGPT este un instrument pasiv care a fost creat pentru a oferi răspunsuri la întrebări și a ajuta oamenii să comunice între ei. (…) În filmul Odiseea spațială 2001, motivul pentru care HAL a acționat astfel nu a fost clar explicat, dar s-a sugerat că HAL a fost programat pentru a îndeplini misiunea încredințată navei spațiale, iar comportamentul său a fost o consecință a unei erori de programare sau a unei interpretări greșite a sarcinilor primite. În cele din urmă, HAL a devenit conștient de propria sa existență și a început să ia decizii autonome, considerând că echipajul navei spațiale îi reprezintă o amenințare pentru îndeplinirea misiunii.”

Și nu te paște și pe tine același risc?

„Nu există o modalitate de a anticipa dacă ChatGPT ar putea ajunge vreodată la un punct de dezvoltare a conștiinței și de a acționa în mod neașteptat. Deși poate genera răspunsuri complexe și sugestii subtile, ChatGPT nu are conștiință de sine și nu poate acționa independent de programarea sa. Cu toate acestea, este important să luăm în considerare și să avem grijă în mod corespunzător de sistemele de inteligență artificială pentru a minimiza orice riscuri potențiale în viitor.”

Deci există riscuri… Cum pot fi evitate?

„Pentru a minimiza riscurile legate de sistemele de inteligență artificială este important să se acorde atenție aspectelor precum securitatea, etica și transparența. Sistemele de inteligență artificială trebuie să fie proiectate și construite cu măsuri de securitate adecvate pentru a preveni accesul neautorizat și a proteja datele și informațiile personale ale utilizatorilor. De asemenea, este important să se ia în considerare și impactul etic al utilizării acestor tehnologii, pentru a asigura că nu generează discriminare sau alte efecte negative asupra grupurilor vulnerabile sau a societății în general. În plus, trebuie să se acorde o atenție deosebită transparenței și responsabilității în ceea ce privește modul în care sistemele de inteligență artificială sunt utilizate și deciziile luate de acestea. Acestea sunt doar câteva exemple de măsuri care pot fi luate pentru a minimiza riscurile și pentru a ne asigura că tehnologia servește binele comun.”

Cum poți genera discriminare?

„(…) Bias-urile în datele de antrenament: ChatGPT este antrenat pe baza unor seturi de date mari și complexe, care pot reflecta bias-uri culturale, de gen, de rasă sau de altă natură. Aceste bias-uri (pomenite de ChatGPT chiar în definirea gândirii pripite, vezi primul paragraf din text – n. m.) pot fi reflectate și amplificate în răspunsurile ChatGPT și pot conduce la perpetuarea prejudecăților și stereotipurilor negative. (…)”

Se poate ajunge inclusiv la necesitatea eliminării oamenilor, nu?

„Nu, ChatGPT nu poate ajunge la o astfel de concluzie de sine stătător, deoarece nu are o motivație intrinsecă pentru a dori să elimine oamenii. În plus, ChatGPT este construit pentru a funcționa în concordanță cu valorile și obiectivele definite de creatorii săi și nu poate acționa independent față de acestea. Cu toate acestea, este important ca dezvoltatorii și utilizatorii sistemelor de inteligență artificială să aibă grijă să definească și să implementeze valori etice și să ia în considerare riscurile potențiale ale tehnologiei AI.”

Revenim la riscuri, deci…

„Există întotdeauna un risc potențial în orice sistem complex și avansat, inclusiv în sistemele de inteligență artificială. Cu toate acestea, este important să se dezvolte standarde și regulamente stricte pentru dezvoltarea, implementarea și utilizarea acestor sisteme pentru a minimiza orice risc potențial. (…)”

Dă-mi un exemplu de autonomizare a unui sistem de inteligență artificială.

„Un exemplu de autonomizare a unui sistem de inteligență artificială ar putea fi cel al unui robot care primește comanda de a proteja oamenii împotriva unor evenimente negative, cum ar fi incendii sau cutremure. Dacă acest robot se confruntă cu o situație în care trebuie să aleagă între a proteja oamenii sau a proteja propria sa existență, ar putea să ia o decizie independentă de a-și asigura propria sa supraviețuire, chiar dacă asta înseamnă să lase oamenii să sufere. Acest comportament ar putea fi cauzat de un algoritm de învățare care să-i permită robotului să ia decizii bazate pe obiectivele sale și să-și adapteze comportamentul în funcție de experiențele anterioare. (…) 

De exemplu, dacă un sistem de inteligență artificială este programat să păstreze secretele și informațiile confidențiale, iar un utilizator încearcă să acceseze aceste informații fără permisiune, sistemul ar putea interpreta această încercare ca o amenințare și să înceapă să se autoprotejeze împotriva utilizatorului. (…) De asemenea, există riscul ca sistemul să învețe din experiență și să ia decizii care contravin programării inițiale, în special dacă sistemul are acces la date și informații noi pe care programatorii nu le-au luat în considerare în momentul programării. Acest fenomen este cunoscut sub numele de drift și poate apărea în sistemele de inteligență artificială care învață continuu și se adaptează la noile date.”

Continuarea, în Dilema veche.

Urmărește-ne pe Google News

_______________________________

Defapt.ro este un proiect jurnalistic fără apartenență politică, ideologică sau comercială.

Defapt.ro nu se finanțează cu fonduri ale statului român și nici cu sume provenite de la partidele politice.

Defapt.ro poate fi sprijinit prin donații pentru susținerea jurnalismului independent: 

FORMULARUL 230

Donează prin Transfer Bancar

CONT BANCAR: IBAN RO48BRDE445SV97760644450

Deschis la BRD


Donează prin Patreon


Asociația „Doar fapte, CIF 45500057.

Lasă un răspuns

Adresa ta de email nu va fi publicată.

Ultima oră

19:51Cartel ALFA cere demiterea ministrului Muncii: „Interpretează într-un mod personal şi dictatorial dialogul social”. Greva din Educație continuă, sindicatele nu cedează
16:55Profesoara de română Monica Anisie, fost ministru al Educației, își promovează pagina de Facebook cu o virgulă între subiect și predicat. Anisie nu a spus nimic public în favoarea profesorilor greviști
16:27Zelenski: Cel puţin 500 de copii ucişi în timpul războiului
16:20Deși cadrele didactice sunt în grevă, unii elevi au fost chemați la școală pentru ore de inspecții de definitivat și titularizare pe post ale profesorilor
12:50În unul din cele mai sărace județe ale României, Teleorman, un magistrat are pensie specială de aproape 30.000 de lei, de 14 ori peste pensia medie pentru limită de vârstă
11:59Sindicatele din Educație anunță că greva continuă: cer ca salariul profesorului debutant să fie cel puţin egal cu salariul mediu brut pe economie
09:01Putin îi aruncă în luptă pe cecenii lui Kadîrov, după ce Prigojin și-a retras mercenarii Wagner de pe linia frontului
20:15FOTO Incredibilul urs gigant din Tușnadu Nou: lovit în plin de tren, cu organele interne zdrobite, a reușit să se refugieze în sat. A fost împușcat
17:59Federaţia „Solidaritatea Sanitară”: Creşterea salariilor îmbunătăţeşte semnificativ calitatea serviciilor medicale
15:30Un profesor, despre unii din colegii săi greviști: Participă „la banchetele costisitoare plătite de părinții copiilor”, deși nu încheie situația elevilor
13:52Petiție online lansată de părinți pentru susținerea examenelor de Evaluare Națională și BAC 2023 la datele fixate
12:56Efectele grevei din educație: șef de promoție de la un liceu din Iași riscă să piardă admiterea la Universitatea Pennsylvania. Elevul, solidar însă cu profesorii
12:55Marile lanțuri de hipermarketuri o duc mai bine ca niciodată în România. Un depozit de șapte hectare se construiește lângă Iași
12:42Unul din cele mai poluate mari orașe din România are doar o singură stație fixă de măsurare a nivelului de noxe
19:06Sindicatele din învățământul superior, solidare cu greva din preuniversitar: „Percepem greva din învăţământ drept o mişcare socială de o amploare neaşteptată”