Încredințăm Inteligenței Artificiale marile noastre decizii? – interviu cu Andrei GHERASIM –
„Those who can imagine anything, can create the impossible.”
(„Cei care își pot imagina orice pot să creeze imposibilul.“)
Alan Turing
Ne aflăm într-un moment istoric, avînd potențialul de a întrerupe percepția omului despre viitorul apropiat. Comparația des întîlnităa prezentului este cu „momentul Oppenheimer” („the Oppenheimer moment“), așa cum istoricul Yuval Noah Harari descrie prezentul în legătură cu influența noilor tehnologii, respectiv momentul cînd constructorul Robert J. Oppenheimer (părintele bombei atomice utilizate de americani pentru bombardarea Hiroshimei) realizează că invenția lui va omorî milioane de oameni. Cînd noile tehnologii care integrează Inteligența Artificială (aici o vom numi AI, forma prescurtată a termenului englezesc Artificial Intelligence) generează opinii catastrofale, iar aspectul cel mai îngrijorător este că cei care consideră că avansul tehnologic din ultimul an pune în pericol umanitatea sînt chiar reprezentanții companiilor care dezvoltă aceste sisteme, adică oameni cu profil tehnic, care scriu codul algoritmilor AI și care înțeleg structura complexă a acestor sisteme. Totodată, aceleași voci susțin căInteligența Artificială constituie cea mai mare oportunitate pe care omenirea o are în momentul de față, iar descoperirea vaccinului anti-COVID-19 în cîteva luni este o dovadă a impactului pe care Inteligența Artificială îl are în procesul global de inovare în colaborare cu omul. În acest sens, mă gîndesc că eu, neavînd un profil tehnic, îmi permit să-mi dau cu părerea despre impactul tehnologiilor AI ca urmare a modului de utilizare a acestora, dar Elon Musk (CEO Tesla), Steve Wozniak (co-fondator Apple Computers), Sundar Pichai (CEO Google), Mo Gawdat (fost coordonator al laboratorului Google X), Sam Altman (CEO OpenAI), Emad Mostaque (CEO Stable Difusion), Mark Zuckerberg (CEO Meta) etc., avînd profil tehnic, înțelegînd structura Inteligenței Artificiale și fiind urmați și ascultați de miliarde de oameni la nivel global, nu își permit luxul de a-și da cu părerea și de a îngrijora în mod gratuit.
Andrei Gherasim este Software Engineering Director la o mare platformă de comerț online din Europa, cu sediul la Berlin, un profesionist al tehnologiei informației, construiește sisteme complexe, dar și utilizează la rîndul său tehnologii care integrează Inteligența Artificială, așadar înțelegerea pe care o are din punct de vedere al acestor sisteme este diferită de a mea și, în general, de a utilizatorilor acestor instrumente care nu au profunzimea acestor noțiuni. I-am adresat cîteva întrebări. (Alex Gheorghe)
Care este cea mai bună modalitate de utilizare a sistemului AI și care sînt riscurile utilizării lui?
A fost nevoie de peste cincizeci de ani pentru a descoperi algoritmii și pentru a dezvolta puterea de calcul necesară pentru a pune în practică modele de Inteligență Artificială. Alan Turing a fost primul care a teoretizat, în lucrarea din anul 1950 Computing Machinery and Intelligence (Mașinăria de calcul și inteligența), mașinile de calcul care imită omul. Prin jocul „The Imitation Game” (jocul imitației), Alan Turing se întreabă dacă mașinile, asemenea oamenilor, nu pot folosi informația disponibilă pentru a gîndi: să judece rațional pentru a rezolva probleme și a lua decizii. În următorii treizeci de ani, cercetători în domeniul matematicii și informaticii teoretizează algoritmi și dezvoltă concepte de învățare automată (machine learning) care pot fi folosiți în rezolvarea de probleme și în traduceri.
La începutul anilor ’80, John Hopfield și David Rumelhart popularizează termenul de învățare profundă (deep learning) folosind arhitectura rețelelor neuronale, similare în concepție și funcționare celor din creierul nostru. Acestea rămîn în mare parte în domeniul academic sau în laboratoarele marilor companii de tehnologie datorită lipsei puterii de calcul sau costurilor prohibitive ale acesteia. În primele două decenii ale anilor 2000, mulțumită avansului tehnologic și creșterii semnificative a puterii de calcul, modelele AI bazate pe rețele neuronale și învățarea profundă trec de la teorie la practică, devenind omniprezente. Capacitatea modelelor AI de a descoperi tipare, depășind în viteză omul, își găsește aplicabilitate în aproape toate domeniile. Aptitudinea acestor tehnologii de a detecta și identifica obiecte (visual recognition), capacitatea acestora de a descoperi tipare, anomalii sau a oferi prognoze, procesarea și înțelegerea limbajului natural (NLP, NLU), toate sînt componente fundamentale care pot fi utilizate pentru a construi instrumente care augmentează capacitatea omului de a procesa un volum imens de informații disponibile azi.
Ce se află în „creierul” AI dincolo de algoritmi care evoluează într-un mod aparent incontrolabil și un sistem neuronal artificial avansat, replică a sistemului nervos al omului?
Aparent incontrolabil e mult spus. Există nenumărate studii care detaliază cum funcționează acestea, iar algoritmii sînt susținuți de demonstrații matematice.
Explicat foarte simplu, modelele AI excelează în a învăța – sau detecta – tipare în datele de antrenament și a oferi predicții de similaritate sau prognoze, atunci cînd sînt expuse unor informații noi, dar cu o structură asemănătoare cu datele de antrenament. Arhitectura rețelelor neuronale mărește volumul de date asimilate în învățare și reduce intervenția umană asupra acestor date, ele putînd analiza și descoperi tipare pe o structură de date neomogenă. Apărut ca o nevoie de a îmbunătăți calitatea traducerilor oferite de Google Translate și ulterior folosite de către OpenAI în modelele GPT, arhitectura modelelor „transformer” (2017-), folosită în Large Language Models (LLM), accelerează procesul de învățare, aplică un mecanism de autoatenție care identifică în mod autonom și nesupravegheat relațiile dintre cuvintele folosite ca sursă de antrenare. De aici, e relativ simplu să extrapolezi acest model și să-i găsești aplicații în alte domenii, spre exemplu pentru prognoze de achiziții bazate pe istoricul de produse cumpărate.
OpenAI pune în practică această arhitectură de tip transformer și antrenează ChatGPT folosind un corpus de date de aproximativ 570 de gigabiți (echivalentul a peste 142 de milioane de pagini A4 de text), care este folosit pentru a răspunde variatelor întrebări puse de utilizatori.
Avem capacitatea de a verifica informația oferită ca rezultat, dacă nu înțelegem procesul prin care informația a fost obținută?
Pentru a testa modelele AI și predicțiile pe care acestea le generează, cercetătorii au de rezolvat două probleme: evaluarea rezultatelor generate din punct de vedere al acurateții răspunsului și dezvoltarea de instrumente de observare și identificare a problemelor apărute (debugging). În validarea modelelor LLM se folosesc îndeosebi teste reper (benchmarks) și validări umane: se verifică sintaxa și morfologia, calitatea și corectitudinea, imparțialitatea și siguranța răspunsurilor. Combinația de verificare empiricăumană, cît și teste automate validează îndeplinirea cu succes a unor sarcini ce implică consistența și reproductibilitatea răspunsurilor, metricele intrinsece măsoară similaritatea răspunsului cu un set de date de test. Aceste abordări au însă limitări, fiind susceptibile de un bias (prejudecată) al grupului de test sau al datelor folosite ca repere. Spre exemplu, în 2015, modelul de recunoaștere vizualăfolosit în Google Photos, datorită bias-ului în datele de antrenare și procesului de testare limitat în jurul unei populații nereprezentative, ajunge să recunoască, cu probabilitate mare, persoane de culoare ca fiind „gorile“.
Există abordări în literatura de specialitate pentru a facilita înțelegerea mecanismelor interne care au condus la un anumit rezultat și pentru a facilita eventualele intervenții – fie asupra algoritmilor, fie asupra datelor de test. Din păcate, lipsește un standard în acest proces de debugging, instrumentele fiind specializate pentru fiecare implementare în parte.
Ce înseamnă „two way door decision”?
Decizia, respectiv alegerea pe care o facem după ce am considerat și cîntărit opțiunile cunoscute, trebuie privită prin prisma riscurilor existente și a impactului potențial al acestor riscuri. Prin simplificare, o decizie poate avea un impact reversibil sau ireversibil, i se pot asocia riscuri minore sau majore, pentru luarea unor decizii avem timp suficient, pentru altele nu. Jeff Bezos, fondatorul Amazon, folosește conceptele „one-way” (decizie cu o singură intrare și o singură ieșire) și „two-way door decision” (decizie cu două intrări și două ieșiri) pentru a simplifica această explicație. Astfel, pentru un proces de decizie responsabil – aș spune corporate –, este necesară existența opțiunilor, iar opțiunile trebuie să fie susținute de date, informații pe care le analizăm și interpretăm cu atenție. În orice decizie intervine perspectiva sau contextul în care aceasta este luată -- probabil nu te gîndești prea mult cu ce te îmbraci dimineața dacă e o zi obișnuită, dar sigur cîntărești multă vreme dacă merită să investești într-un apartament. Unele decizii sînt mai importante ca altele, unele pot fi reversibile, iar altele ireversibile. Însă, din experiența mea, efectul neașteptat al volumelor mari de date este acela că îngreunează procesul de decizie și îndepărtează posibilitatea de a decide.
Astăzi, deciziile sînt din ce în ce mai mult bazate pe informații, date colectate din mediul online și interpretate în funcție de setări specifice ale unor sisteme tehnologice, considerați că acest mod de a decide este în beneficiul omului?
Cînd vorbim despre decizii, la rîndul meu, îmi pun întrebări: Cu cine votez? Să vînd sau să cumpăr acțiuni la o companie? Cum spuneam, să cumpăr un apartament acum sau ar trebui să mai aștept? Deja ne bazăm din ce în ce mai mult deciziile pe opțiuni generate de modele AI, folosind date de antrenament colectate la scară largă: primim recomandări de produse, filme, traduceri, căutări online ale diferitelor produse și servicii, conținut existent în rețelele sociale pe care le utilizăm zilnic, ne încredem în AI să ne conducă mașina sau să interpreteze analize medicale. Avem încredere în surse de date și în entități virtuale care dezvoltă și antrenează modelele AI. Dar în calitate de utilizatori ai noilor tehnologii, cum putem confirma corectitudinea și calitatea datelor utilizate pentru definirea algoritmilor utilizați în procesul de învățare? Calitatea și corectitudinea recomandărilor, sugestiilor, informațiilor pe care le includem în procesul nostru de luare a deciziilor pot fi influențate de două elemente: corectitudinea algoritmilor de învățare și calitatea datelor. Dacă în algoritmi ne putem încrede, considerînd că aceștia au rădăcini în domeniul academic și au atașate demonstrații matematice, cum verificăm datele folosite în antrenarea acestor modele? Decizii individuale aparent reversibile pot deveni, la scară globală, ireversibile, cu riscuri înalte și cu impact major.
Pentru ce tipuri de decizie credeți că ar trebui să utilizăm AI?
Rezultatul modelelor AI poate fi folosit pentru orice fel de decizie, ca o sursă de date. Modelele AI sînt instrumente de creație, de asistență, de simplificare, extrem de eficiente în a identifica tipare în volume mari de date. Rămîn însă niște mijloace și, ca în orice alt domeniu, pentru a obține rezultate bune, depinzi de calitatea instrumentelor folosite și de abilitatea de a le folosi. Cred că unul dintre cele mai provocatoare domenii va fi software engineering. Instrumente de generare cod bazate pe noile modele LLM (large language models sau modele complexe AI de limbaj), precum este ChatGPT sau Bard, vin să asiste inginerii software pentru a-și amplifica experiența și abilitățile și, nu peste mult timp, vor fi din ce în ce mai des întîlnite în companiile care dezvoltă software. Nu pentru a înlocui inginerii de software, ci pentru a elimina sarcinile repetitive, predispuse la erori, și a crea mai mult timp pentru implementarea modelelor de business. Această tendință va aduce cu ea noi provocări și noi cerințe pentru inginerii software la locul de muncă: o înțelegere mai adîncă a modelelor de business și a economiilor scalabile, a consumatorului, a tehnicilor de dezvoltare a unui produs software viabil. Îi dau dreptate lui Jensen Huang (CEO-ul companiei Nvidia) cînd spune că „[...] am închis diviziunea digitală. Oricine este un programator”.
Credeți că ar trebui să investim bani acolo unde ne recomandă un instrument AI să investim?
Cheia investițiilor de succes este diversificarea portofoliului, iar dacă asta înseamnă că o parte din portofoliu să fie administrat de un model AI, de ce nu? Riscul asupra societății vine atunci cînd oamenilor le încredințezi instrumente puternice, posibil malițioase, în care aceștia aleg să se încreadă orbește.
Aleg viitorul președinte urmînd recomandările unui model AI? Cu siguranță, nu! De fapt, de aici vine și cel mai mare pericol pentru societate. Dacă pînă acum am mai văzut campanii de dezinformare și alegeri răsturnate, acestea au necesitat o investiție uriașă din partea unor state rău intenționate pentru a manipula decizia unei populații relativ restrînse. Iar prin utilizarea unor modele AI extrem de puternice și antrenate cu informații voit false, capacitatea de dezinformare și influență crește exponențial, iar costurile sînt invers proporționale impactului.
Cum rămîne cu instinctul?
E cel mai important, nu?! Instinctul ne ajută în situații dificile să alegem, supraviețuirea noastră fiind primordială. Îl putem replica artificial? Probabil că nu, din moment ce ne este greu să-l explicăm oamenilor. Dar instinctul este cel care probabil determină temerea noastră față de noile tehnologii și de potențialele implicații devastatoare ale acestora pentru omenire. Bineînțeles, mulți dintre noi am văzut filme precum Terminator sau The Matrix. În momentul de față, însă, ar trebui să ne ascultăm instinctul și sălucrăm activ la a reglementa această tehnologie. Și nu pentru a preveni o apocalipsă creată de roboți autonomi, ci pentru a ne proteja pe noi înșine de procese insuficiente de decizie.
De la Oppenheimer pînă în prezent, este prima dată cînd dezvoltatorii soluțiilor tehnologice care integrează Inteligența Artificialăpar a fi mai îngrijorați, mai temători decît utilizatorii (publicul) și decît autoritățile pentru potențialul periculos, chiar distructiv al Inteligenței Artificiale. Cum să interpretăm reacția lui Elon Musk și a lui Steve Wozniak, care au publicat o scrisoare deschisă prin care solicită suspendarea cu cel puțin șase luni a tuturor dezvoltărilor tehnologiei AI?
Riscurile sînt reale, nu contest. Apar întrebări din ce în ce mai frecvente despre sursele de date folosite pentru antrenamentul modelelor AI (originea datelor, drepturi de autor etc.), cît și asupra impactului social pe care aceste tehnologii l-ar putea avea: înlocuirea angajaților cu sisteme inteligente, supraveghere și predicții care pot genera costuri crescute în domeniul asigurărilor, pericolul utilizării acestor instrumente în domeniul militar, fundamentele omenirii – limbajul, cultura și arta. Toate acestea reprezintămotive de îngrijorare reale. Ceea ce mă face să fiu sceptic cu privire la intențiile celor menționați de dvs. sînt motivele comerciale temeinice din spatele inițiativei lor.
În 1958, John McCarthy inventează termenul de Inteligență Artificială, cu ocazia conferinței „Dartmouth Summer Research Project on Artificial Intelligence” (DSRPAI), considerată o primă încercare de a ajunge la un consens asupra standardizării metodelor de lucru în acest nou domeniu. De aproape 50 de ani, subiectul reglementării Inteligenței Artificiale nu a evoluat prea mult. Unul dintre riscurile reglementării domeniului AI este acela de crea o legislație subiectivă și influențată de lobby-ul marilor companii – Microsoft și OpenAI, Google, Meta sau companiile lui Elon Musk – și de a favoriza inițiativele tehnologice ale acestora, punînd pe locul al doilea utilizatorul final sau creatorul de conținut. Elon Musk și Steve Wozniak cer suspendarea cercetării AI pentru șase luni, ca la nici două săptămîni, același Elon Musk să anunțe înființarea unei noi companii care implementează modele AI generative. Sam Altman, împreună cu cercetători de la Google sau Anthropic, semnează o petiție pentru reglementarea AI, în timp ce OpenAI și Microsoft lansează noi versiuni GPT și reduc costurile de utilizare a tehnologiei AI pentru dezvoltatori.
O ultimă întrebare, credeți că, în momentul de față, sistemele AI, precum ChatGPT, au conștiință?
De la Isaac Asimov și I, Robot încoace, ne imaginăm mașini care gîndesc și reușesc să învețe asemenea oamenilor. Azi nu am ajuns la nivelul acesta, probabil vom ajunge acolo în viitor. Dar a ne teme de conștiința AI pare a fi o temă recurentă și probabil acest lucru are de-a face cu prima noastră reacție, instinctuală: în fața unui lucru nou, fugim sau stăm locului pentru a observa, a învăța, a înțelege. Sînt multe provocări de care, pe bună dreptate, ar trebui să ne temem: job-uri pierdute din cauza Inteligenței Artificiale, riscuri de dezinformare la scară globală, însușirea drepturilor de autor asupra rezultatelor produse de AI și multe altele. Pe de altăparte, sîntem în situația în care putem beneficia de capacitatea rapidă a noilor tehnologii de a identifica tipare, a optimiza procese, de a progresa rapid în domenii a căror rezolvare prezintă o anume urgență, precum încălzirea globală, descoperirea unor tratamente medicale noi pentru boli devastatoare, creșterea puterii tehnologice actuale (computing power) pentru a atinge noi vîrfuri de performanță a Inteligenței Artificiale – paradoxal, volumul de energie necesar și consumat astăzi pentru a antrena modelele avansate AI este atît de mare încît nu face decît să înrăutățească situația din punct de vedere al încălzirii globale, cel puțin pentru moment.
Dar vă întreb eu altceva: ar trebui ca grija noastră principală să fie un AI conștient sau tendința noastră de a ne încrede în alții sau în altceva, orbește?
(varianta integrală pe dilemaveche.ro)
interviu realizat de Alex GHEORGHE