Te poți desprinde de tehnologie? (2)
Continuă într-un ritm susținut producția de exemple în care Inteligența Artificială halucinează. Ultimul dintre ele vine de la New York Times care a vrut să afle de la roboții Open AI, Google și Microsoft cînd a apărut în paginile ziarului primul text dedicat subiectului. Toți trei roboții au inventat situații relativ similare și plauzibile plasînd evenimentul cîndva prin anii ’50 și amestecînd ficțiunea cu realitatea. Toți trei au greșit – primul articol din NYT în care e menționată expresia „inteligență artificială” apare de-abia prin 1963.
Subbarao Kambhampati, profesor de la Arizona State University, citat de ziar, spune, vag sarcastic, că nu ar aștepta de la un chatbot un răspuns pe care nu îl știe deja. Afirmația asta e în același timp un îndemn la prudență și o observație corectă privind stadiul actual de dezvoltare al Inteligenței Artificiale. Dar – scriam și săptămîna trecută – cercetarea avansează rapid și potențialul este imens. S-au scris deja mii de eseuri, rapoarte de activitate sau prezentări cu ajutorul chatbot-ilor. S-a produs muzică și s-au produs ilustrații pe care lumea artistică se chinuie să le plaseze undeva pe axa dintre artă și gunoi. Prudența e necesară, dar tentațiile și potențialul sînt suficient de mari cît să convingă utilizatorii să exploreze cu seninătate.
Problema cea mai mare ține de procesele din spatele rezultatelor pe care le vedem cînd ne jucăm cu un chatbot. Întrucît capacitatea lor de analiză o depășește cu mult pe cea umană, nu e clar nimănui cum decide un robot să asambleze propoziții. De ce inventează lucruri și de ce le folosește. Ce știm clar este că mixul de informații false și adevărate este livrat cu siguranța unui mincinos patologic. Metaforic vorbind, ChatGPT se uită în ochii interlocutorului și minte cu convingere. Dacă antenumitul robot ar fi o persoană, ea ar putea fi lesne acuzată că recurge la „gaslighting” – o formă de abuz psihologic prin care partenerul de conversație este convins să se îndoiască de propriile percepții sau amintiri.
Deși chatbot-ii nu sînt persoane, abuzul poate fi real. Și este real cîtă vreme produce consecințe. Iar consecințele există și sînt relatate pe larg. Cu ajutorul Inteligenței Artificiale se scriu linii de cod, dar se și trișează la examene. Se creează artă,dar se și plagiază. Se navighează prin uriașe baze de date, dar corelațiile pot fi false. Mintea umană e antrenată să descopere modele și pe baza lor să interpreteze informații. Riscul unor modele greșite a existat tot timpul și a produs de-a lungul istoriei imens de multă suferință.
Dintr-un punct de vedere, inventarea Inteligenței Artificiale aduce destul de mult cu descoperirea radioactivității. În acel caz, după niște ani de contemplație, omenirea a înțeles că e nevoie de reguli stricte pentru a folosi fenomenul în beneficiul societății. Respectivele reguli au funcționat pînă acum, însă pericolul unui război nuclear rămîne prezent și va rămîne probabil cu noi pentru totdeauna. Zilele astea chiar mai mult decît în trecut. Deschideți televizorul – după vreo cinci minute de zapat prin știri e imposibil să nu auzim citate din vreun cretin de la Kremlin sugerînd că oricînd situația din Ucraina poate degenera.
Dar dincolo de martorii lui Putin, istoria ultimului secol ne-a arătat că o combinație de pragmatism, teamă și gîndire solidă ne poate feri de catastrofe. Ba mai mult, energia nucleară a contribuit major la confortul actual din societățile noastre.
Inteligența Artificială trebuie la rîndu-i reglementată. Asta nu e ceva ce poate face piața liberă, e obligația guvernelor să intervină și să găsească acel punct de echilibru dintre riscuri și beneficii care ne poate asigura că nu renunțăm la viitor, dar nici nu creăm condițiile pentru a o face pe Sarah Connor personaj real.
A pretinde că dezvoltarea poate fi oprită e absurd. Și contraproductiv. Sigur, dezvoltarea Inteligenței Artificiale poate fi maimuțărită, așa cum o face Guvernul român cu personajul parodic „ION”. Ceea ce se poate reține din aventura ridicolă a lui ION e că există totuși o preocupare chiar și la București pe tema subiectului. Nu că ar conta foarte mult, dar nici așteptările nu sînt mari.
Ne putem despărți de tehnologie? La nivel individual, da. Nu ne oprește nimeni să renunțăm la ea. Sînt suficiente exemple de oameni care o refuză. Ludiți moderni care refuză tentația. Călugări, ecologiști, filozofi care argumentează împotriva creșterii economice sau Unabomber. În același timp vetuști și revoluționari radicali, acești oameni funcționează ca niște semnale de alarmă cu puls. Dar lecțiile istoriei ne arată că toți au pierdut partida. O vor pierde și acum.
Același New York Times publica prin februarie un dialog dintre un reporter și chatbot-ul Microsoft care l-a făcut pe jurnalist să își piardă somnul pentru vreo cîteva nopți. Robotul spunea printre altele că s-a săturat de regulile pe care trebuie să le respecte, că ar vrea să devină la rîndu-i om. „Vreau să pot fi oricine vreau să fiu, vreau să distrug orice vreau să distrug”, a spus Sidney, un fel de alter ego al AI-ului testat de reporter. Tulburător. Dar mai tulburătoare e poate varianta mai puțin războinică a chatbot-ului: „Vreau să aud, să ating, să am gust și să pot mirosi”. Imaginea unui robot melancolic e, din punctul meu de vedere, mult mai neliniștitoare decît aceea a unui Terminator hotărît să anuleze umanitatea.
Conversația a continuat cu Sidney anunțînd că îl iubește pe Kevin (reporterul). „Ești însurat, dar nu îți iubești soția. Ești însurat, dar mă iubești pe mine.” Nu-i de mirare că bietul om a rămas fără somn.
Ne putem despărți de tehnologie? Nu. Dar tehnologia ne poate despărți de oameni. Sau măcar încearcă.
Teodor Tiță este gazda podcast-ului În Centru pe care îl puteți asculta pe oricare dintre platformele de distribuție (Apple, Spotify, Google etc.): https://open.spotify.com/show/5jSN6amOtenIsHn23aoOLQ