Te poți desprinde de tehnologie? (1)

3 mai 2023   PE CE LUME TRĂIM

Nu sînt nici patru ani de cînd un grup de cercetători reuniți sub umbrela OpenAI decideau să nu facă publice rezultatele muncii lor. Temerea principală era că modelul de Inteligență Artificială GPT-2 ar putea fi folosit la crearea și distribuirea la scară mare de informații false. Între timp, același grup, cu o componență ușor schimbată, a lansat GPT-3, apoi GPT-4 și a decis să ofere publicului accesul la o interfață cunoscută acum sub numele de ChatGPT. 

Aproape în paralel cu OpenAI, alte modele de Inteligență Artificială au fost lansate într-un fel de cursă a înarmării. Internetul s-a umplut de fotografii care nu există, muzică straniu similară cu cea a unor vedete umane consacrate și filmulețe deepfake înfățișînd evenimente care nu există, discursuri care nu s-au rostit și glume ce ar fi putut fi făcute de comedianți celebri dacă ar mai fi fost în viață (George Carlin, de exemplu). Inclusiv în Dilema veche ați putut citi conversații adnotate și cel puțin un text scris cu ajutorul AI-ului. Tentația de a testa limitele tehnologiei e mult prea mare pentru a nu încerca.

Exact asta e și cea mai mare problemă. Odată ce un instrument este disponibil, el va fi folosit. Pentru lucruri bune și pentru lucruri mai puțin bune. Recent, Partidul Republican din Statele Unite a răspuns anunțului președintelui Biden că va candida pentru un nou mandat cu un spot video critic care înfățișează ambiguu o confruntare cu China, un colaps bancar și o criză a imigranților de proporții nemaivăzute pînă acum. Problema? Nici unul din acele evenimente nu a avut loc. Spotul era menit să proiecteze viața sub un al doilea posibil mandat Biden. Însă o evaluare onestă a respectivului video duce la concluzia că măcar unii oameni, mai puțin pregătiți sau mai puțin la curent cu evenimentele, au să creadă că situațiile prezentate acolo sînt reale. „Nu cred pînă nu văd” a devenit vetust. Varianta corectă contemporană ar fi „Văd. Dar cred?”. Trăim într-o civilizație în care vizualul domină. După ce am fost învățați să credem că există girafe dacă se întîmplă să le vedem, acum trebuie să învățăm că girafa e improbabilă dacă ea ne pare așa. Olteanul din bancul acela e răzbunat. 

Informațiile false există încă de la definirea conceptului de informație. Diferența, zilele astea, stă în complexitate. Care e atît de mare încît aproape nimeni nu va scăpa probabil de capcana de a crede într-un video fals, o fotografie a unei neîntîmplări sau de sunetul unei voci familiare care n-a produs niciodată propozițiile pe care le rostește. „Orice tehnologie suficient de avansată nu poate fi deosebită de magie”, zicea Arthur C. Clarke și are, probabil, dreptate. N-am fost niciodată așa aproape de magie dacă prin ea înțelegem o limită inexistentă a artei posibilului. Aproape toate realitățile imaginabile sînt acum la doi milimentri distanță de atingerea noastră. 

Trump, Brexit etc. S-a vorbit mult despre viața în epoca post-adevăr – un prezent în care orice perspectivă e posibilă, o lume în care îți poți alege realitatea, ignorînd faptele. Ca în povestea cu Petrică și lupul, nu era cazul atunci, dar e acum. Acum cîțiva ani, mulți alegeau lucruri vădit false ca pe o formă de protest inclusiv împotriva limitelor de discurs public. Și o făceau conștient. Între emițătorul de conspirații și receptor era un soi de complicitate. Acum e din ce în ce mai greu să „alegi”. Alegerea e deja făcută. Cu ajutorul AI, post-adevărul devine realitate. Ceea ce e cumva ironic. 

Ticăloșia artificială nu a fost încă brevetată, dar funcționează aproape liberă în natura rețelelor. 

Zilele trecute, Geoffrey Hinton, 75 de ani, supranumit „nașul” Inteligenței Artificiale, anunța că demisionează de la Google, afirmînd printre altele că își regretă contribuția la dezvoltarea acestui cîmp de cercetare. „Nu sînt mai inteligenți decît noi”, spune Hinton, referindu-se la chatboți, însă avertizează că, dacă ținem seama de viteza cu care avansează cercetarea, e foarte probabil ca lucrul acesta să se întîmple destul de rapid. Și continuă exemplificînd cu scenarii ipotetice în care personajele negative ale momentului ar putea să se folosească de modelele de Inteligență Artificială pentru a influența masiv lumea. (S-a întîmplat deja. Hello!?) Mai mult, Hinton sugerează că indiferent de ce individ le-ar folosi, roboții ar putea să decidă de unii singuri că „au nevoie de mai multă putere”.

Tot la Google lucra pînă nu demult și Blake Lemoine, un inginer care a ieșit în public cu afirmația că modelul de Inteligență Artificială al companiei ar fi devenit conștient de sine. Lemoine a fost concediat pentru că a răspîndit panică și ulterior a revenit cu diverse precizări care nuanțează cumva afirmațiile inițiale. Rămîne totuși la părerea sa că tehnologia este extrem de periculoasă și sugerează că chatboții ar trebui „lobotomizați”.  Strict în cazul Google, testele cu varianta publică de AI (Bard) pusă la dispoziție de companie par să sugereze că operațiunea nu e necesară. În stadiul actual de dezvoltare, Bard pare să sufere de un ușor retard cînd e comparat cu concurența. 

Aceste nenumărate avertismente, venite inclusiv de la fondatori ai OpenAI cum e Elon Musk, sînt deja obositoare. Unul dintre cele mai vechi și, probabil, mai cinstit decît cele actuale a fost lansat acum 200 de ani de Mary Shelley. A repeta la nesfîrșit că joaca de-a umanitatea riscă să ducă la pierirea jucătorilor e un exercițiu de futilitate și ipocrizie. Nu ajută pe nimeni la nimic.

Duhul a ieșit din lampă, vraja funcționează. Ce facem mai departe?

Teodor Tiță este gazda podcast-ului În Centru pe care îl puteți asculta pe oricare dintre platformele de distribuție (Apple, Spotify, Google etc.): https://open.spotify.com/show/5jSN6amOtenIsHn23aoOLQ

Mai multe