Idioția artificială

29 martie 2023   PE CE LUME TRĂIM

„Chatbot-urile” (sau „interfețele conversaționale”) capabile să poarte o conversație în limbaj natural, să înțeleagă intenția de bază a unui utilizator și să ofere răspunsuri pe baza unor reguli și informații presetate nu sînt o noutate. Dar capacitatea unor astfel de chatbot-uri a sporit dramatic în ultimele luni, ceea ce i-a făcut pe unii să-și frîngă mîinile și să se panicheze.

S-au spus multe despre chatbot-uri și s-a prevestit sfîrșitul eseurilor academice tradiționale. Dar o problemă care justifică o atenție sporită e modul în care chatbot-urile ar trebui să răspundă atunci cînd interlocutorii umani folosesc expresii agresive, sexiste sau rasiste pentru a provoca bot-ul să răspundă cu propriile fantezii spurcate. Ar trebui oare programată inteligența artificială (IA) să răspundă la același nivel cu întrebările care i se pun?

Dacă decidem că numite reglementări sînt în ordine, mai trebuie atunci să stabilim cît de departe ar trebui să meargă cenzura. Se vor interzice punctele de vedere politice pe care anumite grupuri le consideră „ofensatoare”? Ce ne facem cu declarațiile de solidaritate față de palestinienii din Cisiordania sau cu afirmația că Israelul e un stat apartheid (inclusă la un moment dat de fostul președinte american Jimmy Carter în titlul unei cărți [Palestine: Peace Not Apartheid – n. trad.])? Vor fi blocate ca fiind „antisemite”?

Problema nu se termină aici. După cum avertizează artistul și scriitorul James Bridle, noile IA „se bazează pe însușirea la grămadă, fără discernămînt, a culturii existente”, iar convingerea că ele sînt „de fapt bine informate sau semnificative e în mod activ periculoasă”. De aceea, trebuie să fim foarte precauți și față de noile generatoare de imagini IA. „În încercarea lor de a înțelege și reproduce cultura vizuală umană în întregul ei”, observă Bridle, „ele par să fi recreat și fricile noastre cele mai întunecate. Ceea ce e, poate, doar un semn că aceste sisteme sînt într-adevăr capabile să maimuțărească foarte bune conștiința omenească – chiar și oroarea care pîndește în adîncurile existenței: frica noastră de mizerie, de moarte și de depravare.”

Dar cît de bune sînt noile IA în a aproxima conștiința omenească? Să ne gîndim la barul care a lansat recent o reclamă pentru o băutură la ofertă, în următorii termeni: „Cumpără o bere la preț de două și primești a doua bere gratis!”. Pentru orice om asta e, evident, o glumă. Clasica ofertă „cumpără una, primești două” a fost reformulată astfel încît să se autoanuleze. E o expresie de cinism care poate fi apreciată ca formă comică de onestitate, cu scopul de a crește vînzările. Ar înțelege oare un chatbot ceva din toate acestea?

„Fuck” prezintă o problemă similară. Deși desemnează ceva care face plăcere celor mai mulți oameni (actul sexual), termenul capătă uneori și o conotație negativă („Sîntem futuți!”, „Du-te și te fute!”). Limba și realitatea sînt confuze. E IA pregătită să discearnă astfel de diferențe?

În eseul său din 1885 „Despre elaborarea treptată a gîndurilor prin vorbire” (publicat pentru prima oară postum, în 1878), poetul german Heinrich von Kleist contrazice ideea, îndeobște acceptată, potrivit căreia e mai bine să-ți ții gura dacă nu știi ce anume exact vrei să spui: „Dacă, așadar, o idee e exprimată în mod confuz, nu înseamnă că ea a fost şi gîndită în acest fel; dimpotrivă, e foarte posibil ca ideile exprimate cel mai confuz să fi fost gîndite cel mai clar”.

Relația dintre limbă și gîndire e extraordinar de complicată. Într-un pasaj dintr-un discurs de-al lui Stalin, la începutul anilor 1930, el propune măsuri radicale pentru a-i „depista și combate fără milă chiar și pe cei care se opun doar în gînd colectivizării – da, chiar asta vreau să spun, trebuie să combatem chiar și gîndurile oamenilor”. Putem presupune, fără să ne înșelăm prea tare, că acest pasaj nu a fost pregătit dinainte. Aflat, inițial, sub puterea momentului, Stalin a realizat deîndată ceea ce tocmai spusese. Dar, în loc să retracteze, a decis să-și mențină hiperbola.

Acesta a fost un caz, după cum a formulat mai tîrziu Jacques Lacan, în care adevărul a ieșit la suprafață în mod surprinzător, prin actul enunțării. Louis Althusser a identificat un fenomen similar în interacțiunea dintre prise și surprise.Cineva care „prinde” („prise”) sau pricepe dintr-odată o idee va fi surprins de propria sa realizare. Întreb din nou: poate vreun chatbot să facă așa ceva?

Problema nu e că chatbot-urile ar fi stupide, ci că nu sînt suficient de „stupide”. Nu e vorba că ele sînt naive (prin lipsa de ironie și reflexivitate), ci că nu sînt suficient de naive (ele nu își dau seama cînd naivitatea disimulează perspicacitatea). De aceea, adevăratul pericol nu e că oamenii vor confunda un chatbot cu o persoană reală, ci că, datorită comunicării cu chatbot-uri, persoanele reale vor începe să vorbească ca niște chatbot-uri – ratînd toate nuanțele și ironiile, spunînd obsesiv, cu exactitate, doar ceea ce cred ele că vor să spună.

Cînd eram mai tînăr, un prieten s-a dus la psihanalist pentru a se trata în urma unei experiențe traumatice. Reprezentarea prietenului meu despre așteptările acestor analiști de la pacienții lor era un clișeu, astfel încît și-a petrecut prima ședință livrînd false „asociații libere” despre faptul că își ura tatăl și că își dorea să-l vadă mort. Reacția psihanalistului a fost ingenioasă: a adoptat o postură naivă „pre-freudiană” și i-a reproșat prietenului meu că nu își respectă tatăl („Cum poți vorbi astfel despre persoana datorită căreia ești ceea ce ești?”). Această naivitate simulată a transmis un mesaj clar: nu mă las păcălit de „asociațiile” tale. Ar putea să înțeleagă un chatbot acest subtext?

Pesemne că nu, deoarece lucrurile se petrec ca în interpretarea lui Rowan William a Prințului Mîșkin din Idiotul lui Dostoievski. Potrivit lecturii standard, Mîșkin, „idiotul”, e un sfînt, „un om pozitiv bun și frumos” pe care brutalitatea cruntă și patimile lumii reale îl duc la nebunie și izolare. Dar, în reinterpretarea radicală a lui William, Mîșkin reprezintă ochiul unei furtuni: oricît de bun și de sfînt ar fi el, Mîșkin e și cel care declanșează dezastrul și moartea la care devine martor, datorită rolului pe care îl joacă în rețeaua complexă de relații din jurul său.

Mîșkin nu e doar un prostănac naiv. Doar că, datorită naturii speciale a stupidității sale, el nu realizează efectul dezastruos pe care îl are asupra celorlalți. E un personaj plat, care literalmente vorbește ca un chatbot. „Bunătatea” sa rezidă în faptul că, asemenea unui chatbot, el reacționează la feluritele provocări fără ironie, oferind platitudini lipsite de orice formă de  reflexivitate, luînd totul ad litteram și bazîndu-se mai degrabă pe o „completare automată” mentală decît pe o elaborare autentică de idei. Din acest motiv, noile chatbot-uri se vor împăca de minune cu ideologii de toate culorile – de la mulțimile „woke” din ziua de azi la naționaliștii „MAGA” care preferă să rămînă în adormire.

Slavoj Žižek, profesor de Filozofie la European Graduate School, este directorul internațional al Birkbeck Institute for the Humanities la Universitatea din Londra și autorul, printre altele, al volumului Heaven in Disorder (OR Books, 2021).

Copyright: Project Syndicate, 2023

www.project-syndicate.org

traducere de Matei PLEȘU

Mai multe