Ecoul din camera chinezească
„Lucrurile sînt împotriva noastră!“, anunța, în 1948, fictivul Pierre-Marie Ventre, dînd astfel naștere rezistențialismului, un așa-zis curent filozofic care susținea că obiectele au o atitudine ostilă față de oameni, aflîndu-se într-un perpetuu război cu aceștia. Rezistențialismul nu ar trebui să fie luat în serios, pînă la urmă a fost gîndit ca o ironie la adresa lui Jean Paul-Sartre și a existențialismului său. În ciuda acestui lucru, a lăsat în urma lui o importantă moștenire: ideea, încă larg îmbrățișată, conform căreia încercarea oamenilor de a crea tehnologii tot mai inteligente va avea ca rezultat nu progresul incremental, ci chiar dispariția rasei umane.
Șaizeci de ani după Pierre-Marie Ventre apare Nick Bostrom, un filozof al tehnologiei oxonian, care propune un scenariu înfricoșător, de mult cunoscut fanilor de SF-uri. Atunci cînd inteligența artificială generală (AI) va apărea – o chestiune de certitudine, spun ei – va trebui să ne pregătim pentru sfîrșitul existenței noastre; de aici și riscul existențial. O inteligență superioară nouă va fi declicul pentru o „explozie a inteligenței“, o serie de autoîmbunătățiri care vor transforma mințile artificiale și activitățile lor în chestiuni de neînțeles pentru oameni. Presupune apariția unei inteligențe net superioare celei umane dispariția speciei noastre? Bostrom ne propune să fim realiști și să acceptăm acest scenariu ca fiind cel mai plauzibil, doar avem un model pe care îl putem extrapola: comportamentul nostru față de alte specii pe care aproape că le-am adus în pragul extincției. Dacă oamenii, cu inteligența lor superioară, au reușit să schimbe felul în care arată această planetă, atunci același lucru îl va încerca și o minte artificială, ceea ce s-ar putea să nu fie neapărat bine pentru noi. Nu e foarte clar cît mai avem de așteptat pînă la Singularitate (un alt nume pentru inteligența artificială generală); predicțiile riscurilor existențiale ale inteligenței artificiale sînt mereu plasate într-un viitor nu foarte îndepărtat, însă nici foarte apropiat, astfel încît să ne pună în gardă fără a-i stînjeni pe profeți în cazul în care predicțiile lor nu se îndeplinesc.
Sîntem încă departe de o inteligență artificială generală. Sistemele specializate pe care le folosim astăzi, printre care și inteligențe artificiale (precum Siri sau Alexa), nu ridică nici un fel de risc existențial. Ce le lipsește și, totodată, ceea ce deosebește inteligența umană de alte tipuri de inteligențe este generalitatea. De exemplu, nu putem învăța o albină să construiască un cuib de rîndunele, așa cum nu putem învăța rîndunelele să ridice un stup. În mod similar, faimoasa DeepBlue, inteligența artificială care i-a luat titlul de campion mondial la șah lui Gari Kasparov, nu poate fi antrenată să conducă o mașină sau să joace pe bursă. Însă oamenii pot învăța să întreprindă toate aceste activități, uneori într-un timp destul de scurt. Este discutabil dacă inteligența umană este cu adevărat generală, însă nimeni nu s-ar putea îndoi că aceasta este în mod semnificativ mai generală decît cea prezentă în lumea animală.
Una dintre principalele probleme în calea construirii unei AI este că nu prea știm ce este și cum funcționează inteligența umană. Deși avem o sumedenie de teorii (cognitive, biologice, cognitiv-contextuale etc.) despre minte, conștiință sau inteligență, nici una nu este definitivă. Asta pentru că nu putem scăpa de recursivitate: obiectul de studiu este, în același timp, și instrumentul cu care studiem. Însă treaba filozofilor este să găsească soluții pentru a ieși din astfel de încurcături, iar pentru aceste situații speciale au bricolat un „instrument“ aparte: experimentele mentale, cu ajutorul cărora pot imagina și verifica sau „testa“ consecințele unor ipoteze, teorii sau principii.
Conținut semantic vs. sintaxă
Pentru a testa posibilitatea creării unei minți artificiale, adică a unei AI, filozoful John Searle a imaginat un experiment mental numit camera chinezească – un răspuns la testul Turing –, care din anii ’80 și pînă astăzi a stîrnit imense dezbateri și discuții. Experimentul este următorul: un individ care nu vorbește limba chineză este închis într-o cameră în care se află o cutie cu semnele alfabetului chinezesc (pe care nu le poate înțelege) și o carte de instrucțiuni pentru asamblarea acestora (instrucțiuni pe care le poate înțelege). În afara camerei avem un vorbitor de limbă chineză care strecoară pe sub ușa camerei diverse mesaje în chineză. Cel dinăuntru va putea răspunde mesajelor primite în următorul fel: se va uita în manualul cu instrucțiuni, iar mai apoi va manipula caracterele chinezești astfel încît va reuși să ofere un răspuns coerent vorbitorului de afară. Instrucțiunile arată ceva de tipul: dacă ai semnul x, răspunde cu semnul y, cu mențiunea că cel din cameră nu știe ce înseamnă x și y. Înțelege atunci acesta răspunsurile pe care le trimite vorbitorului de chineză sau mesajele pe care le primește? Nu. Întocmai unui computer, el nu face decît să manipuleze simboluri, fără a avea nici cea mai vagă idee despre semnificația lor. De aici și legătura cu imposibilitatea apariției inteligenței artificiale generale: mințile umane au conținut semantic, adică au capacitatea de a înțelege sensul simbolurilor cu care operează; în schimb, programele și computerele au numai sintaxă, mai precis manipulează simboluri fără a le înțelege. Inteligența presupune adaptabilitate și spontaneitate, lucruri pentru care avem nevoie de înțelegere și nu doar de reguli de acțiune sau interacțiune.
Așa cum s-a observat, concluziile acestui experiment mental sînt radicale: nu putem crea o inteligență artificială generală pentru că nu știm cum să îi programăm înțelegerea așa cum apare ea la oameni. Oricît de bine am antrena o astfel de entitate, ea nu va rămîne decît un manipulator de simboluri. Chiar dacă Siri răspunde uneori ca un om, părînd astfel să treacă testul Turing, aceasta nu are de fapt capacitatea să priceapă ce i se spune sau ce răspunde.
Însă camera chinezească nu arată imposibilitatea logică a unei inteligențe artificiale generale, ci doar faptul că acum nu știm exact cum să o creăm. Există două sensuri ale acelui ar putea din atît de rostogolita sintagmă „inteligența artificială generală ar putea să apară cîndva“. Într-o primă instanță, ar putea se referă la posibilitate, adică la faptul că nu există nici o contradicție logică ce ne-ar opri să asumăm că AI este teoretic posibilă. Însă, într-un al doilea sens, ar putea se referă la probabilitate, adică la posibilități concrete. Diferența între cele două este următoarea: aș putea ca la un moment dat să îmi pierd telefonul mobil (e foarte plauzibil, avînd în vedere istoricul meu personal) vs. aș putea să rezolv conjectura lui Hodge (nu e logic imposibil, dar e foarte puțin probabil avînd în vedere că nu am mai făcut matematică de mai bine de zece ani). Ceea ce înseamnă că inteligența artificială generală, împreună cu toate riscurile existențiale pe care le ridică, este posibilă conceptual, însă foarte puțin probabilă astăzi sau în viitor.
Există însă alte riscuri existențiale, precum posibilitatea războaielor nucleare sau încălzirea climatică, pe care dacă nu le rezolvăm cît mai repede nu vom mai ajunge niciodată să vedem o inteligență artificială generală. Ne-am obișnuit să tratăm tehnologiile ca simple instrumente neutre, iar reflecția morală provocată de acestea a fost mai degrabă retroactivă, decît proactivă. Așa că ne-am trezit, în mod surprinzător, cu o sumedenie de probleme care cu greu pot fi rezolvate după ce tehnologiile au fost larg îmbrățișate și utilizate. Aceasta pentru că am realizat foarte tîrziu că toate artefactele din jurul nostru sînt precum niște legislatori ascunși ai societăților moderne. Pe măsură ce creăm noi și noi tehnologii, tot mai sofisticate și complexe, ar trebui să ne întrebăm, în primul rînd: ce fel de lume vrem să creăm cu ajutorul acestora? Ceea ce ar însemna să ne mutăm atenția dinspre productivitate și eficiență înspre condițiile sociale, politice sau morale, pe care le creăm sau restrîngem odată cu schimbarea tehnologică. Ajungem astfel la imperativul moral al zilelor noastre: găsirea unor forme sau limite pe care să le impunem tehnologiilor pentru ca acestea să lărgească spectrul libertății umane, al autonomiei și al capacității de autoguvernare a utilizatorilor săi.
Cristina Voinea este doctorandă a Facultății de Filozofie, Universitatea din București, cu o teză de filozofie politică și etică a Internetului.