Inteligența artificială (prescurtat AI, după acronimul din engleză: Artificial Intelligence) este înțeleasă ca „inteligență generală de nivel uman“ sau peste nivelul uman (numită uneori AI+). Inteligența umană specifică unui domeniu nu mai este un prag greu de trecut: vezi rezultatele recente în șah sau în jocul de Go, precum și teoreme demonstrate sau verificate doar de computere. Noi tehnologii de învățare precum Deep Learning permit acum mașinii să învețe jocuri noi doar urmărind jocurile altora. AI este deja bazată pe un complex proces de învățare „adîncită“ cu mai multe niveluri decît creierul uman. Ar fi teribil, spun unii, ca AI să devină capabilă să creeze alte tipuri superioare de AI, similar unei reacții în lanț, concept numit super-AI. Acest proces în care AI atinge nivelul de super-AI este numit Singularitate, idee promovată de Ray Kurzweil, inspirat oarecum din teoria găurilor negre din fizică: niște cantități care cresc peste măsură, teoretic la infinit. 

Voi începe cu un avertisment: AI are o soartă dilematică. Pe de o parte, pare un element cu totul nou, nemaivăzut. Nu am întîlnit în istoria noastră creații mai inteligente decît creatorul. Dar teama că putem crea artefacte ce depășesc orice măsură și ne scapă de sub control nu e deloc nouă. În materialul de față intenționez să reflectez asupra AI ca o continuare a unui efort uman de a crea artefacte tot mai autonome – un vis universal, ce ne-a însoțit pe parcursul întregii noastre istorii ca umanitate. Iar teama că autonomia artefactelor zămislite de imaginația noastră va scăpa de sub control este, din nou, o temere veche. Golem, monstrul lui Frankenstein, Terminator sau Ava (din filmul Ex Machina) ne amintesc că tehnologia sau știința pot crea ființe magice, binevoitoare sau doar altfel. Că ar exista o diferență ontologică între noi și mașini pare o sugestie ce ne-ar putea scăpa de coșmarul unei invazii a roboților. Ideea carteziană că sîntem excepționali cînd ne comparăm cu roboții, animalele, îngerii etc. este probabil cea mai ușoară cale de a scăpa de coșmarul și spectrul Singularității. Ce este nou și ce este cunoscut în aventura umanității cu AI este o afacere veche. Elementul de noutate constă în sentimentul că, replicînd inteligența umană, am ajuns la un prag pe care nu l-am mai trecut înainte. Dar este AI chiar atît de nouă?

Şi cine se teme de super-AI? Sînt cîteva elemente necesare care trebuie clarificate. Întîi, o opoziție categorială între artificial (artificialitatea artefactelor noastre) şi natural (naturalețea). Artificialitatea a inspirat întotdeauna teamă și prudență. Mulți autori preferă să asocieze inteligența artificială cu a doua jumătate a secolului al XX-lea. Dar trebuie să ne reamintim cum romanismul și clasicismul au prefigurat probleme în-tîmpinate abia acum, iar raționalismul (în primul rînd, Descartes) a găsit o soluție metafizică. Dar există cîteva argumente mai puțin convingătoare, zic eu, pe care le trec în revistă.

Artificialitate vs. Natural

Opusă ideii de naturalitate, artificialitatea este asociată trufiei de a înlocui Creatorul cu omul – fiecare pas în direcția creării unei lumi artificiale ne îndepărtează de ceea ce este natural. De ce? Mulți din tabăra celor indignați sau de-a dreptul înfricoșați de spectrul AI aduc o obiecție intrinsecă științei și dezvoltării acestei tehnologii. Ei nu consideră consecințele benefice ale AI importante: ideea de a crea inteligență sau viață este în sine extrem de periculoasă. Cu alte cuvinte, chiar dacă AI ar avea doar consecințe benefice (ceea ce este foarte greu de închipuit), din punct de vedere metafizic comitem un păcat capital: a crea ceva necreat, ceva inexistent sau nenatural, este trufie nespusă. Tehnologia și știința sînt, în acest sens, mai periculoase decît arta. Pentru că a crea ceva ce nu există și nu a existat este „un joc de-a Dumnezeu“.

Mulți probabil se situează pe o poziție teologică și susțin că în cazul inteligenței artificiale acest joc de-a Dumnezeu este un element crucial ce depășește considerentele pragmatice de genul: „Ca orice unealtă creată de om, AI poate fi folosită în scopuri bune, dar și în scopuri rele.“ Argumentul că AI este joacă extremă de-a Dumnezeu pune însă un accent important pe ideea de inteligență sau viață. Este la fel de prezent în biologia sintetică, unde țelul cercetătorului este de a crea noi forme de viață. Important însă este să facem distincția între ce putem face și ce trebuie să facem: conform acestei tabere, am putea crea inteligență sau viață, dar nu trebuie (iar aici trebuie este moral) să dezvoltăm aceste noi forme de inteligență. Pentru cei care cred în „jocul de-a Dumnezeu“, a crea AI este la fel de distructiv ca a crea arme biologice. Putem să le dezvoltăm, dar bacteriile sau virușii creați de noi ne vor distruge. La fel, artificialitatea vieții duce la dispariția umanității. Interesant este că armele nucleare nu intră în această categorie: procesele de fuziune și fisiune sînt naturale și au loc în realitate, deci sînt naturale: noi nu facem decît să imităm natura. O super-AI nu este naturală, iar dispariția umanității este legată de dispariția umanității „naturale“. Aici argumentul stagnează de multe ori, dar inteligența este, dacă permitem glosa carteziană, ceva diferit de ceea ce este natural (material). Este un joc cu focul, mai precis cu moartea umanității ca esență nematerială. Un termen tehnic folosit în literatură este „riscul existențial“ al AI, similar cu riscul existențial al armelor biologice și al altor experimente care ne pun existența ca umanitate în pericol.

Argumentul jocului de-a Dumnezeu este însă vulnerabil pentru că presupune că inteligența este o facultate specială. Mă număr printre cei care cred în esența naturală a inteligenței sau cogniției. Cei care se opun argumentului „jocului“ spun că inteligența este naturală, emerge în lumea materială a animalelor și a oamenilor, iar AI nu ar face decît să mimeze naturalul (o tehnică numită biomimetica). Naturalul, așa cum îl percepem, pare static, nemișcat. Realitatea este alta: depășind condiția romantică, ne putem închipui o lume în care artificialul corectează naturalitatea și o îmbunătățește. Întrebarea poate fi transpusă în alte contexte: am creat zbor artificial cînd am inventat avioane bazate pe principii diferite de zborul păsărilor. Am creat computere, care nu există în lumea creată (oare o pasăre „calculează“ cînd zboară?). Avem matematica, ceea ce depășește granițele fizicului, ale vizibilului. Am trimis oameni pe Lună, ceea ce este complet în afara naturalității noastre ca specie animală. Am explorat părți ale universului care nu au nimic de-a face cu zestrea noastră naturală. Am creat forme noi și, în multe cazuri, mai eficiente decît formele naturale. Simplul fapt că vrem să creăm ceva ce nu există pare un motiv foarte slab pentru a crede că ne jucăm de-a Dumnezeu. „Nu există încă“ este o categorie naturală în sine: universul se schimbă constant și evoluează în forme noi, neașteptate sau inexistente înainte. De ce nu am integra AI în categoria naturalului? De ce este AI diferită de alte creații artificiale precum zborul, medicamentele, protezele? De ce-ar crede unii că ne jucăm de-a Dumnezeu doar creînd viață/inteligență în forme noi?

Principiul de precauție

Cei care discreditează argumentul acestui „joc“ insistă pe faptul că problemele cu AI nu sînt intrinseci, ci sînt legate de consecințele extrem de nefaste. Consecințele AI sînt așadar extrinseci și țin mai degrabă de felul în care va arăta în viitor o societate ca a noastră cu AI la îndemînă. Și acest grup presupune că în principiu putem atinge un nivel de AI egal cu cel uman sau superior, dar că majoritatea consecințelor acestei tehnologii sînt nefaste. Vom fi pur și simplu înlocuiți de AI (în timp ce alte invenții nu ne-au înlocuit ca oameni). Aici e diferența. O temere domină literatura celor care preferă să fie prudenți (și aplică așa-numitul „principiu de precauție“). Dacă există o consecință nefastă a unei tehnologii, iar consecințele benefice nu sînt cunoscute, trebuie să ne abținem să dezvoltăm tehnologia respectivă. Știm că orice algoritm sau computer poate fi hackuit, spart. Chiar dacă un algoritm AI a fost creat pentru a servi scopuri nobile, el poate deveni o armă în mîinile criminalilor. Chiar dacă vom avea roboți capabili să conducă mașini sau camioane, bone pentru copii sau asistente pentru persoanele în vîrstă, acești roboți vor fi, volens nolens, vulnerabili la pirateria cibernetică.

Acest argument extrinsec este cel mai puternic cînd vine vorba de temerile noastre de a opri dezvoltarea AI. To hack or not to hack, iată întrebarea! Iar o posibilă soluție este propusă în literatura de specialitate (David Chalmers și Nick Bostrom o discută pe îndelete): ce ar fi să experimentăm AI în laboratoare izolate, in vitro (sau în „gropi de nisip“), unde Internetul nu există şi nici nu este permis, iar agenții noștri artificiali sînt cenzurați în ceea ce privește legătura lor cu lumea exterioară? Acest paternalism AI este însă greu de menţinut pentru multă vreme: pe măsură ce AI emerge și evoluează în Singuralitate (super-AI), vom putea oare păcăli acești agenți și vom putea noi să-i ținem prizonieri pe măsură ce coeficientul lor de inteligență crește exponenţial față de coeficientul uman?

Moralitatea artificială & supervenienţa

Dar coșmarul Singularității nu se oprește aici. Scenarii comune vehiculate presupun că super-AI nu ne vor extermina, dar că urmașii noștri vor locui în rezervații în timp ce super-cyborg-ii ne vor vizita, privi și conserva, ca pe niște curiozități ale trecutului. Homo sapiens nu a exterminat toate primatele, dar le a redus la condiția de curiozități și exponate în grădini zoologice. Apoi, mai este ideea că Singularitatea va decide în viitor binele și răul pentru noi. Într-adevăr, chiar dacă unii pot admite că AI este posibilă sau chiar dezirabilă, mulți clachează intelectual la ideea de moralitate artificială (AM, după acronimul în engleză: Artificial Morality). Aici încărcătura filozofică este și mai copleșitoare. Ideea este din nou oarecum carteziană: capacitatea de a raționa despre bine și rău este condiționată de un „ceva“, de un factor X ce ne face speciali printre alte creaturi. Acest factor X poate fi conștiința, dar pot fi empatia, emoțiile, interioritatea, poate fi intenționalitatea husserliană, poate fi un Dasein heideggerian sau o combinație a acestora. Există firește mulți alți candidați ce pot ocupa acest spațiu al moralității pur umane.

Din păcate, poziția aceasta nu este deloc atractivă pentru alții (și nici pentru mine). Eu, de exemplu, prefer un argument apropiat unui funcționalism moral, iar ideea de agent moral nu îmi dă atîtea crampe intelectuale. Nu cred că sîntem atît de speciali în modul în care raționăm cu privite la etică și moralitate și cred că există un cadru comun al facultăților raționale umane. Funcționalismul sugerează că raționamentul moral este o funcție a raționamentului despre fapte, deși această relație este extrem de complicată (unii, ca Frank Jackson, susțin că avem de a face cu superveniența). Înclin să cred, prin analogie, că cogniția morală poate fi replicată și învățată, de oameni și deopotrivă de mașini. Cred că noi învățăm moralitatea precum învățăm alte deprinderi. Mă aflu, probabil, în linia unei teorii a virtuții în etică. Categoriile morale pot fi clasificate, iar algoritmii (acum sau în viitor) vor reuși să identifice aceste categorii, oarecum în mod similar algoritmilor Deep Learning care sînt capabili să discearnă o strategie bună în jocul de table de o strategie proastă. Este de asemenea evident că aceste decizii nu sînt absolute, ci depind de anumite matrici culturale sau sociale, iar aici diferența cu jocurile este fundamentală. Am simplificat mult, dar cred că moralitatea implică procese precum învățarea, optimizarea și, nu în ultimul rînd, evoluția. Toate aceste procese, cel puțin la nivel înalt, conduc la ideea de comparare, categorizare și clasificare.

De ce avem nevoie de agenți morali artificiali? Din nou prefer un argument care naturalizează moralitatea. E greu de crezut că o mașină fără șofer, o dronă autonomă, un carebot (roboți care joacă rolul de asistente medicale în aziluri pentru persoane în vîrstă sau cu deficiențe mintale), un robot-bonă pentru copii nu vor trebui să ia decizii morale şi fără ajutorul oamenilor. Din nou, revin la ideea de autonomie. Pe măsură ce pretindem acestor agenți inteligenți să fie autonomi, le cerem implicit să ia decizii despre ce e bine și ce e rău.

Închei cu un gînd speculativ: existența agenților AI și AM ne va face mai toleranți, mai deschiși la alteritate și mai puțin trufași. Mai puțin excepționaliști. 

Ioan Muntean este profesor la Universitatea North Carolina din SUA.