Consecinţele utilizării soldaţilor artificiali
Vorbim foarte des despre modul în care dezvoltările uimitoare din domeniile roboticii și inteligenței artificiale vor afecta munca civilă, dar la fel de spectaculoase și, poate, periculoase vor fi efectele acestor noi tehnologii în cadrul conflictelor armate. Ca să înțelegem aceste efecte ar fi util să explicităm o distincție care se face în literatura de specialitate între automatizare și autonomizare. Un sistem automat este capabil să ducă la capăt o sarcină prestabilită indiferent de schimbările ce pot avea loc în mediul în care acesta funcționează. Un sistem autonom este capabil de mult mai mult – modul în care este efectuată sarcina pe care trebuie să o îndeplinească este adaptat la context. Folosind un exemplu simplu, o mașină de spălat automată își face ciclurile indiferent de natura textilelor cu care am încărcat-o, de cantitatea de detergent folosită sau de impactul său asupra mediului înconjurător. Dacă am programat-o să spele haine de bumbac, aceasta își va face treaba indiferent că am pus în cuvă poliester, bocanci sau pisici. O mașină de spălat autonomă ar fi capabilă să detecteze ce textile am pus în ea, să-și adapteze ciclul de spălat la material, să se autoalimenteze cu detergentul de care are nevoie ș.a.m.d. Astfel, dacă se presupune că multe meserii civile vor fi afectate de automatizare, lumea militară va fi schimbată radical de autonomizare. Dronele viitorului, cel puțin la nivel teoretic, nu vor mai avea nevoie de un operator uman care să aleagă țintele și să decidă dacă acestea pot fi atacate sau nu. Comandantul unei unități militare robotice trebuie doar să delimiteze zona de conflict, să desemneze obiectivele și caracteristicile principale ale țintelor asaltului, iar flota de drone aeriene și/sau terestre se va putea ocupa singură de tot.
Dacă vă vin în minte scenarii apocaliptice inspirate de filme ca Terminator sau Blade Runner, în care acești robo-soldați capătă o voință proprie și pun în lanțuri umanitatea întreagă, aflați că vă gîndiți probabil mult prea departe. În orice documente oficiale ale armatelor care pot dezvolta aceste capacități avansate de luptă, posibilitatea intervenției umane în acțiunile inteligențelor artificiale marțiale este desemnată ca obligatorie. Este greu de crezut că vreo forță militară va construi vreodată arme pe care nu le poate controla corespunzător. Cu toate acestea, majoritatea filozofilor și oamenilor de știință ce se specializează în această zonă a eticii militare cer o interdicție totală sau măcar un moratoriu pentru sistemele de arme autonome.
Înainte de a trece în revistă argumentele ce sprijină această poziție, să ne preocupăm un pic de motivele pentru care forțele armate sînt totuși foarte deschise acestor noutăți tehnologice. Încă din 2005, publicația americană The New York Times ne semnala perspectiva pozitivă a comandamentului militar american asupra acestui fenomen. Lăsînd la o parte eficiența pe cîmpul de bătălie, folosirea de drone autonome poate avea consecințe morale pozitive. Programați să respecte legislația internațională pentru conflicte armate, robo-soldații s-ar putea îngriji mai bine de drepturile civililor aflați în zone de conflict. Dacă facem o simplă statistică istorică, războiul modern durează mult și devine din ce în ce mai crud și mai violent odată cu trecerea timpului. De exemplu, Primul Război Mondial a avut parte de un armistițiu de Crăciun doar în primul său an, iar conflictul contemporan aparent interminabil din Siria își consumă unul dintre cele mai sîngeroase capitole chiar zilele acestea într-o suburbie rebelă din Damasc. O cauză este desensibilizarea soldaților umani, odată ce sînt expuși constant la stresul bătăliei și la moartea propriilor camarazi. Sistemele autonome de arme nu au camarazi, nu simt nimic cînd suferă o înfrîngere, nu au cum, prin definiție, să-și piardă resursele de umanitate odată cu prelungirea conflictelor și nici nu au tentații specific umane. Aceștia își vor îndeplini misiunea fără rezerve și, continuă teoria, cu minimul de victime colaterale posibile. O analogie potrivită este reprezentată de avantajele imaginate pentru automobilele fără șofer: acestea nu ar trece pe roșu, nu ar tăia calea în intersecție și nu ar coborî din mașină ca să se ia la bătaie cu alți șoferi cînd aceștia greșesc. La o primă vedere, singura problemă este aceea de a ne asigura că această tehnologie funcționează „ca-n reclamă“, iar conflictele armate ale viitorului vor fi mult mai puțin problematice.
Ei bine, nu. În 2009, mai mulți specialiști reputați în etica militară au format Comitetul Internațional pentru Controlul Armelor Robotice (ICRAC) cu misiunea explicită de determina o prohibiție internațională a acestor dispozitive militare. Argumentele lor sînt diverse și, din punctul meu de vedere, puternice.
Zone de război „neconvenționale“
În primul rînd, dacă dronele autonome își aleg singure țintele, aceasta înseamnă că iau de unele singure decizii de viață și de moarte cu privire la ființe umane. Nu este legitim ca astfel de sentințe să poată fi date de roboți fără ca o altă ființă umană să fie parte din „deliberări“. Intuitiv, este greu de crezut că am fi de acord cu o situație în care aparatele care țin în viață o persoană aflată în comă să decidă întreruperea tratamentul acelei persoane.
În al doilea rînd, tehnologia din spatele inteligenței artificiale ce ar urma să controleze dronele autonome este foarte departe de a putea fi folosită în zonele de conflict contemporane. Membrii ICRAC, precum și alți eticieni, argumentează că sistemele robotice au probleme foarte mari cînd vine vorba de interacțiuni nestructurate cu subiecți umani. În fabricile ce folosesc roboți pe liniile de producție, de pildă, aceștia sînt izolați de colegii lor umani tocmai pentru că au nevoie de un mediu previzibil ca să funcționeze corect. Majoritatea zonelor de război din ziua de astăzi sînt, în termeni mai tehnici, „neconvenționale“ – nu există soldați în uniforme standard, fronturi bine delimitate și zone libere de civili. E greu de crezut că dronele autonome ar putea distinge corect între civili și combatanți pe un cîmp de bătălie precum Afganistan, unde nu toți indivizii neînarmați sînt civili și nu toți indivizii înarmați sînt inamici. E drept că astfel de echipamente se folosesc în mod curent în zona demilitarizată dintre Coreea de Nord și Coreea de Sud, dar acolo vorbim de un teritoriu în care viața umană lipsește cu desăvîrșire. Un alt aspect problematic al tehnologiei din spatele robo-soldaților ține de faptul că înșiși cercetătorii care lucrează cu inteligența artificială nu reușesc, în multe cazuri, să reconstruiască cu precizie motivele subiacente deciziilor pe care le iau aceste modele de învățare statistică. În acest caz, responsabilitatea (concept esențial în etica militară) pentru greșelile cu costuri în vieți umane care pot avea loc este greu de stabilit, iar erorile sînt greu de reparat.
În al treilea rînd, poate cel mai important, odată cu utilizarea la scară largă a sistemelor armate autonome, scad și costurile pe care le plătesc decidenții politici dacă pornesc războaie inutile. Soldații umani au apropiați care, cel puțin în democrațiile vestice, votează. Astfel, politicienii sînt încurajați să-și trimită militarii la luptă cît mai rar, deoarece dezastrele pe cîmpul de bătălie pot fi decontate apoi la urne. Chiar și în state iliberale, opinia publică se poate întoarce ușor împotriva unei puteri politice care cheltuiește cu prea mare ușurință vieți omenești (a se vedea eforturile regimului Putin de a ascunde costurile militare reale ale recentei intervenții din Ucraina). Dacă forța principală armată a unui actor statal este robotică, sînt create stimulente pentru conflicte mai dese, deoarece dispar posibilele costuri umane ale asalturilor militare. Mai mult, apar premisele unei noi curse a înarmării cibernetice care ar destabiliza echilibrul și așa prea fragil al ordinii internaționale. Nu este un accident că majoritatea politicilor de apărare ale marilor puteri militare ale lumii conțin în ziua de astăzi referințe la dezvoltarea zonei de inteligență artificială.
Dacă sîntem dispuși să trecem peste predicțiile apocaliptice cu care sîntem bombardați de filme, cărți sau persoane publice în căutare de audiență, vom vedea, cum sper că acest articol demonstrează, că utilizarea militară a rezultatelor din cercetarea în inteligență artificială și robotică ridică niște provocări mari și imediate pentru pacea relativă care s-a instalat în lume odată cu încheierea Războiului Rece. O interdicție măcar temporară ar curma din consecințele negative expuse mai sus.
Mihail-Valentin Cernea este doctor în filozofie al Universității din București. A publicat articole academice pe teme de filozofia generală a științei, filozofia biologiei și etică militară.