Studiul „Mașina morală“ găzduit de MIT a studiat, de-a lungul ultimilor ani, preferințele opiniei publice cu privire la modul în care aplicațiile pe bază de inteligență artificială (IA) ar trebui să se comporte în diferite contexte. Una dintre concluziile datelor colectate este că, atunci cînd un vehicul autonom (VA) se confruntă cu o situație de viață sau de moarte, felul în care un subiect consideră că ar trebui să răspundă depinde în mare măsură de proveniența sa și de ce anume știe despre pietonii sau despre pasagerii implicați.

De exemplu, în cazul unei versiuni VA a clasicei „dileme a tramvaiului“, unii s ar putea să prefere ca vehiculul să lovească un ucigaș dovedit, mai degrabă decît pe altcineva, sau să calce mai degrabă un bătrîn decît un copil. Iar alții ar putea argumenta că VA ar trebui, pur și simplu, să tragă la sorți, pentru a evita discriminarea pe baza informațiilor deținute.

În general, astfel de dileme sînt, post factum, de competența instanțelor ju-de-că-to-rești sau a poliției. Dar, în cazul VA, deciziile trebuie luate în decursul unor milisecunde, timp cu totul insuficient pentru a ajunge la o decizie în cunoștință de cauză. Aici nu contează ce anume știm noi, ci ceea ce știe vehiculul. Întrebarea este, prin urmare, ce informații trebuie să dețină VA despre oamenii din jurul lor. Și ar trebui oare să li se permită firmelor să ofere diferite sisteme etice, în scopul unui avantaj competitiv?

Să luăm următorul exemplu: un vehicul din China are un alt standard de fabricație decît unul din SUA, dar e exportat și utilizat în SUA. Vehiculul chinezesc și cel american sînt în curs de coliziune inevitabilă. Dacă șoferul vehiculului chinezesc are preferințe etice diferite de ale conducătorului american, care dintre sisteme ar trebui să prevaleze?

Dincolo de diferențele culturale care pot influența preferințele etice, trebuie luate în calcul și diferențele de reglementare a regimului datelor din diferitele țări. Un producător chinez de vehicule, bunăoară, ar putea avea acces la date despre „punctajul social“ al cetățenilor, care ar oferi algoritmului său de decizie input-uri suplimentare, indisponibile producătorilor americani. Un volum mai mare de date ar putea favoriza decizii mai bune și mai întemeiate, dar ar trebui oare ca acest avantaj să permită ca un sistem să l excludă pe altul?

E limpede că, înainte ca VA să ia în stăpînire șoselele, va trebui să stabilim cine poartă răspunderea luă-rii de decizii algoritmice, fie că e vorba de autorități municipale, de guverne naționale sau de instituții multilaterale. Mai mult, vor fi necesare noi cadre de guvernare a acestei zone de interferență dintre stat și lumea afacerilor. În discuție nu e doar ceea ce vor face VA într-un scenariu extrem, dar și modul în care lumea afacerilor va interacționa cu diferitele culturi în dezvoltarea și implementarea algoritmilor de decizie.

E simplu de imaginat că toți producătorii de VA vor face reclamă diferitelor sisteme etice care pun viața șoferului mai presus de orice sau care îi permit utilizatorului să activeze un sistem etic propriu. Pentru a preveni această „tragedie a bunurilor comune“ va fi nevoie de cadre pentru stabilirea comunicării și coordonării deciziilor între VA-uri. Dar, în procesul elaborării acestor sisteme în contexte culturale diferite, factorii de decizie politică și mediul de afaceri se vor confrunta cu diferite noțiuni culturale despre suveranitate, sferă privată și autonomie individuală.

Ceea ce, dat fiind că sistemele IA nu tolerează ambiguitatea, ridică probleme suplimentare. Crearea unei aplicații IA de la zero presupune specificări extrem de precise: indiferent de situație, aceste sisteme nu fac decît ceea ce au fost instruite să facă. Ceea ce înseamnă că firmele, guvernele și alți furnizori vor trebui să facă alegeri explicite atunci cînd programează protocoalele de răspuns pentru diferitele situații.

Dar, înainte să se ajungă aici, factorii de decizie politică vor trebui să stabilească ramificațiile responsabilității algoritmice, pentru a determina dacă și ce decizii trebuie lăsate în seama întreprinderilor sau a persoanelor private. Deciziile care sînt de competența statului vor trebui dezbătute. Și, dat fiind că astfel de probleme etice și morale nu au răspunsuri facile, e puțin probabil să se ajungă la un consens. Pînă la o soluție definitivă, va trebui să creăm sisteme care să înlesnească, cel puțin, comunicarea dintre VA-uri și să arbitreze disputele algoritmice și evenimentele din trafic.

Dată fiind nevoia de specificări precise în elaborarea algoritmilor decizionali, e de la sine înțeles că va fi nevoie de un organism internațional care să stabilească normele care vor permite rezolvarea dilemele morale și etice. VA-urile sînt, în fond, doar o aplicație a luării de decizie algoritmică. În viitor, normele responsabilității algoritmice vor trebui gestionate în tot mai multe domenii.

În cele din urmă, întrebarea principală la care trebuie să răspundem este dacă întreprinderile au dreptul să elaboreze cadre etice alternative, destinate luării de decizie algoritmice. Noi am fi de părere că nu îl au.

În epoca IA, unele componente ale „lanțurilor valorice“ globale vor fi, în mod firesc, automatizate, moment în care ele nu vor mai fi considerate terenuri de luptă pentru firmele care concurează pentru întîietate. Procesul de stabilire și arbitrare a responsabilității algoritmice va deveni, în schimb, un astfel de teren. Într-un fel sau altul, se vor lua decizii. Ar fi mai bine ca ele să fie adoptate uniform și într-un mod cît mai democratic. 

Mark Esposito, profesor de Afaceri și Economie titularizat la Hult International Business School a Universității Harvard, este co-fondator al Nexus Frontier-Tech, bursier al Mohammed Bin Rashid School of Government din Dubai și al Judge -Business School din Cambridge.

Terence Tse, profesor la ESCP Europe Business School din Londra, este co-fondator al Nexus FrontierTech.

Joshua Entsminger este cercetător la Nexus FrontierTech și bursier senior la École des Ponts Center for Policy and Competitiveness din Paris.

Aurélie Jean, specialist în calcul științific, este fondator al In Silico Veritas, consilier la Boston Consulting Group și colaborator extern al Ministerului Educației din Franța. 

© Project Syndicate, 2019
www.project-syndicate.org

traducere de Matei PLEŞU

Foto: wikimedia commons