Construim roboţii inteligenţi care ne pot ucide în viitor. Scenariul negru din filme, schiţat în lucrarea unui cercetător

0
Publicat:
Ultima actualizare:

În 1950, scriitorul Isaac Asimov fixa cele trei legi pentru roboţi, astfel încât aceştia să nu distrugă omenirea. La 64 de ani distanţă, un cercetător consideră că suntem pe punctul de a crea viitoarele maşini de ucis oameni, iar asta dintr-o neglijenţă pe care încă o putem remedia.

În cartea „Eu, robotul“, scriitorul Isaac Asimov nota trei legi pentru roboţi, toate centrate în jurul ideii că omul trebuie să fie mai presus de orice, chiar mai presus decât robotul. În 2014, Steve Omohundro, fizician specializat în programarea sistemelor şi în implicaţiile sociale ale inteligenţei artificiale (IA), avertizează că roboţii pe care îi construim pot ajunge să ne distrugă. Iar asta dintr-un singur motiv, după cum scrie Quartz: roboţii îşi fac foarte bine treaba.

„Tehnologia autonomă şi bunăstarea omenirii“ (versiunea PDF) se numeşte lucrarea pe care Omohundro a publicat-o de curând în Journal of Experimental & Theoretical Artificial Intelligence în care vorbeşte despre inteligenţa artificială, lecţiile pe care ar trebui să le predăm roboţilor şi modul în care putem eficientiza dezvoltarea roboţilor. Cercetătorul porneşte de la premisa că roboţii nu sunt precum oamenii, nu iau în calcul mai multe scenarii, ci judecă lumea în funcţie de ceea ce au de făcut.

Un sistem dotat cu inteligenţă artificială va avea o sarcină de îndeplinit şi va lua în calcul că orice decizie ia îi va influenţa rezultatul. În rândul omenirii, este teoria utilitarismului şi noi apelăm la ea în multe situaţii. Doar că, spre deosebire de roboţi, oamenii sunt flexibili, se pot schimba, dacă intervine un alt scop sau dacă pot distruge ceva şi nu vor asta. Pe scurt, oamenii nu sunt obsedaţi de îndeplinirea unui scop, pe când roboţii doar asta ştiu.

Când se aplică acest concept la un robot care are de asamblat un telefon, e în regulă, el trebuie să fie eficient şi să nu ia în calcul altceva. Când vine vorba de alt scenariu, roboţii nu vor lua în calcul alte costuri, decât dacă acestea sunt cu adevărat un impediment în calea desăvârşirii scopului lor. Ei devin sisteme anti-sociale capabile să pună în aplicare proverbul „scopul scuză mijloacele“.

Scena din filmul „Terminator“ în care Skynet preia controlul asupra omenirii

Oamenii sunt responsabili de propria pieire

Un robot nu are voie să producă vreun rău unei fiinţe umane, sau, prin neintervenţie, să permită ca unei fiinţe omeneşti să i se facă un rău“, prima lege pe care Asimov o notează în „Eu, robotul“. Omohundro susţine că, în prezent, creatorii sistemelor autonome lucrează la dezvoltarea unor sisteme aproximativ raţionale, doar că asta nu e suficient de bine. „(...) sistemele raţionale au tendinţa universală de a se proteja, de a se concentra pe strângerea de resurse, de a se replica şi de a se eficientiza. Actuala infrastructură este vulnerabilă în faţa unor astfel de valori“, susţine el.

Cercetătorul mai spune că actualii ingineri spun că dacă un sistem IA scapă de sub control, pur şi simplu „îl scot din priză“, îi întrerup funcţionarea. Totuşi, asta este o spirală către o nimicire mai rapidă, consideră acesta. „Un viitor în care să opreşti un sistem e soluţia, nu e un viitor în care să câştigi sau să pierzi (...). Dacă sistemul crede că inginerii trag pârghiile care să permită oprirea sa, atunci va fi motivat să dezvolte soluţia prin care să îi oprească definitiv pe ingineri“, explică acesta în lucrare.

Dincolo de criticile sale, Omohundro crede că are şi o soluţie, cel puţin teoretică. Tot procesul de dezvoltare a sistemelor autonome trebuie încetinit şi regândit. Totul trebuie aranjat pe straturi, aşa cum se pun schele când se ridică o clădire. În momentul în care ai aşezat plafonul şi îşi poate susţine propria greutate şi mai mult, atunci scoţi schela. În prezent, cursa e spre rafinarea sistemelor în sensul ca ele să înveţe tot mai mult, tot mai repede, să înţeleagă lumea.

[<a href="//storify.com/razvanbaltaretu/afl-mai-multe-despre-inteligen-a-artificial" target="_blank">View the story "Află mai multe despre inteligenţa artificială" on Storify</a>]

Știință



Partenerii noștri

Ultimele știri
Cele mai citite