Calcule de oportunitate pentru Apocalipsă

0
0
Publicat:
Ultima actualizare:
ccc

Nu sunt cele făcute vorbim de adepţii „clasici” ai Apocalipsei cu sutele lor de organizaţii care de care mai vocale în a demonstra, pe bază de calcule cât mai precise, data la care vine sfârşitul lumii, exact la oră şi minut, eşecul de la capătul tunelului fiind apoi explicat prin imprecizia oamenilor.

Împreună cu asigurarea că, data viitoare, mergem la sigur. Dar asta nu înseamnă că n-ar exista şi discuţii extrem de interesante, câteodată chiar aproape de fascinaţia pe care, inevitabil, o induce orice apropiere de problematica fundamentală a existenţei şi dispariţiei speciei umane.

“Fascinaţie”? Da, în măsura în care cei care intră în această dezbatere folosesc, pro şi contra, argumentaţii ţinând de ceea ce, până mai ieri, se puneau în categorie “Fabulaţie SF” privind mijloacele de control ale declanşării Apocalipsei. Şi vă dau două exemple în acest sens, două articole discutate în acest an în Atomic Scientists, cea mai importantă publicaţie pe plan mondial privind domeniul nuclear.

Primul reia textul publicat an august 2019 de Adam Lowther şi Curtis McGiffin intitulat “America are nevoie de o mână moartă”. Argumentul lor este că, în contextul de acum când “rachetele hipersonice, rachetele de croazieră “invizibile” şi armele dotate cu Inteligenţă Artificială (AI) au redus atât de mult intervalul de timp în care, teoretic, decidenţii trebuie să răspundă la un atac nuclear, încât este timpul să apoară un nou sistem US nuclear de comandă, control şi de comunicaţii. Soluţia lor? Butonul de lansare să fie încredinţat Inteligenţei artificiale”. Cei doi experţi militari autori ai studiului respectiv propun acest sistem ca fiind în oglindă cu instalaţia semi-automată dezvoltată de pentru lansarea arsenalului nulcear al URSS în anume situaţii extreme, mai ales în cazul dispariţiei liderilor de înalt nivel care aveau autorizaţiile necesare pentru asemenea acţiune. “S-ar putea să fie neceasară construirea unui sistem bazat pe Inteligenţă artificială care să detecteze, să decidă şi să trimită spre ţintă forţele strategice cu o asemenea viteză încât perioada de luare a unei hotărâri să nu reprezinte o provocare care să pună SUA într-o poziţie imposibilă”.

În acest sens, spun autorii, recursul ar rezolva în primul rând această problemă fundamentală a vitezei de racţie la atacul advers: “în 1950, bombardierele sovietice aveau nevoie de ore întregi pentru a ajunge deasupra teritoriului american. Oadtă cu intrarea în epoca rachetelor, timpul acesta a fost redus la aprox. 30 minute în cazul unei rachete balistice intercontinentale lansată de la sol şi aprox.15 minute pentru acelaşi tip de rachetă lansată de pe un submarin”. În plus, autorii reamintesc observaţia conţinută în 2019 Missile Defense Review: “Rusia şi China construesc rachete de croazieră şi hipersonice în stare să atingă viteze excepţionale şi cu traiectorii imposibil de prevăzut care reprezintă om provocare pentru sistemele noastre de apărare”. Acesta este contextul în care autorii afirmă că “inteligenţa artificială este poate cea mai indicată soluţie pentru a ajuta oamenii atunci când este vorba despre detectarea unui atac nuclear şi luarea unei decizii asupra celei mai potrivite opţiuni care să răspundă criteriilor desemnate în prealabil de programatori”.

Atenţie, e ne cesară mult ă prudenţă, mai înainte trebuie să înţelegem mai bine efectele introducerii Inteligenţei Artificiale în centrul procesului de decizie, avertizează Michael C.Horowitz, Paul Scharre şi Alexander Velez-Green într-un studiu publicat în urmă cu câteva zile pe situl Universităţii Cornell şi reluat pentru analiză în Bulletin of Atomic Scientist. Riscurile care-i îngrijorează sunt multiple şi, mai mult, deja sunt parţial concretizate în fabricarea de sisteme care deja folosesc Inteligenţă artificială pentru sisteme non-nucleare trimise deja în zone de conflict.

Închipuiţi-vă un sistem condus de Inteligenţă Artificială existent în centrul de comandament chinez şi care, după analiza datelor operative, ar ajunge singur la concluzia că SUA se pregătesc să atace China şi ar recomanda o lovitură preventivă

Robert Work, fost sub-secretar de stat al apărării în Guvernul SUA

Perspectiva imediată cu care ne confruntăm este ca unele ţări să ia decizia să-şi formeze propria lor flotilă de avioane, rachete sau vehicule purtătoare fără pilot dotate cu încărcături nucleare, evident ghidate de propriile sisteme absolut autonome pentru a putea lua decizia finală la fracţiuni de secundă după ce a fost dat ordinul de atac general. Caz în care, afirmă autorii, nimeni nu poate da vreo garanţie valabilă că sistemele acestea autonome, unul sau mai multe, nu prezintă o falie de programare prin care sistemul să fie piratat sau manipulat pentru a fi pus sub controlul adversarului. Şi mai spun că ruşii deja au o armă de acest fel, o torpilă nucleară autonomă denumită Poseidon sau Status-6.

Dar concluzia finală a celor trei savanţi nu contrazice studiul precedent, argumentând în favoarea introducerii unui nivel mai mult sau mai puţin sofisticat de inteligenţă artificială în atât de complicatul sistem de decizie privind lansarea armamentului nuclear. Numai că, în afara problemelor deja menţionate şi deloc teoretice, mai există o dimensiune extrem de interesantă şi potenţial periculoasă a discuţiei. Astfel, Horowitz se arată îngrijorat de modul în care introducerea accelerată a AI în sistemele militare non-nucleare poate să afecteze porofund viitoarele politici în domeniul nuclear: “Riscul care mă îngrijorează cel mai înalt grad este modul în care aplicaţiile convenţionale non-nucleare ale AI menite să crească viteze de ducere a războiului, vor pune o presiune pe sistemele de avertizare timpurie şi pe doctrinele de lansare a armelor nucleare de către state care se tem de anihilare în cazul unui război convenţional...teama de a pierde rapid ar putea genera o presiune pentru o mai rapidă escalare pentru a se ajunge la nivelul nuclear”.

Dar, fond, toate acestea sunt aspecte tehnice posibil de rezolvat şi de corectat. Problema esenţială este că Inteligenţa Artificială dispune, încă de acum prin programarea iniţială, de o capacitate extraordinară de auto-învăţare extinsă, cea care dă valoara exactă a introducerii tehnologiei în din ce în ce mai multe procese de fabricaţie şi în produse finale dintre cele mai diverse. Produse care vor fi cu atât mai valoroase cu cât vor ajuta liniile tehnologice să funcţioneze la alţi parametri de calitate şi viteză tocmai prin învăţarea, acumularea şi managementul tuturor datelor disponibile în domeniu şi adaptarea, prin decizie proiprie, fără intervenţia oamenilor, a tuturor proceselor tehnologice, cel principal nşi cele în reţeaua în care computerele se vor conecta de la sine, graţie AI. Extraordinar, este adevărat. Dar, vorbind despre domeniul armamentelor, instalaţiilor defensive şi ofensive, al armelor nucleare, riscul care apare este uriaş, chiar existenţial.

Dacă acesta este criteriul –micşorarea continuă a timpilor de reacţie – este posibil ca, la un moment dat, poate chiar foarte curând, programele iniţiale (unde programatorii umani introduseseră criteriile de determinare a ţintelor şi calibrarea reacţiilor) să fie considerate de AI ca depăşite datorită noilor tehnologii detectate la adversari. Şi atunci, tot în vortutea criteriului iniţial al vitezei de reacţie, AI să se simtă nevoită să modifice parametrii, să-i adapteze continuu, să calculeze altfel pericolul şi cantitatea încărcăturilor nucleare de care este nevoie pentru nimicirea ţintelor.

Caz în care nu va nevoie ca oamenii să mai facă un calcul de oportunitate pentru Apocalipsă. Îl va face, precis, perfect funcţional, un super-comăuter militar creat în acest scop. Şi gata.

Opinii


Ultimele știri
Cele mai citite