Cum arată viitorul războiului cu armamente AI și unde ar trebui să fie limitele de viață și de moarte
Inteligența artificială e folosită tot mai intens în scop militar, pentru a crește capacitatea unor tipuri de armament de a acționa fără intervenție umană. Foto: Profimedia
Abonează-te la canalul nostru de WhatsApp, pentru a primi materialul zilei din Panorama, direct pe telefon. Click aici
În noiembrie 2020, într-un orășel aflat la 80 de kilometri de Teheran, era asasinat Mohsen Fakhrizadeh, un om de știință considerat părintele programului nuclear iranian. Nu era un secret că viața lui era în pericol, serviciile israeliene îl vânau din 2007, scrie The New York Times. Și nici nu era primul cercetător iranian eliminat de Mossad, deși era cel mai important. Dar, felul în care a fost planificată și îndeplinită operațiunea a stârnit un mare interes: inteligența artificială fusese folosită pentru o lovitură de precizie, cu minime efecte colaterale.
Mohsen Fakhrizadeh a fost împușcat în timp ce conducea spre casă. Soția lui, aflată pe locul pasagerului, în aceeași mașină, nu a pățit nimic. Arma a fost acționată de la distanță, iar tehnologia i-a permis operatorului să identifice, să selecteze și să atace doar ținta. Săptămâni la rând, a fost imposibil de înțeles ce se întâmplase de fapt. Azi, la patru ani și jumătate de la acel moment, aplicațiile militare ale inteligenței artificiale sunt din ce în ce mai sofisticate și sunt creditate cu potențialul de a schimba definitiv fața războiului.
Totuși, ce ar însemna un conflict în care armamentul este capabil să ia decizii și să acționeze independent de intervenția umană? Folosirea AI în scop militar capătă deja contur într-o realitate lipsită aproape în totalitate de reglementări. Așadar, ce e de făcut pentru a ține sub control o tehnologie care avansează galopant și în care pompează miliarde de dolari nu doar guvernele, ci și companiile private?
Abonează-te la newsletter, ca să nu uiți de noi!
Ești pe grabă? Poți sări direct la ce te interesează:
Ce este și cum funcționează armamentul letal autonom (LAWS)
Pe scurt, armele autonome se bazează pe o tehnologie care le permite să identifice, să selecteze și să atace o țintă. Multe modele de armament prezintă deja un grad de autonomie: un sistem de apărare antirachetă, spre exemplu, poate detecta un potențial pericol și poate riposta; chiar și o mină antipersonal, odată plasată, acționează mai departe fără controlul unui operator.
Dar, evoluția inteligenței artificiale ne pune în fața unei realități în care armele vor putea decide când, unde și pe cine atacă. Există deja modele de drone care folosesc senzori pentru identificarea țintelor pe baza unor parametri și pot declanșa un atac fără implicare umană.
Un exemplu este Harpy, o dronă kamikaze, cunoscută și drept muniție rătăcitoare (poate plana în jurul unei ținte multă vreme, înainte să acționeze), proiectată de Israel. A fost construită pentru a distruge apărarea antiaeriană inamică. Software-ul cu care este dotată îi permite să identifice aparatura, să o localizeze și să decidă dacă aparține sau nu unui inamic, înainte să o lovească. Un operator uman supraveghează toată această secvență, dar acțiunea poate fi inițiată și aplicată și fără acordul lui. Drona se izbește de țintă și explodează, de unde și denumirea de kamikaze.
Secretarul general al ONU, António Guterres, spunea în 2018 că sistemele autonome de armament letal „sunt inacceptabile din punct de vedere politic și respingătoare din punct de vedere moral” și ar trebui interzise. Dar, pentru marile puteri precum SUA și China, folosirea unor astfel de arme vine cu avantaje strategice care nu pot fi trecute cu vederea, precum și cu argumentul „oppenhaimerian”, cum îl definește lectorul Mihail Cernea, „oricum urma să le facă cineva, mai bine le facem noi”.
După praful de pușcă și armele nucleare, armamentul autonom este considerat un punct de cotitură în istoria domeniului militar.
Calitatea codului AI face diferența. Exemplul dronelor din Ucraina
În funcție de cât de des folosim tehnologia zilnic, inteligența artificială a pătruns deja în viețile noastre fără să o analizăm prea mult. De la rețelele sociale până la tehnologia folosită în sistemele de siguranță ale mașinilor moderne, AI e omniprezentă. Și ne face viața mai simplă. Câți dintre noi nu folosesc asistenții de navigație pentru a ajunge din București la vama Giurgiu, pentru o vacanță cu mașina în Grecia, fiindcă e mai comod, mai rapid și mai sigur decât să cauți ieșirea din capitală în direcția bună, orientându-te după panourile rutiere?
Într-o definiție cât mai scurtă, inteligența artificială este o formă de tehnologie care imită procesele cognitive umane. Trecerea de la utilizarea civilă la cea militară sau crearea de software cu dublă întrebuințare nu e o surpriză și a devenit mult mai vizibilă odată cu războaiele din Ucraina și Fâșia Gaza.
„E mult mai simplu să scrii linii de cod acum pentru inteligență artificială, pentru că ai deja inteligență artificială care să te ajute să scrii linii de cod”, povestește Jennifer Scurrell, cercetătoare în domeniul AI la Centrul pentru Studii de Securitate din cadrul reputatei Universități ETH Zurich din Elveția.
„Diferența se face din punct de vedere al calității, doar companiile mari au modelele puternice și capacitatea mare de calcul”, adaugă ea într-un interviu pentru Panorama.
Colegul său, Stefan Soesanto, coordonatorul echipei de securitate cibernetică din cadrul aceluiași centru, studiază de trei ani cum e folosită inteligența artificială în războiul din Ucraina. Din punctul său de vedere, software-ul folosit pe dronele ucrainenilor este rudimentar, suficient cât să diferențieze între un tanc, o mașină și un copac, dar incapabil să identifice un soldat și să discearnă dacă uniforma este a unui rus sau a unui ucrainean.
„Totul se rezumă la setul de date pe care îl ai la dispoziție, cât de rafinat este. În domeniul militar, strângerea de informații presupune să afli care sunt cele mai noi sisteme de armament, cum arată cele mai noi tancuri, le poți identifica și urmări pe câmpul de luptă? Căci acesta trebuie să fie obiectivul”, detaliază expertul în securitate cibernetică.
Cât de mult a avansat AI în apărare
Inteligența artificială joacă un rol important în misiuni de culegere a informațiilor, monitorizare și recunoaștere (ISR) care presupun analizarea unor volume mari de date, pe baza cărora se iau decizii pe câmpul de luptă. Palantir este o firmă de software din Statele Unite, devenită epitomul acestei tehnologii – printre clienții săi se numără și serviciile americane de spionaj. Anul trecut, a câștigat un contract cu Departamentul Apărării (DoD), pentru un echipament sofisticat de ISR din care a livrat deja primele două prototipuri.
Camionul TITAN, descris drept primul vehicul militar bazat pe inteligență artificială, poate recepționa și procesa rapid informații de la senzori din spațiu, tereștri și aerieni, pentru a facilita lovituri precise ale armatei americane.
Proiectul face parte din ambițiile SUA de a sincroniza, extrage și procesa într-un centru comun datele recepționate de senzorii tuturor ramurilor armatei americane. Folosirea inteligenței artificiale pentru a spori capacitățile militare rămâne învăluită în mister, pentru că este o dotare imposibil de cuantificat. Poți număra rachetele, avioanele, blindatele, dar nu poți inventaria software-ul.
Discuția a luat amploare în aprilie 2024, când un articol de investigații, publicat în presa din Israel și preluat apoi de marile publicații occidentale, dezvăluia existența unui software bazat pe inteligență artificială, capabil „să proceseze rapid cantități masive de date pentru a genera mii de potențiale <<ținte>> pentru lovituri militare, în timpul unui război”.
Acest software se numește „Lavender”, iar articolul susține că armata l-a folosit pentru a selecta ce ținte să bombardeze în timpul războiului din Gaza. „Personalul uman era acolo doar pentru a valida, fără verificare, deciziile computerului. Operatorii acordau cam 20 de secunde pentru analizarea fiecărei ținte înainte de a autoriza atacul – practic doar se asigurau că țintele selectate de Lavender sunt bărbați”, scrie autorul anchetei jurnalistice. Asta deși se știa, adaugă autorul, că software-ul are o rată de eroare de 10%.
Aici apare una dintre primele dileme, explică Mihail Cernea, lector la Academia de Științe Economice din București, unde predă etică: „De la ce procent de precizie consideri că algoritmul își face treaba? Dacă e mai puțin de 100%, asta înseamnă că asumi că unele crime de război sunt OK”.
Dar, cine să-și asume această responsabilitate, dacă misiunea de luptă este îndeplinită în totalitate de un robot? Aceasta este și una dintre marile teme de dezbatere în legătură cu folosirea inteligenței artificiale în domeniul militar: apariția deficitului de responsabilitate.
„O idee clasică este responsabilitatea <<cec în alb>>, adică toată responsabilitatea este pe decidentul politic sau liderul militar. Orice crime de război nu se întâmplă din cauza utilizării software-ului sau din cauza codului, ci pentru că cineva l-a utilizat”, argumentează Mihail Cernea.
Opțiunile sunt complexe și destul de greu de evaluat, pentru că tehnologia din spatele inteligenței artificiale este opacă, iar algoritmii greu de înțeles pentru cineva fără cunoștințe temeinice în domeniu. Jennifer Scurrell este de părere că ar fi bine ca, în timpul unui conflict, orice evaluare furnizată de AI, pe baza căreia se iau decizii militare, să fie însoțită și de raționament – procesul prin care au fost analizate datele și s-a ajuns la concluzia oferită operatorului uman.
Stefan Soesanto crede că războaiele se vor purta la o viteză din ce în ce mai mare. Cele „20 de secunde pentru analizarea fiecărei ținte” în proiectul Lavender sunt prea multe pentru astfel de circumstanțe, chiar și cinci secunde ar putea fi prea multe, adaugă el.
„Nici nu știu dacă în această secvență ar trebui implicat un operator uman. Participarea oamenilor a fost în proiectarea acestui proces. Cred că supervizarea umană e doar din motive de moralitate, nici măcar nu cred că are legătura cu acuratețea procesului”.
Cât de vulnerabilă este inteligența artificială la atacuri cibernetice
Întrebat dacă un echipament autonom folosit pe câmpul de luptă poate fi atacat cibernetic cu scopul de a-i schimba misiunea sau de a-i furniza informații false, expertul în securitate cibernetică din cadrul universității elvețiene a răspuns că o astfel de interferență este posibilă, dar nu foarte eficientă pe echipamentele aflate în utilizare acum.
Dând exemplul unor drone folosite de Rusia în războiul din Ucraina, alimentate cu date care să le permită să facă diferența între cele două tabere implicate în conflict, Stefan Soesanto spune că modificarea codului care permite dronei să-și actualizeze baza de date e posibilă, dar nu ar fi practică. Ar avea impact asupra operațiunilor de pe front, dacă atacul cibernetic ar scoate din funcțiune întreg serverul prin intermediul căruia se face actualizarea bazei de date a dronelor.
Viața umană în brațe digitale
Una dintre cele mai mari îngrijorări ale activiștilor este că roboții autonomi, sub forma unor drone terestre, aeriene sau subacvatice, vor da posibilitatea decidenților politici să pornească mult mai ușor războaie, știind că pentru propriul popor costurile umane vor fi mult mai mici. Iar o populație care nu-și vede fiii și fiicele pe câmpul de luptă ar putea fi mai îngăduitoare cu astfel de intervenții militare împotriva altor țări. Lumea nu va deveni mai sigură, ci mult mai violentă.
Armamentul autonom bazat pe inteligență artificială ar putea duce la un număr mai mare de conflicte militare. Foto: Richard Pohle/Times/News Licensing/Profimedia
Argumentul invocat în sprijinul utilizării inteligenței artificiale în conflicte este că, spre deosebire soldații convenționali, roboții nu au emoții, nu se înfurie și nu ajung să comită atrocități din răzbunare, după ce și-au văzut camarazii uciși.
Pornind de la principiul mașinilor autonome, capabile să reacționeze mai prompt decât șoferul în cazul unui pericol, armamentul autonom ar fi și el capabil să angajeze doar țintele pentru care a fost programat și să cruțe viața civililor. „Funcția de pilot automat a sporit semnificativ siguranța zborurilor comerciale, salvând nenumărate vieți. Ar putea armamentul autonom să facă același lucru într-un război?”, se întreabă Paul Scharre în cartea „Armata nimănui”.
Răspunsul expertului în etică militară consultat de Panorama este că nu știm. „Observăm că sistemele AI nu funcționează încă la nivelul la care să lași viața umană în brațele digitale”, spune Mihail Cernea.
Acesta este însă doar un aspect practic, nu există nicio certitudine că LAWS vor elimina crimele de război, chiar dacă vor ajunge la un nivel ridicat de sofisticare. Decizia va fi mereu la politicienii sau liderii militari care își vor asuma și victime civile, sub pretextul eliminării unei ținte legitime.
Lectorul universitar mai atrage atenția că întrebuințarea militară a inteligenței artificiale nu se rezumă doar la acțiuni kinetice. Războiul hibrid al Rusiei împotriva statelor europene, prin care își propune să influențeze opinia publică într-o direcție benefică pentru politica sa externă este tot rezultatul utilizării inteligenței artificiale în scop ostil.
Și viitorul nu sună bine deloc. „Această tehnologie nu ar trebui să ajungă în mâinile oricui, dar va ajunge oricum, pentru că nu există niciun control”, subliniază și Jennifer Scurrell. „Una e ca un lider politic să folosească un soft de recunoaștere facială pentru a-și vâna oponenții și e cu totul altceva să folosească tehnologia aceasta pentru a influența întreaga societate în timpul unor alegeri”.
Prea puțin, prea târziu. Unde punem limitele?
„Mai mult om, mai puțin autonom” este sloganul unei campanii lansate în 2013, sub titlul „Stop killer robots”, care adună sute de oameni de știință, firme și ONG-uri din toată lumea într-o pledoarie pentru interzicerea folosirii inteligenței artificiale în decizii de viață și de moarte. Abia în 2024, ONU a votat o rezoluție care inițiază un dialog informal pentru conștientizarea pericolului pe care îl ridică sistemele autonome de armament. Acest dialog ar trebui să aibă loc cândva anul acesta.
E, însă, prea târziu pentru reglementarea în termenii pe care-i cunoaștem. Limitele acceptate de o țară ar putea deveni un avantaj pentru o alta care ar refuza să se supună regulilor. Există mecanisme pentru neproliferare, ne spune Stefan Soesanto, dar par concentrate tot în mâinile celor aflați în vârful acestui ecosistem.
„Poți să limitezi exportul de algoritmi cu proprietate exclusivă (patentați și considerați secrete comerciale – n.r.), poți să limitezi și exportul de microcipuri și am văzut că SUA iau măsuri în direcția aceasta. În al treilea rând, e vorba despre experți, trebuie să vii cu o ofertă foarte atractivă, să poți atrage experții în domeniu și nu cred că sunt foarte mulți care și-ar dori să lucreze pentru un lider autoritar”, detaliază expertul Centrului pentru Studii de Securitate.
În tot acest univers tehnologic demn de filmele SF, Uniunea Europeană are încă mult de recuperat. Revenirea lui Donald Trump la Casa Albă și noua lui politică ostilă la adresa liderilor UE au scos la iveală decalajul uriaș în materie de apărare între restul marilor puteri și bătrânul continent, căruia descrierea i se potrivește mai precis ca niciodată.
S-a alăturat echipei Panorama în iulie 2024, după 13 ani în televiziuni de știri, mai întâi la Realitatea TV, apoi la Digi24. Specializată în actualitate externă, a scris și relatat de la asasinatul lui Benazir Bhutto, până la asaltul asupra Capitoliului, după înfrângerea lui Donald Trump în alegerile din 2020.
A fost redactor, apoi corespondentă și, pentru scurt timp, realizatoare de emisiuni informative, înainte de a face o pauză lungă pentru a da prioritate vieții de familie. Panorama este primul proiect digital în care se implică. Urmărește cu precădere politica din Marea Britanie, Statele Unite și Franța.