Paza bună trece primejdia rea

Tehnologia deepfake lovește mai ales în prag de alegeri. Cum ne apărăm?

Computer Hope Guy
Deepfake-urile, imagini și video în care chipul unei persoane este înlocuit cu al alteia/ Sursa Foto: Shutterstock

Abonează-te la canalul nostru de WhatsApp, pentru a primi materialul zilei din Panorama, direct pe telefon. Click aici


 

Tehnologia deepfake devine din ce în ce mai accesibilă și mai ieftină. Iar asta contribuie la creșterea furtului de identitate pe internet. Atunci când nu sunt pornografie, imaginile video false, realizate cu ajutorul inteligenței artificiale din mostre de imagine și voce adevărate, apar mai ales pe timp de război sau înaintea alegerilor.

Cum România are un conflict la graniță și patru rânduri de alegeri la anul, educația în privința potențialelor pericole ale deepfake-urilor devine esențială.

  1. Oricine are poze și imagini video pe internet poate deveni subiectul unui deepfake. Prevalența acestui tip de conținut a crescut cu 550% în ultimii trei ani. 98% e pornografie.
  2. În momente cu miză, precum alegerile sau războaiele, se înmulțește conținutul cu temă politică. Imaginile video care impersonează lideri politici devin din ce în ce mai frecvente în social media, generând confuzie și manipulând populația.  
  3. Manipularea video ne zguduie încrederea chiar și în privința conținutul veridic, concluzionează primul studiu despre deepfake-uri pe timp de război. Realizarea unui astfel de video a ajuns foarte ieftină și la îndemâna oricui. 
  4. Marile rețelele sociale vor fi nevoite să dezvolte filtre care să depisteze astfel de conținut. Comisia Europeană a stabilit că ele sunt responsabile de gestionarea deepfake-urilor pe propriile platforme. Parlamentarii români discută și ei reglementarea acestor trucaje, dar confundă internetul cu televiziunea și aruncă problema în ograda CNA-ului. 
  5. Într-o mare virtuală de conținut generat, s-ar putea să ne treacă cheful de a ne expune, ceea ce poate duce pe termen lung la „moartea social media.

Oameni politici manipulați digital

„Am luat decizia să demisionez”, anunța președinta Republicii Moldova, Maia Sandu, acum câteva săptămâni, într-un video bizar pe Facebook. 

Purta un hijab (eșarfă musulmană) negru și avea o mină gravă. Spunea că este incapabilă să mai conducă statul și îndemna populația să voteze la primăria Chișinău un candidat pro-rus, afiliat oligarhului fugar Ilan Șor. 

„Acest veșmânt sumbru reflectă ceremonia noastră comună de doliu pentru democrația moldovenească (…). Republica Moldova s-a confruntat cu prețuri exorbitante la gaze, creșterea costurilor energiei și un deficit de infrastructură (…). Îmi recunosc responsabilitatea pentru aceste nenorociri. Vă rog să susțineți partidul Renașterea și pe Vasile Bolea, a cărui determinare și devotament pentru țara noastră îl fac demn de încrederea și voturile noastre”, spunea ea.

Maia Sandu făcea ceva ce nu-i stă în fire, de parcă era altă persoană.

deepfake
În deepfake, Maia Sandu își anunță demisia și sprijinul pentru un candidat pro-rus la alegerile locale/ Sursa Foto: Captură video Digi24/ Moldova 2.0

În fapt, Maia Sandu care demisiona nu era președinta Moldovei, ci o copie digitală realizată cu ajutorul inteligenței artificiale. Un așa-numit deepfake, în care imaginea și vocea șefei statului erau folosite fără acordul ei.

Administrația prezidențială a solicitat companiei Meta ștergerea imaginilor de pe platforme. Totuși, acestea deja fuseseră apreciate de 5.000 de persoane, poate văzute de zeci de mii, alte mii lăsaseră comentarii și le distribuiseră. Câți dintre acești oameni au aflat însă ulterior, din presă, că videoul era un fals? 

Orice persoană care are poze și imagini video pe internet poate deveni subiectul unui deepfake. Dacă e bine realizat, poate păcăli ușor de la oameni de rând la politicieni mai versați. 

Vara trecută, la câteva luni de la izbucnirea războiului în Ucraina, primarii mai multor orașe europene au participat la întâlniri online cu Vitali Klitschko, omologul lor din Kiev. „Nu au fost semne că în apelul video nu apărea o persoană reală”, a transmis primărița Berlinului, Franziskei Giffey, conform The Guardian.

Suspiciunile au apărut abia după un sfert de oră, când interlocutorul lui Giffey a adus în discuție problema refugiaților ucraineni. Aceștia înșelau statul german, spunea el, așa că cerea să fie întorși înapoi în Ucraina pentru serviciul militar. După o verificarea cu autoritățile din Kiev, s-a aflat că primarul de pe ecran era doar un deepfake bine realizat.

Studiu: ajungem să nu mai credem realitatea

Internetul este deja plin de deepfake-uri realizate pentru entertainment. Numai din 2019 și până anul acesta numărul lor a crescut cu 550%, conform unui raport al companiei americane Home Security Heroes, specializată în soluții de securitate.

98% dintre deepfake-uri reprezintă pornografie, iar în 99% dintre cazuri vizează femeile. Dintre acestea, 53% sunt actrițe și cântărețe sud-coreene. 

Totuși, prevalența imaginilor deepfake crește pe plan politic în momente cu miză, precum alegerile sau războaiele, după cum arată și un raport realizat de Europol, în 2020, cu privire la utilizări abuzive prin intermediul AI: 

„Deși nu există multe raportări de deepfake-uri utilizate pentru scopuri rău intenționate sau explicit criminale, au fost identificate unele exemple (…) în special pe scena politică. În 2019, un deepfake care s-a viralizat în Malaezia a implicat un consilier politic care mărturisea că ar fi întreținut relații homosexuale cu un ministru din guvern. (…) A reușit să provoace un haos politic și să destabilizeze guvernul de coaliție”.

De altfel, nici deepfake-ul cu primarul Kievului nu a fost un caz izolat. Au circulat multe de când Rusia a atacat Ucraina, printre care unul în care președintele rus „Vladimir Putin” anunța pacea sau unul în care șeful statului ucrainean „Volodimir Zelenski” anunța capitularea.

Pentru a vedea cum reacționăm la deepfake-uri în astfel de situații, o echipă de cercetători irlandezi de la University College of Cork (UCC) a realizat recent primul studiu despre deepfake-uri pe timp de război. Au fost analizate aproape 5.000 de tweet-uri de pe platforma X (fostul Twitter), din primele șapte luni ale anului 2022. 

Spoiler alert: deepfake-urile ne zguduie încrederea chiar și în ceea ce privește conținutul veridic.

„O mare parte din dezinformarea analizată a apărut, în mod surprinzător, din etichetarea unor materiale media reale drept deepfake-uri. Prevalența deepfake-urilor în online va genera provocări tot mai mari pentru companiile de presă care ar trebui să fie atente cum etichetează deepfake-urile, pentru a evita suspiciunile față de conținutul media real”, a explicat John Twomey, cercetător UCC.

Realizarea este ieftină și la îndemâna oricui

Liberalizarea inteligenței artificiale aduce cu sine posibilitatea de a crea astfel de produse online. Pentru doar 24 de dolari pe lună, unul dintre cele mai populare softuri de creat deepfake-uri oferă voci premium și posibilitatea de a realiza videouri de până la cinci minute. 

La bază, scopul site-ului ține de practici de business și marketing. Se adresează, de pildă, directorilor de companii care ar putea să-și transmită mesajele mai rapid, fără să fie necesare prezența și timpul lor pentru a le înregistra. Și primarul New York-ului, Eric Adams, se folosește cu succes de AI pentru a se adresa locuitorilor de diferite naționalități din „marele măr”. Astfel, acesta folosește deepfake-uri audio pentru a „vorbi” în mandarină, spaniolă sau idiș.

Deși beneficiile unui astfel de instrument sunt evidente, soft-ul ajunge să fie utilizat însă și în alte scopuri.

Pe TikTok, în special, există deja o pleiadă de utilizatori care injectează pe paginile utilizatorilor diverse momente scandaloase. 

Fotbalistul Cristiano Ronaldo își aruncă copilul în gol, de pe marginea unei piscine aflate pe un zgârie-nori. Sau păsările Erosion, înalte de trei metri, anunțate drept o nouă specie din Antarctica, găsită în zăpezile din munții cei mai îndepărtați. Ați zice că e greu de crezut, dar căutările Google arată că oamenii chiar s-au întrebat dacă e o descoperire zoologică.

@drevfx_ 🔴Hi WHY NO ONE 🔴FOLLWO CLICK FOLLOW🟥 +5 EXPLORE 🔴🔴 “Opium Birds” ‘Fear’ : (The Tundraves spot something that sets them off. There’s coordinates and a hidden message again… ) #conspiracy #weirdcore #opiumbirds #opiumbird #luhcalmfit #opiumbeasts #kenkarson #erosionbird #drevfx #dre #cr7 #foryou #fyp #fypシ #explore ♬ 1 second count / when button pressed / time signal 23(1117365) – QUESS

Cum recunoaștem un deepfake

În prezent, puține deepfake-uri sunt realizate suficient de bine încât să nu poți sesiza nicio inconsistență cu realitatea. Majoritatea încă au detalii care le dau de gol și transmit ceva nefiresc. Pentru a masca astfel de inconsistențe, mulți creatori aleg adesea să reducă calitatea imaginii. 

Totuși, tehnologia este destul de avansată pentru a face deepfake-uri veridice, la calitatea unui film de cinema – Bruce Willis apărea anul trecut într-o reclamă pentru o companie de telefonie, vorbind rusă.

Televizorul devine adesea un zgomot de fundal, mai ales în timpul reclamelor, iar atenția noastră nu se focalizează pe detalii care arată că e vorba de conținut sintetic. Totuși, pe internet ne putem antrena atenția să zăbovească puțin, pentru a nu fi păcăliți.

Când avem de-a face cu un deepfake în online, e bine să acordăm atenție mediului în care se află personajele. De exemplu, dacă sunt în hale sau în depozite, dar nu se aude niciun fel de ecou firesc într-un astfel de spațiu când vorbesc, ar trebui să ridice semne de întrebare.

Foarte importante sunt și expresiile faciale ale personajului. Într-un deepfake cu Kim Kardashian care circula pe internet, pe fața acesteia se mișca doar gura, care genera din când în când o mică cută lângă nas. Mușchii feței erau inerți, iar clipitul, o raritate. Dată fiind însă uluitoarea viteză cu care ne-a obișnuit internetul, nu sesizăm mereu genul acesta de detalii. 

Mai mult spirit critic ne-ar fi de mare ajutor pentru a contracara dezinformarea generată de deepfake-uri. 

„Acestea pot distorsiona realitatea, creând conținut fals care poate influența opinia publică sau poate fi folosit în campanii de dezinformare. Acest lucru poate avea un impact serios asupra democrației și a proceselor electorale. Este esențial ca publicul să fie educat despre existența și potențialele pericole ale deepfake-urilor”, a explicat, într-o discuție cu Panorama, matematicianul Răzvan Ștefan Tecuceanu.

Pe măsură ce evoluează, devin mai ușor de identificat

Nici Maia Sandu, nici Vitali Klitschko nu și-au dat acordul ca detractorii să le folosească imaginea. Provocarea cea mai mare este, așadar, în ceea ce privește impersonarea oamenilor. 

„În sine, deepfake-urile nu sunt nici bune, nici rele. Contează intenția cu care sunt făcute”, a spus Constantin Vică, director adjunct al Centrului de Cercetare în Etică Aplicată (CCEA), în cadrul unei dezbateri din noiembrie. 

Specializat în etica informației și computerelor, filosofia informaticii și inteligenței artificiale, acesta a punctat că în viitor este posibil ca deepfake-urile să își piardă din puterea de a ne păcăli. Contraintuitiv? Nu și dacă ne gândim la felul în care funcționează AI-ul.

Se va produce din ce în ce mai mult conținut sintetic. Inteligența artificială se va antrena cu din ce în ce mai mult astfel de conținut, ceea ar putea duce la un fel de degenerare a calității sale în timp. Adică nu o să reușești să faci ceva care să fie nedetectabil folosind mintea umană, poate colectivă, împreună cu tehnologia”, a detaliat el.

Rețelele sociale vor fi nevoite să dezvolte filtre anti-deepfake

Odată cu evoluția tehnologiei de creare a deepfake-urilor se dezvoltă și cea de depistare a acestora. Provocarea va fi în mod special pe partea de hardware. 

„Pentru a rezolva problema deepfake-urilor, rețelele sociale – Telegram, WhatsApp, Instagram – vor trebui să dezvolte filtre în acest sens. Va fi nevoie și de procesoare mai puternice la telefoane, deci vor fi provocări pentru noi tipuri de hardware”, a explicat Constantin Vică.

Și matematicianul Răzvan Tecuceanu crede că pe măsură ce algoritmii de detectare a acestor produse virtuale vor ajunge mai sofisticați, va fi nevoie de mai multă putere de calcul. Asta va însemna „fie apariția unor telefoane mai avansate, fie a unei infrastructuri de cloud computing pentru a rula detectoarele în mod eficient”.

Deepfake-ul cu Kim Kardashian a fost șters de pe internet, pentru că încălca dreptul de autor – conținutul original peste care a fost plasată imaginea americancei aparținea Vogue Magazine.

„Asta ne arată că infrastructura legală existentă ar putea ajuta. Dar pare că este disponibilă doar pentru cei puțini și privilegiați”, declara, în 2019, pentru Digital Trends, Henry Ajder, director de comunicare al companiei Deeptrace, care construiește un sistem pentru detectarea deepfake-urilor pe internet.

Când creăm un deepfake, pixelii – elementele grafice de bază ale imaginilor grafice, precum și alte elemente ale acestora sunt distribuite în mod diferit, ceea ce încalcă așa-numita lege a lui Benford, denumită și Legea numerelor anormale. 

Aceasta spune că, în seturi de date numerice din viața reală, prima cifră este adesea mică. Comparând distribuția pixelilor într-un deepfake cu normele prevăzute de lege putem identifica semne de manipulare.

Această lege matematică se referă la frecvența cu care apar cifrele inițiale în diferite seturi de date naturale. Legea lui Benford prezice că în multe seturi naturale de numere, prima cifră este probabil să fie mică. De exemplu, 1 apare ca primă cifră în aproximativ 30% din cazuri, mult mai des decât 9, care apare în doar 5% din situații”,  a explicat matematicianul Răzvan Tecuceanu.

Parlamentarii români cred că pe internet e ca la TV

O propunere legislativă pentru limitarea fenomenului Deepfake a fost votată în iunie, de senatorii români, ca urmare a creșterii alarmante a acestui tip de conținut în social media. În prezent, legea se află în dezbatere la Camera Deputaților și ar trebui să fie votată până la finalul anului.

Dacă va fi adoptată, de aplicarea ei va fi responsabil Consiliul Național al Audiovizualului (CNA), cu sprijinul tehnic al Institutului Național de Cercetare- Dezvoltare și Informatică (ICI București). Sancțiunile pentru cei care vor realiza și difuza videouri „în scop malițios” încep de la 10.000 de lei și ajung până la 200.000, conform proiectului de lege.

Pare, însă, că actul normativ se adresează doar creatorilor de deepfake-uri bine intenționați. Articolul 3 stipulează că distribuirea de astfel de conținut pe internet este interzisă dacă nu este însoțită de „un avertisment redat pe cel puţin 10% din suprafaţa expunerii şi pe toată durata difuzării respectivului conținut vizual sau de un mesaj sonor la începutul şi la finalul conţinutului audio: «Acest material conţine ipostaze imaginare»”.

„Senatorii „nu s-au gândit deloc la problema impersonării sau la metoda accidentul (în care cineva folosește deepfake pentru a mima că o persoană are o problemă sau se află în pericol – n.r.). Spun că, dacă faci deepfake, să scrii mare că e deepfake, ca și cum doar Guvernul României și televiziunile ar putea face asta”, a spus Constantin Vică.

Acesta a semnalat și că proiectul de lege ignoră „circulația virală a conținutului pe internet”, care nu poate fi controlată precum conținutul care rulează la televiziuni. 

Senatorii români s-au gândit că peste tot e un fel de CNA, dar pe internet nu există. Problema va ține de felul în care se autoreglementează platformele”, a explicat Vică.

Cum au legiferat alții deepfake-urile

Comisia Europeană a mers direct la țintă și a stipulat că marile companii tech sunt responsabile de felul în care administrează deepfake-urile în „ograda” lor, conform celei mai recente versiuni a Digital Service Act (DSA). Actul reglementează funcționarea platformelor online, inclusiv moderarea conținutului și responsabilitatea furnizorilor de servicii digitale. 

Astfel, începând cu 17 februarie 2024, Comisia Europeană va putea aplica companiilor amenzi de până la 6% din cifra de afaceri globală a acestora, după cum anunța instituția.

ASIA. În China, Guvernul a reglementat deepfake-urile încă din 2019. Persoanele fizice și companiile deopotrivă sunt obligate să dezvăluie când utilizează această tehnologie. Similar proiectului de lege românesc, și aici trebuie să existe avertismente că un anumit conținut a fost generat cu ajutorul AI. 

Un an mai târziu, și Coreea de Sud a incriminat distribuirea de deepfake-uri care ar putea dăuna interesului public. Creatorii lor pot fi condamnați până la cinci ani de închisoare și primi amenzi de până la 43.000 de dolari americani.

AMERICA. Trei state au adoptat legi privind deepfake-urile, în 2019. Dacă în Virginia ținta era pornografia, în Texas și California legile vizau deepfake-urile în relație cu alegerile electorale. 

Astfel, texanii pot pedepsi creatorii de deepfake-uri în care apar figuri politice cu un an de închisoare și amenzi de până la 4.000 de dolari, dacă conținutul este distribuit cu 30 de zile înainte de alegeri.

California are două legi în acest sens. Prima incriminează crearea și distribuirea de imagini video, fotografii sau conținut audio cu politicieni, falsificate pentru a seamăna cu înregistrările reale, cu 60 de zile înainte de alegeri. Cea de-a doua le permite persoanelor care devin victime ale pornografiei deepfake să dea în judecată creatorii și să ceară despăgubiri.

Moartea social media

Aceasta ar putea fi o consecință pe termen lung la evoluția continuă a unui mediu în care imaginea noastră poate fi folosită pentru a crea conținut menit să ne lezeze, crede directorul adjunct al Centrului de Etică Aplicată, Constantin Vică. 

Într-o mare virtuală de conținut generat, cel mai probabil vom încerca să ne întoarcem către medii personale, către oamenii pe care i-am și cunoscut în viața reală. Astfel, „s-ar putea să ne mai treacă cheful de a ne tot expune, de a căuta să ne facem capital social într-un mod sintetico-artificial”, e de părere expertul.


Ca să fii mereu la curent cu ce publicăm, urmărește-ne și pe Facebook.


Dana Mischie

Și-a început drumul în presă în facultate, scriind recenzii de filme și cărți pentru un blog cultural. Apoi, la master, s-a angajat la ziarul Adevărul, unde a fost pe rând redactor, reporter și apoi editor. Aici, a realizat interviuri, analize și reportaje despre personalități culturale, fenomene sociale, subiecte medicale și despre digitalizare.


Abonează-te
Anunță-mă la
guest
1 Comentariu
Cele mai vechi
Cele mai noi Cele mai votate
Inline Feedbacks
Vezi toate comentariile

Abonează-te, ca să nu uiți de noi!

Îți dăm un semn pe e-mail, când publicăm ceva nou. Promitem să nu te sâcâim mai des de o dată pe zi.

    0
    Ai un comentariu? Participă la conversație!x