Te cunosc de undeva

Ce faci dacă te sună o AI? Mic ghid pentru a te feri de vocile generate artificial care caută să te păcălească

Computer Hope Guy
Foto: Shutterstock

Abonează-te la canalul nostru de WhatsApp, pentru a primi materialul zilei din Panorama, direct pe telefon. Click aici


 

Îți mai aduci aminte de celebra escrocherie denumită „metoda Accidentul? Concret, cineva (de regulă, o persoană vulnerabilă și ușor de păcălit) era sunat de un necunoscut, care se recomanda a fi din partea autorităților sau vreun avocat. Apelantul invoca un accident pe care l-a provocat o rudă sau un apropiat al persoanei sunate și cerea transferul unei sume de bani, pentru a rezolva situația.

Mulți au picat în această capcană, chiar dacă la capătul celălalt al firului nu se afla o voce cunoscută. Acum, însă, o astfel de înșelăciune devine mult mai periculoasă, odată cu folosirea inteligenței artificiale.

Există cazuri în care ce aude persoana sunată e un fișier audio care conține vocea clonată a unui apropiat al țintei atacatorilor.

Voci reale vs. voci false

Pentru început, ar trebui să vorbesc despre o experiență personală. Sunt gazda unui explainer video, un proiect Panorama pe care-l poți urmări pe contul nostru de YouTube.

Încă de la primele episoade, dar și la clipuri mai scurte de pe canalele noastre de Instagram sau TikTok, am primit comentarii care semnalau că vocea e generată de AI. Alții mă întrebau cum am făcut să-mi sune vocea ca a unui program AI, amuzându-se pe seama faptului că poate nu am o voce plăcută. Prezumția acestor comentarii era nu că „robotul” imită omul, ci invers.

Adevărul e, însă, că e chiar vocea mea, dar pe care mi-am împrumutat-o, la un moment dat, pentru dezvoltarea softurilor de tip TTS – text to speech. E motivul pentru care, deși generată artificial, îmi poți auzi vocea în numeroase clipuri și reclame de pe rețelele de socializare, în special TikTok. Nu am înregistrat niciodată acele reclame, dar ele sună ca și cum ar fi fost citite de mine.

Comentariile primite sunt amuzante la prima vedere, dar, dacă judecăm la rece, implicațiile unor astfel de tehnologii, care pot induce foarte ușor în eroare oamenii, pot deveni periculoase.  Vocile generate în mod artificial sunt tot mai utilizate pentru a înșela sau păcăli, la telefon sau pe internet.

Realitatea ne arată că, din păcate, „atacatorii se pricep mult mai bine decât se pricep utilizatorii obișnuiți să folosească avansul tehnologiei de inteligență artificială în șlefuirea unor atacuri cibernetice”, după cum afirmă, pentru Panorama, Mihai Rotariu, șeful Direcției Comunicare, Marketing și Media din cadrul DNSC – Directoratul Național de Securitate Cibernetică.

Pericolul e real, din moment ce există numeroase programe și softuri extrem de avansate, capabile să cloneze voci sau să genereze, cu ajutorul inteligenței artificiale, orice fișier audio în care ai putea să juri că vocea e reală.

Și nici măcar nu trebuie să stai pe internet pentru a deveni victimă

„Dacă pe dumneavoastră vă sună cineva, iar de la capătul celălalt auziți un audio cu copilul dumneavoastră, care a suferit un accident și vă cere ajutorul, vă dați seama că sunteți susceptibil să faceți mai multe tipuri de acțiuni, inclusiv să furnizați date sensibile sau date financiare, chiar să furnizați bani”, spune Mihai Rotariu.

O inginerie socială centrată pe emoție

Astfel de fraude, în care se folosesc voci clonate, nu sunt realizate neapărat de grupări experimentate de hackeri

Orice persoană care are acces la internet și e, cât de cât, la curent cu noile sisteme software poate clona o voce și poate folosi apoi programele de tip text-to-speech pentru a se amuza sau, mai grav, pentru a escroca persoane vulnerabile. „De cele mai multe ori, câteva secunde sau zeci de secunde ale unei voci în original sunt suficiente pentru a crea o copie greu de distins”, explică, pentru Panorama, Silviu Stahie, expert în securitate informatică în cadrul Bitdefender. 

Complexitatea atacurilor stă, de fapt, în scenariile gândite și cum reușesc ele să exploateze emoțiile potențialelor victime. În astfel de atacuri, infractorul pretinde adesea că „este o persoană de încredere sau poate un reprezentant legitim al unei instituții, al unei companii”, tocmai pentru a câștiga încrederea victimei.

„Uneori sunt persoane care cel mai probabil au lucrat în call center și au abilități de comunicare foarte bune. Devin șarmanți și foarte convingători”, atrage atenția Mihai Rotariu.

În România, spre exemplu, e extrem de răspândit în această perioadă un tip de escrocherie care vizează vulnerabilitățile celor aflați în căutarea unui loc de muncă sau pe ale celor dornice să facă bani rapid și ușor.

Mulți cetățeni au raportat la Directoratul Național de Securitate Cibernetică, aflat în subordinea Guvernului, faptul că primesc anumite robocall-uri, adică apeluri telefonice de la pretinși reprezentanți HR (resurse umane) ai unor companii importante.

Potențialelor victime li se oferă oportunități excelente de angajare pe tarife orare extrem de avantajoase. Dar, adaptând o vorbă: dacă o ofertă pare prea bună ca să fie adevărată, atunci, cel mai probabil, e prea bună ca să fie adevărată.

„Li se spune: uite, ăsta e tariful pe care-l oferim, poți lucra de acasă, nu trebuie să te deplasezi nicăieri. La finalul apelului, după ce se activează emoția, oportunitatea de a câștiga foarte mulți bani într-o perioadă scurtă, fără prea mult efort, li se cer anumite date pentru a continua procesul de recrutare. Pot fi date cu caracter personal, pe care ulterior să le folosească atacatorii în răspândirea de alte atacuri, dar pot fi cerute și date sensibile, date de card sau date de autentificare”, povestește reprezentantul DNSC.

Într-un ghid legat de ingineria socială, DNSC preciza că metoda are câteva caracteristici la care trebuie să fii atent:

  • presiunea
  • manipularea emoțiilor
  • informații sensibile și incomplete
  • oferte tentante
  • email suspect

Vocile AI în media, economie și politică

În vara anului 2023, instituțiile statului și experții în securitate cibernetică au lansat numeroase apeluri în care atrăgeau atenția asupra zecilor de clipuri în care oamenii erau îndemnați să investească în anumite acțiuni sau să plaseze bani în diverse investiții, care promiteau randamente uriașe.

„Nu pot câștiga într-o lună de 10 ori suma investită fără să iau în considerare un risc. Eu asta am învățat de la economie. Nu există dobândă, de exemplu la bănci, mai mare de 6%, din cunoștințele mele. Deci cum pot câștiga 1.000%? Trebuie să ne punem întrebările necesare. Totodată, trebuie să lucrăm și la educația noastră, nu doar cibernetică, ci la educația financiară”, afirmă Mihai Rotariu, care insistă că reflexele de securitate din mediul online trebuie să fie aplicate ca în viața reală.

Cu alte cuvinte, dacă cineva ne cere pe stradă, sub diferite pretexte, multe date personale, devenim imediat sceptici și căutăm să punem mai multe întrebări. În online, în schimb, tindem să avem „foarte multă încredere” nejustificată.

Videourile pomenite erau create cu ajutorul tehnologiilor deep fake, iar în ele apăreau realizatori de emisiuni tv extrem de cunoscuți sau vedete. Chiar și imaginea guvernatorului BNR, Mugur Isărescu, a fost folosită într-un astfel de clip.

Și nu e vorba doar de păcălirea persoanelor în scop de fraudă, ci și de folosirea lor pentru manipulare electorală sau informațională.

„În alegerile din Statele Unite, vocea președintelui Joe Biden a fost clonată și utilizată în apeluri telefonice în care oamenii erau îndemnați să nu iasă la vot. Acesta este doar un exemplu de cum poate fi utilizat genul acesta de atac”, își aduce aminte Silviu Stahie.

Vocile AI pot fi folosite, la fel de eficient, și la o reclamă pentru un detergent, dar și pentru a induce lumea în eroare că un politician a zis sau a îndemnat la ceva.

Tehnologia folosită în clipurile care au împânzit anul trecut internetul e similară cu cea utilizată în videoclipul de mai jos, cu mențiunea că acesta a fost creat doar pentru amuzament.

Videoul e generat în totalitate cu inteligența artificială și poți vedea cât de mult se apropie vocile de acolo de cele originale:

https://www.youtube.com/watch?v=-qmDEgJr_1s

Urcați pe valul de moment generat de apariția unor astfel de clipuri, politicienii s-au grăbit să depună anul trecut la Parlament un proiect de lege care vizează tehnologiile deep fake. Inițiativa, însă, nu a primit nici acum votul final de la Camera Deputaților.

În legislația de drept civil, există posibilitatea de a intenta acțiuni în justiție de către persoanele cărora le-a fost folosită identitatea în mod abuziv, de a cere despăgubiri sau de a solicita eliminarea conținutului deep fake. Legislația penală, în schimb, nu are reglementări clare pentru utilizarea acestor tehnologii.

Principala infracțiune care poate fi invocată e falsul informatic, dar această sintagmă include și o serie de alte infracțiuni, precum înșelăciune, hărțuire, șantaj sau pornografie infantilă, arată DNSC.

Legislația europeană, pe de altă parte, e mult mai stufoasă și, chiar dacă vizează în general platformele de socializare, include o serie de acte normative, de la GDPR până la Legea Serviciilor Digitale – DSA, despre care Panorama a scris AICI

Lupta „de-a șoarecele și pisica”: cum ne ferim de vocile generate artificial

O vreme, percepția a fost că doar cei vârstnici pot cădea în plasa atacatorilor cibernetici. Dar acest lucru nu mai e neapărat adevărat, din moment ce atacurile sunt din ce în ce mai sofisticate.

Iar metodele sunt calibrate în funcție de grupul-țintă, inclusiv tineri din medii urbane dezvoltate, obișnuiți să consume constant și să cumpere online.

„Există posibilitatea să fie o anumită promoție sau poate chiar participare la un anumit concurs. Toate aceste scenarii sunt plauzibile în această perioadă, e luna cadourilor, în care suntem într-o goană după cumpărături online, mulți dintre noi primim colete acasă. Deci atacatorii vor uzurpa identitatea unor servicii de curierat sau bănci, tocmai pentru a ne duce în capcane și a ne oferi tot felul de oferte false”, punctează Mihai Rotariu.

Sigur că există și beneficii ale tehnologiei care permite clonarea vocilor. 

Acestea se regăsesc în programele de îngrijire de la distanță, în aplicațiile de zi cu zi, de la asistenții virtuali la aplicațiile GPS. De asemenea, companiile își reduc costurile atunci când folosesc voci generate artificial în apelurile de tip call-center sau pentru ilustrarea cu succes a anumitor campanii.

Dar riscurile sunt foarte mari atunci când aceste tehnologii sunt utilizate în scopuri de fraudă sau manipulare. 

„Este o luptă de-a șoarecele și pisica între autorități și atacatori, între utilizatori și atacatori. Dar toată protecția asta trebuie să fie un proces holistic. Noi oferim avertizări, recomandări pe care utilizatorul ar trebui să le implementeze într-o rutină de securitate zilnică. Să facă niște acțiuni recurente, astfel încât să se asigure că își păstrează datele și dispozitivele în siguranță, pentru că, iată, atacatorii devin din ce în ce mai creativi cu scenariile de atac”, conchide Mihai Rotariu.

Pe viitor, așadar, acordă-ți timp pentru a analiza cine e la celălalt capăt al apelului telefonic, cine e vocea care caută să-ți vândă ceva, să-ți propună o înțelegere și, în final, să te facă să-ți divulgi datele personale.

Deși poate suna ridicol, n-ar fi rău să stabilești o parolă cu apropiații, un cuvânt de siguranță care să fie cerut atunci când crezi că ești pe cale să cazi în plasa infractorilor cibernetici, lucru recomandat chiar și de FBI

Articol editat de Alina Mărculescu Matiș


Ca să fii mereu la curent cu ce publicăm, urmărește-ne și pe Facebook.


Ciprian Ioana

S-a alăturat echipei Panorama în octombrie 2023. Și-a început cariera în presă la radio Europa FM, în 2011. Inițial, își dorea să fie DJ/realizator de emisiuni, dar a fost cooptat rapid în echipa de știri și acolo a rămas vreme de aproximativ 7 ani.

Mai târziu, a descoperit că-i place jurnalismul economic, a lucrat la emisiunea Business Club (Digi24), postul Digi FM, dar și pentru site-urile Playtech.ro și Digi24.ro.

E pasionat de știrea din spatele știrii și vrea să cunoască de ce se întâmplă, nu doar ce se întâmplă. Crede că, într-o lume care trăiește pe repede-înainte, e nevoie ca la finalul zilei să rămâi cu un tablou cât mai rotund a ceea ce te interesează, nu cu frânturi de informații mai mult sau mai puțin relevante.

Pe lângă cariera de jurnalist, Ciprian e voice-over profesionist, cu peste un deceniu de experiență. Îi poți auzi vocea prin reclame sau documentare.


Urmărește subiectul
Abonează-te
Anunță-mă la
guest
0 Comentarii
Cele mai vechi
Cele mai noi Cele mai votate
Inline Feedbacks
Vezi toate comentariile

Abonează-te, ca să nu uiți de noi!

Îți dăm un semn pe e-mail, când publicăm ceva nou. Promitem să nu te sâcâim mai des de o dată pe zi.

    0
    Ai un comentariu? Participă la conversație!x