Ce faci dacă te sună o AI? Mic ghid pentru a te feri de vocile generate artificial care caută să te păcălească

Abonează-te la canalul nostru de WhatsApp, pentru a primi materialul zilei din Panorama, direct pe telefon. Click aici
Îți mai aduci aminte de celebra escrocherie denumită „metoda Accidentul”? Concret, cineva (de regulă, o persoană vulnerabilă și ușor de păcălit) era sunat de un necunoscut, care se recomanda a fi din partea autorităților sau vreun avocat. Apelantul invoca un accident pe care l-a provocat o rudă sau un apropiat al persoanei sunate și cerea transferul unei sume de bani, pentru a rezolva situația.
Mulți au picat în această capcană, chiar dacă la capătul celălalt al firului nu se afla o voce cunoscută. Acum, însă, o astfel de înșelăciune devine mult mai periculoasă, odată cu folosirea inteligenței artificiale.
Există cazuri în care ce aude persoana sunată e un fișier audio care conține vocea clonată a unui apropiat al țintei atacatorilor.
Voci reale vs. voci false
Pentru început, ar trebui să vorbesc despre o experiență personală. Sunt gazda unui explainer video, un proiect Panorama pe care-l poți urmări pe contul nostru de YouTube.
Încă de la primele episoade, dar și la clipuri mai scurte de pe canalele noastre de Instagram sau TikTok, am primit comentarii care semnalau că vocea e generată de AI. Alții mă întrebau cum am făcut să-mi sune vocea ca a unui program AI, amuzându-se pe seama faptului că poate nu am o voce plăcută. Prezumția acestor comentarii era nu că „robotul” imită omul, ci invers.
Adevărul e, însă, că e chiar vocea mea, dar pe care mi-am împrumutat-o, la un moment dat, pentru dezvoltarea softurilor de tip TTS – text to speech. E motivul pentru care, deși generată artificial, îmi poți auzi vocea în numeroase clipuri și reclame de pe rețelele de socializare, în special TikTok. Nu am înregistrat niciodată acele reclame, dar ele sună ca și cum ar fi fost citite de mine.
Comentariile primite sunt amuzante la prima vedere, dar, dacă judecăm la rece, implicațiile unor astfel de tehnologii, care pot induce foarte ușor în eroare oamenii, pot deveni periculoase. Vocile generate în mod artificial sunt tot mai utilizate pentru a înșela sau păcăli, la telefon sau pe internet.
Realitatea ne arată că, din păcate, „atacatorii se pricep mult mai bine decât se pricep utilizatorii obișnuiți să folosească avansul tehnologiei de inteligență artificială în șlefuirea unor atacuri cibernetice”, după cum afirmă, pentru Panorama, Mihai Rotariu, șeful Direcției Comunicare, Marketing și Media din cadrul DNSC – Directoratul Național de Securitate Cibernetică.
Pericolul e real, din moment ce există numeroase programe și softuri extrem de avansate, capabile să cloneze voci sau să genereze, cu ajutorul inteligenței artificiale, orice fișier audio în care ai putea să juri că vocea e reală.
Și nici măcar nu trebuie să stai pe internet pentru a deveni victimă.
O inginerie socială centrată pe emoție
Astfel de fraude, în care se folosesc voci clonate, nu sunt realizate neapărat de grupări experimentate de hackeri.
Orice persoană care are acces la internet și e, cât de cât, la curent cu noile sisteme software poate clona o voce și poate folosi apoi programele de tip text-to-speech pentru a se amuza sau, mai grav, pentru a escroca persoane vulnerabile. „De cele mai multe ori, câteva secunde sau zeci de secunde ale unei voci în original sunt suficiente pentru a crea o copie greu de distins”, explică, pentru Panorama, Silviu Stahie, expert în securitate informatică în cadrul Bitdefender.
Complexitatea atacurilor stă, de fapt, în scenariile gândite și cum reușesc ele să exploateze emoțiile potențialelor victime. În astfel de atacuri, infractorul pretinde adesea că „este o persoană de încredere sau poate un reprezentant legitim al unei instituții, al unei companii”, tocmai pentru a câștiga încrederea victimei.
„Uneori sunt persoane care cel mai probabil au lucrat în call center și au abilități de comunicare foarte bune. Devin șarmanți și foarte convingători”, atrage atenția Mihai Rotariu.
În România, spre exemplu, e extrem de răspândit în această perioadă un tip de escrocherie care vizează vulnerabilitățile celor aflați în căutarea unui loc de muncă sau pe ale celor dornice să facă bani rapid și ușor.
Mulți cetățeni au raportat la Directoratul Național de Securitate Cibernetică, aflat în subordinea Guvernului, faptul că primesc anumite robocall-uri, adică apeluri telefonice de la pretinși reprezentanți HR (resurse umane) ai unor companii importante.
Potențialelor victime li se oferă oportunități excelente de angajare pe tarife orare extrem de avantajoase. Dar, adaptând o vorbă: dacă o ofertă pare prea bună ca să fie adevărată, atunci, cel mai probabil, e prea bună ca să fie adevărată.
„Li se spune: uite, ăsta e tariful pe care-l oferim, poți lucra de acasă, nu trebuie să te deplasezi nicăieri. La finalul apelului, după ce se activează emoția, oportunitatea de a câștiga foarte mulți bani într-o perioadă scurtă, fără prea mult efort, li se cer anumite date pentru a continua procesul de recrutare. Pot fi date cu caracter personal, pe care ulterior să le folosească atacatorii în răspândirea de alte atacuri, dar pot fi cerute și date sensibile, date de card sau date de autentificare”, povestește reprezentantul DNSC.
Într-un ghid legat de ingineria socială, DNSC preciza că metoda are câteva caracteristici la care trebuie să fii atent:
- presiunea
- manipularea emoțiilor
- informații sensibile și incomplete
- oferte tentante
- email suspect
Vocile AI în media, economie și politică
În vara anului 2023, instituțiile statului și experții în securitate cibernetică au lansat numeroase apeluri în care atrăgeau atenția asupra zecilor de clipuri în care oamenii erau îndemnați să investească în anumite acțiuni sau să plaseze bani în diverse investiții, care promiteau randamente uriașe.
„Nu pot câștiga într-o lună de 10 ori suma investită fără să iau în considerare un risc. Eu asta am învățat de la economie. Nu există dobândă, de exemplu la bănci, mai mare de 6%, din cunoștințele mele. Deci cum pot câștiga 1.000%? Trebuie să ne punem întrebările necesare. Totodată, trebuie să lucrăm și la educația noastră, nu doar cibernetică, ci la educația financiară”, afirmă Mihai Rotariu, care insistă că reflexele de securitate din mediul online trebuie să fie aplicate ca în viața reală.
Cu alte cuvinte, dacă cineva ne cere pe stradă, sub diferite pretexte, multe date personale, devenim imediat sceptici și căutăm să punem mai multe întrebări. În online, în schimb, tindem să avem „foarte multă încredere” nejustificată.
Videourile pomenite erau create cu ajutorul tehnologiilor deep fake, iar în ele apăreau realizatori de emisiuni tv extrem de cunoscuți sau vedete. Chiar și imaginea guvernatorului BNR, Mugur Isărescu, a fost folosită într-un astfel de clip.
Și nu e vorba doar de păcălirea persoanelor în scop de fraudă, ci și de folosirea lor pentru manipulare electorală sau informațională.
Vocile AI pot fi folosite, la fel de eficient, și la o reclamă pentru un detergent, dar și pentru a induce lumea în eroare că un politician a zis sau a îndemnat la ceva.
Tehnologia folosită în clipurile care au împânzit anul trecut internetul e similară cu cea utilizată în videoclipul de mai jos, cu mențiunea că acesta a fost creat doar pentru amuzament.
Videoul e generat în totalitate cu inteligența artificială și poți vedea cât de mult se apropie vocile de acolo de cele originale:
https://www.youtube.com/watch?v=-qmDEgJr_1sUrcați pe valul de moment generat de apariția unor astfel de clipuri, politicienii s-au grăbit să depună anul trecut la Parlament un proiect de lege care vizează tehnologiile deep fake. Inițiativa, însă, nu a primit nici acum votul final de la Camera Deputaților.
În legislația de drept civil, există posibilitatea de a intenta acțiuni în justiție de către persoanele cărora le-a fost folosită identitatea în mod abuziv, de a cere despăgubiri sau de a solicita eliminarea conținutului deep fake. Legislația penală, în schimb, nu are reglementări clare pentru utilizarea acestor tehnologii.
Principala infracțiune care poate fi invocată e falsul informatic, dar această sintagmă include și o serie de alte infracțiuni, precum înșelăciune, hărțuire, șantaj sau pornografie infantilă, arată DNSC.
Legislația europeană, pe de altă parte, e mult mai stufoasă și, chiar dacă vizează în general platformele de socializare, include o serie de acte normative, de la GDPR până la Legea Serviciilor Digitale – DSA, despre care Panorama a scris AICI.
Lupta „de-a șoarecele și pisica”: cum ne ferim de vocile generate artificial
O vreme, percepția a fost că doar cei vârstnici pot cădea în plasa atacatorilor cibernetici. Dar acest lucru nu mai e neapărat adevărat, din moment ce atacurile sunt din ce în ce mai sofisticate.
Iar metodele sunt calibrate în funcție de grupul-țintă, inclusiv tineri din medii urbane dezvoltate, obișnuiți să consume constant și să cumpere online.
„Există posibilitatea să fie o anumită promoție sau poate chiar participare la un anumit concurs. Toate aceste scenarii sunt plauzibile în această perioadă, e luna cadourilor, în care suntem într-o goană după cumpărături online, mulți dintre noi primim colete acasă. Deci atacatorii vor uzurpa identitatea unor servicii de curierat sau bănci, tocmai pentru a ne duce în capcane și a ne oferi tot felul de oferte false”, punctează Mihai Rotariu.
Sigur că există și beneficii ale tehnologiei care permite clonarea vocilor.
Acestea se regăsesc în programele de îngrijire de la distanță, în aplicațiile de zi cu zi, de la asistenții virtuali la aplicațiile GPS. De asemenea, companiile își reduc costurile atunci când folosesc voci generate artificial în apelurile de tip call-center sau pentru ilustrarea cu succes a anumitor campanii.
Dar riscurile sunt foarte mari atunci când aceste tehnologii sunt utilizate în scopuri de fraudă sau manipulare.
Pe viitor, așadar, acordă-ți timp pentru a analiza cine e la celălalt capăt al apelului telefonic, cine e vocea care caută să-ți vândă ceva, să-ți propună o înțelegere și, în final, să te facă să-ți divulgi datele personale.
Deși poate suna ridicol, n-ar fi rău să stabilești o parolă cu apropiații, un cuvânt de siguranță care să fie cerut atunci când crezi că ești pe cale să cazi în plasa infractorilor cibernetici, lucru recomandat chiar și de FBI.
Articol editat de Alina Mărculescu Matiș
Ca să fii mereu la curent cu ce publicăm, urmărește-ne și pe Facebook.
- 8 companii promițătoare care dezvoltă soluții AI în Europa. Tehnologia avansată nu trebuie neapărat să fie „made in USA”
- Ne fură AI joburile? Care va fi de fapt impactul tehnologiei pe piața muncii
- Viitorul internetului e aici și mulți se tem de el. Va lua Inteligența Artificială Generativă pâinea de la gura creatorilor de conținut?
- Unde investesc banii pentru Inteligență Artificială marile puteri ale lumii
- Job-urile din industriile creative, față în față cu Inteligența Artificială: s-a dus și ultima frontieră umană?




