MINUNATA LUME NOUĂ

Meta, un calcul rece și o plecăciune în fața lui Trump. Ce impact vor avea schimbările anunțate de Zuckerberg

Computer Hope Guy
Schimbările anunțate de Meta sunt pe placul lui Donald Trump. Foto: Profimedia

Abonează-te la canalul nostru de WhatsApp, pentru a primi materialul zilei din Panorama, direct pe telefon. Click aici


 

Meta a anunțat că va renunța la colaborarea cu organizațiile de fact-checking pentru verificarea postărilor de pe Facebook și Instagram și că va relaxa moderarea automată a conținutului de pe platformele sale.

Decizia vine într-un moment în care dezinformarea continuă să fie o problemă majoră pe rețelele sociale, mai ales în contextul intensificării discursului extremist la nivel global. 

Ce trebuie să știi. Mergi direct la ce te interesează:

Mark Zuckerberg a justificat schimbarea prin dorința de a le lăsa utilizatorilor mai multă libertate de exprimare. Mulți critici consideră însă că această mișcare va încuraja răspândirea conținutului fals sau manipulator și că e doar o încercare de apropiere față de noua administrație Trump.

Țările membre UE sunt deocamdată parțial protejate față de o parte dintre schimbări, dar asta pare să fie doar o situație temporară.

Fără un sistem de verificare externă, Meta își asumă un rol mai redus în moderarea informațiilor de pe platformele sale. Întrebarea este: cât de mare va fi impactul acestei decizii și cine va beneficia cel mai mult de pe urma ei?

Am discutat cu experți ca să înțelegem cum am ajuns aici, ce înseamnă concret aceste schimbări și ce consecințe vor avea.

Cum a ajuns Meta aici: transformarea lui Mark Zuckerberg

Meta a decis să se distanțeze treptat, în ultimii ani, de conținutul politic și jurnalistic postat pe platformele sale. Compania lui Mark Zuckerberg și-a propus să acorde prioritate postărilor personale, încercând să redevină un spațiu în care oamenii intră pentru a ține legătura cu prietenii, nu o „piață publică” destinată dezbaterilor sau informării. 

Nu a făcut-o din vreun principiu moral, ci dintr-un calcul destul de rece: „Meta a avut întotdeauna probleme cu conținutul care are o încărcătură socială sau politică. E o companie programată să fie o platformă de maximă eficiență pentru întâlnirea cererii cu oferta. Nu pentru informare. Meta e un instrument care oferă, la prețul cel mai mic, reach-ul cel mai mare, pentru ca brandurile care își fac reclamă acolo să aibă o conversie bună”, după cum declara luna trecută pentru Panorama expertul în digital media, Dragoș Stanca.

Totuși, distanțarea pe care și-o dorea Zuckerberg s-a dovedit a fi mai greu de obținut. Înainte de alegerile prezidențiale americane din acest an, CEO-ul Meta a început să fie atacat personal de către Donald Trump.

Trump îl suspecta că i-ar fi ajutat pe democrați să câștige ilegal alegerile din 2020 pentru că Mark Zuckerberg și soția sa au donat, din fonduri proprii, aproape 20 de milioane de dolari pentru a finanța proiecte de infrastructură electorală, care să ajute oamenii să voteze.

„Suntem cu ochii pe el. Dacă face ceva ilegal și acum, o să-și petreacă tot restul vieții în închisoare”, a spus Trump.

În noiembrie 2024, Mark Zuckerberg a luat cina cu Donald Trump, la reședința sa din Florida. „Mark îi este recunoscător Președintelui Trump pentru invitația la cină și pentru oportunitatea de a discuta cu membrii echipei sale. Este un moment important pentru viitorul inovației americane”, spunea atunci un purtător de cuvânt al Meta.

La începutul lui ianuarie, Zuckerberg anunța o nouă schimbare de macaz la Meta.

Cum se schimbă Meta

La începutul lui ianuarie, Meta a anunțat cele mai importante schimbări din ultimul deceniu privind politicile sale de moderare a conținutului. 

Cele mai importante modificări:

  1. Oprirea programului de fact-checking (n.r. – verificare a informațiilor) care finanța organizații din toată lumea pentru a analiza postările care deveneau virale pe Facebook sau Instagram. Acesta va fi înlocuit de un sistem de tip Community Notes, similar celui care există de câțiva ani pe Twitter/X, care se va baza pe voluntari.
  2. Eliminarea mai multor restricții privind anumite tipuri de discurs considerate înainte dăunătoare, precum criticile aduse imigranților, femeilor sau persoanelor transgender.
  3. Recalibrarea sistemelor automate de moderare a conținutului pentru a prioritiza doar încălcările de o severitate gravă, precum cele în care e vorba de trafic de droguri sau terorism, în timp ce încălcările considerate a fi de o gravitate mai mică vor fi analizate doar dacă vor fi raportate de utilizatori.
  4. Mutarea echipelor de moderatori din California în Texas, pentru ca Zuckerberg să contracareze astfel percepția că politica de moderare a Meta ar avea o înclinație liberală californiană.

Schimbările au fost primite cu brațele deschise de către conservatori și mai ales de către Donald Trump, cel care le-a numit „excelente” și care a precizat că Meta „a evoluat mult”.

Rămâne de văzut cum va afecta asta procesul în care autoritățile americane acuză Meta că a acumulat o poziție de monopol prin achiziții anti-concurențiale, în special prin preluarea Instagram și WhatsApp. E cert însă că aceste modificări vor schimba feedurile tuturor celor care folosesc aplicațiile Meta.

Ce înseamnă „democratizarea” fact-checking-ului

Probabil cea mai discutată decizie luată de Meta a fost cea prin care compania americană a decis să încheie colaborările cu organizațiile profesioniste de fact-checking pe care se baza. 

Trebuie menționat că, momentan, Meta nu va implementa această decizie și în țările membre UE, în contextul în care nu a găsit încă o soluție de a face asta fără a încălca Digital Services Act (noua lege UE care trage la răspundere platformele digitale pentru conținutul postat de utilizatori). De altfel, e evident că patronul Meta e nemulțumit de această stare de lucruri și chiar s-a plâns recent de „din ce în ce mai multe legi europene care instituie cenzura”.

Facebook a implementat actualul sistem de fact checking în 2016, bazându-se la nivel global pe colaborări cu peste 90 de organizații care desfășoară activități de fact-checking în peste 60 de limbi. Organizațiile nu au puterea de a decide dacă o postare trebuie ștearsă sau nu, ci doar le semnalează celor de la Meta prezența unor informații false, fiind adăugată apoi o căsuță care să ofere contextul necesar.

Fact-checkerii nu elimină conținut, conturi sau pagini de Facebook. Eliminăm conținutul doar atunci când încalcă standardele comunității, ceea ce este separat de programul nostru de fact-checking”, după cum spune chiar compania.

Meta a stabilit câteva principii clare pentru postările verificate, iar acestea se concentrează pe conținutul viral, cu un impact semnificativ, care poate influența comportamente sociale sau alte domenii importante. 

Compania le oferă organizațiilor un instrument de care se pot folosi pentru a adăuga verificările și etichetele corespunzătoare (fals, parțial fals, context lipsă, înșelăciune etc.), iar aplicația generează automat eticheta și linkul către verificarea efectuată. Apoi este redusă vizibilitatea postărilor marcate în final ca fiind dăunătoare.

Ca explicație pentru oprirea colaborării, Mark Zuckerberg a spus că sistemul de fact-checking „a devenit prea părtinitor din punct de vedere politic” și că vrea să se reîntoarcă la o libertate de exprimare mai mare.

Ce vrea el, de fapt, să spună e că oamenii din sfera conservatoare își văd postările verificate mai des. Ceea ce este adevărat, dar nu spune întreaga poveste. 

„Sigur că este și politică la mijloc, pentru că foarte multe teme conspiraționiste, pline de dezinformare, au fost confiscate de o anumită zonă politică. Se întâmplă și în România, și în SUA. Oamenii predispuși să creadă aceste conspirații sunt foarte ușor de manevrat electoral de o parte a clasei politice. Dar noi nu facem decât să verificăm informațiile false acolo unde le găsim”, spune Adela Mohanu, redactor la Factual, organizația non-profit care se ocupă, alături de agenția de presă AFP, de fact-checking în România.

Realitatea este că zona conservatoare e mai predispusă să răspândească teorii ale conspirației și dezinformare, după cum arată un studiu publicat în revista Nature. „Meta spune că renunță la fact-checking pentru a evita un bias anti-conservator. Dar e adevărat? Am testat asta în mod empiric și am aflat că e adevărat că sunt suspendați mai des conservatorii, dar tot ei sunt cei care distribuie mai multă dezinformare”, scrie pe Bluesky profesorul MIT David Rand, specializat în răspândirea fake news și în dezinformare. Un studiu similar efectuat pentru postările de pe Twitter/X a ajuns la aceeași concluzie.

Multă lume acuză organizațiile de fact-checking de cenzură și susțin că acestea sunt un fel de poliție a gândirii pe Facebook, care îi oprește pe oameni din a-și exprima liberi opiniile. Acest lucru este, însă, departe de realitate.

„Fiecare poate să aibă o opinie, dar să nu confundăm opinia cu minciuna sau dezinformarea. Tu nu poți să ai opinia că chemtrails sunt reale, din moment ce toate datele științifice spun că nu e așa. Oamenii fac confuzii între opinii și informații. Noi verificăm informațiile”, spune Mohanu.

Chiar dacă deocamdată Meta nu va renunța în UE la organizațiile de fact-checking, anunțul lui Zuckerberg și acuzațiile sale nefondate au deja efecte pentru imaginea publică a acestor organizații.

Politico arată cum a devenit comunitatea de fact-checkers „o țintă cheie pentru atacuri din partea populiștilor și din partea conturilor anonime din online”. Publicația a vorbit cu cinci persoane din astfel de organizații care au colaborat cu Meta în ultimii ani. Acestea au spus că, de la anunțul lui Zuckerberg, au început să fie hărțuite online, să fie atacate direct de politicieni și chiar să primească amenințări cu moartea.

Nici în România situația nu e mai bună. De la anunțul Meta, postările de pe pagina de Facebook a celor de la Factual au fost inundate de oameni care îi înjură, jignesc și amenință la foc automat.

E un nivel de hate pe care eu nu l-am mai întâlnit. Imediat după anunțul lui Zuckerberg, a venit un val de comentarii. E o tensiune foarte mare acum. Oamenilor nu le place să fie contraziși, nici dacă aduci argumentele logice necesare. Noi explicăm foarte clar și în detaliu la noi pe site cum și ce verificăm, dar degeaba. E clar că a fost afectată credibilitatea tuturor organizațiilor de acest tip”, afirmă Adela Mohanu.

Dincolo de aceste efecte, înlocuirea sistemului de fact-checkeri profesioniști cu unul de tip Community Notes reprezintă în sine o schimbare de paradigmă importantă. Dacă organizațiile de fact-checking au în componența lor jurnaliști și cercetători specializați pe acest domeniu, Community Notes se bazează pe voluntariatul membrilor comunității, totul „pentru a aduce la masă mai multe perspective”.

Meta nu a oferit detalii deocamdată despre cum va funcționa sistemul Community Notes pe platforma sa, însă oamenii se pot înscrie deja pe lista de așteptare pentru a face parte din această comunitate care va veghea ca adevărul să se respecte pe rețeaua de socializare. 

Sau, după cum bine a descris situația jurnalista Luiza Vasiliu: „Te poți înscrie pe o listă de așteptare ca să primești privilegii de fact-checker, adică să faci muncă voluntară pentru una dintre cele mai profitabile companii din lume, care se gudură pe lângă noul președinte al Americii ca să scape de reguli și să-și vadă liniștită de profit”.

E de bănuit că sistemul va fi similar cu cel de pe Twitter/X. Acolo, practic oricine poate deveni contributor, dacă îndeplinește câteva condiții, nu foarte restrictive: să aibă de cel puțin șase luni un cont activ, care să nu fi încălcat regulile platformei. De asemenea, este necesar să își verifice numărul de telefon pe platformă.

Ca să scrii note pe Twitter, trebuie mai întâi să participi activ la evaluarea notelor existente. Adică trebuie să îți formezi un punctaj, denumit „Rating Impact”, prin care să demonstrezi că poți face evaluări corecte ale notelor altor utilizatori. Acest punctaj nu trebuie să fie foarte mare, dar trebuie să fie suficient pentru a arăta că înțelegi cum funcționează sistemul.

După ce ai acumulat un punctaj pozitiv, poți începe să adaugi note la tweet-uri. Fiecare notă pe care o adaugi trebuie să fie susținută de dovezi și surse credibile. De asemenea, nu toate notele devin vizibile imediat. Ele sunt aprobate de alți utilizatori din comunitate, care le evaluează ca fiind utile sau nu.

O notă devine vizibilă pe tweet doar dacă este considerată utilă de o diversitate de utilizatori (Twitter folosește un algoritm nou care prin care să ajungă la această diversitate), adică dacă mai mulți oameni din diferite colțuri ale platformei sunt de acord că informațiile din notă sunt corecte, ceea ce teoretic ar trebui să aducă imparțialitatea despre care vorbește Mark Zuckerberg.

Rezultatele sunt discutabile. The Washington Post scrie că „majoritatea verificărilor corecte propuse de utilizatori pentru postările politice nu sunt arătate niciodată publicului, conform cercetării efectuate de Center for Countering Digital Hate și unei analize separate a The Washington Post, ceea ce sugerează că acest sistem nu reușește să oprească cu adevărat dezinformarea”. 

Aceeași problemă a fost sesizată și în alte cercetări. O analiză privind eficiența sistemului pentru alegerile americane de anul trecut a concluzionat că „e foarte greu să numești acest sistem un succes”.

Nu e totul negru, totuși. Există analize și cercetări care arată că, atunci când sunt văzute, notele informative corecte își fac treaba și reduc probabilitatea ca o postare marcată să mai fie distribuită, crescând în același timp cu 80% probabilitatea ca autorul să șteargă tweetul.

Tom Stafford, profesor de științe cognitive la Universitatea din Sheffield, e mai optimist cu privire la Community Notes în analiza sa publicată pe site-ul London School of Economics.

„Chiar dacă există limitări legate de viteză și de amploare, dar și vulnerabilități în fața abuzurilor și prejudecăților, sistemul Community Notes este o abordare legitimă în moderarea conținutului. Utilizatorii din comunitate sunt cei care adaugă și votează notele. Faptul că se explică clar de ce și cum apar aceste verificări ajută la creșterea încrederii în platforme, care adesea sunt percepute ca opace sau părtinitoare”, crede el.

Rămâne însă realitatea că verificarea informațiilor se află în mâinile unor oameni care nu sunt profesioniști în acest domeniu: „Până la urmă, e o muncă de jurnalist ce facem noi. Noi mergem la documentele originale, dacă nu le găsim, facem cereri. E o treabă profesionistă”, spune Adela Mohanu.

Chiar dacă are rezerve față de Community Notes, nici ea nu e complet reticentă față de model: „Aștept să-l văd în funcțiune, sunt curioasă dacă va funcționa sau nu. Dacă suntem sinceri, dezinformarea oricum ia avânt și iată că nici fact-checking-ul nu a funcționat destul de bine. Și nici sistemul Community Notes nu a făcut o treabă extraordinară pe Twitter. Deci, până acum, nu prea funcționează nimic. Dar poate lumea e mai receptivă la Community Notes față de fact-checking-ul clasic, care era văzut ca o autoritate superioară care pare și ușor arogantă sau elitistă”.

Cum se va schimba moderarea conținutului pe Meta

Cealaltă schimbare majoră făcută de Meta are legătură cu sistemul automatizat de moderare a conținutului. Aici, inteligența artificială (AI) joacă un rol esențial. La Meta, sistemele AI analizează miliarde de postări, iar pe unele le pot elimina imediat, în timp ce în alte cazuri semnalează conținutul problematic pentru a fi verificat de moderatori umani. 

Există anumite tipuri de conținut dăunător care sunt ușor de recunoscut și pot fi eliminate automat de sistemele AI, fără intervenție umană. De exemplu, mesajele spam, care includ postări repetitive, linkuri de tip phishing, escrocherii sau reclame nedorite, nuditatea explicită sau simboluri precum svastica sunt, în anumite contexte, detectate rapid și eliminate. 

Imaginile și videoclipurile extrem de violente sunt în mod obișnuit eliminate imediat pentru a preveni răspândirea acestora. În plus, încălcările drepturilor de autor sunt detectate prin sisteme speciale, care compară conținutul postat cu baze de date de materiale protejate și îl elimină dacă există o potrivire.

AI decide să implice moderatori umani atunci când nu are suficientă încredere sau context pentru a lua o decizie corectă. De exemplu, dacă sistemul detectează un conținut posibil dăunător, dar are o încredere scăzută în clasificarea sa (sub un anumit prag), cazul este trimis spre revizuire umană. Acest lucru se întâmplă mai ales în situațiile care necesită interpretare, cum ar fi umorul, satira, diferențele culturale sau discuțiile despre subiecte sensibile (ex: violență în contexte educaționale sau jurnalistice). 

În plus, postările cu un impact mare – cum ar fi conținutul viral sau transmis în direct – sunt adesea verificate manual pentru a preveni erori majore. 

După cum explică expertul în tehnologie și comunicare Alexandru Voica pe site-ul său, din acest motiv, în astfel de situații, AI nu ia decizii. 

Cu alte cuvinte, nu spune direct dacă o postare conține discurs instigator la ură, materiale explicite sau hărțuire. În schimb, AI atribuie un scor de probabilitate, de la 0 la 100%, iar apoi Meta decide de la ce nivel consideră că acel conținut este suficient de problematic pentru a fi blocat sau analizat mai atent. Aceste modele AI se numesc clasificatori. 

„Folosirea acestor scoruri de probabilitate este, în prezent, cea mai bună soluție tehnică pentru a permite o abordare nuanțată și pentru a gestiona complexitatea sistemului de clasificare”, spune el.

Ca să înțelegem schimbarea făcută de Meta, e important să înțelegem că performanța AI-ului folosit pentru moderare se bazează pe doi factori esențiali: precizia (cât de corect sunt clasificate materialele problematice) și recall-ul (cât de multe dintre acestea sunt detectate). Aceste două elemente sunt interconectate și influențează eficiența moderării.

„Practic, îmbunătățirea preciziei vine adesea în detrimentul recall-ului și invers. De exemplu, un sistem setat să fie foarte precis ar putea rata conținutul dăunător mai subtil, în timp ce unul optimizat pentru a detecta cât mai multe probleme ar putea exagera și șterge și conținut perfect legitim”, scrie Voica.

Am stat de vorbă cu Alexandru Voica pentru a înțelege mai bine ce fel de schimbări vrea să aducă Mark Zuckerberg.

„Dacă înainte acel scor putea să fie 70% sau 60%, acum el va fi ridicat mai aproape de 100% pentru ca o postare să fie dată jos sau să ajungă la un moderator uman. Va mai fi o schimbare. În trecut, sistemele astea automate erau folosite nu numai ca detectoare, dar și luau decizii. Dacă scorul era, să zicem, peste 80%, nu mai aveau nevoie să introducă un moderator, dădeau direct jos postarea.

Acum o să facă asta doar pentru ceea ce Meta descrie ca fiind încălcări severe, adică terorism, trafic de droguri etc. Pentru chestii mai mici, nu vor mai lua deciziile astea automat, va trebui tu ca user să raportezi aceste postări, doar atunci ele vor fi analizate”, explică el.

Discuția aici e una de principiu. Cum niciun sistem nu e perfect, companiile precum Meta trebuie să aleagă ce fel de risc doresc să își asume: că vor da jos și postări care sunt în regulă sau că vor scăpa din vedere multe postări care încalcă de fapt regulile? Zuckerberg pare că a ales acum a doua variantă.

Totul ține de cum aleg oamenii să se folosească de aceste sisteme AI de moderare: „Nu sistemele sunt cele care fac greșeli, să spui asta e o abdicare de la responsabilitate. E vorba aici de decizii umane, ține de noi să decidem cum vrem să arate aceste rețele sociale”, spune Voica. 

„Varianta super sanitară și fără nicio urmă de conținut pe care îl credem dăunător, ei bine, așa arăta versiunea anterioară de Facebook, dar mai degrabă în SUA și Marea Britanie. Asta pentru că acest sistem funcționa cel mai bine acolo, în timp ce în România nu e cazul, noi știm deja ce înseamnă un sistem care nu funcționează, doar dacă ne uităm la toate imaginile generate de AI care ne-au inundat feed-urile recent”, arată el.

Această schimbare de macaz a Meta nu are legătură doar cu dorința de a-i face pe plac lui Donald Trump, ci e și una pur practică și economică. În 2023, Mark Zuckerberg anunța „anul eficienței la Meta”, unul plin de restructurări, concedieri în masă și oprirea angajărilor. Concedierile continuă și în 2025: compania tocmai a anunțat că vor fi dați afară 5% din angajați. Totul cu un scop clar: reducerea cheltuielilor.

Prin relaxarea restricțiilor pentru anumite tipuri de postări, Meta permite mai mult conținut generat de AI pe platformă, deoarece este mai ieftin de creat și mai ușor de distribuit. Totuși, această abordare vine cu riscuri, deoarece AI poate produce informații false sau înșelătoare.

Odată cu schimbarea sistemului automatizat de detectare a postărilor problematice vine și o altă noutate anunțată de Meta: eliminarea mai multor restricții privind anumite tipuri de discurs care înainte erau considerate dăunătoare. Cu alte cuvinte, Meta va fi mult mai permisivă față de lucrurile pe care le exprimă utilizatorii pe platformele sale.

Ce consecințe va avea noua politică a Meta

Noua politică permite acum afirmații despre presupuse probleme mintale sau anormalități legate de orientarea sexuală sau identitatea de gen, pe motiv că astfel de discuții sunt frecvente în sfera politică și religioasă. 

Practic, asta înseamnă că pe Facebook poți spune fără probleme că persoanele gay sunt „nebune” sau că nu ar trebui să fie acceptate în armată și poți chiar emite nestingherit teorii conspiraționiste, după cum arată Wired. 

În plus, conform CNN, utilizatorii pot acum să se refere la femei ca la niște obiecte casnice sau proprietăți. În final, Meta a eliminat și o frază din politica sa care spunea că discursul online care instigă la ură poate duce la violență offline.

Aceste modificări vor deschide ușa unor discuții încărcate de prejudecăți și discriminare, consideră Alexandru Voica.

„Această relaxare a regulilor va aduce tot felul de discuții care mi se par ca își au locul acum 50-60 de ani, credeam că am depășit momentul”, spune el.

Deși deocamdată Meta nu va renunța la fact-checking în UE, schimbare de paradigmă nu trebuie trecută cu vederea în România, unde dezinformarea și discursul extremist, inclusiv cel neolegionar, și-au găsit un teren fertil pe rețelele sociale. Cazul lui Călin Georgescu, care încearcă să se integreze în rețeaua internațională a extremiștilor de dreapta, demonstrează cum astfel de mesaje pot circula nestingherite și pot influența opinia publică, chiar și cu organizațiile de fact-checking prezente. 

Rămâne de văzut cum va fi cu Community Notes, însă, fără un mecanism eficient de verificare, platformele riscă să devină și mai mult un canal de propagare a unor ideologii periculoase. Devine destul de clar că era în care rețelele sociale se angajau, cel puțin la nivel declarativ, să combată dezinformarea și să protejeze spiritul democratic, s-a încheiat.

Articol editat de Raluca Ion


Ca să fii mereu la curent cu ce publicăm, urmărește-ne și pe Facebook.


Vlad Dumitrescu

E jurnalist din 2016, când a început să scrie despre cultură pentru feeder.ro. Ulterior, a mai scris despre politică externă la News.ro, despre sport la Eurosport, Lead.ro și ThePlaymaker.ro, iar la DoR a ținut newsletterul zilnic Concentrat, unde făcea un rezumat al celor mai importante știri ale zilei. Fan Manchester United și Boston Celtics, pasionat de wrestling, content creator la @despre.ce.vorbim pe Instagram.


Urmărește subiectul
Abonează-te
Anunță-mă la
guest
1 Comentariu
Cele mai vechi
Cele mai noi Cele mai votate
Inline Feedbacks
Vezi toate comentariile

Abonează-te, ca să nu uiți de noi!

Îți dăm un semn pe e-mail, când publicăm ceva nou. Promitem să nu te sâcâim mai des de o dată pe zi.

    3
    0
    Ai un comentariu? Participă la conversație!x