Open minds

Ce-i unește pe votanții lui Trump și Georgescu și cum îi țintesc algoritmii pe cei cu receptivitate mare la „bullshit”

Computer Hope Guy
Dr. Jennifer Golbeck, în timpul unui discurs TedX ținut la sfârșitul anului 2024. Sursa: captură din clipul TedX

Abonează-te la canalul nostru de WhatsApp, pentru a primi materialul zilei din Panorama, direct pe telefon. Click aici


 

Dr Jennifer Golbeck:

  1. A fost fascinant să văd cum, într-o perioadă atât de scurtă, un candidat ajunge de la a fi relativ necunoscut la a câștiga primul tur al alegerilor (n.r. – din România). Și cred că sunt câteva lucruri în joc. Unul este, evident, că știa cum să lucreze cu algoritmul TikTok, pentru a fi văzut”.
  2. Dacă ne uităm la alegerile prezidențiale din SUA, care tocmai au avut loc, vedem că Elon Musk a controlat Twitter și a făcut o mulțime de modificări la acel algoritm, pentru a amplifica vocile pe care a ales să le amplifice. Acestea includ persoanele care au plătit pentru verificare. Și există întrebarea: a fost folosit pentru a amplifica vocile conservatoare? Cu siguranță”.
  3. Eram oarecum obișnuiți cu boții rusești în 2016, chiar și în 2020, dar îi puteai distinge, pentru că nu vorbeau ca oamenii obișnuiți. Acum, este foarte greu de făcut diferența, pentru că au generatoare de limbaj care le permit să producă text mult mai rezonabil. Deci, distorsionează cu adevărat modul în care vedem realitatea”.
  4. „Oamenii care conduc aceste grupuri mari de boți o fac fie pentru a face bani, fie pentru a obține influență”.
  5. „Există un concept foarte interesant care îmi place, numit receptivitatea la bullshit. Sunt oameni care citesc sau aud politicieni spunând lucruri fără sens, dar despre care ei cred că sunt ceva foarte profund. Un studiu clasic pe tema asta este să generezi niște afirmații fără sens, stil New Age, și să îi întrebi pe oameni: este profund? Și sunt unii oameni care vor spune că da”.

Am urmărit-o de curând pe Netflix pe cercetătoarea Jennifer Golbeck, profesor la Universitatea din Maryland, SUA, într-un episod al documentarului „Connected”, realizat de jurnalistul de știință Latif Nasser. Într-unul dintre studiile sale, dr. Golbeck a vrut să vadă ce se întâmplă dacă aplică rețelelor de socializare o regulă statistică, utilizată pentru a depista fraudele financiare.

A analizat abaterile unor conturi de la graficul așteptat și a ajuns, astfel, să descopere o fermă de boți rusești care activau pe Twitter. Specializată în inteligență artificială și în social media, cercetătoarea analizează în lucrările sale cum pot fi utilizați algoritmii pentru a prezice comportamentul uman și cum pot ajunge, în ultimă instanță, să ne influențeze deciziile.

Ea însăși o utilizatoare dedicată a rețelelor de socializare, Golbeck studiază fenomenul forumurilor online extremiste din SUA și felul în care oameni obișnuiți pot ajunge să susțină idei contrare libertății și demnității umane.

Într-un interviu pentru Panorama, dr. Jennifer Golbeck vorbește despre motivele pentru care suntem astăzi atât de vulnerabili la manipulare, despre alegerile din SUA și cele din România și despre un nou concept ajuns obiect de studiu științific: „receptivitatea la bullshit(minciuni, vrăjeală – n.r.).

Ce trebuie să știi. Mergi direct către capitol:

Ce pot spune rețelele sociale despre un utilizator

Panorama: Unul dintre studiile pe care le-ați realizat împreună cu echipa dvs. este despre felul în care poți prezice comportamentul cuiva, pe baza postărilor sale de pe social media. La un moment dat, ați vrut să aflați doar analizând contul de Twitter al unei persoane care vrea să se lase de băut, dacă aceasta va ajunge să recidiveze. Ce ați descoperit în timpul cercetării?

Jennifer Golbeck: Sunt foarte interesată de cum putem utiliza datele disponibile pe rețelele de socializare, pentru a înțelege anumite stări de spirit ale oamenilor și, de asemenea, pentru a înțelege comportamentul lor viitor. Acel studiu anume se uita la oameni care se alăturau Alcoolicilor Anonimi și prezicea dacă (n.r. – procesul de recuperare) va funcționa în ziua în care anunțau că îl vor începe.

Există tot felul de factori care intervin în asta, pe care îi cunoaștem din literatura de psihologie și despre care știm că afectează probabilitatea de recuperare a oamenilor. Cum arată rețeaua lor de socializare, cum arată prietenii lor? Despre ce subiecte vorbesc? Cum gestionează stresul? – acesta este un lucru pe care îl putem detecta cu inteligența artificială din tipul de text pe care îl postează.

Și astfel, toate aceste caracteristici împreună ne permit să prezicem destul de exact, în ziua în care cineva decide să înceapă tratamentul, dacă va funcționa sau nu, ceea ce este oarecum înfricoșător, dar și destul de interesant.

Panorama: Ați făcut studiul în urmă cu aproximativ 10 ani. De atunci, tehnologia a evoluat, inteligența artificială a evoluat. Ce pot spune astăzi despre un om postările sale de pe Twitter, TikTok, Facebook?

Jennifer Golbeck: Da, de atunci lucrurile au evoluat teribil de mult. Să zicem că te uiți la algoritmul TikTok, care este evident foarte bun în a prezice genul de lucruri de care vei fi interesat, inclusiv genul de lucruri pe care nu le cauți neapărat. Este o experiență pe care o au mulți oameni: aceștia spun că nu știu cum au ajuns pe TikTok-ul lor o mulțime de videoclipuri de care nu credeau că sunt interesați, dar sfârșesc prin a-i capta vreme îndelungată.

Algoritmul nu abordează comportamentele individuale la fel de direct cum am făcut-o noi cu recuperarea în cazul alcoolismului, dar are în spate aceste modele mari, cu adevărat puternice, care își fac o idee despre lucrurile la care ai putea răspunde pozitiv, chiar dacă poate nu credeai asta înainte.

Inteligența artificială a evoluat până la a avea aceste rețele neuronale foarte mari și complicate, acești algoritmi de învățare profundă care, combinați cu cantitatea mare de date disponibile despre oameni, pot face tot felul de predicții, fără a încerca în mod explicit să identifice vreun subiect anume.

Impactul social media asupra alegerilor electorale

Panorama: Cum poate folosi cineva aceste informații, ce poate face cu aceste date dacă le are la dispoziție?

Jennifer Golbeck: În mod evident, scopul principal al companiilor de social media este să te țină pe platformă pentru a face bani. Dar, dacă ne uităm la alegerile prezidențiale din SUA, care tocmai au avut loc, vedem că Elon Musk a controlat Twitter și a făcut o mulțime de modificări la acel algoritm, pentru a amplifica vocile pe care a ales să le amplifice. Acestea includ persoanele care au plătit pentru verificare. Și există întrebarea: a fost folosit pentru a amplifica vocile conservatoare? Cu siguranță.

Dacă te uiți la anunțul lui Mark Zuckerberg, marea știre care a ieșit din el este că Facebook nu va mai face fact checking. Dar, pe deasupra, cei de la Facebook spun că nu or să mai suprime discursul politic, lucru pe care îl făceau înainte. Deci, dacă scriai o postare despre un subiect politic înainte de alegeri, Facebook nu o arăta în general oamenilor. Or să scoată asta acum. 

Este o alegere interesantă. Vreau să spun că atunci când aveai acest candidat care semăna diviziune, Trump, exista multă opoziție la ceea ce oamenii ar putea dori să facă. Facebook nu arăta asta. Acum, că a fost ales, (n.r. – cei de la Facebook) fac toate aceste mișcări și schimbări în politicile lor, inclusiv în algoritm, pe care Trump le susține. 

Este foarte dificil să măsurăm în mod direct ce fel de impact poate avea o schimbare algoritmică individuală. Dar știm de mai bine de un deceniu de cercetare că schimbarea a ceea ce oamenii văd pe social media poate avea un impact asupra comportamentului lor, de pildă asupra comportamentului lor la vot. Și te gândești la cum vor putea vrea platformele să folosească asta, pe lângă scopul lor de a face bani.

Panorama: Ar putea să folosească acest lucru în scopuri politice? Spuneați cu altă ocazie că asta s-a întâmplat deja. 

Jennifer Golbeck: Da, absolut, și am văzut în 2016, când au încercat să folosească asta în scandalul Cambridge Analytica – au fost folosite aceste date cu niște algoritmi, pentru a arăta oamenilor mesaje politice cu adevărat țintite.

Cred că o componentă cu adevărat interesantă a acestui lucru, care se leagă de situația alegerilor din România, este că, chiar dacă o platformă nu alege să amplifice anumite voci, dacă simți cum funcționează platforma și cum funcționează algoritmul, este posibil să faci astfel încât conținutul tău să fie văzut cât mai mult. 

În special pe TikTok, dacă îți dai seama de acel algoritm, poți ajunge în pagina Pentru Tine (n.r. – For You Page – FYP) a foarte multor oameni. 

Acest lucru poate fi stimulat și de actori externi, dar o anumită fluență în ceea ce privește algoritmii, ceea ce ei consideră atrăgător și ceea ce amplifică îți poate permite să ajungi la un public foarte mare.

Cazul ascensiunii lui Georgescu: TikTok și ceva în plus

Panorama: Rezultatul primului tur al alegerilor prezidențiale, care au fost anulate în final de Curtea Constituțională, a reprezentat un șoc pentru societatea românească. Mulți nu au înțeles cum un candidat relativ necunoscut poate ajunge după o lună de campanie purtată în special pe TikTok, pe primul loc în preferințele alegătorilor. Ne puteți explica procesul prin care un candidat poate ajunge să capete atâta notorietate, într-un timp atât de scurt?

Jennifer Golbeck: A fost fascinant să văd cum, într-o perioadă atât de scurtă de timp, un candidat ajunge, după cum cum ați spus, de la a fi relativ necunoscut la a câștiga primul tur al alegerilor. Și cred că sunt câteva lucruri în joc. Unul este, evident, că știa cum să lucreze cu algoritmul TikTok, pentru a fi văzut.

Există, de asemenea, o întrebare, dacă a existat o campanie a Rusiei sau a altor forțe, pentru a-l face să pară mai popular. Pentru că știm că un criteriu în funcție de care algoritmul decide să prioritizeze este numărul mare de vizualizări. Așadar, în cazul în care aș vrea cu adevărat să-mi fac contul viral, dacă aș avea o grămadă de oameni care interacționează cu conținutul meu, asta ar face ca algoritmul să-l arate mai mult.

Deci, există o întrebare la care nu cred că avem încă răspunsul: cât de mare a fost rolul jucat de TikTok? Apoi, există și o altă întrebare: TikTok a manipulat? Și, din nou, acesta este un lucru pe care nu îl putem ști.

Dar, cred că trebuie să ne mai uităm și în altă parte și vedem asta și în SUA: alegători care au o anumită mentalitate legată de persoana pe care vor să o voteze și de lucrurile care îi fac să vrea să voteze.

Nu cunosc climatul politic din România, dar, după ce am petrecut această vară vorbind cu o mulțime de votanți ai lui Trump, mergând la mitinguri și intervievând oameni, am văzut o mulțime de persoane care nu găseau nicio valoare în guvern, care erau oarecum nihiliste în privința asta, care au tratat subiectul ca pe un fel de trolling pe rețelele de socializare.

De exemplu, nu ar fi amuzant dacă ar fi să distrugem această parte a guvernului? Și, făcând asta, ei nu au considerat că se va pierde ceva cu adevărat de valoare.

Cred că atunci când ai o mulțime de alegători cu acest tip de mentalitate, care tratează lucrurile ca pe un joc în care nu există ceva real în pericol, atunci pot câștiga rapid voturi candidați pe care fie că nu îi cunoști, fie nu-ți pasă de politicile lor, candidați care nu gândesc bine, care nu sunt consistenți sau care reprezintă pur și simplu un fel de mesaj. 

Panorama: În România, mulți dintre votanții lui Călin Georgescu au un mesaj similar, sunt convinși că „mai rău de atât nu se poate” și își doresc să aleagă pe cineva nou, care nu pare a avea legătură cu establishmentul politic. S-au săturat de actuala stare de lucruri, de actualul Guvern și vor să schimbe totul, să dea un reset societății.

Jennifer Golbeck: Exact. Cred că dacă ai o mulțime de oameni cu această perspectivă – vrem să resetăm totul, desigur lucrurile nu merg așa. Dacă acest tip de candidați nihiliști realizează lucrurile pe care le-au promis, asta va cauza mult haos și foarte multe greutăți pentru o grămadă de oameni.

Dar trebuie să ai oameni cu această mentalitate pentru ca acești candidați, care nu fac cu adevărat parte dintr-o instituție, care nu au planuri, să obțină o mulțime de voturi.

Panorama: Ați identificat o cale prin care le poți arăta oamenilor aceste lucruri?

Jennifer Golbeck: Aș vrea să știu cum. În SUA, Elon Musk a avut această propunere despre care cred că încă vorbește, de reducere a dimensiunii guvernului cu o treime, de închidere a tuturor acestor departamente. Și el însuși a postat pe Twitter că, da, asta va provoca multe greutăți, dar că, sincer, mulți americani merită să treacă prin aceste greutăți. Desigur, el nu le va simți. Și cred că susținătorii lui tratează acest lucru ca pe o glumă, ei cred că, de fapt, nu vor trebui să se confrunte cu atât de multe.

Au existat o mulțime de fapte, cifre și analize care arătau că toate aceste lucruri pe care Trump le propunea aveau să provoace de fapt mai multă inflație, nu aveau să ajute economia. Toate informațiile despre implicațiile acestor politici existau. Nu le-a păsat. Cel mai important lucru pentru ei a fost: să transmitem acest mesaj instituțiilor, că nu ne place cum stau lucrurile.

Bine, dar, știți, dacă transmiteți acest mesaj, lucrurile se vor înrăutăți. Cred că ne-am luptat cu asta în ultimul deceniu, în întreaga lume, am văzut asta și cu Brexit. Oamenii o fac oricum, chiar dacă consecințele sunt foarte clare.

Cum schimbă AI percepția asupra adevărului

Panorama: Conținutul generat de AI este din ce în ce mai prezent pe rețelele sociale, fără să fie marcat ca atare. Cum ne influențează acest lucru percepția asupra realității și asupra adevărului? Ce impact are expunerea repetată la imaginile false?

Jennifer Golbeck: Cred că un mod important în care am experimentat-o în ultimul an este un fel de extensie a ceea ce am văzut în genul de campanii de gândire și influență înainte. Și anume, că poți crea iluzia că există mult sprijin pentru un anumit subiect sau că există multă controversă în jurul unui anumit subiect sau dezacord față de un subiect, dacă ai o mulțime de voci care exprimă acest tip de idei în comentariile despre el.

Așadar, dacă postez ceva despre AI și sunt zeci și zeci de comentarii dedesubt, care amplifică ideea că eu greșesc, va face să pară că există o îndoială cu privire la autoritatea mea în această privință. Dacă acele voci sunt toate boți generați de AI, ar putea să nu existe de fapt nicio opoziție la ceea ce spun, dar pentru oamenii care vin și le citesc, va părea că ele sunt reale.

(Se întâmplă – n.r.) chiar și cu secțiunile de comentarii ale site-urile de știri. Reviste precum Scientific American, care este axată pe știință, au eliminat secțiunea lor de comentarii, pentru că au descoperit că scădea încrederea oamenilor în știință. În special în cazul textelor, este foarte greu de făcut o distincție, aceste tehnologii generative îți permit să creezi voci artificiale, care fac conversația să arate într-un fel când nu este de fapt așa în realitate.

A fost foarte interesant să vedem schimbarea. Eram oarecum obișnuiți cu boții rusești în 2016, chiar și în 2020, dar îi puteai distinge pentru că nu vorbeau ca oamenii obișnuiți. Acum, este foarte greu de făcut diferența, pentru că au generatoare de limbaj care le permit să producă text mult mai rezonabil. Deci, distorsionează cu adevărat modul în care vedem realitatea.

Panorama: Legat de boții rusești, în 2015, ați făcut o descoperire foarte interesantă, aplicând un model statistic, legea lui Benford, asupra rețelelor sociale. Ce ați aflat atunci?

Jennifer Golbeck: Legea lui Benford este practic acest mic fapt statistic interesant, care arată că în multe sisteme, dacă te uiți la prima cifră a unui număr, acesta urmează un model așteptat.

Poți folosi asta pentru a detecta frauda într-o mulțime de contexte și am făcut acest studiu, arătând că acest model apare și pe rețelele de socializare. Dacă te uiți la prietenii tăi și la câți prieteni au, primele cifre ale acestor numere respectă această lege, care este un fel de fapt statistic și științific distractiv.

Chestiunea interesantă este că folosim Legea lui Benford pentru a detecta fraudele financiare – dacă registrele companiei tale nu respectă legea, există șansa să existe o fraudă acolo.

M-am gândit: ce înseamnă frauda pe rețelele de socializare? Poate înseamnă conturi false. Așa că am căutat și, după cum știți, am găsit o mare fermă rusească de boți. Am făcut un studiu de urmărire, care a găsit acești boți care dau like-uri false sau retweet-uri false, iar dacă te uiți la prietenii lor, vezi că nu respectă Legea lui Benford

Nu este 100% (n.r. – infailibil), în niciun caz, dar este un semnal cu adevărat interesant, care ne poate spune dacă avem un cont autentic sau dacă avem un cont care încearcă să arate ca o persoană, dar nu respectă de fapt regulile la care ne-am aștepta.

Panorama: Pornind de la acest fapt statistic, puteți crea un instrument care să monitorizeze conturile de pe social media?

Jennifer Golbeck: L-aș vedea ca pe o parte a unui instrument. Există o mulțime de cercetări grozave în ceea ce privește instrumentele de detectare a boților, care folosesc multe funcții. Cred că este o caracteristică foarte interesant de încorporat în aceste instrumente.

O parte a problemei este că multe dintre platforme nu vânează boții așa cum o făceau înainte. Elon Musk a promis că, atunci când va prelua Twitter, toți boții vor dispărea. Dar, dacă ești un utilizator obișnuit de Twitter, (vezi că – n.r.) boții își plătesc cei 8 dolari pe lună pentru a primi eticheta de verificat și apar în partea de sus a tuturor secțiunilor de comentarii. Există boți peste tot pe Twitter acum, dar plătesc.

Sunt un utilizator de Twitter destul de dedicat, stau foarte mult pe platformă și cred că văd mai mulți boți acum decât vedeam înainte ca Musk să o preia, chiar dacă a promis să rezolve problema. Doar că hotărârea de a vâna boți nu mai este aceeași de acum cinci sau 10 ani.

Cred că legea lui Benford ar fi o unealtă eficientă de încorporat în algoritmii de detecție a boților, dar e necesar e ca platformele să o vrea. Și nu le văd făcând asta acum.

Panorama: La ce poți utiliza un cont fals, care postează la început conținut aparent inofensiv, precum imagini generate de AI?

Jennifer Golbeck: Există o serie de lucruri. O parte este că pur și simplu postează acest conținut pentru că sunt niște bani de câștigat acolo. Pentru că dacă sunt conturi verificate, cum ar fi cele de pe Twitter, sunt plătite în funcție de implicarea pe care o generează.

Un fel de tehnică clasică ar fi să folosești aceste conturi, să creezi engagement pentru a obține urmăritori, iar apoi le poți schimba în conturi spam care îți spun, de exemplu, să cumperi criptomonede. Dar, le-ai putea folosi mai târziu, odată ce au această istorie stabilită, pentru a face o parte din această amplificare despre care vorbeam.

Așa că poți să îi pui să găsească pe oricine îl menționează pe Trump și să pună anumite comentarii, folosind un model de limbaj pentru a genera textul de dedesubt, cu scopul de a face să pară că există un fel de controversă.

Oamenii care conduc aceste grupuri mari de boți o fac fie pentru a face bani, fie pentru a obține influență. Dacă începi să faci asta imediat ce ai configurat un cont, acesta poate fi raportat. Dar, dacă îl faci să ruleze pentru o vreme și postează conținut și interacționează și ai roboți care interacționează între ei, construiesc un istoric legitim, asta îți poate servi mai ușor scopurile mai târziu.

Panorama: În România, am văzut o serie de conturi pe Facebook, care postau fel de fel de imagini generate de AI și generau engagement, iar acum două-trei luni s-au transformat în conturi pro-Georgescu, postând videoclipurile lui, mesajele lui. Este aceasta o posibilă utilizare a unui cont fals?

Jennifer Golbeck: Da, exact. Primești un cont, îl configurezi, pare stabilit și apoi vine un moment în care vrei să ai o grămadă de conturi care partajează anumite tipuri de conținut și le poți converti în acest scop. Deci, aceasta este o utilizare clasică a acestui tip de roboți sau de conturi false.

Cum este testată „receptivitatea la bullshit”

Panorama: De ce cred oamenii aproape tot ce văd pe rețelele de socializare?

Jennifer Golbeck: În special în cazul oamenilor care cred lucruri neadevărate, teoriile conspirației, dezinformări, există o mulțime de factori diferiți care sunt implicați, factori psihologici. Este o combinație de lucruri care include o neîncredere în experți și instituții.

Numim asta neîncredere epistemică. Este un termen pompos, dar înseamnă doar că, dacă un om de știință îți spune ceva despre schimbările climatice sau despre Covid, nu îl crezi neapărat, însă s-ar putea să crezi ceva ce vezi pe rețelele de socializare, pentru că respingi autoritatea surselor tradiționale.

Știm că unii oameni tind să aibă abilități slabe de procesare a informațiilor. Pur și simplu este mai puțin probabil să fie capabili să detecteze când sunt manipulați, care este conținutul adevărat, care este cel fals. Vorbim mult despre asta în zona ideologiei de dreapta, pentru că au avut mai mult succes, dar o vedem și în stânga. Oameni care au, de fapt, adevărate dificultăți în a deosebi binele de rău.

Există un concept foarte interesant care îmi place, numit receptivitatea la bullshit (minciuni, vrăjeală – n.r.). Sunt oameni care citesc sau aud politicieni spunând lucruri fără sens, dar despre care ei cred că sunt ceva foarte profund. Un studiu clasic pe tema asta este să generezi niște afirmații fără sens, stil New Age, și să îi întrebi pe oameni: este profund? Și sunt unii oameni care vor spune că da.

Vezi asta în politică, de multe ori politicienii spun: vom face țara mai sigură. Asta este o idee, dar nu este un plan. Însă, sunt oameni care vor spune: oh, da, ei bine, acest politician va face țara mai sigură! Și nu știi cum, nu a spus cum, dar pur și simplu crezi în acest lucru fără sens pe care îl spune.

Așadar, există o mulțime de astfel de atribute individuale, care îi fac pe oameni mai susceptibili să creadă acest tip de lucruri false. Iar, pe deasupra, mai este și multă muncă (să le detectezi – n.r.), pentru că se fac toate aceste eforturi despre care am vorbit, de a inunda oamenii cu informații, inclusiv cu informații proaste.

Este multă muncă să decizi lucruri precum: este acesta un cont legitim? Este adevărat? Trebuie să verific acest lucru? Aș putea să mă uit la comentarii și să-mi fac o idee? Nu, pentru că comentariile sunt manipulate. Această verificare pune multă încărcătură cognitivă asupra oamenilor. Și este mai ușor să fii de acord și asta este cred, de asemenea, o parte a problemei.

Cum transformi oameni obișnuiți în extremiști

Panorama: Ați analizat o mulțime de postări extremiste din Statele Unite. Ce concluzii ați tras din acest proces? Ce butoane interioare apasă cei care le realizează și cum de sunt ele eficiente?

Jennifer Golbeck: Urmăresc o mulțime de forumuri de extremă dreaptă și cred că lucrul cu adevărat important în toate este că există o comunitate legitimă, care se formează în acele spații. Există moduri în care oamenii trebuie să vorbească și să posteze. Se așteaptă de la ei să împărtășească anumite poziții.

Și asta include de obicei, mai ales în comunitățile mai extreme, o degradare reală, un mod degradant de a vorbi despre străini, despre persoane care nu fac parte din grupul tău. Asta îi face pe oameni să simtă că sunt apreciați, că sunt deștepți, că fac parte din ceva.

Cred că asta este foarte important și îi aliniază pe oameni la un anumit set de puncte de vedere. Pentru că astfel poți obține această recompensă, nu? Poți fi apreciat, poți fi făcut să te simți inteligent, poți obține această implicare în comunitate, poți fi validat. Dar, de asemenea, nu te poți abate prea mult de la ceea ce se așteaptă de la tine, nu poți apăra prea mult străinii, că altfel te vom înlătura. Asta înseamnă că oamenii sunt stimulați să rămână aliniați și, în cele din urmă, știm din psihologie că ajung să adopte acele convingeri.

Componenta comunitară este, cred, foarte importantă pentru modul în care funcționează aceste forumuri extremiste.

Panorama: Așadar, aceste forumuri sunt eficiente, pentru că le dau oamenilor un sentiment de apartenență. Știu că sună utopic, dar poate fi folosit acest lucru pe care l-ați aflat pentru a combate extremismul prin crearea, să zicem, a unui alt tip de comunități?

Jennifer Golbeck: Le studiem, pentru că, în cele din urmă, asta vrem să realizăm. Vrem să găsim modalități de a deradicaliza oamenii, de a-i aduce înapoi în centru, de a-i face să interacționeze. Nu știm cu adevărat cum, lucrez activ la asta.

Dar, din toate cercetările, știu că singura soluție reală pe care am găsit-o este să-i facem pe oameni să aibă conversații unu-la-unu cu oameni din cealaltă parte. Desigur, nu funcționează întotdeauna, dar e singura intervenție super-reușită. Deci, nu este un lucru mare și scalabil. Cred că mulți dintre noi lucrăm la ce putem face. Există vreo modalitate prin care putem reduce problema? Nu știu, suntem în stadiile incipiente ale încercării.

Va veni o vreme în care adevărul nu va mai conta?

Panorama: Cât de aproape suntem de o lume post-adevăr, în care nimeni nu mai poate spune ce este adevărat și ce este fals și, de fapt, nici nu va mai conta, pentru că tot ce contează este lucrul în care cineva crede la un moment dat?

Jennifer Golbeck: Argumentul și viziunea mea optimistă împotriva acestui argument este că, de fapt, știm în totalitate ce este adevărat și ce e fals, că în întreaga lume avem mari experți care știu, că avem instituții care se angajează să încerce să facă ceea ce trebuie și să-i ajute pe cei mai mulți oameni.

Ceea ce avem este o parte semnificativă a populației dintr-o mulțime de țări care respinge asta acum. Și lor nu le pasă de ce este adevărat și ce nu, fac asta pe baza sentimentelor.

Dar, de fapt, nu am pierdut adevărul, este încă acolo. Sper că vom reuși să trecem prin această perioadă care durează mult și să ajungem din nou acolo unde oamenii văd implicațiile acțiunilor lor. Acolo unde văd ce se întâmplă atunci când ignori experții, când ignori adevărul, acolo unde văd că există consecințe pentru asta și încep să-l îmbrățișeze din nou.

Suntem într-un loc în care este foarte ușor să intri în contact cu lucruri din medii în care adevărul nu este prețuit. Dar, în lume, știm la modul absolut ce este adevărul și cum să-l găsim. Trebuie doar să-i aducem pe oameni înapoi în acel spațiu în care adevărul contează.

Iar acolo mai sunt încă mulți, toate aceste mișcări de extremă dreaptă nu reprezintă majorități uriașe, sunt majorități mici și au la bază și oameni care nu votează și nu par să vadă miza. Sunt optimistă că vom trece peste asta în cele din urmă. Am trecut prin cele mai rele perioade pentru adevăr și am ieșit la lumină. Doar că, pur și simplu nu este distractiv să treci prin așa ceva.

Panorama: Aș dori să vorbim despre conceptul de alegere, care este fundamental pentru evoluția societății umane. Este însuși conceptul de alegere în pericol dacă un algoritm ne poate influența procesul de luare a deciziilor într-o asemenea măsură?

Jennifer Golbeck: Este o întrebare foarte bună și cred că ne putem vaccina împotriva acestui lucru. Cu siguranță putem fi manipulați de algoritmi și atât algoritmii, cât și conținutul pe care ni-l arată ne pot influența profund și pot influența modul în care ne gândim la noi înșine și la lume. Dar, știm de asemenea că este posibil să ne ferim de asta chiar și în ceea ce privește lucrurile cu adevărat extreme.

În ceea ce privește teoriile conspirației sau conținutul rasist, degradant, părtinitor, poți să avertizezi oamenii din timp, dacă le dai o lecție de genul: hei, știi, iată chestia asta despre care noi știm că e rea, iată ce fel de tehnici retorice vor folosi, iată genul de lucruri pe care le vor spune pentru a te convinge că au dreptate, dar nu au și iată de ce.

Asta poate dura foarte puțin, 15 minute, în care să le spui oamenilor: iată la ce trebuie să te uiți, pentru că oamenii vor încerca să te manipuleze. Dar, are un impact semnificativ asupra felului în care se raportează la acel conținut, dacă îl cred sau nu. Când îl întâlnesc, este mai puțin probabil să fie influențați de el. Deci, știm că există intervenții.

Cu un efort redus, putem pregăti foarte ușor oamenii să fie atenți la asta, astfel încât să nu fie la fel de susceptibili la manipulare. Trebuie să începem să instruim oamenii pentru acest tip de tehnici pe care le întâlnesc pe rețelele de socializare.

Panorama: Când ar trebui să înceapă acest tip de educație?

Jennifer Golbeck: Cred că tot acest tip de educație în materie de date și internet ar trebui să înceapă la grădiniță. De exemplu, putem să încercăm să-i învățăm pe copiii de grădiniță cum este când te minte cineva, ce este adevărat și ce nu.

Articol editat de Andrei Luca Popescu


Ca să fii mereu la curent cu ce publicăm, urmărește-ne și pe Facebook.


Raluca Ion

Raluca Ion s-a alăturat echipei Panorama la finalul lui 2024, după ce anterior a fost vreme de nouă ani editor la Republica.ro. Are 23 ani de experiență jurnalistică și a scris de-a lungul timpului la Dilema Veche, Cotidianul, Evenimentul Zilei și Gândul, unde a realizat reportaje, interviuri și articole de opinie. Crede în forța poveștilor de a aduce oamenii împreună și a fondat alături de soțul ei proiectul Povești Românești, care prezintă istorii mai puțin știute despre lucruri arhicunoscute.

A absolvit Facultatea de Litere a Universității din București și a fost bursieră International Visitor Leadership Programme.


Urmărește subiectul
Abonează-te
Anunță-mă la
guest
1 Comentariu
Cele mai vechi
Cele mai noi Cele mai votate
Inline Feedbacks
Vezi toate comentariile

Abonează-te, ca să nu uiți de noi!

Îți dăm un semn pe e-mail, când publicăm ceva nou. Promitem să nu te sâcâim mai des de o dată pe zi.

    2
    0
    Ai un comentariu? Participă la conversație!x