Povestea în două minute

Armele matematice de distrugere: Ce sunt și cum ne pot afecta

Computer Hope Guy

În ultimii ani, de când cu marile scandaluri din lumea tech, precum Cambridge Analytica, oamenii au început să realizeze cât de important este felul în care sunt manipulate datele de către marile companii și de către instituții. Datele statistice ne influențează din ce în ce mai mult viața, căci ne pun etichetele care indică ce fel de actori suntem în societate.

Problema este însă că aceste date au limitări care pot provoca uneori nedreptăți sau pot adânci inegalitățile, devenind „arme matematice de distrugere” (AMD), după cum le numește matematiciana Cathy O’Neil, într-o carte cu același titlu (titlu original: Weapons of Math Destruction).

Deși exemplele oferite de O’Neil vin din SUA, dată fiind globalizarea, unele dintre ele pot ajunge, la un moment dat, și realitățile nostre. Pentru că, după cum spune și subtitlul cărții, „Big Data crește inegalitățile și amenință democrația”.

Iar autoarea nu vorbește doar din perspectiva de matematician, ci și din cea a omului care a construit modele care prognozează achizițiile și preferințele oamenilor pe internet. A făcut asta pentru diverse firme, lucrând de asemenea și pentru D.E. Shaw Group, un fond de garantare cunoscut pentru dezvoltarea de modele matematice cu scopul exploatării anomaliilor de pe piața financiară.

Cei săraci, pedepsiți de armele matematice

Datele sunt insidioase, afectându-i mai ales pe cei mai săraci. Cei privilegiați și cu putere sunt mai feriți de potențialele consecințe nefaste.

Adică, dacă ne uităm la climatul socio-politic din State, și așa dificil pentru majoritatea americanilor, o persoană albă care locuiește într-un cartier prosper nu va fi căutată, de exemplu, de patrule de poliție care ajung în cartiere mai sărace, pentru că un algoritm le direcționează acolo. Mai mult, cei bogați vor intra în procesul de selecție al unor oameni, în timp ce defavorizații vor fi „procesați” doar de computere.

Ele (AMD-urile – n.r.) tind să-i pedepsească pe săraci. În parte, pentru că sunt concepute să evalueze un număr mare de oameni. Se specializează în abordarea angro și sunt ieftine, ceea ce le face atrăgătoare. Bogatul, în schimb, beneficiază adesea de contribuția personală. O firmă de avocatură de renume sau o școală foarte bine cotată vor conta mai mult ca recomandări sau la interviu decât un lanț de fast-food sau o școală dintr-un cartier sărac al orașului. Privilegiații sunt procesați mai ales de oameni, în vreme ce masele sunt procesate de mașinării”.

Dacă algoritmul greșește, omul nu poate face nimic

Mai mult, algoritmul este supus și el erorii, dar continuă să funcționeze adesea defectuos din cauza feedback-ului.

Pentru că oamenii care ajung în umbra erorii nu pot face recurs. Iar exemplele oferite de O’Neil arată cât de mult poate acest lucru să împiedice evoluția socială a unor persoane: o profesoară apreciată care a fost concediată după ce a primit un scor mic la o testare furnizată de o firmă de consultanță, un student care nu a primit o slujbă la un magazin alimentar ca urmare a unor răspunsuri la un test de personalitate, respectiv persoane ale căror limită de cheltuieli la carduri a fost redusă doar pentru că făceau cumpărături la anumite magazine.

Acest ultim exemplu arată poate cel mai clar cât de arbitrară, cât de lipsită de criterii viabile, poate fi etichetarea făcută de un algoritm.

Viețile persoanelor vizate au fost puternic afectate pentru că momentul s-a petrecut pe timp de recesiune și, pe urmă, scăderea limitei de cheltuieli a apărut automat în rapoartele lor de creditare, ceea ce s-a tradus ulterior în creșterea costurilor lor de împrumut.

„Deținătorii de carduri care făcuseră cumpărături la anumite unități, a scris compania, erau mai predispuși să rămână în urmă cu plățile. Era o chestiune de statistică, simplă ca bună-ziua, o corelație clară între tiparele de cumpărături și ratele de nerambursare… Mulți dintre acești posesori de carduri, e bine s-o spunem, frecventau ‘magazine asociate cu rate de rambursare scăzute’, deoarece nu înotau în bani. Și, ce să vezi? Un algoritm a luat notă și i-a făcut și mai săraci”.

Nu e doar despre date, ci și despre alegeri

Dacă lucrurile nu se vor schimba, noi, în Europa, suntem, totuși, relativ feriți de astfel de incidente. O’Neil oferă modelul european ca un exemplu de „așa da”. Ea punctează necesitatea aprobării de către utilizatorul european a datelor colectate, precum și interzicerea utilizării acestora pentru alte scopuri.

În cele din urmă, atrage atenția matematiciana, soluția pentru ca democrația să rămână cât mai sănătoasă este să nu lăsăm AMD-urile să ne fie stăpâni, să ținem minte că aceste modele nu înseamnă doar date, ci și alegerile cu privire la datele care contează într-o anumită profilare.

„Dacă ne retragem din fața lor și tratăm modelele matematice ca pe o forță neutră și inevitabilă, abdicăm de la responsabilitatea pe care o avem. Iar rezultatul, așa cum am văzut, sunt armele matematice de distrugere. Trebuie să ne unim pentru a supraveghea aceste arme matematice, să le îmblânzim și să le dezarmăm”.

Ca să fii mereu la curent cu ce publicăm, urmărește-ne și pe Facebook.


Dana Mischie

Și-a început drumul în presă în facultate, scriind recenzii de filme și cărți pentru un blog cultural. Apoi, la master, s-a angajat la ziarul Adevărul, unde a fost pe rând redactor, reporter și apoi editor. Aici, a realizat interviuri, analize și reportaje despre personalități culturale, fenomene sociale, subiecte medicale și despre digitalizare.