Armele matematice de distrugere: Ce sunt și cum ne pot afecta
În ultimii ani, de când cu marile scandaluri din lumea tech, precum Cambridge Analytica, oamenii au început să realizeze cât de important este felul în care sunt manipulate datele de către marile companii și de către instituții. Datele statistice ne influențează din ce în ce mai mult viața, căci ne pun etichetele care indică ce fel de actori suntem în societate.
Problema este însă că aceste date au limitări care pot provoca uneori nedreptăți sau pot adânci inegalitățile, devenind „arme matematice de distrugere” (AMD), după cum le numește matematiciana Cathy O’Neil, într-o carte cu același titlu (titlu original: Weapons of Math Destruction).
Deși exemplele oferite de O’Neil vin din SUA, dată fiind globalizarea, unele dintre ele pot ajunge, la un moment dat, și realitățile nostre. Pentru că, după cum spune și subtitlul cărții, „Big Data crește inegalitățile și amenință democrația”.
Iar autoarea nu vorbește doar din perspectiva de matematician, ci și din cea a omului care a construit modele care prognozează achizițiile și preferințele oamenilor pe internet. A făcut asta pentru diverse firme, lucrând de asemenea și pentru D.E. Shaw Group, un fond de garantare cunoscut pentru dezvoltarea de modele matematice cu scopul exploatării anomaliilor de pe piața financiară.
Cei săraci, pedepsiți de armele matematice
Datele sunt insidioase, afectându-i mai ales pe cei mai săraci. Cei privilegiați și cu putere sunt mai feriți de potențialele consecințe nefaste.
Adică, dacă ne uităm la climatul socio-politic din State, și așa dificil pentru majoritatea americanilor, o persoană albă care locuiește într-un cartier prosper nu va fi căutată, de exemplu, de patrule de poliție care ajung în cartiere mai sărace, pentru că un algoritm le direcționează acolo. Mai mult, cei bogați vor intra în procesul de selecție al unor oameni, în timp ce defavorizații vor fi „procesați” doar de computere.
Dacă algoritmul greșește, omul nu poate face nimic
Mai mult, algoritmul este supus și el erorii, dar continuă să funcționeze adesea defectuos din cauza feedback-ului.
Pentru că oamenii care ajung în umbra erorii nu pot face recurs. Iar exemplele oferite de O’Neil arată cât de mult poate acest lucru să împiedice evoluția socială a unor persoane: o profesoară apreciată care a fost concediată după ce a primit un scor mic la o testare furnizată de o firmă de consultanță, un student care nu a primit o slujbă la un magazin alimentar ca urmare a unor răspunsuri la un test de personalitate, respectiv persoane ale căror limită de cheltuieli la carduri a fost redusă doar pentru că făceau cumpărături la anumite magazine.
Acest ultim exemplu arată poate cel mai clar cât de arbitrară, cât de lipsită de criterii viabile, poate fi etichetarea făcută de un algoritm.
Viețile persoanelor vizate au fost puternic afectate pentru că momentul s-a petrecut pe timp de recesiune și, pe urmă, scăderea limitei de cheltuieli a apărut automat în rapoartele lor de creditare, ceea ce s-a tradus ulterior în creșterea costurilor lor de împrumut.
Nu e doar despre date, ci și despre alegeri
Dacă lucrurile nu se vor schimba, noi, în Europa, suntem, totuși, relativ feriți de astfel de incidente. O’Neil oferă modelul european ca un exemplu de „așa da”. Ea punctează necesitatea aprobării de către utilizatorul european a datelor colectate, precum și interzicerea utilizării acestora pentru alte scopuri.
În cele din urmă, atrage atenția matematiciana, soluția pentru ca democrația să rămână cât mai sănătoasă este să nu lăsăm AMD-urile să ne fie stăpâni, să ținem minte că aceste modele nu înseamnă doar date, ci și alegerile cu privire la datele care contează într-o anumită profilare.
Ca să fii mereu la curent cu ce publicăm, urmărește-ne și pe Facebook.