Nu doar utilizatorii de Windows vor rula aplicații AI local. Apple a anunțat în iunie că va introduce astfel de funcții sub umbrela Apple Intelligence. Acestea vor putea fi utilizate inclusiv local, pe toate laptopurile MacBook Air și MacBook Pro și pe toate desktopurile iMac și Mac mini care au cel puțin procesoare M1.
Și, desigur, astfel de funcții AI ajung și pe telefoane, indiferent de sistemul de operare utilizat. Apple Intelligence va fi disponibil ca update software și pentru iPhone 15 Pro și va fi integrat by default în modele superioare, în timp ce utilizatorii de smartphone-uri cu Android pot utiliza aplicația Gemini dezvoltată de Google, care oferă acces la o serie de funcții AI.
Avantajul utilizării locale: viteză mai mare de procesare
Unul dintre avantajele rulării locale a aplicațiilor AI este creșterea vitezei de procesare a taskurilor. Probabil că prima ta reacție este să spui că ChatGPT răspunde rapid la comenzi și acum, când îl rulezi într-un browser pe laptop sau din aplicația de Android sau iOS. Doar că funcțiile AI sunt folosite tot mai frecvent pentru sarcini mai complexe.
De exemplu, Microsoft a anunțat deja că aplicații precum Adobe Photoshop, Lightroom și Express sau DaVinci Resolve Studio au primit versiuni care să folosească NPU-ul de pe laptopurile Copilot+ pentru a rula local funcțiile AI integrate. Ba chiar și CapCut, folosit în special pentru editarea clipurilor pentru TikTok, a primit o astfel de versiune.
Asta înseamnă că, în loc să încarci fotografii la rezoluție mare sau clipuri video de mari dimensiuni într-un cloud pentru a aplica apoi diverse funcții AI, vei aplica aceste funcții direct pe dispozitiv. Iar diferența de viteză va fi vizibilă în special pentru fotografi și editori video care prelucrează frecvent astfel de conținut multimedia.
Aplicații AI rulate local cu un strop de cloud
Pe lângă viteza de procesare mai mare a datelor, utilizarea unor aplicații AI local, pe dispozitiv, prezintă teoretic și un avantaj major din punct de vedere al securității: datele pe care le utilizezi, de exemplu, pentru generarea de texte, grafice, rezumate sau chiar pentru idei de business rămân pe dispozitiv.
Cu toate acestea, lucrurile sunt mai complexe decât încearcă să ne liniștească companiile, întrucât în anumite cazuri datele ajung cel puțin parțial într-un cloud.
De exemplu, Apple menționează că, în cazul utilizării unor task-uri mai complexe din cadrul funcțiilor Apple Intelligence, va folosi un așa-numit Private Cloud Compute. Practic, datele tale ajung în cloud, însă Apple susține că acestea sunt folosite doar pentru solicitările tale și că nu le stochează.
„Atât Copilot+, cât și Apple Intelligence folosesc puterea procesoarelor interne din dispozitive. Dar pentru anumite prelucrări se bazează pe cloud. Și aici apar de fapt riscurile legate de controlul confidențialității. Nu știm ce date sau metadate pleacă, cât timp sunt prelucrate, cum „învață” algoritmii din comportamentul nostru, ce informații stochează despre noi. Există promisiuni, dar nu sunt suficiente”, declară pentru Panorama, Tudor Galoș, consultant în protecția datelor la Tudor Galos Consulting.
În acest context, Galoș consideră că este esențială realizarea unor analize de risc Data Protection Impact Assessment (DPIA), care sunt menționate inclusiv în regulamentul GDPR pentru protecția datelor.
„Este obligatoriu să vedem DPIA pentru aceste tehnologii. DPIA este o analiză de risc foarte detaliată asupra persoanelor afectate de prelucrări de date ce pot avea impact asupra drepturilor și libertăților lor. Fără ele nu putem înțelege modul în care Microsoft și Apple au proiectat sistemele pentru a proteja datele utilizatorilor”, completează Galoș.
Funcția Recall sau cum „să ții minte” tot ce faci pe laptop
La scurt timp după prezentarea principalelor noutăți aduse de Copilot+, Microsoft a intrat în centrul atenției din cauza funcției Recall. Aceasta analizează activitățile din timpul unei sesiuni de lucru, pentru ca ulterior să-ți ofere informații teoretic utile, când le soliciți. Sunt legate de conversațiile pe care le-ai avut în aplicațiile de mesagerie, de informațiile pe care le-ai citit într-un document sau de clipurile pe care le-ai urmărit pe YouTube.
În contextul în care Windows „știe” practic tot ce faci pe laptop, care sunt riscurile de securitate la care se supune un angajat care citește un mail personal pe laptopul primit de la companie? Mai exact, are angajatorul dreptul de a solicita angajatului acces la acest informații pe baza funcției Recall, sub pretextul că angajatul utilizează un dispozitiv aflat în proprietatea companiei?
„Conform regulamentului GDPR, dar și conform legii românești care-l pune în aplicare, un angajat nu poate fi monitorizat la locul de muncă fără un scop clar și fără un temei legal solid. Angajatorul trebuie să demonstreze că înainte de a cere angajatului să arate mail-urile personale prin funcția Recall, nu a găsit alte modalități mai puțin intruzive. Acest lucru este aproape imposibil de demonstrat”, explică Galoș.
Cu alte cuvinte, legislația actuală din Uniunea Europeană protejează utilizatorul din acest punct de vedere, inclusiv când vine vorba despre noile aplicații AI.
„Funcția Recall a fost gândită fix pentru a permite utilizatorului să își acceseze propriile informații, nu pentru a permite altora să facă acest lucru. Cu siguranță că vor fi manageri ce vor încerca să abuzeze de această funcție, însă angajații trebuie să știe că se pot adresa Autorității Naționale de Supraveghere a Prelucrărilor de Date cu Caracter Personal cu plângeri”, a mai precizat Galoș.
Ce rol are GDPR-ul în securitatea aplicațiilor AI?
Aspectele de securitate ar fi trebuit rezolvate de Microsoft încă din faza de dezvoltare a produselor AI. Totuși, la fel ca multe alte companii, Microsoft a prioritizat dezvoltarea de funcții avansate care să fie lansate pe piață într-un timp cât mai scurt, în detrimentul securității datelor.
Evitarea problemelor legate de securitatea datelor personale este inclusă și în regulamentul GDPR sub forma principiilor Data Protection By Design and By Default.
„Dacă acestea ar fi respectate de către dezvoltatorii de tehnologii AI, ar fi suficient pentru a elimina toate problemele de securitate”, spune Galoș.
De asemenea, Tudor Galoș povestește că un scandal legat de Copilot+ a fost faptul că datele erau salvate într-o bază de date neparolată, lucru ce ar fi permis unor hackeri ce ar fi accesat calculatorul să ia date extrem de sensibile. Între timp, Microsoft a revenit și a corectat design-ul, menționând că era vorba de o tehnologie nefinalizată.
„Însă tehnologia nefinalizată trecuse de etapa de design, iar acest lucru nu este permis conform articolului 25 din GDPR”, mai spune Galoș.
Pe lângă actualele probleme de securitate, o altă noutate pentru companiile care furnizează funcții AI este noua legislație europeană AI Act, care va intra în vigoare în această iarnă. În acest context, Tudor Galoș menționează că pentru funcțiile AI apar o serie de obligații inclusiv pentru companiile care le utilizează, nu doar pentru producătorii acestora.
„Așa cum sunt prezentate acum tehnologiile Copilot+, Gemini sau Apple Intelligence, ele nu sunt sisteme High-Risk, însă vor avea obligații legate de transparență și reducere a riscurilor asupra utilizatorilor. Ce aduce AI Act nou este partea de responsabilitate pe întregul lanț producător-importator-distribuitor-implementator”, afirmă Galoș.
Practic, dacă o companie instalează calculatoare cu Copilot+ sau cu Apple Intelligence, are obligații legate de riscurile pe care trebuie să le adreseze și legate de transparență: trebuie să poată să explice cum funcționează algoritmii astfel încât utilizatorii să înțeleagă ce riscuri există, explică Galoș.
Pentru utilizatorii finali, o posibilă soluție pentru a limita partajarea de informații personale este instalarea unor aplicații dedicate. Așa cum sunt în prezent cele care blochează reclamele pe site-uri sau browserele care evită partajarea pe date personale precum Brave sau DuckDuckGo.
De altfel, Tudor Galoș oferă și un exemplu: Adobe a trecut recent printr-un scandal după ce a încercat să forțeze prin intermediul termenilor și condițiilor acceptul utilizatorilor ca algoritmii Adobe să fie antrenați cu operele realizate de utilizatori. Între timp, Adobe a revenit asupra deciziei și a precizat că nu va folosi datele din lucrări nepublicate în antrenarea algoritmilor, dar asta s-a întâmplat doar după ce comunitatea a reacționat.
„În cazul unor tehnologii ce fac parte din sistemul de operare, singura soluție pe care o întrezăresc este blocarea comunicării cu AI-urile din cloud prin intermediul unor aplicații dedicate. Pericolul este real, datele personale valorează mai mult decât greutatea lor în aur”, mai spune Galoș.
Miza secundară: creșterea vânzărilor de laptopuri și telefoane
Toate aceste schimbări în modul în care vom folosi aplicații AI stocate pe dispozitiv apar inclusiv pentru a genera o creștere a vânzărilor de dispozitive electronice. Pentru că, la fel cum Intel a lansat în 2011 conceptul laptopurilor performante ultraportabile cunoscute generic drept ultrabook-uri, marile companii mizează acum pe AI pentru a influența vânzările.
În ultimii ani, diferențele tehnice de la o generație de produs la alta au devenit tot mai nesemnificative, pe măsură ce tehnologiile introduse în ultimii ani s-au maturizat. Implicit, acest lucru a determinat numeroși utilizatori să păstreze dispozitivele mai mult timp.
Practic, prin noua gamă de laptopuri Copilot+, Microsoft speră să determine utilizatorii să-și actualizeze mai repede laptopurile la noile generații, pentru a profita de instrumentele de Inteligență Artificială.
Între timp, Apple Intelligence va putea fi utilizat doar pe iPhone 15 Pro și versiunile sale ulterioare. Ideea din spate este, cel mai probabil, ca Apple să „forțeze” utilizatorii actuali de iPhone 15 sau modele mai vechi să facă upgrade la un nou iPhone. Și nu oricare, ci unul din gama superioară de preț.
Google încearcă la rândul său să integreze cât mai mult Gemini pe smartphone-urile echipate cu Android și oferă mai multe versiuni ale propriului sistem AI. Versiunea de bază se numește Gemini Nano și rulează local, pe dispozitiv, pentru început pe seria Pixel 8 lansată în mai 2024 și pe seria Galaxy S24 lansată de Samsung la începutul anului.
Pentru smartphone-uri, Google mizează inclusiv pe sprijinul unor parteneri precum Samsung și Oppo pentru dezvoltarea unor funcții AI suplimentare pentru sumarizări de texte sau înregistrări audio și pentru aplicarea unor filtre AI avansate în fotografiile realizate cu camera foto.
Funcțiile AI, din ce în ce mai greu de evitat
Pentru utilizatorii finali va deveni tot mai dificil să evite utilizarea unor funcții AI, pe măsură ce acestea încep să fie integrate treptat în sistemele de operare Windows, MacOS, iOS și Android.
Pe lângă unele avantaje practice, această strategie a marilor companii implică și numeroase controverse din punct de vedere al securității datelor personale, mai ales în contextul în care tehnologiile avansează într-un ritm despre care Tudor Galoș afirmă că îi ia prin surprindere inclusiv dezvoltatorii.
„Deseori, nici producătorii nu înțeleg de ce algoritmii iau anumite decizii: date irelevante, slab calitativ, procese de învățare superficiale etc. Monitorizarea continuă este extrem de importantă pentru a asigura transparența funcționării algoritmilor. Iar pentru a explica oamenilor cum funcționează aceștia, atât producătorii, cât și importatorii, distribuitorii și implementatorii trebuie să lucreze cu consultanți experimentați care înțeleg bine AI Act, pentru a prezenta lucrurile clar și simplu. Fără detalii tehnice, fără legaleză”.
La fel de important este ca și utilizatorii finali să se educe în privința modului în care folosesc aplicațiile AI, pentru a înțelege cât mai bine avantajele și dezavantajele acestora, de la utilitate până la protecția propriilor date.