Site icon Kiber.ba

Diferencijalna privatnost u vještačkoj inteligenciji: rešenje koje stvara više problema za programere?

Diferencijalna privatnost u vještačkoj inteligenciji: rešenje koje stvara više problema za programere?-Kiber.ba

Diferencijalna privatnost u vještačkoj inteligenciji: rešenje koje stvara više problema za programere?-Kiber.ba

U nastojanju za sigurnim modelima vještačke inteligencije, mnoge organizacije su se okrenule različitoj privatnosti. Ali da li je upravo ovaj alat namijenjen zaštiti korisničkih podataka koji sprečava inovacije?

Programeri se suočavaju sa teškim izborom: balansirati privatnost podataka ili dati prioritet preciznim rezultatima. Diferencijalna privatnost može osigurati podatke, ali to često dolazi po cijenu tačnosti – neprihvatljiv kompromis za industrije poput zdravstva i finansija, gdje čak i male greške mogu imati velike posljedice.

Pronalaženje ravnoteže

Diferencijalna privatnost štiti lične podatke dodavanjem nasumične buke, što otežava identifikaciju pojedinaca, a istovremeno čuva skup podataka.

Osnovni koncept se vrti oko parametra, epsilon (ε), koji djeluje kao gumb za privatnost. Niža vrijednost epsilon rezultira jačom privatnošću, ali dodaje više buke, što zauzvrat smanjuje korisnost podataka.

Programer u velikoj fintech kompaniji nedavno je izrazio frustraciju zbog različitog efekta privatnosti na njihov sistem za otkrivanje prevara, koji treba da otkrije sitne anomalije u podacima o transakcijama. „Kada se doda šum kako bi se zaštitili korisnički podaci“, objasnili su, „ti suptilni signali nestaju, čineći naš model daleko manje efikasnim“. Otkrivanje prevara napreduje uočavanjem sitnih odstupanja, a diferencijalna privatnost lako maskira ove kritične detalje.

U zdravstvu su ulozi još veći. Na primjer, modeli vještačka inteligencije koji se koriste za otkrivanje karcinoma dojke oslanjaju se na fine uzorke na medicinskim slikama. Dodavanje buke radi zaštite privatnosti može zamagliti ove obrasce, što potencijalno može dovesti do pogrešnih dijagnoza. Ovo nije samo tehnička neugodnost – ona može ugroziti živote.

Odličan primjer ograničenja diferencijalne privatnosti je Popis stanovništva SAD-a 2020. Po prvi put, Biro za popis stanovništva je koristio različitu privatnost da anonimizira lične podatke. Iako je cilj bio ojačati zaštitu privatnosti, rezultati su pokazali neželjene posljedice: buka ubrizgana u podatke manjih zajednica iskrivila je demografske informacije, što je dovelo do problema kao što su škole koje primaju pogrešna sredstva i javne usluge koje nisu usklađene sa stvarnim potrebama zajednice.

Ova dilema je poznata programerima iz različitih industrija. Bilo da se radi o vladi, zdravstvu ili finansijama, oni često moraju da se pridržavaju zakona o privatnosti, a da pritom održavaju točnost podataka. Kada se ravnoteža pomakne predaleko ka privatnosti, to može stvoriti efekte mreškanja koji su daleko iznad performansi softvera.

Preispitivanje prikupljanja podataka

Ključno pitanje u debati o privatnosti: da li zaista moramo prikupiti toliko podataka? Problemi s privatnošću često nastaju zbog prekomjernog prikupljanja, a ne samo zbog načina na koji postupamo s podacima. Uvjerenje da je „više podataka jednako boljim modelima“ tjera organizacije da gomilaju informacije, iako većina njih ostaje neiskorištena.

Na primjer, jednom sam se konsultovao sa startupom koji je sakupio terabajte podataka korisnika bez jasne svrhe. Kada su ih pitali zašto, odgovorili su: „Možda će nam zatrebati jednog dana. Ovo povećava rizike u vezi s privatnošću i opterećuje programere velikim skupovima podataka koji degradiraju performanse. Što je skup podataka veći, potrebno je više buke da bi se anonimizirao – dodatno umanjujući preciznost modela.

Pametnije strategije prikupljanja podataka mogu pomoći u rješavanju oba problema – zabrinutosti u vezi s privatnošću i preciznošću modela. Fokusirajući se samo na bitne podatke, kompanije mogu smanjiti količinu informacija kojima je potrebna anonimizacija, dajući programerima čišće i preciznije skupove podataka.

Skriveni troškovi za programere

Vrijeme je jedan od najvrednijih resursa programera, a diferencijalna privatnost često dovodi do neefikasnosti. Vrijeme utrošeno na kompenziranje preciznosti izgubljene zbog buke bi se bolje moglo potrošiti na izgradnju novih funkcija ili usavršavanje modela. Jedna kompanija za e-trgovinu to je naučila na teži način kada je dodala različitu privatnost svom mehanizmu za preporuke. Buka dizajnirana za zaštitu korisničkih podataka izazvala je nevažne prijedloge proizvoda, kao što je nuđenje kuhinjskih uređaja kupcima koji kupuju odjeću.

Ovo je frustriralo korisnike i odložilo izdavanje novih funkcija, stavljajući kompaniju u nepovoljan položaj u konkurenciji u industriji u kojoj je brzina ključna.

Izazovi i ograničenja

Jedan od najznačajnijih izazova s diferencijalnom privatnošću je pronalaženje prave ravnoteže između privatnosti i korisnosti podataka. Što se više primjenjuje privatnost, podaci postaju manje korisni. Ovo je posebno problematično za modele vještačke inteligencije koji se oslanjaju na precizne obrasce u velikim skupovima podataka, gdje čak i male nepreciznosti mogu poremetiti ključne ishode. Programeri, posebno oni u sektorima koji zahtijevaju visoku preciznost, stalno su izražavali zabrinutost zbog kompromisa na koje ih primorava razlika u privatnosti između sigurnosti i učinka.

Istražite pametnija rješenja za privatnost

Ako diferencijalna privatnost nije najbolje rješenje za svaku situaciju, koje su alternative? Dvije mogućnosti koje obećavaju su udruženo učenje i pametnije prikupljanje podataka.

Federalno učenje trenira modele vještačke inteligencije na decentralizovanim uređajima, poput pametnih telefona, bez dijeljenja sirovih podataka. Umjesto toga, samo agregirana, anonimna ažuriranja se šalju nazad, čuvajući privatnost uz zadržavanje preciznosti modela. Kompanije poput Googlea i Applea koriste ovu tehniku za usluge kao što su prediktivni tekst, poboljšanje modela bez izlaganja osjetljivih podataka.

Federativno učenje (FL) poboljšava privatnost podataka omogućavajući da podaci ostanu lokalizovani na uređajima na kojima se generišu. Ovaj pristup smanjuje izlaganje osjetljivih informacija tokom prijenosa. Osim toga, minimiziranjem centralizirane pohrane, FL smanjuje rizik od velikih proboja podataka.

FL takođe ublažava centralizovane rizike od napada distribucijom procesa obuke na više klijenata. Čak i ako je jedan uređaj ugrožen, napadač će imati pristup samo malom dijelu podataka.

Pametnije prikupljanje podataka se fokusira na prikupljanje samo najrelevantnijih informacija. Zdravstvena kompanija sa kojom sam radio prešla je sa prikupljanja ogromne količine podataka o pacijentima na fokusiranje samo na ključne tačke podataka koje su potrebne za poboljšanje dijagnostičkih modela. Radeći sa manjim, ciljanim skupovima podataka, zadržali su visoku preciznost bez oslanjanja na diferencijalnu privatnost.

Fleksibilni propisi za pametniju privatnost

Propisi o privatnosti poput GDPR-a i CCPA-a natjerali su mnoge kompanije da usvoje različitu privatnost prema zadanim postavkama. Ali izazovi privatnosti nisu jednoobrazni. Kako se vještačka inteligencija razvija, tako se i zakoni o privatnosti moraju prilagoditi.

Konsultant za etiku vještačke inteligencije sa kojom sam razgovarao je sažeo: „Vlade moraju prepoznati da se vještačka inteligencija razvija. Diferencijalna privatnost se bavi starijim problemima, ali vještačka inteligencija je brzo napredovala.” Da bi programeri usvojili metode privatnosti koje odgovaraju njihovim modelima, propisi moraju ponuditi veću fleksibilnost, omogućavajući pristupe koji štite privatnost bez žrtvovanja performansi.

Ponovno promišljanje privatnosti u razvoju vještačke inteligencije

Kako vještačka inteligencija nastavlja transformirati industrije, jasno je da organizacije moraju ponovno promisliti o svom pristupu privatnosti. Diferencijalna privatnost ima svoje mjesto, ali je daleko od jedinstvenog rješenja kao što se često prikazuje.

Usvajanjem alternativa kao što su udruženo učenje i pametnije prikupljanje podataka, programeri mogu izgraditi precizne modele vještačka inteligencije koji čuvaju privatnost bez žrtvovanja inovacija. Umjesto prikupljanja ogromnih količina podataka, organizacije bi se trebale usredotočiti na prikupljanje samo onoga što je neophodno. Pravo pitanje možda nije kako zaštititi podatke koje prikupljamo – već treba li uopće prikupiti toliko podataka.

Izvor:Help Net Security

Exit mobile version