Italijansko tijelo za zaštitu podataka (Garante per la protezione dei dati personali) privremeno je obustavilo korištenje usluge umjetne inteligencije (AI) ChatGPT u zemlji.
Zaštitnik privatnosti otvorio je istragu OpenAI-evog chat bota i blokirao korištenje usluge zbog navoda da nije u skladu s italijanskim pravilima prikupljanja podataka. Garante je takođe tvrdio da OpenAI nije poduzeo dovoljne mjere kako bi spriječio osobe mlađe od 13 godina da koriste ChatGPT.
“Primijetili smo nedostatak jasnog obavještenja korisnicima i svim zainteresiranim stranama čije podatke prikuplja OpenAI, ali prije svega, nepostojanje zakonske osnove koja opravdava prikupljanje i masovno pohranjivanje ličnih podataka za ‘trening’ algoritama na kojim je platforma zasnovana” stoji u saopštenju.
Prema Timothy Morrisu, glavnom sigurnosnom savjetniku u Tanium-u, čini se da je srce problema u Italiji aspekt anonimnosti ChatGPT-a.
“Svodi se na analizu troškova i koristi. U većini slučajeva, korist nove tehnologije nadmašuje loše, ali ChatGPT je nešto drugačiji” rekao je Morris. “Njegova sposobnost da obradi nevjerovatne količine podataka i stvori razumljiv sadržaj koji blisko oponaša ljudsko ponašanje je neosporna promjena u igri. Potencijalno bi moglo postojati više propisa koji bi omogućili nadzor industrije.”
Nadalje, Garante se žalio na netačno rukovanje korisničkim podacima iz ChatGPT-a, što je rezultat ograničenja usluge u preciznoj obradi informacija.
“Lako je zaboraviti da se ChatGPT široko koristi tek nekoliko sedmica, a većina korisnika neće prestati razmatrati implikacije privatnosti njihovih podataka koji se koriste za obuku algoritama koji su u osnovi proizvoda” komentarisao je Edward Machin, viši pravnik sa Ropes & Grey LLP.
“Iako su možda voljni prihvatiti tu trgovinu, ovdje se navodi da se korisnicima ne daju informacije koje bi im omogućile da donesu informisanu odluku. Što je još problematičnije možda ne postoji zakonska osnova za obradu njihovih podataka.”
U svom saopštenju, italijanski čuvar privatnosti takođe je spomenuo kršenje podataka koje je uticalo na ChatGPT ranije ovog mjeseca.
„AI i veliki jezički modeli kao što je ChatGPT imaju ogroman potencijal da se koriste za dobro u polju kibernetičke bezbjednosti , kao i za zlo. Ali za sada, zloupotreba ChatGPT-a za phishing i napade će vjerovatno biti usmjerena na poboljšanje sposobnosti postojećih kibernetičkih kriminalaca više nego na aktiviranje novih legija napadača” rekao je izvršni direktor Hoxhunt-a, Mika Aalto.
“Sajber kriminal je industrija organizovanog kriminala vrijedna više milijardi dolara, a ChatGPT će se koristiti da pomogne pametnim kriminalcima da postanu pametniji, a glupim kriminalcima da budu efikasniji sa svojim phishing napadima.”
OpenAI ima rok do 19. aprila da odgovori Upravi za zaštitu podataka. Ako to ne učini, može dobiti kaznu do 20 miliona eura ili 4% svog godišnjeg prometa.
Izvor: Infosecurity Magazine