Site icon Kiber.ba

ChatGPT i zaštita podataka: Slabe tačke i kako ih sigurnosni timovi mogu kontrolisati

U kratkom vremenu od svog nastanka, ChatGPT i druge generativne AI platforme su s pravom stekle reputaciju vrhunskih pojačivača produktivnosti. Međutim, ista tehnologija koja omogućava brzu proizvodnju visokokvalitetnog teksta na zahtjev, može u isto vrijeme otkriti osjetljive korporativne podatke. Nedavni incident, u kojem su Samsung softverski inženjeri zalijepili vlasnički kod u ChatGPT, jasno pokazuje da ovaj alat lako može postati potencijalni kanal za curenje podataka. Ova ranjivost predstavlja zahtjevan izazov za bezbjednosne službenike, budući da nijedan od postojećih alata za zaštitu podataka ne može osigurati da osjetljivi podaci nisu izloženi ChatGPT-u. U ovom članku ćemo detaljno istražiti ovaj sigurnosni izazov i pokazati kako sigurnosna rešenja pretraživača mogu pružiti rešenje. Sve to istovremeno omogućavajući organizacijama da u potpunosti ostvare potencijal produktivnosti ChatGPT-a i bez kompromitovanja bezbjednosti podataka.

Mrtva tačka zaštite podataka ChatGPT-a: Kako upravljati umetanjem teksta u pretraživač?

Kad god zaposleni zalijepi ili otkuca tekst u ChatGPT, tekst više ne kontrolišu korporativni alati i politike za zaštitu podataka. Nije važno da li je tekst kopiran iz tradicionalne datoteke podataka, online dokumenta ili drugog izvora. To je, zapravo, problem. Rešenja za sprečavanje curenja podataka (DLP), od on-prem agenata do CASB, sve je orijentisano na fajlove. Primjenjuju pravila na datoteke na osnovu njihovog sadržaja, dok istovremeno sprečavaju radnje kao što su modifikovanje, preuzimanje, dijeljenje i još mnogo toga. Međutim, ova mogućnost je od male koristi za zaštitu podataka ChatGPT-a. Nema datoteka uključenih u ChatGPT. Umjesto toga, upotreba uključuje lijepljenje kopiranih isječaka teksta ili kucanje direktno na web stranicu, što je izvan upravljanja i kontrole bilo kojeg postojećeg DLP proizvoda.

Kako sigurnosna rešenja pretraživača sprečavaju nesigurno korištenje podataka u ChatGPT-u?

LayerX je lansirao svoju sigurnosnu platformu pretraživača za kontinuirano praćenje, analizu rizika i zaštitu sesija pretraživača u realnom vremenu. Isporučen kao proširenje pretraživača, LayerX ima preciznu vidljivost svakog događaja koji se odvija u okviru sesije. Ovo omogućava LayerX-u da otkrije rizično ponašanje i konfiguriše politike kako bi se spriječilo odvijanje unaprijed definisanih radnji.

U kontekstu zaštite osjetljivih podataka od otpremanja u ChatGPT, LayerX koristi ovu vidljivost da izdvoji pokušaje umetanja teksta, kao što su ‘paste’ i ‘type’, unutar ChatGPT kartice. Ako sadržaj teksta u događaju ‘paste’ krši pravila zaštite korporativnih podataka, LayerX će u potpunosti spriječiti radnju.

Da bi omogućili ovu mogućnost, sigurnosni timovi koji koriste LayerX trebali bi definisati fraze ili regularne izraze koje žele zaštititi od izlaganja. Zatim, treba da kreiraju LayerX politiku koja se pokreće kad god postoji podudaranje sa ovim nizovima.

Osim toga, organizacije koje žele spriječiti svoje zaposlenike da u potpunosti koriste ChatGPT, mogu koristiti LayerX da blokiraju pristup ChatGPT web stranici ili bilo kojim drugim mrežnim generatorima teksta baziranim na AI, uključujući proširenja pretraživača slična ChatGPT-u.

Korištenje LayerX-ove sigurnosne platforme pretraživača za postizanje sveobuhvatne SaaS zaštite

Razlika koja čini LayerX jedinim rešenjem koje može efikasno da reši jaz u zaštiti podataka ChatGPT-a je njegovo postavljanje u sam pretraživač, sa vidljivošću u realnom vremenu i sprovođenjem politike u stvarnoj sesiji pretraživača. Ovaj pristup takođe ga čini idealnim rešenjem za zaštitu od bilo koje druge kibernetičke pretnje koja cilja na podatke ili aktivnosti korisnika u pretraživaču, kao što je slučaj sa SaaS aplikacijama.

Korisnici komuniciraju sa SaaS aplikacijama putem svojih pretraživača. Ovo olakšava LayerX-u da zaštiti i podatke unutar ovih aplikacija, kao i same aplikacije. Ovo se postiže provođenjem sljedećih vrsta pravila o aktivnostima korisnika tokom web sesija:

Politike zaštite podataka – Povrh standardne zaštite orijentisane na fajlove, sprečavanje kopiranja/deljenja/preuzimanja/itd., LayerX pruža istu granularnu zaštitu kao i za ChatGPT. Nakon što je organizacija definisala za koje unose zabranjuje lijepljenje, iste politike mogu se proširiti kako bi se spriječilo izlaganje ovih podataka bilo kojoj web ili SaaS lokaciji.

Ublažavanje kompromitovanja naloga – LayerX prati aktivnosti svakog korisnika na SaaS aplikacijama organizacije. Platforma će otkriti bilo kakvo anomalno ponašanje ili interakciju podataka koja ukazuje da je korisnički račun kompromitovan. LayerX politike će tada pokrenuti ili prekid sesije ili onemogućiti bilo koju sposobnost interakcije podataka za korisnika u aplikaciji.

Izvor: The Hacker News

Exit mobile version