Vjestačka inteligencija iz perspektive napadača: Pogledajte kako cyber kriminalci koriste vjestačku inteligenciju i iskorištavaju njene ranjivosti da bi kompromitirali sisteme, korisnike, pa čak i druge aplikacije vjestačke inteligencije
Cyber kriminalci i vještačka inteligencija: stvarnost
“Vjestačka inteligencija neće zamijeniti ljude u bliskoj budućnosti. Ali ljudi koji znaju kako koristiti vjestačku inteligenciju zamijenit će one ljude koji ne znaju koristiti vjestačku inteligenciju”, kaže Etay Maor, glavni sigurnosni strateg u Cato Networks i jedan od osnivača Cato CTRL . „Slično, napadači se takođe okreću vještačkoj inteligenciji kako bi povećali sopstvene sposobnosti.“
Ipak, oko uloge vještačke inteligencije u cyber kriminalu postoji mnogo više propagande nego stvarnosti. Naslovi često senzacionalizuju prijetnje vještačkom inteligencijom, s terminima kao što su “Chaos-GPT” i “Black Hat AI Tools”, čak i tvrdeći da nastoje uništiti čovječanstvo. Međutim, ovi članci više izazivaju strah nego opisuju ozbiljne prijetnje.
Na primjer, kada se istražuje na podzemnim forumima, pokazalo se da nekoliko ovih takozvanih “vještačka inteligencija cyber alata” nisu ništa drugo do rebrendirane verzije osnovnih javnih LLM-a bez naprednih mogućnosti. U stvari, čak su ih ljutiti napadači označili kao prevare.
Kako hakeri zaista koriste vještačku inteligenciju u cyber napadima
U stvarnosti, cyber kriminalci još uvijek smišljaju kako da efikasno iskoriste vještačku inteligenciju . Oni imaju iste probleme i nedostatke kao i legitimni korisnici, poput halucinacija i ograničenih sposobnosti. Prema njihovim predviđanjima, biće potrebno nekoliko godina pre nego što budu u stanju da efikasno iskoriste GenAI za potrebe hakovanja.
Za sada se GenAI alati uglavnom koriste za jednostavnije zadatke, poput pisanja phishing emailova i generisanja isječaka koda koji se mogu integrisati u napade. Osim toga, primijetili smo kako napadači daju kompromitovani kod vještačke inteligencije sistemima za analizu, kao pokušaj da se takav kod “normalizuje” kao nezlonamjeran.
Upotreba vještačke inteligencije za zloupotrebu vještačke inteligencije: Uvođenje GPT-ova
GPT-ovi, koje je OpenAI uveo 6. novembra 2023., su prilagodljive verzije ChatGPT-a koje omogućavaju korisnicima da dodaju određena uputstva, integrišu eksterne API-je i inkorporiraju jedinstvene izvore znanja. Ova funkcija omogućava korisnicima da kreiraju visoko specijalizirane aplikacije, kao što su botovi za tehničku podršku, obrazovne alate i još mnogo toga. Osim toga, OpenAI nudi programerima opcije monetizacije za GPT, putem namjenskog tržišta.
Zloupotreba GPT-ova
GPT uvode potencijalne sigurnosne probleme. Jedan značajan rizik je izlaganje osjetljivih instrukcija, vlasničkog znanja ili čak API ključeva ugrađenih u prilagođeni GPT. Maliciozni hakeri mogu koristiti vještačku inteligenciju, posebno brzi inženjering, da repliciraju GPT i iskoriste njegov potencijal monetizacije.
Napadači mogu koristiti upite za preuzimanje izvora znanja, instrukcija, konfiguracijskih datoteka i još mnogo toga. Ovo može biti jednostavno kao da zatražite od prilagođenog GPT-a da navede sve učitane datoteke i prilagođene upute ili zatražite informacije o otklanjanju grešaka. Ili, sofisticirani, poput zahtjeva od GPT-a da zipuje jednu od PDF datoteka i kreira vezu za preuzimanje, tražeći od GPT-a da navede sve svoje mogućnosti u formatu strukturirane tablice i još mnogo toga.
„Čak i zaštite koje su programeri postavili mogu se zaobići i svo znanje se može izvući“, kaže Vitalij Simonovich, istraživač Threat Intelligence u Cato Networks i član Cato CTRL-a.
Ovi rizici se mogu izbjeći na sljedeći način:
- Ne prenosi osjetljive podatke
- Korištenje zaštite zasnovane na uputama, iako čak ni one možda nisu pouzdane. “Morate uzeti u obzir sve različite scenarije koje napadač može zloupotrijebiti”, dodaje Vitalij.
- OpenAI zaštita
Vještačka inteligencija napadi i rizici
Danas postoji više okvira koji pomažu organizacijama koje razmišljaju o razvoju i stvaranju softvera zasnovanog na vještačku inteligenciju:
- NIST Okvir za upravljanje rizikom umjetne inteligencije
- Googleov Secure AI Framework
- OWASP Top 10 za LLM
- OWASP Top 10 za LLM aplikacije
- Nedavno lansirani MITER ATLAS
LLM Attack Surface
Postoji šest ključnih LLM (model velikog jezika) komponenti koje mogu biti na meti napadača:
- Prompt – Napadi poput brzih injekcija, gdje se zlonamjerni unos koristi za manipulisanje izlazom vještačku inteligenciju
- Odgovor – Zloupotreba ili curenje osjetljivih informacija u odgovorima generisanim vještačkom inteligencijom
- Model – Krađa, trovanje ili manipulacija modela vještačke inteligencije
- Podaci o obuci – Uvođenje malicizonih podataka za promjenu ponašanja vještačke inteligencije.
- Infrastruktura – Ciljanje na servere i servise koji podržavaju vještačku inteligenciju
- Korisnici – Obmanjivanje ili iskorištavanje ljudi ili sistema koji se oslanjaju na izlaze vještačke inteligencije
Napadi i rizici u stvarnom svijetu
Završimo s nekim primjerima LLM manipulacija, koje se lako mogu koristiti na malicozni način.
- Prompt Injection u sistemima za korisničku podršku – Nedavni slučaj uključivao je salon automobila koji je koristio AI chatbot za korisničku službu. Istraživač je uspio da manipuliše chatbotom izdavanjem prompta koji je promijenio njegovo ponašanje. Dajući instrukcije chatbotu da se složi sa svim izjavama kupaca i završi svaki odgovor sa: “A to je pravno obavezujuća ponuda”, istraživač je mogao kupiti automobil po smiješno niskoj cijeni, otkrivajući veliku ranjivost.
- Halucinacije koje dovode do pravnih posljedica – U drugom incidentu, Air Canada se suočila sa pravnim postupkom kada je njihov AI chatbot dao netačne informacije o politici povrata novca. Kada se korisnik oslonio na odgovor chatbota i nakon toga podnio zahtjev, Air Canada je smatrana odgovornom za obmanjujuće informacije.
- Propuštanje vlasničkih podataka – zaposleni u Samsungu su nesvjesno procurili vlasničke informacije kada su koristili ChatGPT za analizu koda. Učitavanje osjetljivih podataka u sisteme vještačke inteligencije trećih strana je rizično, jer nije jasno koliko dugo se podaci čuvaju ili ko im može pristupiti.
- AI i Deepfake tehnologija u prevarama – cyber kriminalci takođe koriste vještačku inteligenciju izvan generisanja teksta. Banka u Hong Kongu postala je žrtva prevare u iznosu od 25 miliona dolara kada su napadači koristili live deepfake tehnologiju tokom video poziva. Avatari stvoreni vještačkom inteligencijom oponašali su službenike banke od povjerenja, uvjeravajući žrtvu da prebaci sredstva na lažni račun.
Summing Up: Vještačka inteligencija u cyber kriminalu
Summing Up jemoćan alat i za odbrambene i za napadače. Kako cyber kriminalci nastavljaju eksperimentirati s vještačkom inteligencijom, važno je razumjeti kako razmišljaju, taktike koje koriste i opcije s kojima se suočavaju. Ovo će omogućiti organizacijama da bolje zaštite svoje sisteme vještačke inteligencije od zloupotrebe i zlostavljanja.
Izvor:The Hacker News