More

    OpenAI blokira 20 globalnih malicioznih kampanja koje koriste vjestačku inteligenciju za cyber kriminal i dezinformacije

    OpenAI je u srijedu najavio da je poremetio više od 20 operacija i obmanjujućih mreža širom svijeta koje su pokušale koristiti njegovu platformu u zlonamjerne svrhe od početka godine.

    Ova aktivnost je uključivala otklanjanje grešaka u maliciozni softveru, pisanje teskta za web stranice, generisanje biografija za račune društvenih mreža kreiranje slika profila generisanih vjestačkom inteligencijom za lažne naloge na X.

    “Hakeri nastavljaju da se razvijaju i eksperimentišu s našim modelima, ali nismo vidjeli dokaze da bi to dovelo do značajnih otkrića u njihovoj sposobnosti da kreiraju značajno novi maliciozni softver ili grade virusnu publiku”, rekla je kompanija za vjestačku inteligenciju (AI) .

    Takođe se navodi da je poremetila aktivnost koja je generisala sadržaj društvenih mreža vezan za izbore u SAD-u, Ruandi i u manjoj mjeri u Indiji i Evropskoj uniji, te da nijedna od ovih mreža nije privukla viralni angažman ili trajnu publiku.

    Ovo uključuje napore koje je preduzela izraelska komercijalna kompanija pod nazivom STOIC (takođe nazvana Zero Zeno) koja je generisala komentare na društvenim mrežama o indijskim izborima, kao što su ranije otkrili Meta i OpenAI ranije u maju.

    Neke od cyber operacija koje ističe OpenAI su sljedeće –

    • SweetSpecter , osumnjičeni protivnik sa sjedištem u Kini koji je koristio svoje AI modele za LLM-informirano izviđanje, istraživanje ranjivosti, podršku za skriptiranje, izbjegavanje otkrivanja anomalija i razvoj. Takođe je primijećeno izvođenje neuspješnih pokušaja krađe identiteta protiv zaposlenika OpenAI-a da isporuče SugarGh0st RAT.

    • Cyber ​​Av3ngers , grupa povezana s Iranskom Islamskom revolucionarnom gardom (IRGC) koja je koristila svoje AI modele za istraživanje programabilnih logičkih kontrolera.

    • Storm-0817, iranski haker koji je koristio svoje AI modele za otklanjanje grešaka u Android malveru koji je sposoban prikupljati osjetljive informacije, alat za grebanje Instagram profila putem Selena i prevođenje LinkedIn profila na perzijski.

    Na drugom mjestu, kompanija je rekla da je poduzela korake za blokiranje nekoliko grupa naloga, uključujući dva povezana s operacijama utjecaja pod kodnim imenom A2Z i Stop News, koje su generisale sadržaj na engleskom i francuskom jeziku za naknadno objavljivanje na brojnim web stranicama i nalozima društvenih medija na različitim platforme.

    “[Stop News] je bio neobično plodan u korištenju slika”, rekli su istraživači Ben Nimmo i Michael Flossman. “Mnogi od njegovih web tekstova i tvitova bili su popraćeni slikama generisanim pomoću DALL·E. Ove slike su često bile u stilu crtanog filma i koristile su svijetle palete boja ili dramatične tonove kako bi privukle pažnju.”

    Utvrđeno je da dvije druge mreže koje su identificirali OpenAI Bet Bot i Corrupt Comment koriste OpenAI API za generisanje razgovora s korisnicima na X-u i slanje im linkova na stranice za kockanje, kao i za proizvodnju komentara koji su potom objavljeni na X-u.

    Ovo otkrivanje dolazi skoro dva mjeseca nakon što je OpenAI zabranio skup naloga povezanih s iranskom tajnom operacijom utjecaja pod nazivom Storm-2035 koja je koristila ChatGPT za generisanje sadržaja koji je, između ostalog, fokusiran na predstojeće američke predsjedničke izbore.

    Hakeri najčešće su koristili naše modele za obavljanje zadataka u specifičnoj, srednjoj fazi aktivnosti — nakon što su stekli osnovne alate kao što su pristup internetu, adrese e-pošte i nalozi na društvenim mrežama, ali prije nego što su implementirali ‘gotove’ proizvode kao što su društveni mreža objave ili maliciozni softver na internetu putem niza kanala distribucije”, napisali su Nimmo i Flossman.

    Bez obzira na zloupotrebu generativne AI za prevare i operacije dubokog lažiranja, kompanija za cyber sigurnost Sophos, u izvještaju objavljenom prošle sedmice, navela je da bi tehnologija takođe mogla biti zloupotrebljena za širenje prilagođenih dezinformacija putem mikrociljanih e-mailova.

    To podrazumijeva zloupotrebu AI modela za izmišljanje web stranica političkih kampanja, osoba koje su generisane vještačkom inteligencijom u cijelom političkom spektru i poruka e-pošte koje ih posebno ciljaju na osnovu tačaka kampanje, čime se omogućava novi nivo automatizacije koji omogućava širenje dezinformacija u velikim razmjerima. .

    “To znači da korisnik može generisati bilo što, od benignog materijala kampanje do namjernih dezinformacija i malicizonih prijetnji uz manju rekonfiguraciju”, rekli su istraživači Ben Gelman i Adarsh ​​Kyadige .

    “Moguće je povezati bilo koji pravi politički pokret ili kandidata s podrškom bilo kojoj politici, čak i ako se ne slažu. Ovakve namjerne dezinformacije mogu natjerati ljude da se slože s kandidatom kojeg ne podržavaju ili se ne slažu s onim za koji su mislili da im se sviđa. “

    Izvor:The Hacker News

    Recent Articles

    spot_img

    Related Stories

    OSTAVI ODGOVOR

    Molimo unesite komentar!
    Ovdje unesite svoje ime