Koliko ste sigurni da možete prepoznati glas koji je kloniran pomoću vještačke inteligencije? Ako mislite da ste potpuno sigurni, mogli biste biti u zabludi.
Zašto je ovo sve veća prijetnja
Uz samo tri sekunde audio snimka, kriminalci danas mogu klonirati nečiji glas – a takav snimak se vrlo lako može dobiti iz videa koji su podijeljeni na internetu ili društvenim mrežama.
Jedna Amerikanka je zamalo postala žrtva prevare s lažnom otmicom, gdje je klonirani glas uvjerljivo imitirao plač njene kćerke za pomoć. Ovaj slučaj pokazuje koliko su kriminalci spremni da idu daleko.
Prevare sa kloniranim glasovima vještačke inteligencije često su bile usmjerene na starije osobe, imitirajući članove porodice ili osobe od povjerenja. Međutim, sada ove prevare predstavljaju prijetnju i za firme.
„Prevare s glasovima koje pokreće AI iskorištavaju ranjivosti u poslovanju poput slabih sigurnosnih protokola, nedostatka metoda autentifikacije i neadekvatne obuke zaposlenih“, rekao je Mike Lemberger, viši potpredsjednik i glavni službenik za rizik kompanije Visa za Sjevernu Ameriku.
Finansijski utjecaj otmice glasa pomoću AI-a
Zaposlenik koji ima pristup finansijama firme može postati žrtva ako primi poziv za koji vjeruje da dolazi od direktora, posebno jer ovakve prevare stvaraju osjećaj hitnosti i potrebe za brzom reakcijom.
Ako je napad uspješan, može rezultirati velikim finansijskim gubicima i gubitkom povjerenja klijenata, investitora i partnera, što može dugoročno naštetiti poslovanju. Centar za finansijske usluge Deloitte-a predviđa da bi GenAI mogao omogućiti da prevarantski gubici u Sjedinjenim Američkim Državama dostignu 40 milijardi dolara do 2027. godine.
Italijanska policija je nedavno zamrznula gotovo milion eura povezanih s prevarom koja je koristila glasovne deepfake-ove generisane pomoću AI-a. Prevaranti su se predstavljali kao ministar odbrane Italije, tražeći novac od najbogatijih ljudi u zemlji za oslobađanje otetih novinara.
Napredak AI-a nadmašuje glasovnu biometriju
Iako praktična, glasovna biometrija kao metoda autentifikacije korisnika u firmama i industrijama pokazuje nedostatke s napretkom AI-a, naročito u finansijskom sektoru. Dok se ove industrije oslanjaju na ovu tehnologiju za verifikaciju klijenata, posebno u call centrima, to ih istovremeno čini ranjivijima.
Kako bi ostali korak ispred, firme moraju integrisati višefaktorsku autentifikaciju (MFA) i AI-pokretanu detekciju prevara uz glasovnu autentifikaciju. Bez ovih dodatnih slojeva zaštite, sama glasovna biometrija neće biti dovoljna protiv rasta GenAI tehnologije.
„Vidjet ćemo phishing emailove koji su uvjerljiviji i opasniji nego ikad prije zahvaljujući sposobnosti AI-a da imitira ljude. Ako se to kombinuje s multimodalnim AI modelima koji mogu kreirati deepfake audio i video, nije nemoguće da ćemo uskoro trebati dvofaktorsku provjeru za svaku virtualnu interakciju s drugom osobom“, istakao je Pukar Hamal, izvršni direktor kompanije SecurityPal.
Kako se zaštititi od otmice glasa pomoću AI-a
Nadogradite glasovnu autentifikaciju: Osnovni glasovni sistemi mogu biti prevareni pomoću AI-a jer se često oslanjaju na jednu karakteristiku glasa. Koristite tehnologiju koja provjerava više aspekata glasa, poput tona i ritma. Takvi sistemi su teži za prevariti.
Dodajte bihevioralnu biometriju: Kombinujte prepoznavanje glasa s analizom ponašanja, koja proučava govorne obrasce poput pauza, promjena tona i stresa. Ove suptilne karakteristike je teško oponašati pomoću AI-a, što olakšava prepoznavanje lažnih ili manipulisanih glasova.
Edukacija zaposlenih: Obučite svoje osoblje, naročito ključne osobe poput rukovodilaca, da prepoznaju socijalne inženjering taktike koje koristi AI. Neka shvate da prevaranti mogu koristiti AI za kopiranje glasova i manipulisanje ljudima da nešto učine. Ohrabrite ih da preispitaju svake neobične zahtjeve, naročito one koji uključuju novac ili osjetljive informacije.
Ograničite dijeljenje ličnih informacija na internetu: Ako je moguće, ograničite količinu ličnih informacija koje se dijele online, uključujući glasovne snimke. Kriminalci mogu koristiti ove izvore da kloniraju glasove i sprovode ciljane prevare.
Izvor:help Net Security