Odbrana od Deepfake napada u eri vještačke inteligencije

Cyber okruženje doživljava radikalne promjene uslijed pojave generativne AI. Napadači sada koriste velike jezičke modele (LLM-ove) kako bi oponašali pouzdane osobe i automatizovali socijalno inženjerstvo na velikim razmjerama.

U nastavku je pregled trenutnog stanja ovih napada, šta ih pokreće i kako ih spriječiti, a ne samo otkriti.

Najuticajnija osoba na pozivu možda nije stvarna

Najnoviji izvještaji o prijetnjama ukazuju na sve veću sofisticiranost i učestalost napada vođenih AI-jem:

  • Naglo povećanje glasovnog phishing: Prema CrowdStrike Global Threat Report 2025, zabilježen je porast od 442% u glasovnim phishing (vishing) napadima između prve i druge polovine 2024. godine, potaknut AI-generisanim phishing i lažnim predstavljanjem.

  • Dominacija socijalnog inženjeringa: Verizon Data Breach Investigations Report 2025 navodi da socijalni inženjering ostaje vodeći uzrok bezbjednosnih incidenata, pri čemu su phishing i lažno predstavljanje glavni faktori.

  • Operacije sa deepfake identitetima iz Sjeverne Koreje: Identifikovani su napadači koji koriste deepfake tehnologiju kako bi kreirali sintetičke identitete za online intervjue i tako pokušali da dobiju posao na daljinu i infiltriraju se u organizacije.

U ovoj novoj eri, povjerenje se ne može podrazumijevati niti samo detektovati — ono mora biti dokazivo, u realnom vremenu.

Zašto ovaj problem sve više raste

Tri faktora se spajaju i čine AI lažno predstavljanje ozbiljnom prijetnjom:

  • AI čini obmanu jeftinom i skalabilnom: Sa otvorenim alatima za glas i video, napadači mogu oponašati bilo koga uz samo nekoliko minuta referentnog materijala.

  • Virtualna saradnja otkriva praznine u povjerenju: Platforme poput Zoom-a, Teams-a i Slack-a pretpostavljaju da je osoba iza ekrana zaista ona za koju se predstavlja. Napadači iskorištavaju tu pretpostavku.

  • Odbrana se oslanja na vjerovatnoću, a ne na dokaz: Detekcioni alati pokušavaju da „pogode“ da li je neko stvaran pomoću analiza lica i ponašanja – što nije dovoljno u rizičnim okruženjima.

A čak ni alati za krajnje tačke niti obuka korisnika ne mogu dati odgovor u realnom vremenu na ključno pitanje:
„Mogu li vjerovati osobi s kojom trenutno razgovaram?“

AI detekcija nije dovoljna

Tradicionalna odbrana se oslanja na detekciju: obuka korisnika da primijete sumnjivo ponašanje ili analiza sadržaja putem AI-ja.
Ali deepfake postaju predobri, prebrzo. Ne možete se boriti protiv AI obmane alatima koji rade na osnovu vjerovatnoće.

Prava prevencija zahtijeva drugačiji temelj – temelj koji se zasniva na dokazivom povjerenju, a ne na pretpostavci.

To podrazumijeva:

  • Verifikaciju identiteta: Samo verifikovani i ovlašteni korisnici mogu pristupiti osjetljivim sastancima ili chatovima, na osnovu kriptografskih kredencijala, a ne lozinki ili kodova.

  • Provjere integriteta uređaja: Ako je uređaj korisnika kompromitovan, jailbreakovan ili neusklađen sa sigurnosnim politikama, postaje tačka ulaza za napadače — čak i ako je identitet korisnika validan. Takvi uređaji moraju biti blokirani dok se ne riješe problemi.

  • Vidljivi indikatori povjerenja: Svi učesnici moraju vidjeti dokaz da je osoba s druge strane zaista ona za koju se predstavlja i da koristi siguran uređaj. Time se uklanja pritisak sa krajnjih korisnika da sami procjenjuju rizik.

Prevencija znači: učiniti lažno predstavljanje ne samo teškim, već nemogućim

Samo tako možete spriječiti deepfake napade prije nego što se uključe u visoko-rizične razgovore poput:

  • sastanaka upravnog odbora
  • finansijskih transakcija
  • komunikacije sa dobavljačima
Pristup zasnovan na detekcijiPristup zasnovan na prevenciji
Oznaka anomalija nakon što se deseBlokiranje neovlaštenih korisnika prije pristupa
Oslanjanje na heuristiku i nagađanjaKorištenje kriptografskog dokaza identiteta
Potreba za procjenom od strane korisnikaVidljivi i potvrđeni indikatori povjerenja

Uklonite Deepfake prijetnje iz svojih poziva

RealityCheck kompanije Beyond Identity razvijen je kako bi zatvorio prazninu povjerenja u alatima za saradnju.
Omogućava svakom učesniku vidljivu, potvrđenu identifikacijsku oznaku baziranu na kriptografskoj autentifikaciji uređaja i kontinuiranim sigurnosnim provjerama.

Dostupan za Zoom i Microsoft Teams (video i chat), RealityCheck:

  • Potvrđuje da je svaki učesnik stvaran i ovlašten
  • Validira usklađenost uređaja u realnom vremenu, čak i kod neupravljanih uređaja
  • Prikazuje vizuelnu značku verifikacije kako bi svi mogli vidjeti ko je zaista na pozivu

Zaključak:
U eri AI prevare, povjerenje se više ne smije pretpostavljati – mora se dokazati. Tehnologije kao što je RealityCheck omogućavaju upravo to – štiteći kritične razgovore od lažnih učesnika i AI manipulacija.

Izvor:The Hacker News

Recent Articles

spot_img

Related Stories