More

    Odbrana od Deepfake napada u eri vještačke inteligencije

    Cyber okruženje doživljava radikalne promjene uslijed pojave generativne AI. Napadači sada koriste velike jezičke modele (LLM-ove) kako bi oponašali pouzdane osobe i automatizovali socijalno inženjerstvo na velikim razmjerama.

    U nastavku je pregled trenutnog stanja ovih napada, šta ih pokreće i kako ih spriječiti, a ne samo otkriti.

    Najuticajnija osoba na pozivu možda nije stvarna

    Najnoviji izvještaji o prijetnjama ukazuju na sve veću sofisticiranost i učestalost napada vođenih AI-jem:

    • Naglo povećanje glasovnog phishing: Prema CrowdStrike Global Threat Report 2025, zabilježen je porast od 442% u glasovnim phishing (vishing) napadima između prve i druge polovine 2024. godine, potaknut AI-generisanim phishing i lažnim predstavljanjem.

    • Dominacija socijalnog inženjeringa: Verizon Data Breach Investigations Report 2025 navodi da socijalni inženjering ostaje vodeći uzrok bezbjednosnih incidenata, pri čemu su phishing i lažno predstavljanje glavni faktori.

    • Operacije sa deepfake identitetima iz Sjeverne Koreje: Identifikovani su napadači koji koriste deepfake tehnologiju kako bi kreirali sintetičke identitete za online intervjue i tako pokušali da dobiju posao na daljinu i infiltriraju se u organizacije.

    U ovoj novoj eri, povjerenje se ne može podrazumijevati niti samo detektovati — ono mora biti dokazivo, u realnom vremenu.

    Zašto ovaj problem sve više raste

    Tri faktora se spajaju i čine AI lažno predstavljanje ozbiljnom prijetnjom:

    • AI čini obmanu jeftinom i skalabilnom: Sa otvorenim alatima za glas i video, napadači mogu oponašati bilo koga uz samo nekoliko minuta referentnog materijala.

    • Virtualna saradnja otkriva praznine u povjerenju: Platforme poput Zoom-a, Teams-a i Slack-a pretpostavljaju da je osoba iza ekrana zaista ona za koju se predstavlja. Napadači iskorištavaju tu pretpostavku.

    • Odbrana se oslanja na vjerovatnoću, a ne na dokaz: Detekcioni alati pokušavaju da „pogode“ da li je neko stvaran pomoću analiza lica i ponašanja – što nije dovoljno u rizičnim okruženjima.

    A čak ni alati za krajnje tačke niti obuka korisnika ne mogu dati odgovor u realnom vremenu na ključno pitanje:
    „Mogu li vjerovati osobi s kojom trenutno razgovaram?“

    AI detekcija nije dovoljna

    Tradicionalna odbrana se oslanja na detekciju: obuka korisnika da primijete sumnjivo ponašanje ili analiza sadržaja putem AI-ja.
    Ali deepfake postaju predobri, prebrzo. Ne možete se boriti protiv AI obmane alatima koji rade na osnovu vjerovatnoće.

    Prava prevencija zahtijeva drugačiji temelj – temelj koji se zasniva na dokazivom povjerenju, a ne na pretpostavci.

    To podrazumijeva:

    • Verifikaciju identiteta: Samo verifikovani i ovlašteni korisnici mogu pristupiti osjetljivim sastancima ili chatovima, na osnovu kriptografskih kredencijala, a ne lozinki ili kodova.

    • Provjere integriteta uređaja: Ako je uređaj korisnika kompromitovan, jailbreakovan ili neusklađen sa sigurnosnim politikama, postaje tačka ulaza za napadače — čak i ako je identitet korisnika validan. Takvi uređaji moraju biti blokirani dok se ne riješe problemi.

    • Vidljivi indikatori povjerenja: Svi učesnici moraju vidjeti dokaz da je osoba s druge strane zaista ona za koju se predstavlja i da koristi siguran uređaj. Time se uklanja pritisak sa krajnjih korisnika da sami procjenjuju rizik.

    Prevencija znači: učiniti lažno predstavljanje ne samo teškim, već nemogućim

    Samo tako možete spriječiti deepfake napade prije nego što se uključe u visoko-rizične razgovore poput:

    • sastanaka upravnog odbora
    • finansijskih transakcija
    • komunikacije sa dobavljačima
    Pristup zasnovan na detekcijiPristup zasnovan na prevenciji
    Oznaka anomalija nakon što se deseBlokiranje neovlaštenih korisnika prije pristupa
    Oslanjanje na heuristiku i nagađanjaKorištenje kriptografskog dokaza identiteta
    Potreba za procjenom od strane korisnikaVidljivi i potvrđeni indikatori povjerenja

    Uklonite Deepfake prijetnje iz svojih poziva

    RealityCheck kompanije Beyond Identity razvijen je kako bi zatvorio prazninu povjerenja u alatima za saradnju.
    Omogućava svakom učesniku vidljivu, potvrđenu identifikacijsku oznaku baziranu na kriptografskoj autentifikaciji uređaja i kontinuiranim sigurnosnim provjerama.

    Dostupan za Zoom i Microsoft Teams (video i chat), RealityCheck:

    • Potvrđuje da je svaki učesnik stvaran i ovlašten
    • Validira usklađenost uređaja u realnom vremenu, čak i kod neupravljanih uređaja
    • Prikazuje vizuelnu značku verifikacije kako bi svi mogli vidjeti ko je zaista na pozivu

    Zaključak:
    U eri AI prevare, povjerenje se više ne smije pretpostavljati – mora se dokazati. Tehnologije kao što je RealityCheck omogućavaju upravo to – štiteći kritične razgovore od lažnih učesnika i AI manipulacija.

    Izvor:The Hacker News

    Recent Articles

    spot_img

    Related Stories