Deepfake je vrsta sintetičkog medija stvorenog pomoću vještačke inteligencije (AI) i mašinskog učenja. Jednostavno rečeno, deepfake tehnologija omogućava stvaranje videa, slika, audio zapisa ili teksta koji izgledaju i zvuče stvarno, iako se prikazani događaji nikada nisu dogodili.
Ovi izmijenjeni sadržaji brzo se šire putem društvenih mreža, aplikacija za razmjenu poruka i video platformi, brišući granicu između stvarnosti i fikcije.
Pojam „deepfake“ nastao je 2017. godine kada je korisnik Reddita kreirao subreddit s tim nazivom. Ova stranica korištena je za dijeljenje AI-generisanih videa, često sa izmjenama lica poznatih osoba u eksplicitnim sadržajima.
U početku su ljudi koristili deepfake tehnologiju za zabavu, ali s vremenom je postala opasan alat u rukama kriminalaca za prevaru, krađu identiteta, ucjenu i širenje dezinformacija.
Još zabrinjavajuće je to što više nije potrebno imati napredne tehničke vještine da bi se napravio deepfake.
Tehnologija iza deepfake sadržaja
Deepfake uglavnom koristi tehnologiju zvanu Generative Adversarial Networks (GANs). Ukratko, GAN-ovi se sastoje od dva algoritma koji rade zajedno.
- Prvi algoritam, generator, stvara lažni sadržaj—poput videa ili slike.
- Drugi algoritam, discriminator, pokušava prepoznati da li je sadržaj stvaran ili lažan.
Ova dva algoritma konstantno poboljšavaju jedan drugog: generator postaje bolji u stvaranju uvjerljivih lažnih sadržaja, dok discriminator postaje vještiji u otkrivanju nesavršenosti.
Druga česta tehnika, posebno za zamjenu lica, su autoenkoderi. Za razliku od GAN-ova, autoenkoderi ne koriste generator i discriminator, već kompresuju crte lica osobe u kompaktni format i zatim ih rekonstruišu na lice druge osobe. Iako ne koriste GAN-ove, autoenkoderi i dalje omogućavaju stvaranje uvjerljivih deepfake sadržaja, posebno za jednostavne zadatke poput zamjene lica.
Danas su dostupni brojni AI alati, od open-source softvera (DeepFaceLab, Faceswap) do mobilnih aplikacija (Zao, Reface), što znači da za pravljenje deepfake sadržaja više nije potreban moćan računar – dovoljan je pametni telefon i odgovarajući softver.
Kako cyber kriminalci koriste deepfake tehnologiju
Prema izvještaju kompanije Entrust, u 2024. godini deepfake napadi dešavali su se svakih pet minuta. U jednom slučaju, deepfake video poziv u kombinaciji sa taktikama socijalnog inženjeringa doveo je do gubitka od preko 25 miliona dolara u jednoj multinacionalnoj kompaniji.
Kripto-kompanije su posebno pogođene ovim prevarama, sa prosječnim gubicima od 440.000 dolara po incidentu.
Jedan od najupečatljivijih primjera prevare uključivao je Francuskinju koju je prevarant uvjerio da je u vezi sa poznatim glumcem Bradom Pittom. Koristeći AI-generisane slike, prevarant ju je ubijedio da mu pošalje 830.000 eura tokom 18 mjeseci, vjerujući da pomaže u njegovom „medicinskom hitnom slučaju“.
Osim finansijskih gubitaka, ovakve prevare izazivaju emocionalni stres, narušavaju povjerenje u digitalnu komunikaciju i remete poslovne operacije.
Zbog sve složenije globalne političke situacije, deepfake tehnologija se takođe koristi za širenje dezinformacija, posebno u političkom kontekstu. AI-generisani video snimci i audio zapisi mogu lažno prikazati političke kandidate kako daju kontroverzne izjave ili se ponašaju neprimjereno, što može značajno uticati na odluke birača i imati devastating posljedice na demokratiju.
Kako prepoznati deepfake sadržaj
Iako deepfake tehnologija postaje sve sofisticiranija, i dalje postoje znakovi koji mogu pomoći u otkrivanju lažnih sadržaja:
- Pokreti lica – Obratite pažnju na neprirodne obrasce treptanja ili oči koje izgledaju „zamrznuto“. Takođe, kašnjenje u izražavanju emocija može biti pokazatelj manipulacije.
- Svjetlo i sjene – Provjerite da li osvjetljenje na licu osobe odgovara okolini. Nekonzistentnosti, poput čudnih sjena ili promjenjive svjetlosti, mogu ukazivati na lažiranje.
- Sinhronizacija zvuka i slike – Ako pokreti usana ne odgovaraju izgovorenim riječima ili zvuk ima blage distorzije, vjerovatno se radi o deepfake videu.
- Vizuelni artefakti – Pogledajte ivice gdje lice dodiruje kosu ili pozadinu. Zamućenja, nepravilne ivice, pikselizacija ili „duhovi“ u slici mogu biti znak manipulacije.
Kako se zaštititi od deepfake prevara
Iako ne postoji 100% siguran način da se zaštitimo od deepfake tehnologije, sljedeće mjere mogu smanjiti rizik:
- Koristite alate za detekciju deepfake sadržaja – Postoje AI alati dizajnisani za analizu digitalnog sadržaja i otkrivanje anomalija.
- Budite informisani o deepfake trendovima – Praćenje novih metoda manipulacije pomaže u ranom prepoznavanju prevara.
- Koristite višefaktorsku autentifikaciju (MFA) – Ovo sprječava napadače da preuzmu kontrolu nad osjetljivim nalozima, čak i ako kreiraju uvjerljiv deepfake nečijeg lica.
- Uspostavite tajne kodove ili verifikacione procedure za osjetljive komunikacije – Ova metoda može potvrditi identitet sagovornika, posebno kod finansijskih transakcija ili povjerljivih razgovora.
- Ograničite dijeljenje ličnih medijskih sadržaja na internetu – Što više vaših slika i videa postoji online, to prevaranti imaju više materijala za kreiranje deepfake sadržaja. Postavite privatnost na društvenim mrežama tako da samo pouzdane osobe mogu vidjeti vaše objave.
Zaključak
Niko ne može sa sigurnošću reći šta nas čeka u budućnosti, ali ono što je prije 20 godina bilo nemoguće ili dostupno samo maloj grupi stručnjaka, danas je svima nadohvat ruke—uključujući i one sa lošim namjerama.
Sa napretkom tehnologije, biće sve teže razlikovati šta je stvarno, a šta lažno. Nažalost, ne postoji čarobni štapić koji nas može zaštititi. Sve što možemo učiniti jeste biti oprezni, preduzeti preventivne mjere i, naravno, ne vjerovati svemu što vidimo na internetu i društvenim mrežama.
Izvor:Help Net Security