U današnje vrijeme, kada umjetna inteligencija (AI) sve više nalikuje ljudskim sposobnostima, njena primjena u kriminalne svrhe predstavlja sve veću opasnost. Nedavni događaj u Hong Kongu šokirao je javnost kada je jedna multinacionalna kompanija ostala bez 200 milijuna hongkonških dolara, odnosno oko 23,5 milijuna eura, zahvaljujući sofisticiranoj deepfake tehnologiji. Ovaj slučaj jasno pokazuje koliko je važno biti svjestan novih prijetnji koje donosi digitalna era.
Sadržaj...
Lažni videokonferencijski poziv kao ključ prevare
Prema izvješću hongkonškog lista South China Morning Post, cijela operacija započela je primanjem phishing poruke. Zaposlenik financijskog odjela tvrtke dobio je poruku koja je navodno dolazila od glavnog financijskog direktora (CFO) tvrtke, smještenog u Ujedinjenom Kraljevstvu. Poruka je sadržavala upute za hitnu i tajnu financijsku transakciju. Iako je zaposlenik isprva bio skeptičan, daljnji razvoj događaja uvjerio ga je u potrebu izvršavanja naloga.
Prevarant je iskoristio deepfake tehnologiju kako bi organizirao lažni videokonferencijski poziv. Tijekom tog poziva prikazani su unaprijed snimljeni ili generirani videozapisi financijskog direktora i drugih kolega. Realističnost tih videozapisa bila je dovoljna da uvjeri zaposlenika kako sudjeluje u legitimnom poslovnom sastanku. Pod pritiskom uvjerljive vizualne komunikacije, zaposlenik je izvršio ukupno 15 bankovnih transfera na pet različitih računa u Hong Kongu.
Tehnike koje su omogućile uspješnu deepfake prijevaru
Uspjeh ove prevare temelji se na vještom korištenju naprednih tehnologija za manipulaciju medijskim sadržajem. Ključni elementi koji su omogućili realizaciju ovog zločina uključuju:
- Korištenje javno dostupnih podataka: Prevarant je prikupio audio i video snimke ciljanih osoba, koje su bile dostupne na internetu. Te snimke poslužile su kao osnova za stvaranje uvjerljivih digitalnih replika.
- Generiranje uvjerljivog glasa: Osim vizualne manipulacije, vjerojatno je korištena i tehnologija za kloniranje glasa kako bi se imitirao način govora ciljane osobe.
- Korištenje AI-a za stvaranje uvjerljivih videozapisa: Prevarant je koristio AI alate kako bi stvorio uvjerljive videozapise koji su izgledali kao da su snimljeni u stvarnom vremenu.
Što možemo naučiti iz ovog slučaja
Ovaj slučaj jasno pokazuje koliko je važno biti svjestan novih prijetnji koje donosi digitalna era. Deepfake tehnologija može biti vrlo uvjerljiva i može biti korištena za različite svrhe, uključujući i kriminalne. Zato je važno biti svjestan mogućnosti ove tehnologije i biti oprezan pri korištenju digitalnih komunikacija.
FAQ
Što je deepfake tehnologija?
Deepfake tehnologija je vrsta AI tehnologije koja omogućava stvaranje uvjerljivih digitalnih replika ljudi ili objekata.
Kako se koristi deepfake tehnologija?
Deepfake tehnologija se koristi za stvaranje uvjerljivih digitalnih replika ljudi ili objekata, što može biti korišteno za različite svrhe, uključujući i kriminalne.
Je li deepfake tehnologija sigurna?
Deepfake tehnologija nije sigurna i može biti korištena za različite svrhe, uključujući i kriminalne.
Deepfake prijevara u Hong Kongu je primjer koliko je važno biti svjestan mogućnosti ove tehnologije i biti oprezan pri korištenju digitalnih komunikacija. Ovaj slučaj upozorava na potrebu za jačanjem sigurnosnih protokola i edukacijom korisnika kako bi se spriječilo korištenje deepfake tehnologije u kriminalne svrhe.





Leave a Comment