Kriminalci koriste veštačku inteligenciju za imitaciju glasova porodice i prijatelja, otežavajući prepoznavanje prevare
Savremene telefonske prevare sada uključuju sofisticirane AI alate koji mogu da kloniraju glas bliskih osoba, upozoravaju izvori iz industrije. Ova vrsta prevare značajno se proširila poslednjih meseci i bazira se na zloupotrebi javno dostupnih audio snimaka sa društvenih mreža. Dovoljno je svega nekoliko sekundi originalnog glasa da AI model generiše sintetički govor koji je izražajno i emocionalno uverljiv.
Zbog toga što više ne postoje jasni znaci lažiranja – poput neprirodnog tona ili loše izgovorenih reči – žrtve često ne sumnjaju da razgovaraju sa veštački generisanim glasom. Scenariji u kojima AI prevaranti deluju najčešće uključuju lažne hitne situacije: poziv u kome “član porodice” ili blizak prijatelj navodno traži brzu novčanu pomoć zbog neke nesreće. Emocionalni pritisak i osećaj hitnosti igraju ključnu ulogu u tome da žrtva ne proverava autentičnost poziva.
Stručnjaci ističu da su ovakve prevare u velikom porastu upravo zato što je sve više audio materijala dostupno javno, a AI alati za generisanje glasa su sve pristupačniji i jednostavniji za upotrebu. Istraživanja pokazuju da većina ljudi ne može da razlikuje stvarni glas od AI kopije – u nekim slučajevima tačnost prepoznavanja pada ispod 30%. Prevaranti masovno pokreću hiljade poziva, što dodatno povećava rizik i broj potencijalnih žrtava.
Najčešće, prevaranti zahtevaju da novac bude uplaćen putem kriptovaluta, poklon kartica ili elektronskih transfera, jer se takve transakcije teško mogu povratiti. Tradicionalne metode prepoznavanja prevare više nisu pouzdane, što dodatno komplikuje odbranu korisnika.
Savet stručnjaka je da, u slučaju sumnjivog poziva sa zahtevom za novac, odmah prekinete vezu i pokušate da kontaktirate osobu na drugi način. Preporučuje se i dogovor o tajnoj reči unutar porodice, koju prevaranti neće moći da pogode. Takođe, treba izbegavati javno deljenje audio sadržaja kad god je to moguće, jer upravo ti podaci omogućavaju AI kloniranje glasa.
Ovakvi napadi predstavljaju rastući globalni bezbednosni izazov, a zaštita počinje od opreza i dobre informisanosti.