Oszuści stawiają na AI
Czy sztuczna inteligencja może podrobić mój głos? Okazuję się, że jednak tak. Oszuści znajdują nowe, coraz nowocześniejsze metody wyłudzania pieniędzy i informacji. Jedną z takich metod jest właśnie naśladowanie głosu w połączeniach telefonicznych poprzez sztuczną inteligencję. Zaskoczeni, zdezorientowani i przekonani, że rozmawiają z synem, wnuczką czy siostrą, ludzie często bez zastanowienia przekazują pieniądze... prosto do kieszeni złodziei.
Deepfake, czy też voice cloning, to technologia, która potrafi oszukać i solidnie namieszać. Dzięki sztucznej inteligencji możliwe jest tworzenie niezwykle realistycznych nagrań wideo i audio, w których ludzie mówią lub robią rzeczy, których nigdy nie powiedzieli ani nie zrobili. Brzmi to jak fikcja, ale jednak to rzeczywistość – i właśnie dlatego bywa niebezpieczny, zwłaszcza gdy trafia w ręce oszustów.
Fałszywy głos bliskiego. I jak się na to nie nabrać?!
Atak rozpoczyna się od zdobycia próbki głosu danej osoby. Mając zaledwie kilkanaście sekund nagrania, nowoczesne algorytmy potrafią stworzyć syntetyczny głos, który brzmi niemal identycznie jak głos pierwowzoru. Następnie oszust kontaktuje się z ofiarą, najczęściej telefonicznie, i podając się za kogoś z rodziny, proszą o szybki przelew pieniędzy lub podanie wrażliwych danych, tłumacząc to pilną sytuacją, np. wypadkiem, nagłą chorobą czy zagrożeniem życia.
Taki telefon zwykle wywołuje silne emocje – stres, strach i potrzebę natychmiastowego działania, co niestety obniża zdolność do logicznego myślenia i zwiększa podatność na manipulację. Jak chronić się przed kradzieżą głosu?
Gdzie oszuści znajdują nasz głos?
Skąd oszuści biorą próbki głosu do klonowania? Choć może się to wydawać zaskakujące, cyberprzestępcy nie muszą długo szukać, by zdobyć nagranie naszego głosu. W wielu przypadkach to my sami, najczęściej nieświadomie, dostarczamy im potrzebnych materiałów. Wystarczy kilka sekund nagrania, by nowoczesne algorytmy sztucznej inteligencji mogły stworzyć realistyczną kopię naszej mowy.
Media społecznościowe
Facebook, Instagram, YouTube czy TikTok – to właśnie te platformy są dziś najłatwiejszym miejscem do zdobycia próbek naszego głosu. Każdy filmik może zostać wykorzystany jako materiał do stworzenia klona głosowego.
Rozmowy telefoniczne – nagrywane bez naszej wiedzy
Jeśli dzwoni do nas ktoś z nieznanego numeru, istnieje ryzyko, że nasz głos został zarejestrowany. Przestępcy mogą celowo inicjować rozmowy z potencjalnymi ofiarami tylko po to, by zdobyć próbki ich wypowiedzi. To właśnie fragmenty tych rozmów mogą później posłużyć do stworzenia syntetycznego głosu.
Wiadomości głosowe z komunikatorów
Wysyłanie szybkiej wiadomości głosowej wydaje się wygodne i niewinne, ale nawet te krótkie nagrania mogą trafić w niepowołane ręce. Jeśli takie wiadomości nie są odpowiednio zabezpieczone, łatwo je przechwycić.
Kto jest najbardziej narażony?
Choć każdy może stać się ofiarą takiego ataku, przestępcy szczególnie często celują w osoby starsze. Seniorzy często nie śledzą najnowszych technologii, a kontakt głosowy z bliskimi może być dla nich jedyną formą komunikacji. Dodatkowo silne emocjonalne więzi z rodziną sprawiają, że łatwiej ulegają presji.
Jak się bronić przed oszustwem głosowym?
Co robić, jeśli już zostałeś oszukany?
Jeśli przelałeś pieniądze oszustowi, nie trać czasu. Skontaktuj się niezwłocznie z bankiem i zgłoś próbę wyłudzenia – czasami możliwe jest zablokowanie środków. Złóż też zawiadomienie na policję. Nawet jeśli nie uda się odzyskać pieniędzy, Twoje zgłoszenie może pomóc uchronić innych.