Deepfake audio to nie tylko podrobiony głos prezydenta czy celebryty, bo internetowi oszuści są już w stanie symulować nawet głos bliskiej osoby, by przekonać potencjalną ofiarę do swojego przekrętu. To właśnie triki z wykorzystaniem sfałszowanych nagrań rzekomo pochodzących z zaufanego źródła szybko zyskują obecnie na popularności. Jak się przed nimi bronić?
Spis treści
Hakerzy podszywają się pod zaufane osoby. To duże zagrożenie
Jak ostrzegają specjaliści z Check Point Software, zaledwie w ciągu ostatnich dwóch tygodni wykryto ponad 1000 prób podszywania się z wykorzystaniem taktyk deepfake. Popularny schemat ataku przedstawia się następująco:
- Internetowi oszuści wybierają sobie cel, ofiara otrzymuje e-mail;
- Wiadomość zawiera podrobiony nagłówek, firmowy numer telefonu i informację o pozostawionej wiadomości głosowej;
- W treści e-maila znajduje się widget przypominający odtwarzacz. Sugeruje on około 3-minutowe nagranie do odtworzenia;
- po kliknięciu przycisku „play” ofiara zostanie przekierowana do niebezpiecznej strony internetowej.
Nagłówek jest zwykle podrobiony tak, by ofiara była przekonana, że e-mail faktycznie pochodzi od wybranej spółki. Kluczowe jest tu wzbudzenie zaufania.
Metoda ta może być skuteczna zwłaszcza w środowisku profesjonalnym. Duże firmy często integrują wiele systemów pracowniczych (na przykład pocztę e-mail i telefony), więc zastawiona przez hakerów przynęta może być bardzo przekonująca.
Oczywiście przestrzegamy przed kliknięciem linków w odtwarzaczy, bo łącze prowadzi do serwisu zbierającego dane uwierzytelniające ofiary pod pretekstem odsłuchania wiadomości.
Internetowi oszuści coraz częściej stosują wirtualne porwanie
Deepfake wykonany z wykorzystaniem sztucznej inteligencji posłużyć może także na przykład do przeprowadzenia wirtualnych porwań, o których pisaliśmy już wcześniej. Taktyka ta ma wywołać w nas przerażenie i obawy o bliską osobę, które wyłączą nasz zdrowy rozsądek i pokierują wprost w ramiona oszustów. A sam „porwany” jest oczywiście bezpieczny i często niczego nieświadomy.
Akcja tego typu także zaczyna się od dokładnego dobrania celu. Tu chodzi o określenie osoby skłonnej do opłacenia okupu oraz „ofiary porwania”, najczęściej dziecka lub innego bliskiego osoby pierwotnie obranej za cel. Informacje te najczęściej są gromadzone z mediów społecznościowych.
Na podstawie publicznych nagrań hakerzy gromadzą też dane do przygotowania oszustwa. Obecnie do wytworzenia całego modelu głosowego brzmiącego bardzo przekonująco wystarczy już nawet krótkie wideo z paroma wypowiedzianymi zdaniami. Stworzony ogólnodostępnymi narzędziami profil głosowy może „mówić” to, co napiszą hakerzy, możliwie jest też stworzenie materiału wideo z głosem.
Kolejne etapy to planowanie i faktyczny telefon. Jednocześnie trzeba wybrać dobry moment dla ofiary oraz taki czas, w którym kontakt z „porwanym” będzie utrudniony w naturalny sposób. Oszukiwany nie może potwierdzić, gdzie jest bliski, słyszy znajomy głos w głośniku smartfona i w mocno stresowej sytuacji jest skłonny uwierzyć, że przestępcy faktycznie porwali bliskiego i przelać okup na wskazane konto. Najczęściej środki błyskawicznie znikają i są już nie do odzyskania.
Jak się bronić przed atakami wykorzystującymi deepfake?
Nagrania deepfake są przekonujące, ale daleko im jeszcze do doskonałości. Gdy zauważymy pewnie nieścisłości, bardzo szybko możemy odkryć zamiary hakerów i pokrzyżować ich szyki.
W przypadku audio wychwycić można niezbyt zręczne przejścia AI między zdaniami czy słowami lub niedoskonałe akcentowanie wyrazów w zdaniu. W jednym momencie głos może brzmieć dość naturalnie, a w drugim zdawać się nam „dziwny”.
Dużo więcej poszlak znaleźć możemy w nagraniach wideo. Tu w przypadku wypowiadanych kwestii trzeba zwracać uwagę na mimikę oraz ruchy ust. Te mogą wydawać się szarpane i nienaturalne, a nawet niezsynchronizowane z mową. Oświetlenie sceny może zmieniać się nawet z klatki na klatkę, podobnie niejednorodny może być odcień skóry – raz nieco jaśniejszy, to znów ciemniejszy. Persony AI wydają się też zbyt często mrugać.
W przypadku wirtualnego porwania cała akcja błyskawicznie spala na panewce, jeśli jesteśmy w stanie zweryfikować miejsce pobytu rzekomo porwanej osoby – jeśli ta jest z nami w pokoju, możemy roześmiać się oszustom w słuchawkę, ale szybki telefon do bliskiego także powinien rozwiać wątpliwości.
Kolejnym sposobem jest zapytanie się rzekomo porwanego o coś, co może wiedzieć tylko ta osoba. Jeśli nie jest w stanie podać np. nazwiska rodowego czy imienia pierwszego zwierzaka swojej rodziny – najprawdopodobniej mamy do czynienia z oszustwem.
Źródło: avlab.pl. Zdjęcie otwierające: Sora Shimazaki / Pexels
Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.