człowiek piszący na klawiaturze laptopa, na ekranie którego widać zielone znaki i największy wyciek danych. Ataki hakerskie w Polsce to specjalność tych ludzi
LINKI AFILIACYJNE

Mamy problem. Deepfake wkracza w nową fazę zaawansowania… i niewiele możemy z tym zrobić

5 minut czytania
Komentarze

Deepfake audio to nie tylko podrobiony głos prezydenta czy celebryty, bo internetowi oszuści są już w stanie symulować nawet głos bliskiej osoby, by przekonać potencjalną ofiarę do swojego przekrętu. To właśnie triki z wykorzystaniem sfałszowanych nagrań rzekomo pochodzących z zaufanego źródła szybko zyskują obecnie na popularności. Jak się przed nimi bronić? 

smartfon trzymany w dłoni, rozmazane tło
Fot. Jae Park/Unsplash

Hakerzy podszywają się pod zaufane osoby. To duże zagrożenie 

Jak ostrzegają specjaliści z Check Point Software, zaledwie w ciągu ostatnich dwóch tygodni wykryto ponad 1000 prób podszywania się z wykorzystaniem taktyk deepfake. Popularny schemat ataku przedstawia się następująco:

  1. Internetowi oszuści wybierają sobie cel, ofiara otrzymuje e-mail;
  2. Wiadomość zawiera podrobiony nagłówek, firmowy numer telefonu i informację o pozostawionej wiadomości głosowej;
  3. W treści e-maila znajduje się widget przypominający odtwarzacz. Sugeruje on około 3-minutowe nagranie do odtworzenia;
  4. po kliknięciu przycisku „play” ofiara zostanie przekierowana do niebezpiecznej strony internetowej.

Nagłówek jest zwykle podrobiony tak, by ofiara była przekonana, że e-mail faktycznie pochodzi od wybranej spółki. Kluczowe jest tu wzbudzenie zaufania.

Metoda ta może być skuteczna zwłaszcza w środowisku profesjonalnym. Duże firmy często integrują wiele systemów pracowniczych (na przykład pocztę e-mail i telefony), więc zastawiona przez hakerów przynęta może być bardzo przekonująca. 

Oczywiście przestrzegamy przed kliknięciem linków w odtwarzaczy, bo łącze prowadzi do serwisu zbierającego dane uwierzytelniające ofiary pod pretekstem odsłuchania wiadomości.

Internetowi oszuści coraz częściej stosują wirtualne porwanie

Deepfake wykonany z wykorzystaniem sztucznej inteligencji posłużyć może także na przykład do przeprowadzenia wirtualnych porwań, o których pisaliśmy już wcześniej. Taktyka ta ma wywołać w nas przerażenie i obawy o bliską osobę, które wyłączą nasz zdrowy rozsądek i pokierują wprost w ramiona oszustów. A sam „porwany” jest oczywiście bezpieczny i często niczego nieświadomy.

Akcja tego typu także zaczyna się od dokładnego dobrania celu. Tu chodzi o określenie osoby skłonnej do opłacenia okupu oraz „ofiary porwania”, najczęściej dziecka lub innego bliskiego osoby pierwotnie obranej za cel. Informacje te najczęściej są gromadzone z mediów społecznościowych.

Na podstawie publicznych nagrań hakerzy gromadzą też dane do przygotowania oszustwa. Obecnie do wytworzenia całego modelu głosowego brzmiącego bardzo przekonująco wystarczy już nawet krótkie wideo z paroma wypowiedzianymi zdaniami. Stworzony ogólnodostępnymi narzędziami profil głosowy może „mówić” to, co napiszą hakerzy, możliwie jest też stworzenie materiału wideo z głosem.

Kolejne etapy to planowanie i faktyczny telefon. Jednocześnie trzeba wybrać dobry moment dla ofiary oraz taki czas, w którym kontakt z „porwanym” będzie utrudniony w naturalny sposób. Oszukiwany nie może potwierdzić, gdzie jest bliski, słyszy znajomy głos w głośniku smartfona i w mocno stresowej sytuacji jest skłonny uwierzyć, że przestępcy faktycznie porwali bliskiego i przelać okup na wskazane konto. Najczęściej środki błyskawicznie znikają i są już nie do odzyskania.

Jak się bronić przed atakami wykorzystującymi deepfake?

Cyberprzestępca przy pracy, zbiera dane do deepfake'a. Osoba w kapturze siedząca przy laptopie i korzystająca z telefonu komórkowego przy bladym świetle nocnego nieba, symbolizująca temat ochrony, jakim jest cyberbezpieczeństwo.
Fot. artoleshko / Depositphotos

Nagrania deepfake są przekonujące, ale daleko im jeszcze do doskonałości. Gdy zauważymy pewnie nieścisłości, bardzo szybko możemy odkryć zamiary hakerów i pokrzyżować ich szyki.

W przypadku audio wychwycić można niezbyt zręczne przejścia AI między zdaniami czy słowami lub niedoskonałe akcentowanie wyrazów w zdaniu. W jednym momencie głos może brzmieć dość naturalnie, a w drugim zdawać się nam „dziwny”.

Dużo więcej poszlak znaleźć możemy w nagraniach wideo. Tu w przypadku wypowiadanych kwestii trzeba zwracać uwagę na mimikę oraz ruchy ust. Te mogą wydawać się szarpane i nienaturalne, a nawet niezsynchronizowane z mową. Oświetlenie sceny może zmieniać się nawet z klatki na klatkę, podobnie niejednorodny może być odcień skóry – raz nieco jaśniejszy, to znów ciemniejszy. Persony AI wydają się też zbyt często mrugać.

W przypadku wirtualnego porwania cała akcja błyskawicznie spala na panewce, jeśli jesteśmy w stanie zweryfikować miejsce pobytu rzekomo porwanej osoby – jeśli ta jest z nami w pokoju, możemy roześmiać się oszustom w słuchawkę, ale szybki telefon do bliskiego także powinien rozwiać wątpliwości. 

Kolejnym sposobem jest zapytanie się rzekomo porwanego o coś, co może wiedzieć tylko ta osoba. Jeśli nie jest w stanie podać np. nazwiska rodowego czy imienia pierwszego zwierzaka swojej rodziny – najprawdopodobniej mamy do czynienia z oszustwem.

Źródło: avlab.pl. Zdjęcie otwierające: Sora Shimazaki / Pexels

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw