smartfon telefon
LINKI AFILIACYJNE

Przekręt z deepfake na skalę, jakiej świat jeszcze nie widział. Pracownik przelał oszustom ponad 100 mln złotych

2 minuty czytania
Komentarze

Technologia ułatwia nam życie, ale bywa też wykorzystywana do przestępczych celów. Pokazuje to oszustwo deepfake, którego ofiarą padł pracownik z Hongkongu. Przelał on ogromną sumę pieniędzy po rozmowie wideo osobami, które tak naprawdę nie istnieją.

Oszustwo deepfake i ogromny przelew

Policja w Hongkongu poinformowała o oszustwie, którego ofiarą padł pracownik jednej z międzynarodowych firm. Otrzymał on wiadomość z poleceniem wykonania przelewu. Autorem komunikatu miał być dyrektor finansowy firmy z siedzibą w Wielkiej Brytanii.

oszustwo deepfake kartka z napisem deepfake
Fot. Markus Winkler / Pexels

Mężczyzna nie uwierzył w otrzymanego maila i początkowo przypuszczał, że ma do czynienia z oszustwem. Potem miała jednak miejsce wideorozmowa z członkami zarządu, których wygląd oraz brzmienie głosu do złudzenia przypominały cechy prawdziwych osób na tych stanowiskach.

Pracownik finalnie wykonał przelew w wysokości 200 milionów dolarów hongkońskich, co w przeliczeniu daje odpowiednio ok. 25,6 miliona dolarów amerykańskich oraz ok. 103 miliony złotych.

To niejedyny tego typu przypadek, bo policja z Hongkongu poinformowała na konferencji prasowej o sześciu aresztowaniach dokonanych w związku z tego typu oszustwami.

Czym jest deepfake?

Termin deepfake odnosi się do technologii sztucznej inteligencji, która pozwala na tworzenie bardzo realistycznych fałszywych obrazów, dźwięków i nagrań wideo. Technologia ta wykorzystuje algorytmy głębokiego uczenia się, polegającego na analizie i interpretacji dużych zbiorów danych w celu stworzenia przekonujących naśladowań.

Proces tworzenia deepfake opiera się na sieciach neuronowych, które uczą się charakterystycznych cech twarzy, głosu lub stylu danej osoby z dostępnych materiałów, takich jak zdjęcia, filmy czy nagrania głosowe. Te sieci, zwane autoenkoderami, składają się z dwóch części: enkodera, który redukuje dane do niższego wymiaru (reprezentacji), oraz dekodera, który odwzorowuje te dane na nowy obraz lub dźwięk. W praktyce autoenkoder jest najpierw trenowany na autentycznych materiałach, a następnie adaptowany do generowania fałszywych treści, zamieniając dane wejściowe (np. twarz jednej osoby) na dane wyjściowe (np. twarz innej osoby), zachowując przy tym naturalność ruchów i mimikę.

Obawy związane z deepfake dotyczą nadużyć: manipulowania treściami w celu wprowadzania w błąd, fałszywych wiadomości, kompromitujących materiałów, które mogą szkodzić reputacji i prywatności ludzi, a także wpływać na procesy polityczne i społeczne.

Źródło: CNN. Zdjęcie otwierające: IgorVetushko / Depositphotos

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw