Tak dziś wygląda deepfake. NASK pokazuje mrożące krw w żyłach przykłady

3 minuty czytania
Komentarze

Mogłoby się wydawać, że przy obecnym rozwoju technologi sztucznej inteligencji każdy z nas wie, jak wygląda deepfake. Nic bardziej mylnego! Oszuści, którzy wykorzystują tę technikę do niecnych celów, już teraz mogą wprowadzić w błąd nawet osoby, które na co dzień zajmują się AI.

NASK pokazuje, jak dziś może wyglądać deepfake

NASK pokazuje, jak dziś może wyglądać deepfake. Ekran komputera z programem do rozpoznawania twarzy przedstawiający męską twarz z zaznaczonymi punktami detekcji twarzy oraz rozmytym obrazem drugiej osoby w tle.
Fot. terovesalainen / Depositphotos

Niedawno sporym echem odbiły się problemy Rafała Brzoski oraz jego żony – Omenay Mensah. W internecie pojawiły się bowiem fałszywe wpisy sugerujące, że kobieta nie żyje lub została pobita przez męża. Obie te informacje są oczywiście kłamstwem skutecznie utrwalonym przez internetowych oszustów.

Niemniej fałszywe wpisy to i tak niewiele przy technice deepfake, która dzięki rozwojowi sztucznej inteligencji wchodzi w swoją nową erę. Udowadnia to najnowszy materiał NASK (Naukowa i Akademicka Sieć Komputerowa) dostępny na platformie YouTube. W trakcie trzyminutowego filmu polscy naukowcy przedstawili różne spreparowane wypowiedzi znanych postaci takich jak Iga Świątek, Wojciech Cejrowski czy Magda Gessler.

Wszystko to oczywiście w celu pokazania nam, jak niebezpiecznym narzędziem może być wspomniana wyżej technika.

Materiał o deepfake autorstwa NASK

NASK ostrzega przed nowymi oszustwami deepfake, dostępnymi publicznie na serwisach społecznościowych na przełomie czerwca i lipca 2024 roku. Oszuści podszywają się pod osoby znane, umiejętnie wykorzystując też aktualne, głośne wydarzenia, np. sportowe.

Nie dziwi zatem, że przed Wimbledonem pojawiły się m.in. materiały deepfake z Igą Świątek. Spreparowany film z wizerunkiem polskiej tenisistki służy do reklamowania na platformie Facebook strony z fałszywą inwestycją w projekt Baltic Pipe.

Opis filmu (NASK)

Jak chronić się przed podobnymi niebezpieczeństwami w sieci?

Kobieta w granatowej koszuli w paski, trzymająca telefon, z ręką na czole, wyglądająca na zmartwioną.
Fot. 9nong / Shutterstock

Weryfikacja nagrań deepfake wymaga zastosowania kilku technik analizy i narzędzi. Jednym z najważniejszych kroków jest użycie specjalistycznego oprogramowania do analizy wideo, które potrafi wykrywać anomalie w nagraniach. Narzędzia takie jak Deepware Scanner, Truepic, czy Sensity AI są w stanie identyfikować nieprawidłowości w ruchach twarzy, mimice oraz w nienaturalnych przejściach między klatkami. Warto również zwracać uwagę na detale, które mogą zostać przeoczone przez fałszerzy, takie jak niespójności w oświetleniu czy cienie.

Techniki rozpoznawania tej niecnej techniki obejmują również analizę audio, ponieważ synchronizacja ruchów ust z dźwiękiem może często być nieprecyzyjna w fałszywych nagraniach. W przypadku wątpliwości co do autentyczności nagrania warto także korzystać z narzędzi opartych na sztucznej inteligencji, które są w stanie porównać podejrzane wideo z bazami danych zawierającymi oryginalne nagrania. Analiza metadanych pliku wideo, takich jak data i miejsce nagrania, może również dostarczyć cennych informacji w procesie weryfikacji.

Aby chronić się przed podobnymi oszustwami, należy stosować dobre praktyki cyberbezpieczeństwa, takie jak używanie silnych, unikalnych haseł oraz uwierzytelnianie dwuskładnikowe w mediach społecznościowych i serwisach komunikacyjnych. Edukacja na temat zagrożeń związanych z deepfake i regularne śledzenie najnowszych metod wykrywania oszustw to kluczowe elementy ochrony. Ponadto organizacje i osoby prywatne mogą korzystać z usług firm specjalizujących się w monitorowaniu treści w sieci i wykrywaniu deepfake, co pozwala na szybkie reagowanie na potencjalne zagrożenia.

Starszy mężczyzna w okularach i białym puchowym płaszczu spaceruje, zdjęcie podzielone na dwa kadry ukazujące go z różnych perspektyw.
Nawet papież nie jest bezpieczny. Zdjęcia papieża Franciszka w puchowej kurtce to fałszywki. Fot. Pablo Xavier / TikTok

Źródło: Naukowa i Akademicka Sieć Komputerowa. Zdjęcie otwierające: NASK / YouTube, zrzut ekranu

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw