Osoba trzymająca smartfon z wyświetlonym schematem rozpoznawania twarzy.

„Wystarczy jedno zdjęcie” i oszuści wykorzystają twoją twarz i głos dzięki AI. Eksperci radzą jak się chronić

5 minut czytania
Komentarze

Sztuczna inteligencja może przynieść wiele dobrego, ale może też zostać wykorzystana przez oszustów. Co więcej, my sami możemy stać się „twarzą i głosem” takiego oszustwa, które zostanie spreparowane z pomocą algorytmów sztucznej inteligencji. Redakcja Android.com.pl zapytała w NASK, jak można chronić się przed tego typu oszustwami, których niestety może być coraz więcej.

Oszustwo z AI. Jak się chronić?

Osoba korzystająca z laptopa z wyświetlaną grafiką twarzy i danymi na ekranie, ilustrującą technologię rozpoznawania twarzy.
Fot. FAMILY STOCK / Shutterstock

Temat, gdzie oszuści wykorzystują sztuczną inteligencję do swoich celów, nie jest niestety wyssany z palca. Ten problem dotknął ostatnio jednego z najpopularniejszych youtuberów w Polsce. Budda był bowiem szantażowany tym, że ktoś wykorzysta jego wizerunek do stworzenia fałszywych filmów z pomocą AI. Zapytaliśmy więc ekspertów w dziedzinie bezpieczeństwa o to, jak chronić siebie i swoją tożsamość przed tego typu oszustwami. Na nasze pytania odpowiedziała dr inż. Ewelina Bartuzi-Trokielewicz z Pionu Sztucznej Inteligencji w NASK. Jak więc można zwiększyć swoje bezpieczeństwo?

W obliczu narastających zagrożeń związanych z wykorzystaniem sztucznej inteligencji do fałszowania wizerunku – zarówno twarzy, jak i głosu – istnieje kilka kluczowych działań, które można podjąć w celu zwiększenia swojego bezpieczeństwa. Kluczowe jest ograniczenie liczby osobistych informacji, zdjęć, filmów, nagrań głosowych udostępnianych online. Im mniej jest takich materiałów dostępnych publicznie, tym mniejsze ryzyko ich wykorzystania przez przestępców.

dr inż. Ewelina Bartuzi-Trokielewicz, Pion Sztucznej Inteligencji w NASK dla Android.com.pl

Bezpieczeństwo naszych kont ma znaczenie

Mężczyzna z okularami i czarnym kapeluszem uśmiecha się i pokazuje kciuk do kamery filmowej na tle czerwonej ściany.
Fot. Iryna Inshyna / Shutterstock

Choć dużo mówi się o zasadach ochrony prywatności w sieci, to niestety, ale nie każdy zdaje sobie sprawę z powagi sytuacji. Im lepiej mamy zabezpieczone nasze konta, tym mniejsza szansa na to, że oszuści będą mogli wykorzystać AI do stworzenia spreparowanych materiałów.

Dokładne zarządzanie ustawieniami prywatności na portalach społecznościowych i innych platformach pozwoli kontrolować, kto ma dostęp do naszych danych. Warto też skorzystać z ustawień ograniczających dostępność naszych publikacji wyłącznie do grona osób bliskich i pilnować, żeby w tym gronie nie znalazły się osoby postronne. Zalecane jest także regularne sprawdzanie i aktualizowanie ustawień prywatności na mediach społecznościowych i innych platformach internetowych, aby kontrolować, kto ma dostęp do danych treści. Ważne jest również stosowanie metod dwuskładnikowego uwierzytelnienia na wszystkich ważniejszych kontach cyfrowych, co dodatkowo zabezpiecza dostęp do danych prywatnych. Należy jednak pamiętać, że oszuści mogą włamać się na konto danej osoby (lub jej bliskich) i również je wykorzystać.

dr inż. Ewelina Bartuzi-Trokielewicz, Pion Sztucznej Inteligencji w NASK dla Android.com.pl

Dalsza część artykułu pod materiałem wideo.

Jakie dane zbiera o nas Google.

Wystarczy jedno zdjęcie

Osoba ogląda wideo na smartfonie przedstawiające uśmiechniętą kobietę w kapeluszu pijącą sok.
Fot. Kaspars Grinvalds / Shutterstock

Najbardziej przerażającą informacją, którą nam podano, jest ta, że wystarczy tak naprawdę tylko jedno zdjęcie, by stać się ofiarą. Obecnie trudno znaleźć kogokolwiek, kto faktycznie nie wrzucił kiedyś do sieci choć jednej swojej fotografii, a szczególnie wśród młodszych osób.

Warto wiedzieć, że obecnie wystarczy jedno dobre zdjęcie frontalne, czy próbka głosu o długości zaledwie kilku czy kilkunastu sekund, aby spreparować fałszywy materiał audiowizualny. Świadomość dotycząca potencjalnych zagrożeń to pierwszy krok do obrony przed nimi.

dr inż. Ewelina Bartuzi-Trokielewicz, Pion Sztucznej Inteligencji w NASK dla Android.com.pl

Co robić, jak już staniemy się ofiarą oszustwa?

Oszustwo z AI - jak się chronić? Osoba pracująca na laptopie z grafiką kodu komputerowego wyświetlaną na ekranie.
Fot. PeopleImages.com – Yuri A / Shutterstock

Niestety, ale nawet pomimo stosowania się do powyższych, możemy i tak stać się ofiarą oszustwa. Co w takim przypadku powinniśmy zrobić oprócz zgłoszenia sprawy na policję?

Jeżeli jednak dojdzie do sytuacji wykorzystania czyjegoś wizerunku lub głosu w oszustwie, należy natychmiast zgłosić to nadużycie odpowiednim platformom, na których materiał został opublikowany. Większość platform ma procedury pozwalające na szybkie usuwanie naruszających treści. Zachęcamy też do zgłoszenia takiego incydentu do CERT Polska: incydent.cert.pl W przypadku poważnego naruszenia prywatności lub szantażu, istotne będzie zgłoszenie przestępstwa organom ścigania.

dr inż. Ewelina Bartuzi-Trokielewicz, Pion Sztucznej Inteligencji w NASK dla Android.com.pl

Ważne jest także to, by powiadomić o tej sytuacji naszych najbliższych. Oszustwa z wykorzystaniem algorytmów AI potrafią być naprawdę dobrze dopracowane i łatwo się nabrać.

Zalecane jest także powiadomienie swoich znajomych, rodziny i współpracowników o zaistniałym incydencie, aby byli świadomi, że materiały z naszym wizerunkiem lub głosem mogą być wykorzystywane w różnych rodzajach oszustw. Mogą to być na przykład w spreparowane wiadomości głosowe, rozsyłane do znajomych z platformy społecznościowej lub w połączenia telefoniczne, w których odbiorca usłyszy rzekomo prawdziwy głos osoby, pod którą podszywają się przestępcy.

dr inż. Ewelina Bartuzi-Trokielewicz, Pion Sztucznej Inteligencji w NASK dla Android.com.pl

Źródło: opracowanie własne / NASK. Zdjęcie otwierające: Have a nice day Photo / Shutterstock

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw