Osoba używająca smartfona z wyświetlonymi holograficznymi interfejsami.

Twoja twarz wykorzystana w oszustwie. Specjalista od cyberbezpieczeństwa ostrzega przed AI

4 minuty czytania
Komentarze

Tak naprawdę każdy z nas może stać się „twarzą oszustwa”. Niesamowity wręcz rozwój sztucznej inteligencji i narzędzi ją wykorzystujących ma także swoją mroczną stronę. Niewiele potrzeba do tego, by nasza twarz i głos posłużyły komuś do tego, by wykorzystać je w oszustwie. Czy jest jakikolwiek sposób na to, by się przed tym ustrzec? Zapytaliśmy o to człowieka, który na sprawach cyberbezpieczeństwa „zjadł zęby”, a jego odpowiedź nie pozostawia złudzeń.

Wystarczy niewiele, by zostać „twarzą oszustwa”

Osoba trzymająca smartfon z wyświetlonym schematem rozpoznawania twarzy.
Fot. Have a nice day Photo / Shutterstock

Ostatnio zapytaliśmy w NASK, czy można chronić się przed niebezpieczeństwem, które przyniosły narzędzia związane ze sztuczną inteligencją. Oszuści są w stanie wykorzystać nasze zdjęcia oraz próbkę głosu, by stworzyć np. kampanię phishingową, gdzie to my będziemy „twarzą oszustwa”. Zapytaliśmy o to samo Mateusza Kopacza, CISO (Chief Information Security Officer) w Alma S.A., którego odpowiedź niestety nie napawa entuzjazmem. Nasze pytanie było proste. Czy można w jakiś sposób zwiększyć swoje bezpieczeństwo w obecnych czasach oraz zabezpieczyć się, by nie stać się „twarzą” oszustwa?

Prawdziwą odpowiedzią jest to zależy, ponieważ jeżeli nasz wizerunek i tembr głosu można bez trudu znaleźć od lat w sieci internet (chociażby z uwagi na profil publiczny konta Facebooku / Instagramie / LinkedIn, firmowej stronie www), to możemy założyć, że są to dane publiczne i w połączeniu z innymi informacjami mogą zostać wykorzystane do budowania scenariusza ataku.

Mateusz Kopacz, CISO (Chief Information Security Officer) w Alma S.A., wypowiedź dla Android.com.pl
Osoba w kapturze pracuje na laptopach z wyświetlaczami przedstawiającymi logo Instagrama i zielone kody.
Fot. TY Lim / Shutterstock

Biorąc pod uwagę to, że praktycznie wszyscy z nas w jakimś stopniu udostępniamy takie informacje, można zacząć się obawiać. Co więcej, takich oszustw w ostatnim czasie jest po prostu więcej.

Niestety adwersarze dostali bardzo potężną broń w postaci LLM’ów (Large Language Model) i potwierdzam, że skala dobrze przygotowanych i skutecznych akcji phishingowych od około 2 lat drastycznie rośnie.

Tak możemy się przed tym skutecznie chronić i/lub próbować mitygować to ryzyko, a należy rozpocząć ten proces od ustawień prywatności we wszystkich używanych mediach społecznościowych i tam zdecydować, jaki mamy apetyt na ryzyko. Kolejny krok to wybór rozszerzenia do ulubionej przeglądarki internetowej, który podpowiada, jaka część obrazu / tekstu, została wygenerowana przez LLM, a następnym zapoznanie się z książką pt. Wywieranie wpływu na ludzi. Teoria i praktyka Roberta B. Cialdiniego.

Mateusz Kopacz, CISO (Chief Information Security Officer) w Alma S.A., wypowiedź dla Android.com.pl

Co zrobić po ataku?

Osoba pracująca na laptopie z grafiką kodu komputerowego wyświetlaną na ekranie.
Fot. PeopleImages.com – Yuri A / Shutterstock

Widać, że mamy jakieś możliwości obrony przed tym, by nie stać się „twarzą oszustwa”, ale co zrobić w sytuacji, kiedy to się już wydarzy. Pierwsze co, to należy zgłosić sprawę na policję, a paragrafami, na które warto się wtedy powołać są:

  • nieuprawnione uzyskiwanie dostępu do informacji, systemu informatycznego oraz posługiwanie się urządzeniem podsłuchowym (art. 267 § 1–3 kk.)
  • bezprawne uzyskanie informacji (art. 267 § 4 kk.)
  • przestępstwo bezprawnego wytwarzania, pozyskiwania, zbywania lub udostępniania programów komputerowych (art. 269b § 1 kk.)

Kiedy już zgłosimy sprawę do odpowiednich służb i nadamy jej swój urzędowy bieg, należy też ostrzec naszych znajomych, rodzinę oraz współpracowników. To oni bowiem mogą być ofiarą takiego oszustwa, które my „firmujemy”.

Niestety tutaj mamy do czynienia z łańcuchem ataków, gdzie najpierw kopiowany jest głos i wizerunek, później numer telefonu (Caller ID spoofing), a w publicznie dostępnych bazach (czyli na liście znajomych na Facebooku/LinkedIn/Instagramie) wyszukiwani są znajomi oraz bliscy i to oni stają się ofiarami.

Mateusz Kopacz, CISO (Chief Information Security Officer) w Alma S.A., wypowiedź dla Android.com.pl

Pamiętajmy, że choć czasem ChatGPT nie działa, a sztuczna inteligencja nie udziela nam poprawnych odpowiedzi, to dobrze wykorzystana, potrafi przysporzyć wielu kłopotów. Dbajmy więc o naszą prywatność w sieci i chrońmy nie tylko dane, ale i wizerunek.

Źródło: opracowanie własne. Zdjęcie otwierające: Have a nice day Photo / Shutterstock

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw