kartka z napisem deepfake
LINKI AFILIACYJNE

Technologia deepfake coraz większym problemem. Eksperci biją na alarm

3 minuty czytania
Komentarze

Materiały, przy których tworzeniu została wykorzystana technologia deepfake, są coraz częstszym widokiem w internecie. Niektóre z nich mogą się wydawać zabawne, przynajmniej osobom, które wiedzą, że mają do czynienia ze spreparowanym nagraniem. Niestety tego typu treści mogą stanowić poważne zagrożenie, choćby przy wyborach.

Dlaczego technologia deepfake jest taka groźna?

Rozwój sztucznej inteligencji oraz coraz większa popularność narzędzi dotyczących technologii deepfake sprawiają, że nasilają się zagrożenia z tym związane. Mając do dyspozycji wiele próbek obrazu oraz dźwięku z wizerunkiem danej osoby da się spreparować fałszywe, bardzo realistyczne nagranie, na którym np. dany człowiek mówi lub robi coś, co tak naprawdę nie miało miejsca.

Ludzka twarz nie technologia deepfake z elektronicznymi obwodami na tle mapy świata utworzonej z cyfr binarnych.
Fot. Gerd Altmann / Pixabay

Pojawiają się obawy o to, jak technologia deepfake może wpłynąć na przebieg kampanii wyborczych, a nawet samych wyborów. W tym roku w Polsce odbędą się wybory samorządowe, wybierzemy również naszych przedstawicieli do Parlamentu Europejskiego. Z kolei w Stanach Zjednoczonych odbędą się wybory prezydenckie.

Technologia deepfake, napędzana przez AI, jest teraz tania, dostępna, potężna i może powodować szkody na naprawdę dużą skalę. Mogą z niej korzystać cyberprzestępcy, rządy i hakerzy-aktywiści, zarówno w ramach tworzenia strategicznych kampanii dezinformacyjnych, jak i jednorazowych, punktowych działań. Narzędzia takie jak ChatGPT i swobodnie dostępne generatywne AI (GenAI), umożliwiły szerszemu gronu osób o złych intencjach tworzenie kampanii dezinformacyjnych napędzanych przez technologię deepfake.

Kamil Sadkowski, analityk laboratorium antywirusowego ESET

Materiały wytworzone za pomocą deepfake mogą służyć choćby do podważania zaufania wyborców do konkretnego kandydata lub partii politycznej oraz przeciągnięcia wyborców na stronę ich oponentów. W niektórych sytuacjach mogą służyć także do podważania wiary w cały demokratyczny proces wyborczy.

Czy technologiczni giganci zareagują w wystarczającym zakresie?

Smartfon z wyświetlonym folderem "Social Media", zawierającym ikony popularnych aplikacji takich jak Instagram, Pinterest, YouTube, Clubhouse, Twitter i Facebook.
Fot. Adem Ay / Unsplash

Technologia deepfake szkodząca demokratycznym procesom to nie tylko obawy związane z przyszłością, ale coś, co już ma miejsce. W styczniu 2024 roku fałszywe nagranie prezydenta USA Joe Bidena zostało rozpowszechnione za pośrednictwem automatycznych rozmów telefonicznych wśród wyborców w New Hampshire. Wiadomość zachęcała do pozostania w domach w czasie prawyborów, by „zaoszczędzić swój głos na wybory w listopadzie”.

Technologiczne możliwości reagowania na zagrożenie dezinformacją wyborczą mogą być niewystarczające. Narzędzi jest mało i działają one powoli. Szczególnie groźne i trudne do zidentyfikowania mogą być przekazy rozpowszechniane w zamkniętych sieciach, takich jak np. grupy na komunikatorach. Trudno je śledzić i identyfikować oraz odpowiednio oznaczać pojawiające się w takich kanałach sfabrykowane materiały.

Kamil Sadkowski, analityk laboratorium antywirusowego ESET

Nowe prawo UE (Digital Services Act), wymaga od mediów społecznościowych, by te podejmowały aktywną walkę z próbami wyborczych manipulacji. OpenAI zapowiedziało implementację cyfrowych poświadczeń Koalicji na rzecz Pochodzenia i Autentyczności Treści (C2PA) dla obrazów generowanych przez DALL-E 3.

Technologia kryptograficznego znakowania wodnego – również testowana przez Metę i Google – ma na celu utrudnienie tworzenia fałszywych obrazów. Pozostaje kwestia tego, czy tego typu działania podejmowane w tym momencie są jeszcze wystarczające.

Źródło: DAGMA/informacja prasowa. Zdjęcie otwierające: Markus Winkler / Pexels

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw