deepfake

Google i Microsoft na wojnie z deepfake. Nowe narzędzia pozwolą sprawdzić, czy możesz ufać swoim oczom

3 minuty czytania
Komentarze

Dzięki narzędziom AI do generowania grafiki, tworzenie fotorealistycznych deepfake stało się naprawdę proste. I oczywiście, ma to swoje zalety: każdy może stworzyć taką grafikę, jakiej potrzebuje. Problem w tym, że zasada ta tyczy także przestępców. I kiedy jeden wygeneruje sobie obraz smoka na swoim podwórku, to inny może stworzyć deepfake prezentujące brutalność policji, zamach, czy pornograficzną treść z konkretną osobą, co już jest dużym problemem. Takie fałszywe obrazy stanowią coraz większe kłopot, a wkrótce nie będziemy mogli ufać nawet własnym oczom. Na szczęście Google podejmuje aktywne kroki, aby przeciwdziałać temu zjawisku.

Google deepfake generowane przez AI

deepfake

Mowa tu o kompleksowym, wielowarstwowym rozwiązaniu opartym na AI – w końcu ogień czasami warto zwalczać ogniem. Pierwszą z planowanych przez Google funkcji jest Informacje o tym obrazie. I chociaż sama nazwa nie jest zbyt chwytliwa, to świetnie oddaje to, do czego służy. Jej celem jest dostarczanie dodatkowego kontekstu na temat obrazu, takiego jak data, kiedy obraz lub podobne do niego zostały zaindeksowane przez Google, miejsce, gdzie pojawiły się online po raz pierwszy, i gdzie jeszcze są dostępne. Dzięki temu użytkownicy będą mogli zidentyfikować oryginalne źródło obrazu oraz kontekst, w którym jest używany. Wreszcie, funkcja ta ma pomóc w identyfikacji dowodów obalających, które mogły zostać dostarczone przez organizacje prasowe​.

Co więcej, Google nie działa samotnie. Firma współpracuje z innymi platformami i dostawcami usług, aby oznaczać obrazy generowane przez AI. Wśród zaangażowanych w projekt partnerów są Midjourney i Shutterstock, czyli jedne z najpopularniejszych platform skupiających się wyłącznie na obrazie. Te we współpracy z gigantem również mają dokładać wszelkich starań, aby ujawnić deepfake.

Nie tylko Google wzięło na cel deepfake

Inicjatywa Google sama w sobie wygląda naprawdę dobrze. Cieszy jednak fakt, że doczekała się ona także konkurencji, która może działać nieco inaczej, podnosząc tym samym skuteczność podczas szukania prawdy. Mowa tu o Truepic, czyli rozwiązaniu wspieranym przez Microsoft. W jego skład wchodzą systemy gwarantujące, że obraz nie został zmieniony od momentu jego powstania do dostarczenia odbiorcom. Tym samym przerobienie krążących już po sieci zdjęć stanie się o wiele trudniejsze, jednak nie będzie niemożliwe.

Walka z deepfake to wyścig zbrojeń

Nie ma jednak co popadać w nadmierny hurraoptymizm. Kamil Sadkowski, starszy specjalista ds. cyberbezpieczeństwa ESET, mimo że widzi olbrzymi potencjał tych rozwiązań, zwraca jednak uwagę na to, że druga strona nie powiedziała jeszcze ostatniego słowa:

To ogromny krok do przodu w walce z dezinformacją i fałszywymi danymi pojawiającymi się w sieci. Wszelkie narzędzia stworzone w celu ograniczenia ryzyka wykorzystania obrazów i informacji w niewłaściwym kontekście, torują drogę do bezpieczniejszego i bardziej świadomego korzystania z Internetu. Zmanipulowane obrazy nie są niczym nowym, ale szybkość i łatwość ich tworzenia to obecnie ogromne zagrożenie. W obliczu braku narzędzi do weryfikowania autentyczności oraz regulacji na poziomie prawnym każda dodatkowa informacja, która pomoże użytkownikom podjąć właściwe decyzje – jest na wagę złota. Będą jednak na pewno także sposoby na obejście planowanych narzędzi, szczególnie poprzez używanie sztucznej inteligencji poza powszechnie znanymi platformami. Należy więc nadal zachowywać daleko posuniętą ostrożność, bo generowanie fałszywych obrazów to wciąż rozwijające się zagrożenie.

Dlatego też nie należy traktować rozwiązań Google i Microsoftu jako ostatecznego testu, a jedynie sugestię tego, czy mamy do czynienia z deepfake, czy też nie. 

Źródło: Informacja prasowa/ESET, Bloomberg, Twitter

Motyw