Deepfake to poważne zagrożenie

Wystarczy zdjęcie i plik dźwiękowy, aby Einstein powiedział coś głupiego

2 minuty czytania
Komentarze

Deepfake to pojęcie, które określa podkładanie dźwięku, a właściwie słów pod filmy, na których ktoś mówi. To niewątpliwie dosyć proste wyjaśnienie, ale po prostu dzisiaj nie możemy być pewni, że dane nagranie jest autentyczne. Szczególnie teraz, gdy okazuje się, że wystarczą tytułowe, dwa składniki, aby stworzyć coś teoretycznie niebezpiecznego. Połączenie zdjęcia, pliku dźwiękowego oraz oczywiście nauki na czele z zaawansowanymi algorytmami pozwala na osiągnięcie efektów, które na dłuższą metę mogą przerażać.

Deepfake cały czas się rozwija — wystarczy tylko zdjęcie i plik dźwiękowy

Zacznijmy od tytułowego Einsteina. To za mało? W takim razie, co powiecie na to, aby Rasputin zaśpiewał Halo głosem Beyonce?

W całym procesie nie chodzi tylko o odpowiedni ruch ust, ale także o wyrażanie emocji, co pokazuje kolejne nagranie:

Za tym wszystkim stoi nowe badanie naukowców z londyńskiego Imperial College. Z pomocą przyszedł im także Samsung, który jest aktywnie zaangażowany w sztuczną inteligencję. To dla niej są tworzone takie odkrycia. Przełomowym w tym wszystkim jest to, że algorytmowi wystarczy zdjęcie. Dotychczas musiał być to film. Oczywiście przykład Alberta Einsteina pokazuje, że jeszcze kilka kwestii należy poprawić, ale efekt nadal jest powalający.

Zobacz też: Czekacie na 5G? Kolejne firmy dołączają do prac nad 6G.

Być może dzisiaj wydaje się to przełomowe i niedługo sztuczna inteligencja otrzyma naturalną twarz z na żywo podkładanym głosem. Jednak już pojawiają się teorie, które mówią, że za X lat faktycznie Einsteinowi włożą w usta słowa i okaże się, że teoria względności zostanie odrzucona. Płaskoziemcy i przeciwnicy 5G na pewno będą napędzani nowymi dowodami. Powstaną nowe teorie spiskowe i wielkie firmy znajdą kolejne sposoby na ogromne zarobki. Mimo wszystko podziwiam, jak rozwój deepfake jest szybki. Technologia ewidentnie potrzebna?

Źródło: The Verge

Motyw