Treści terrorystyczne na żywo na Facebooku – sztuczna inteligencja bezradna

Kacper Kościański Artykuły 2019-05-20

Z mediów społecznościowych korzystają miliardy ludzi na całym świecie. Niemal każdy wie, że największym tego typu portalem jest Facebook. To właśnie jego ogrom jest też częstą zachętą dla terrorystów, którzy strumieniują tam na żywo obraz z popełnianych przez siebie czynów. Nie trzeba być geniuszem, by zrozumieć, że chodzi im o jak największy zasięg. Nie tak dawno temu świat obiegła informacja o ataku w Nowej Zelandii, gdzie terrorysta zabił ponad 50 osób. Transmisja na żywo z popełniania zbrodni była dostępna na Facebooku. Oczywiście udostępnił ją sam terrorysta. Facebook jest świadomy problemu, aczkolwiek zaznacza, że AI nie jest póki co dobrym rozwiązaniem do walki z nim.

Usuwanie strumieniowanych treści terrorystycznych na Facebooku nie przez AI – przynajmniej na razie

benchmark AI smartfonów

Facebook za wszelką cenę stara się nie dopuścić do kolejnych transmisji o charakterze terrorystycznym. Nie tak dawno temu gigant poinformował, że transmisje na żywo zostaną wyłączone dla osób nawołujących do nienawiści. Chodzi tu m.in. o ludzi, którzy udostępniają na swoich profilach linki do stron terrorystów. Nie da się ukryć, że z pewnością nie wyeliminuje to problemu całkowicie, jednak jest to krok w dobrą stronę. Portal Marka Zuckerberga robi więc co może, by wymyślić nowy, skuteczny sposób na blokowanie takich treści. Wiele osób z pewnością ma teraz na myśli AI, czyli sztuczną inteligencję. Facebook mówi jednak, że jeszcze nie teraz.

Jakiś czas temu sam Mark Zuckerberg powiedział, że sztuczna inteligencja załatwi sprawę treści terrorystycznych. Według Yanna LeCuna, głównego naukowca Facebooka, AI ma przed sobą jeszcze długą drogę, nim zacznie być użyteczne w kontekście usuwania treści terrorystycznych, a zwłaszcza tych transmitowanych na żywo. Dodał także, że problem ten jest jeszcze bardzo daleki od rozwiązania. Niestety terroryści coraz częściej wykorzystują wspomniane wielokrotnie strumieniowanie na żywo, by pokazać światu wyrządzane przez siebie okrucieństwa. Dla nich tego typu udostępnianie wideo jest świetną szansą na osiągnięcie tzw. „viralowego efektu”, a dla Facebooka bardzo twardym orzechem do zgryzienia. Mówiąc krótko – tego typu treści muszą być moderowane przez ludzi. Przynajmniej na razie.

Ludzie lepsi od sztucznej inteligencji

facebook podsluch

Na chwilę obecną automatyczne wykrywanie i usuwanie treści terrorystycznych z Facebooka to zbyt ciężkie zadanie dla sztucznej inteligencji. Temat ten nie jest oczywiście obcy dla LeCuna, który przypomniał, że firma już wcześniej ostrzegała, że AI nie jest w stanie pojąć różnorodności tych filmów oraz wielu innych zmiennych. Sztuczna inteligencja jest świetna w usuwaniu materiałów, które zostały już wcześniej oznaczone przez człowieka jako niechciane (Facebook zaznacza, że np. automatycznie usuwa aż 99% treści Al-Kaidy), jednak wyłapywanie tych zupełnie nowych to już o wiele trudniejsze zadanie.

Zobacz także: Sprawdź swoją listę zakupów sprzed lat. Google wie o tobie wszystko

Aby sztuczna inteligencja nauczyła się czegoś nowego, musi bazować na tzw. „materiałach treningowych”. W tym przypadku musiałyby to być właśnie nagrania terrorystów, których na szczęście nie ma aż tak dużo. Teoretycznie można by użyć do tego zadania fragmentów z filmów, jednak wtedy AI blokowałoby także „udawaną” przemoc. Na chwilę obecną Facebook zostaje przy ludzkich moderatorach. To jeszcze nie czasy, by AI zajmowało się tak zaawansowanymi zadaniami.

Źródło: The Verge






Przewiń stronę, by przeczytać kolejny wpis
x