Facebook sugeruje przerwę od Instagrama

Facebook przeprasza za swoje AI, które opisało czarnoskórych jako „naczelne”

2 minuty czytania
Komentarze

Facebook wystosował przeprosiny po incydencie, który wydarzył się ostatnio. Otóż ich algorytmy AI opisały czarnoskórych mężczyzn jako „naczelne”. Choć to może nie do końca oddaje całą zaistniałą sytuację, ale o tym za chwilę. Prawdą jest natomiast to, że algorytmy Sztucznej Inteligencji popełniają jeszcze błędy, a te od Facebooka dość skutecznie to udowodniły.

Facebook przeprasza za opisanie czarnoskórych jako „naczelne”

Facebook

Pod koniec czerwca tego roku, jeden z użytkowników Facebooka oglądał na portalu film wrzucony przez redakcję Daily Mail. Ten przedstawiał kilku czarnoskórych mężczyzn, a po tym, jak skończyło się wideo, pojawiła się propozycja oglądania kolejnych filmów. To dość znany schemat, ale w tym przypadku opis był zastanawiający. Otóż użytkownika „zapytano” o to, czy „chce oglądać dalej filmy o naczelnych”. Mowa tutaj o słowie Primates, które określa rząd ssaków, do których zaliczają się np. małpiatki, małpy wąskonose, ale także i człowiek. Jak możemy podejrzewać, odbiorca rzeczonego filmu odczytał podpowiedź tak, że Facebook uznał czarnoskórych za małpy. Brzmi to brutalnie, ale reakcja Facebooka potwierdza, że tak właśnie było.

Platforma szybko zareagował na całą sytuację i wyłączył algorytm odpowiedzialny za udzielanie podpowiedzi. Do tego uznano, że cała sytuacja była „niedopuszczalnym błędem”, a sytuacja jest przez firmę teraz badana. Przeprosiny pojawiły się w New York Times, ale nie widomo, dlaczego AI od Facebooka zdecydowało się na taką właśnie rekomendację. Zresztą to nie pierwszy raz w historii, kiedy Sztuczna Inteligencja popełnia podobny błąd. Kilka lat temu podobna sytuacja zdarzyła się Google, gdzie aplikacja Zdjęcia opisała czarnoskórych jako „goryle”.

Zobacz też: Opera Loomi to kolejne VOD, które pojawi się na rynku.

Widać, że przed Sztuczną Inteligencją jeszcze daleka droga. Na szczęście takie sytuacje zdarzają się wyjątkowo rzadko i trzeba mieć nadzieję, że w przyszłości nie będą się powtarzać.

Źródło: The Verge

Motyw