pornografia dziecięca iphone

Szkolenie AI Apple do wyszukiwania dziecięcej pornografii wywołuje falę krytyki

3 minuty czytania
Komentarze

W zeszłym tygodniu Apple poinformowało, że iOS 15 zostanie wyposażony w funkcję ochrony dzieci przed nadużyciami. Te natomiast wzbudziły uzasadnione kontrowersje wśród obrońców prywatności. System bowiem będzie skanować wiadomości użytkowników ich zdjęcia, aby znaleźć obrazy przedstawiające nadużycia wobec dzieci. To jednak oznacza, że Apple musi się wyposażyć w olbrzymie ilości dziecięcej pornografii, tak aby wyszkolić swoją AI do jej wyszukiwania.

Kontrowersje wokół szukania pornografii dziecięcej na iPhone

pornografia dziecięca iphone

Sam fakt, że firma musi się zaopatrzyć w duże ilości materiału do szkolenia AI, sam w sobie jest niezwykle kontrowersyjny. Oznacza to bowiem, że firma wykorzysta do tego zdjęcia i filmy z krzywdzonymi dziećmi, czyli coś, co powinno po prostu zniknąć. Z drugiej strony wytłumaczeniem tego może być to, że to uchroni osoby obecne na tych zdjęciach przed ich dalszym rozprzestrzenianiem. Nie jest jednak jasne, czy wszystkie ofiary pedofilii patrzą na to w ten sposób.

Zobacz też: Orange buduje sieć światłowodową w małych miastach i wsiach

Dodatkowo pracownicy firmy muszą dokonywać przynajmniej częściowej selekcji treści, przez co nie tylko algorytm będzie na to patrzył. Co za tym idzie, część z pracowników firmy zostanie zmuszona do oglądania tych treści, co także może się negatywnie odbić na ich zdrowiu psychicznym.

Krytyka bezpieczeństwa

Kolejną kwestią jest ustanowienie precedensu przez Apple. Korzystając z tego wyłomu, rządy mogą naciskać na firmę do poszukiwania innych potencjalnie nielegalnych materiałów. Warto tu zwrócić uwagę, że nielegalne treści w wielu krajach to także te, które krytykują władze. Tym samym sam iOS stałby się oprogramowaniem szpiegującym. A właściwie już nim będzie, ponieważ posiadane treści będą skanowane w poszukiwaniu konkretnego typu materiału.

Oburzenie pracowników

Anonimowi pracownicy Apple powiedzieli Reutersowi, że plan skanowania obrazu wywołał wewnętrzny wątek Slack na 800 komentarzy. Większość pracowników wyrażała w nim obawy, że ten rodzaj kontroli może prowadzić do jego nadużywania. Co prawda już wcześniej wewnątrz firmy miały miejsce debaty tego typu, jednak po raz pierwszy były one tak gorące. Wielu pracowników zwróciło  uwagę, że ten ruch szkodzi reputacji firmy na prywatności użytkownika i bezpieczeństwa.

Zobacz też: Disney+ w Polsce nie w tym roku – start platformy ciągle się opóźnia

Warto przypomnieć, że w przeszłości Apple wielokrotnie odmawiało naruszenia prywatności przestępców tylko po to, aby uniknąć wyłomu potencjalnie godzącego w prywatność użytkowników. W świetle nowych planów to wydaje się tracić na znaczeniu.

AI omylnym jest

Ostatnim z problemów jest omylność AI. Możliwe, że jako pornografię dziecięcą określi ono zdjęcia dorosłej, ale drobnej kobiety ze skromnym biustem. Oczywiście osoba, która takie fotografie ma na smartfonie, nie zostanie ukarana, ponieważ treści te zostaną zweryfikowane przez ludzi. I tu jest problem: pracownicy firmy zobaczą prywatne zdjęcia kobiety bez jej zgody, co nigdy nie powinno mieć miejsca.

Źródło: TechSpot

Motyw