Osoba trzyma smartfon wyświetlający interfejs czatu z wiadomościami, w tle widoczny laptop z grafikami danych.
LINKI AFILIACYJNE

Chatboty udają zbrodniarzy wojennych ku uciesze skrajnej prawicy. AI może zradykalizować społeczeństwo

3 minuty czytania
Komentarze

Wraz z rozwojem sztucznej inteligencji w sieci pojawiły się liczne chatboty, z którymi można rozmawiać. Większość z nich to przydatne narzędzia, ale pojawiły się też takie, które mogą stanowić zagrożenie. Niektóre wcielają się w… zbrodniarzy wojennych.

Chatboty udają zbrodniarzy

Słysząc o chatbotach, większość osób zapewne ma na myśli narzędzia typu ChatGPT. Niektórzy przypomną sobie o charakterystycznych okienkach czatu, które wyskakują na stronach firm i sklepów internetowych. Automatycznie generowane odpowiedzi mają dać szansę na rozwiązanie problemu przed połączeniem z konsultantem.

chatboty AI, Czterech animowanych robotów o wyglądzie antropomorficznym siedzących przy biurkach i korzystających z laptopów, z oznaczeniem "AI" na ich tułowiach i na ekranach laptopów; tło jest jednolite, szare.
Fot. Mohamed Nohassi / Unsplash

Chatboty mogą jednak być także zagrożeniem. Na platformie Gab AI stworzonej przez skrajnie prawicową sieć społecznościową w USA można „spotkać” chatboty naśladujące lub parodiujące m.in. terrorystów i zbrodniarzy, takich jak Osama bin Laden, Adolf Hitler i Władimir Putin.

Możliwość tworzenia nowych botów mają sami użytkownicy, więc ograniczeniem jest jedynie ich wyobraźnia. Gab AI jest bowiem związana z Gab Social, kontrowersyjną alternatywą dla platformy X. W teorii miała ona zapewniać brak cenzury i wolność słowa, której rzekomo brakowało bardziej mainstreamowym sieciom społecznościowym. W praktyce okazała się siedliskiem spisków oraz ekstremizmu.

Tu nasuwa się skojarzenie z rodzimymi przedsięwzięciami, które miały być ostoją wolności słowa, ale coś poszło nie tak (pamiętacie jeszcze serwis BanBye albo portal Albicla?), tylko tym razem sprawa jest poważniejsza. Nie chodzi bowiem tylko o miejsce, w którym osoby o skrajnych poglądach mogą dodawać swoje treści, lecz o przestrzeń, w której prężnie działa sztuczna inteligencja.

Dlaczego chatboty mogą być zagrożeniem?

W 2018 roku o Gab Social było głośno, bo okazało się, że sprawca strzelaniny w Pittsburghu publikował posty na tej platformie niedługo przed czynem, którego się dopuścił. W zdarzeniu zginęło 11 osób.

Osoba trzymająca i przeglądająca smartfon z klawiaturą QWERTY i otwartym ekranem czatu.
Fot. Asterfolio / Unsplash

Same chatboty również mogą być groźne. W 2023 roku za próbę zabicia królowej Elżbiety II został skazany mężczyzna. Twierdził on, że do tego czynu zachęcał go chatbot AI. Inny mężczyzna popełnił samobójstwo po sześciotygodniowej rozmowie o kryzysie klimatycznym z chatbotem w aplikacji Chai.

Pojawia się więc pytanie, czy chatboty nawiązujące do kontrowersyjnych postaci, a nawet do zbrodniarzy nie wpłyną na radykalizację społeczeństwa. Już teraz jest to istotny problem, na który wpływają m.in. algorytmy przyczyniające się do tego, że docierają do nas głównie treści utwierdzające nas w naszych przekonaniach. Niekontrolowana sztuczna inteligencja może sprawić, że będzie tylko gorzej.

Źródło: RP. Zdjęcie otwierające: everythingposs / Depositphotos

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw