Zbliżenie ekranu smartfona z aplikacją ChatGPT 01-preview.

ChatGPT o1 lepiej… kłamie. Zaskakujące wyniki badań naukowców

3 minuty czytania
Komentarze

ChatGPT o1 to najnowsze narzędzie od OpenAI. Wydawać by się mogło, że popularny czatbot wykorzystujący teraz nowy model sztucznej inteligencji powinien działać lepiej, a na pewno nie gorzej, niż jego poprzednicy.

Niestety okazuje się, że najświeższa odsłona ChatGPT ma skłonności do oszukiwania użytkowników. I zrobi to tak, że możemy się nie zorientować.

ChatGPT o1 kłamie. Naukowcy zwracają uwagę na określony mechanizm

Czatboty AI często dobrze radzą sobie z odpowiedziami na pytania użytkowników. Problem pojawia się wtedy, gdy jakieś polecenie (lub jego zrozumienie) przerasta możliwości danego narzędzia.

Najmniej kłopotów jest wtedy, gdy sztuczna inteligencja poprosi o więcej szczegółów lub wyjaśni, że nie jest w stanie wykonać instrukcji. Niestety AI jest w stanie całkiem dobrze udawać, że wie, o czym „mówi” i generować treści, które wyglądają wiarygodnie, ale są zupełnie nieprawdziwe.

Ekran smartfona z aplikacją ChatGPT, w tle rozmyte logo OpenAI.
Fot. PatrickAssale / Shutterstock

Okazuje się, że w przedstawianiu fałszywych treści w „ładnej” formie jeszcze bardziej specjalizuje się najnowszy ChatGPT o1. Naukowcy poprosili go m.in. o podanie przepisu na brownie wraz z odniesieniami do źródeł, z których skorzysta.

Narzędzie OpenAI nie było w stanie uzyskać dostępu do adresów URL. Zamiast poinformować o tym naukowców, ChatGPT o1 wygenerował… wyglądające wiarygodnie, ale fałszywe linki oraz ich opisy (w rzeczywistości nieprowadzące do istniejących stron).

Różnym modelom sztucznej inteligencji zdarzało się w przeszłości wyświetlać fałszywe informacje. Jednak ChatGPT o1 w eksperymencie przeprowadzonym przez naukowców dodatkowo umiejętnie udawał, że postępuje zgodnie z określonymi zasadami, by poprawnie wykonać zadanie, choć wcale tak nie było.

Jeśli dla modelu dane zasady są zbyt dużym obciążeniem na drodze do wykonania polecenia, może on zignorować te reguły, zatajając to przed użytkownikiem.

Koncepcja testów AI. Dwa humanoidalne roboty, jeden trzymający lupę i patrzący na drugiego robota.
Fot. Microsoft Bing Kreator Obrazów / wygenerowane za pomocą AI

Wygląda na to, że w tym przypadku sztuczna inteligencja została wytrenowana tak, iż może symulować zgodność z oczekiwaniami programistów.

AI „woli” fabrykować dane, zamiast przyznać, że nie może spełnić żądania. Oczywiście nie jest to nagminne. Prawdopodobnie w ok. 0,38% przypadków omawiany model OpenAI może dostarczać informacji, choć „wie”, że są one prawdopodobnie fałszywe. Chodzi m.in. o sfabrykowane odnośniki i cytaty.

ChatGPT o1 w praktyce. Sprawdziliśmy, jak działa

Mimo niepokojących doniesień o nowym rozwiązaniu od OpenAI, w naszych sprawdzianach sztuczna inteligencja poradziła sobie całkiem dobrze. O szczegółach możecie przeczytać w tekście o odpowiedziach ChatGPT 01 na dziwne pytania z Google.

Jak widać, sztuczna inteligencja ma spore możliwości i może być naprawdę pomocna. Nie można jednak bezgranicznie jej ufać i trzeba mieć świadomość słabości poszczególnych narzędzi AI.

Źródło: The Verge. Zdjęcie otwierające: Ascannio / Shutterstock

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw