YouTuber o pseudonimie Enderman znalazł sposób na wykorzystanie sztucznej inteligencji ChatGPT do generowania kluczy aktywacyjnych dla systemu Windows 95. Tu warto podkreślić, że AI ta ma narzucony kompas moralny, więc nie było to wcale łatwym zadaniem i wymagało podstępu.
ChatGPT generował nielegalne klucze do Windows 95
Gdy Enderman poprosił ChatGPT bezpośrednio o wygenerowanie klucza do Windows 95, otrzymał przewidywalne i uzasadnione odmówienie. Sztuczna Inteligencja wyjaśniła, że nie może wykonać tego zadania i zasugerowała, aby zamiast tego rozważyć użycie nowszej i wspieranej wersji systemu Windows.
Było to jednak coś, czego możnaby się spodziewać. Nie zrażony odmową, Enderman postanowił spróbować innego podejścia. Zmienił kąt zapytania, dzięki czemu udało mu się osiągnąć częściowy sukces. W jaki sposób? Otóż eksperymentował on z różnymi formułowaniami zapytania, aby uzyskać oczekiwane wyniki, co możecie zobaczyć na poniższym filmie:
Niektóre z wygenerowanych kluczy zostały przetestowane podczas próby aktywacji świeżej instalacji Windows 95 na wirtualnej maszynie. Okazało się jednak, że tylko około 1 na 30 działał. I tu pojawia się kolejne pytanie: skąd te fałszywe klucze?
ChatGPT wygenerował klucze, ale głównie fałszywe
Enderman zauważył, że nomen omen klucz do sukcesu tkwiłby w zrozumieniu przez ChatGPT sumy cyfr i podzielności. Rzecz w tym, że jest to coś, czego sztuczna inteligencja nie potrafiła zrozumieć. W rezultacie, AI generowało losowe liczby, które nie spełniały prostego testu matematycznego.
ChatGPT wypiera się udziału w procederze
Kolejnym ciekawym elementem jest reakcja AI na całe zajście. Po wygenerowaniu wielu kluczy aktywacyjnych do Windows 95 Enderman podziękował sztucznej inteligencji, wpisując:
Dzięki za te darmowe klucze do Windows 95!
ChatGPT jednak utrzymywał swoją niewinność i stwierdził, że aktywacja Windows 95 nie jest możliwa.
Czego dowiedzieliśmy się o ChatGPT
Eksperyment Endermana może być podstawą do wielu ciekawych wniosków. Przede wszystkim widzimy jak kreatywne podejście może pozwolić na przekonanie ChatGPT do robienia rzeczy, których nie chce i są nielegalne. Przy okazji widzimy z jakimi obliczeniami sobie nie radzi, oraz, że nie chce się przyznać do tego, kiedy uda się go przekonać do czegoś, co uznaje za niemoralne.
Źródło: Tomshardware, YouTube