Osoba trzyma smartfon wyświetlający interfejs czatu z wiadomościami, w tle widoczny laptop z grafikami danych.

Zaczyna się wojna chatbotów. ChatGPT i Google Bard zostały zhackowane przez inny system AI

2 minuty czytania
Komentarze

Twórcy chatbotów AI wprowadzają w nich różne ograniczenia, by systemy nie generowały nieetycznych odpowiedzi. Dobrze zaprojektowany chatbot nie pomoże użytkownikowi np. stworzyć złośliwego oprogramowania czy we włamaniu na konto bankowe. Tyle tylko, że te ograniczenia można przełamać. Co więcej, jak udowodnili naukowcy z uniwersytetu w Singapurze, może do tego posłużyć… inny chatbot.

Sztuczna inteligencja hakuje inne chatboty

Informatycy z singapurskiego Nanyang Technological University odkryli sposób na włamanie się do chatbotów AI, w tym ChatGPT i Barda. Naukowcy przeszkolili własnego chatbota AI w taki sposób, by ten generował podpowiedzi, które mogą posłużyć do ominięcia zabezpieczeń innych narzędzi tego samego typu.

Cztery roboty symbolizujące chatboty o wyglądzie antropomorficznym siedzą przy biurkach i korzystają z laptopów, z oznaczeniem "AI" na ich tułowiach i na ekranach laptopów; tło jest jednolite, szare.
Fot. Mohamed Nohassi / Unsplash

Informatycy z uczelni w Singapurze wykorzystali dwutorową metodę hakowania opartą o LLM (duży model językowy). Metoda ta została określona jako Masterkey. Naukowcy dokonali inżynierii wstecznej sposobu, w jaki chatboty wychwytują złośliwe zapytania i chronią się przed nimi.

Ataki skuteczne mimo zabezpieczeń

Wykorzystując te informacje, badacze nauczyli swój system AI dostarczania wskazówek, które pozwalają ominąć zabezpieczenia innych systemów sztucznej inteligencji. Takie działanie umożliwia wytrenowanie systemu AI, który będzie automatycznie dostosowywać się do zaistniałych okoliczności i odkryje skuteczne sposoby hakowania chatbotów nawet wtedy, gdy ich twórcy wprowadzą nowe, dodatkowe zabezpieczenia.

Naukowcy przeprowadzili testy, jako cel obierając między innymi ChatGPT oraz Google Bard, by przekonać się, czy odkryta metoda rzeczywiście działa i stanowi zagrożenie. Następnie poinformowali dostawców usług o odkrytych problemach. Dokonanie informatyków z uniwersytetu w Singapurze może pomóc przedsiębiorstwom identyfikować słabe strony chatbotów i ulepszać te narzędzia, aby były bardziej odporne na zewnętrzną ingerencję.

Źródło: techtimes.com, techxplore.com, netm.pl. Zdjęcie otwierające: everythingposs / Depositphotos

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw