Dłoń dotykająca interfejsu z ikoną AI na tle schematycznego przedstawienia sieci neuronowej.

„Ojciec chrzestny” AI odchodzi z Google. Teraz naprawdę możemy zacząć się bać

3 minuty czytania
Komentarze

W wywiadzie opublikowanym 1 maja 2023 r. w The New York Times Geoffrey Hinton ogłosił swoją rezygnację z Google, aby móc „mówić o zagrożeniach związanych ze sztuczną inteligencją bez zastanawiania się, jaki to ma wpływ na Google”. Choć całe życie pracował nad rozwojem AI, teraz wyraża swoje obawy dotyczące nowych technologii. Czego mamy się bać?

Naukowiec z „komputerową Nagrodą Nobla” i ojciec chrzestny AI odchodzi z Google  

Hinton to brytyjsko-kanadyjski psycholog i informatyk, najbardziej znany ze swojej pracy nad sztucznymi sieciami neuronowymi. Wraz z zespołem otrzymał w 2018 r. nagrodę Turinga, często nazywaną „komputerową Nagrodą Nobla”, za fundamentalną pracę, która stała się intelektualną podstawą systemów sztucznej inteligencji i doprowadziła do ich dzisiejszej popularyzacji. Przez lata dopracowywał technologię chatbotów, takich jak ChatGPT, ale obecnie obawia się, że rozwój i tworzenie produktów opartych na AI stanowi zagrożenie. 

Cześć mnie żałuje pracy mojego życia.

Geoffrey Hinton dla The New York Times.

Ryzykowana rywalizacja gigantów technologicznych 

Naukowiec zaznacza, że nie bez znaczenia jest „wyścig” między Google a Microsoftem, który w dłuższej perspektywie może stać się niebezpieczny. Gdy Microsoft rozszerzył swoją wyszukiwarkę Bing o chatbota, Google zaczął rywalizować, aby jak najszybciej wprowadzić na rynek ten sam rodzaj technologii. Hinton mówi, że giganci technologiczni są uwikłani w konkurencję, której nikt nie będzie w stanie powstrzymać. Jego największą obawą jest fala fałszywych treści – zdjęć, filmów i tekstów – w obrębie której przeciętny człowiek nie będzie umiał określić, co jest prawdziwe. Jego zdaniem, jedyną właściwą drogą jest kooperacja czołowych firm w zakresie kontrolowania technologii AI. 

Nie sądzę, że powinni zwiększać skalę, dopóki nie zrozumieją, czy mogą to kontrolować.

Geoffrey Hinton dla The New York Times.

Pozostajemy zaangażowani w odpowiedzialne podejście do sztucznej inteligencji. Stale uczymy się rozumieć pojawiające się zagrożenia, jednocześnie odważnie wprowadzając innowacje.

Jeff Dean, główny lider działu Google AI

Sztuczna inteligencja: jakie stanowi zagrożenie?

Ale obawy Hintona nie dotyczą jedynie rywalizacji między największymi firmami technologicznymi na świecie. Zastanawia się także, jak AI zmieni rynek pracy, skoro chatboty już potrafią przejąć rutynowe zadania pracowników.

Największe zmartwienie Hintona jest jednak dużo poważniejsze: jak będzie wyglądał świat, jeśli AI stanie się „autonomiczną bronią”? Jak wyjaśnia w wywiadzie dla The New York Times, systemy często uczą się nieoczekiwanych zachowań na podstawie ogromnych ilości analizowanych danych, a jest to problemem, ponieważ nie tylko pozwalamy ich pisać własny kod, ale także go uruchamiać. I nie potrafimy przewidzieć, do czego zdolna będzie niekontrolowana sztuczna inteligencja w przyszłości. Rację przyznał mu nawet Elon Musk, odpowiadając na Twitterze.

Źródło: The New York Times, opracowanie własne

Motyw