Logo OpenAI na ciemnym tle z napisem "Hello GPT-4.0" w tle.
LINKI AFILIACYJNE

OpenAI rozwiązuje zespół, który pilnował, aby AI się nie zbuntowało

3 minuty czytania
Komentarze

Niedawno OpenAI podjęło decyzję o rozwiązaniu swojego zespołu „superalignment”, który zajmował się zarządzaniem zagrożeniami związanymi z rozwojem sztucznej inteligencji. Ta decyzja jest wyjątkowo zaskakująca, biorąc pod uwagę rosnące obawy związane z potencjalnymi nieprzyjemnościami, jakie mogą stwarzać zaawansowane systemy AI.

OpenAI rozwiązuje ważny zespół – jego członkowie zajmowali się zagrożeniami AI

Smartfon z logo OpenAI na ekranie leżący na klawiaturze laptopa podświetlonym różowym i niebieskim światłem.
Fot. Varavin88 / Shutterstock

Zespół superalignment został utworzony w lipcu 2023 roku przez Ilję Sutskewera i Jana Leike. Jego głównym celem było opracowanie metod zapobiegania sytuacjom, w których zaawansowane systemy AI mogłyby działać w sposób niezgodny z intencjami ludzi. Zespół ten miał pracować nad problemami związanymi z tzw. superinteligencją, czyli AI, które przewyższa ludzkie możliwości w większości zadań o wartości ekonomicznej.

Metody stosowane przez zespół obejmowały techniki, dzięki którym ludzie oceniali odpowiedzi generowane przez modele AI, a te oceny były wykorzystywane do dalszego treningu systemów. Jednak takie podejście stawało się coraz mniej efektywne w miarę rozwoju bardziej zaawansowanych modeli, które mogłyby generować odpowiedzi trudne do zrozumienia dla ludzkich oceniających​.

Ostatecznie zespół superalignment został rozwiązany, co wyraźnie nie spodobało się jego byłym członkom. Jan Leike na swoim profilu na platformie X zamieścił kilka wpisów, a oto najciekawsze z nich:

Wczoraj był mój ostatni dzień w roli szefa ds. zestrojenia, kierownika zespółu superalignment oraz dyrektora wykonawczego w OpenAI.

Jednak w ciągu ostatnich lat kultura i procesy bezpieczeństwa zeszły na dalszy plan ustępując miejsca błyszczącym produktom.

Jan Leike na platformie X
Tweet 1: "Wczoraj był mój ostatni dzień jako kierownika ds. alignacji, lidera ds. superalignacji oraz członka zarządu w @OpenAI."
Tweet 2: "Ale przez ostatnie lata kultura bezpieczeństwa i procesy zostały zdegradowane na rzecz błyszczących produktów."
Fot. X, zrzut ekranu

Dalsza część materiału znajduje się pod wideo

Co dalej z OpenAI oraz sztuczną inteligencją?

Smartfon z logo OpenAI na ekranie, na tle złotych heksagonalnych struktur.
Fot. Mehaniq / Shutterstock

Spekuluje się, że decyzja o rozwiązaniu zespołu mogła być podyktowana zmianami w priorytetach firmy. Chociaż OpenAI wciąż uznaje znaczenie zarządzania ryzykiem związanym z AI, wydaje się, że mniej uwagi poświęca się teraz tzw. egzystencjalnym zagrożeniom związanym z AI, a więcej praktycznym zastosowaniom i rozwijaniu możliwości technologii​.

Jakby tego było mało, krytyczne komentarze Jana Leike w kierunku OpenAI mogą sugerować, że firma zmierza w innym kierunku niż dotychczas. Niemniej zgodnie z najnowszymi informacjami jej właściciele nadal planują pracować nad problemami związanymi z bezpieczeństwem i kontrolą zaawansowanych systemów AI. Firma zamierza rekrutować kolejnych badaczy i przeznaczyć znaczne środki na kontynuowanie badań w tym obszarze. Nowe podejścia do problemu, takie jak skalowalne nadzorowanie ludzkie i techniki dekompozycji zadań, będą nadal badane i rozwijane.

Źródło: Business Insider, Popular Science. Zdjęcie otwierające: Mojahid Mottakin / Shutterstock

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw