Niedawno OpenAI podjęło decyzję o rozwiązaniu swojego zespołu „superalignment”, który zajmował się zarządzaniem zagrożeniami związanymi z rozwojem sztucznej inteligencji. Ta decyzja jest wyjątkowo zaskakująca, biorąc pod uwagę rosnące obawy związane z potencjalnymi nieprzyjemnościami, jakie mogą stwarzać zaawansowane systemy AI.
Spis treści
OpenAI rozwiązuje ważny zespół – jego członkowie zajmowali się zagrożeniami AI
Zespół superalignment został utworzony w lipcu 2023 roku przez Ilję Sutskewera i Jana Leike. Jego głównym celem było opracowanie metod zapobiegania sytuacjom, w których zaawansowane systemy AI mogłyby działać w sposób niezgodny z intencjami ludzi. Zespół ten miał pracować nad problemami związanymi z tzw. superinteligencją, czyli AI, które przewyższa ludzkie możliwości w większości zadań o wartości ekonomicznej.
Metody stosowane przez zespół obejmowały techniki, dzięki którym ludzie oceniali odpowiedzi generowane przez modele AI, a te oceny były wykorzystywane do dalszego treningu systemów. Jednak takie podejście stawało się coraz mniej efektywne w miarę rozwoju bardziej zaawansowanych modeli, które mogłyby generować odpowiedzi trudne do zrozumienia dla ludzkich oceniających.
Ostatecznie zespół superalignment został rozwiązany, co wyraźnie nie spodobało się jego byłym członkom. Jan Leike na swoim profilu na platformie X zamieścił kilka wpisów, a oto najciekawsze z nich:
Wczoraj był mój ostatni dzień w roli szefa ds. zestrojenia, kierownika zespółu superalignment oraz dyrektora wykonawczego w OpenAI.
Jednak w ciągu ostatnich lat kultura i procesy bezpieczeństwa zeszły na dalszy plan ustępując miejsca błyszczącym produktom.
Jan Leike na platformie X
Dalsza część materiału znajduje się pod wideo
Co dalej z OpenAI oraz sztuczną inteligencją?
Spekuluje się, że decyzja o rozwiązaniu zespołu mogła być podyktowana zmianami w priorytetach firmy. Chociaż OpenAI wciąż uznaje znaczenie zarządzania ryzykiem związanym z AI, wydaje się, że mniej uwagi poświęca się teraz tzw. egzystencjalnym zagrożeniom związanym z AI, a więcej praktycznym zastosowaniom i rozwijaniu możliwości technologii.
Jakby tego było mało, krytyczne komentarze Jana Leike w kierunku OpenAI mogą sugerować, że firma zmierza w innym kierunku niż dotychczas. Niemniej zgodnie z najnowszymi informacjami jej właściciele nadal planują pracować nad problemami związanymi z bezpieczeństwem i kontrolą zaawansowanych systemów AI. Firma zamierza rekrutować kolejnych badaczy i przeznaczyć znaczne środki na kontynuowanie badań w tym obszarze. Nowe podejścia do problemu, takie jak skalowalne nadzorowanie ludzkie i techniki dekompozycji zadań, będą nadal badane i rozwijane.
Źródło: Business Insider, Popular Science. Zdjęcie otwierające: Mojahid Mottakin / Shutterstock
Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.