Mężczyzna w garniturze przemawiający podczas konferencji, w tle niebieskie panele oświetlone dynamicznie.

Tajemniczy przełom w sprawie myślącego AI. Q* miało przyczynić się do zwolnienia Altmana

5 minut czytania
Komentarze

Okazuje się, że odejście Altmana to tylko wierzchołek góry lodowej. W OpenAI dzieje się o wiele więcej niepokojących rzeczy. Wedle ustaleń Reutersa, które pochodzą od anonimowego źródła w firmie, główną osią wydarzeń jest projekt o nazwie Q*, który należy czytać jako Q-Star. Ma to być przełom w kierunku osiągnięcia sztucznej inteligencji ogólnej. Jednak sami pracownicy firmy obawiają się, że technologia ta jest zbyt niebezpieczna. 

Q* od OpenAI ma być większą rewolucją, niż ChatGPT

Sam Altman OpenAI Q*
Fot. OpenAI Developer Forum

Na wstępie warto zaznaczyć, że istnieje wiele typów AI. ChatGPT i inne usługi tego typu należą do kategorii generatywnych AI. Te wyróżniają się tym, że są w stanie tworzyć nowe treści na podstawie posiadanych danych. Warto tu jednak podkreślić, że działają one na zasadzie prawdopodobieństwa. To oznacza, że nie są one w stanie udzielić przemyślanych odpowiedzi, a jedynie generują słowa, które według ich obliczeń są najbardziej prawdopodobne w danym kontekście. 

Jednak tak naprawdę są one pozbawione prawdziwych umiejętności poznawczych. Nie mogą więc zrozumieć danego zagadnienia. Są także pozbawione zdolności do racjonalizacji i podejmowania decyzji. W dużym uproszczeniu AI tak naprawdę nie myśli, a jedynie udaje, że myśli. To właśnie dlatego nie radzi sobie z działaniami matematycznymi. Te wymagają konkretnej odpowiedzi opartej na zrozumieniu problemu. 

Oczywiście nie oznacza to, że kalkulatory, które przecież świetnie sobie radzą z zadaniami matematycznymi myślą. Te urządzenia jedynie wykonują obliczenia na podstawie prostego algorytmu. Sęk w tym, że ludzie nie działają w ten sposób, więc i AI, które ma na celu naśladowanie człowieka, nie może działać tak, jak robi to kalkulator. 

Projekt Q* to AI, która myśli

Czym więc projekt Q* różni się od wcześniejszych AI? Otóż ma mieć zdolność myślenia. A dokładniej rozumienia, wyciągania wniosków i udzielania konkretnych odpowiedzi. W ten sposób może nie tylko rozwiązywać zadania matematyczne w taki sam sposób, jak robi to człowiek, ale też konkurować z nami we wszystkich innych dziedzinach. Ma także być zdolne do podejmowania decyzji w taki sposób, w jaki my, ludzie to robimy. 

Projekt Q* jest niebezpieczny, ale konieczny

Oczywiście to nie oznacza, że projekt Q* jest samoświadome. Nie jest to AI znane z filmów Sci-Fi, które uważa samo siebie za niezależny byt i chce wymordować ludzkość przy pomocy robotycznych kopii Arnolda Schwarzeneggera. Nie to stanowi zagrożenie, a sam fakt, że ta AI może zastąpić ludzi w większości zadań. Nie jest to już typowy model językowy, który należy prowadzić za rączkę przy pomocy przemyślanych promptów, a coś znacznie więcej. I tak naprawdę wciąż nie wiadomo, co może z tego wyniknąć. 

Z tego też powodu rozwój Q* wywołał obawy w społeczności naukowej i etycznej. Eksperci z branży AI wyrażają zaniepokojenie szybkim wzrostem możliwości Sztucznej Inteligencji bez pełnego zrozumienia ich długoterminowych konsekwencji. Te obawy dotyczą nie tylko potencjalnych zagrożeń, ale także kwestii jej odpowiedzialnego rozwoju i wykorzystania. 

Warto dodać, że obawy te nie pochodzą tylko od obserwatorów zewnętrznych, ale przede wszystkim od samych pracowników OpenAI. Z tego też powodu ci napisali list do zarządu firmy. Niestety, żaden z podpisanych pod nim pracowników nie odpowiedział na prośby Reutersa o udostępnienie mediom jego pełnej treści. Wiadomo jednak, że wyrażono w nim obawy dotyczące zagrożeń, jakim jest dalszy rozwój Q*, oraz udostępnienie go komercyjnie bez dokładnej analizy ryzyka. 

Czemu jednak jest konieczny? Otóż obecnie wszystkie mocarstwa świata biorą udział w wyścigu na rozwój AI. I odpuszczenie go sobie może być znacznie gorsze w skutkach. Zwłaszcza, że taka AI i tak powstanie. Jeśli nie w OpenAI, to w jednej z agencji USA, lub w Chinach.

Q* a zwolnienie Altmana

Według informatora Reutersa list ten miał znaczący wpływ na decyzję zarządu o zwolnieniu Sama Altmana, CEO firmy, mimo jego znaczących wkładów w rozwój OpenAI. Powodem miało być utracone zaufanie do jego przywództwa w kontekście zarządzania ryzykiem związanym z nowymi technologiami. Jednak warto pamiętać, że nie jest to oficjalne stanowisko firmy, a osoba, która to stwierdziła, pozostaje anonimowa. 

Faktem jest jednak to, że po zwolnieniu Altmana ponad 700 pracowników firmy zagroziło rezygnacją, deklarując jednocześnie chęć przejścia do Microsoftu. W obliczu takiego rozwoju wydarzeń zarząd OpenAI postanowił przemyśleć swoją decyzję i przywrócić Altmana na stanowisko. Oczywiście możliwe jest, że źródło podało prawdziwą informację o skali wpływu tego listu. Po prostu pracownicy wyrażający swoje obawy nie chcieli zwolnienia Altmana, a jedynie zmiany działań firmy. Możliwe jest również, że w OpenAI wykształciły się dwa obozy. Tu jednak pozostają nam jedynie spekulacje. 

Czy jednak w świetle tych wątpliwości informacje dotyczące samego projektu Q* można uznać za wiarygodne? Jak najbardziej. Otóż w odpowiedzi na zapytania Reutersa OpenAI potwierdziło istnienie projektu Q* oraz faktu napisania listu przez pracowników. Jednak odmówiło komentarzy na temat szczegółów sytuacji.

Źródło: Reuters, X (dawny Twitter)

Motyw