Mężczyzna rozmawiający do mikrofonu RODE podczas nagrywania podcastu, siedząc na krześle obok okna i rośliny, w jasnym swetrze z golfem.
LINKI AFILIACYJNE

Były pracownik OpenAI: chcieli zaoferować AI Rosji lub Chinom. Model „kto da więcej”

3 minuty czytania
Komentarze

Chiny i Rosja miały toczyć wojnę przetargową o dostęp do ogólnej sztucznej inteligencji (AGI) od OpenAI. Jak twierdzi były pracownik spółki, zarząd patrzy tam przede wszystkim na pieniądze, a nie bezpieczeństwo sztucznej inteligencji. 

OpenAI i sprzedaż AI Rosji lub Chinom

AGI w OpenAI. Grafika przedstawiająca dłoń na tle elementów interfejsu użytkownika z napisem "AGI Artificial General Intelligence".
Fot. Lunagephoto / Shutterstock

W niedawnym wywiadzie były pracownik OpenAI złożył oświadczenie dotyczące planów byłego pracodawcy. Dotyczy ono ogólnej sztucznej inteligencji (AGI). Chodzi o narzędzie, które ma być nieporównywalnie lepsze niż popularna dziś generatywna AI, jaką znamy z narzędzi pokroju ChatGPT czy Gemini.  

Leopold Aschenbrenner, były badacz ds. bezpieczeństwa OpenAI, odszedł z firmy, ponieważ nie podobało mu się to, jak spółka pod rządami Sama Altmana zaczęła podchodzić do kwestii etyki i zabezpieczeń.

W trakcie rozmowy w podcaście technologicznym Dwarkesha Patela były pracownik znanej firmy wyznał, że jego dawny pracodawca planował już kilka lat temu rozpoczęcie globalnej wojny przetargowej o dostęp do AGI.

Wywiad z udziałem Aschenbrennera.

W założeniu, ten kraj, który zapewniły lepsze warunki finansowe, miałby dostać pierwszeństwo do technologii.

W pewnym momencie, kilka lat temu, kierownictwo OpenAI przedstawiło plan finansowania i sprzedaży AGI poprzez rozpoczęcie wojny przetargowej między rządami Stanów Zjednoczonych, Chin i Rosji.

Leopold Aschenbrenner, były badacz ds. bezpieczeństwa OpenAI w wywiadzie dla Dwarkesha Patela

Gość dodał też, że by ł zaskoczony, że jego dawny pracodawca był „gotów sprzedać AGI chińskim i rosyjskim rządom”. Spółka miała też używać argumentu w stylu „jeśli tego nie zrobicie, Chiny to zrobią”, kiedy negocjowałaby np. z USA.

Aschenbrenner nie odszedł z własnej inicjatywy. Został zwolniony

Badacz ponadto ujawnił, że został zwolniony z OpenAI na początku tego roku. Powód? Jak twierdzi, oficjalnym powodem było to, co usłyszał od ludzi z zasobów ludzkich: był problem z notatką, jaką wysłał do wyższych rangą pracowników firmy. W notatce ostrzegać miał o potencjalnej kradzieży „kluczowych tajemnic algorytmu” przez Komunistyczną Partię Chin.

Specjalista wyjaśnił, że dział HR uznał notatkę ostrzegawczą za „rasistowską” i „niekonstruktywną”, a po jej rozpowszechnieniu po firmie zaczął otrzymywać pytania m.in. o to, czy jest lojalny wobec spółki. Ostatecznie został zwolniony za rzekomy wyciek danych, jakiego miał się dopuścić w trakcie burzy mózgów z zewnętrznymi ekspertami, dotyczącej gotowości OpenAI w kontekście wprowadzania środków bezpieczeństwa.

W praktyce Aschenbrenner przekonuje, że udostępnił informację o tym, iż „AGI planowana jest na 2027-2028 rok”. Była to prognoza OpenAI, ale o poufnym charakterze. W rezultacie HR miało już argument za tym, aby zwolnić pracownika i zrobiło to. 

Rzecznik OpenAI już skomentował te doniesienia amerykańskiemu Business Insiderowi. Powiedział, że firma „podziela zobowiązanie Aschenbrennera do budowy bezpiecznego AGI, ale nie zgadza się z wieloma rzeczami, jakie powiedział na temat pracy w OpenAI”.

Jeśli tropikalna pogoda w Polsce doskwiera także tobie, podziel się z nami swoimi sposobami radzenia sobie z upałami!

Źródło: YouTube. Zdjęcie otwierające: Youtube / Dwarkesh Patel

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw