logo Open AI z napisem "OpenAI" umieszczone na szklanej ścianie w której odbijają się chmury

OpenAI nie takie otwarte. Czy to zagrożenie dla rozwoju AI?

5 minut czytania
Komentarze

Niedawna zmiana polityki OpenAI i niepublikowanie kodów źródłowych modeli może być wielkim zagrożeniem dla innowacji i rozwoju sektora sztucznej inteligencji.

Autorzy tekstu: Jan Czarnocki, dr Jan Kwapisz (Dijkstra Enterprise)

Sztuczna inteligencja, choć nie jest już nowością, wciąż rozwija się w bardzo szybkim tempie. Jednym z kluczowych czynników wpływających na ten postęp jest (lub była, jak zobaczymy dalej) kultura otwartości i wolnego dostępu do wyników badań naukowych. To dzięki temu setki tysięcy naukowców, inżynierów i programistów z całego świata mogło wspólnie pracować nad rozwojem sztucznej inteligencji.

Jednym z przykładów otwartości i udostępniania wyników badań przez długi czas było OpenAI, które na początku działało jako organizacja non-profit z siedzibą w San Francisco, która powstała w 2015 roku. Celem OpenAI było stworzenie sztucznej inteligencji, która będzie w stanie przyspieszyć postęp technologiczny i rozwiązać wiele globalnych problemów.

Początkowa otwartość OpenAI i nagła zmiana

Na początku OpenAI działało na zasadzie otwartości i udostępniania swoich wyników. W 2018 roku opublikowali oni swój pierwszy model sztucznej inteligencji o nazwie GPT-1 (Generative Pre-trained Transformer 1). Model ten był dostępny dla wszystkich zainteresowanych, co umożliwiło innym naukowcom i programistom naukę na tym modelu i dalszy jego rozwój.

chatgpt

Jednym z największych osiągnięć OpenAI było stworzenie GPT-3, który jest jednym z najpotężniejszych modeli sztucznej inteligencji na świecie. Model ten wykorzystuje technologię uczenia maszynowego, dzięki czemu potrafi generować teksty wysokiej jakości w wielu językach oraz generować kod. Wypuszczone niedawno GPT-4 potrafi także tworzyć tekst na podstawie obrazków oraz plików audio. GPT-3 został udostępniony publicznie, dzięki czemu każdy mógł na nim pracować, rozwijać go i używać go do swoich celów.

Jednakże ostatnio OpenAI ogłosiło zmianę polityki otwartości. Współzałożyciel organizacji, Sam Altman, powiedział, że otwarcie kodu źródłowego GPT było błędem i że OpenAI nie będzie już otwierać swoich modeli ani udostępniać informacji o tym, jak zostały wytrenowane, z powodu obaw o konkurencję. Decyzja ta wywołała falę krytyki ze strony społeczności naukowej i programistycznej.

W społeczności AI wrze, ponieważ OpenAI nie opublikowało szczegółów swojego nowego modelu GPT-4. Również według innego współzałożyciela OpenAI Ilya Sutskever koniec z otwartym publikowaniem kodu źródłowego to dobry wybór, ponieważ OpenAI konkuruje teraz z innymi usługami. W tej sprawie swoje trzy grosze dorzucił także i Elon Musk, lata temu zaangażowany w OpenAI.

Decyzje skomentował również Khalifeh Al Jadda – Dyrektor Data Science Google’a, który stwierdził, że to bardzo niebezpieczne wydarzenie dla przyszłości rozwoju sztucznej inteligencji i innowacji.

Dlaczego otwartość jest tak ważna?

Otwartość i wolny dostęp do wyników badań naukowych to fundament rozwoju i innowacji w nauce, w tym w dziedzinie sztucznej inteligencji. Udostępnianie wyników badań umożliwia innym naukowcom i programistom korzystanie z tych wyników, rozwijanie ich i dalsze badania, co prowadzi do szybszego postępu i osiągnięcia większych sukcesów. Otwartość również zachęca do współpracy i wymiany wiedzy, co pozwala na szybsze rozwiązywanie problemów.

W przypadku sztucznej inteligencji otwartość ma szczególne znaczenie, zwłaszcza w kontekście etyki i bezpieczeństwa, ważne jest, aby rozwój sztucznej inteligencji odbywał się w sposób otwarty i przejrzysty.

Ponadto otwarta kultura naukowa przyczynia się do zwiększenia zaufania społecznego do technologii AI. Ludzie są bardziej skłonni zaakceptować technologie, które są przejrzyste i mają jasne cele i ograniczenia. Dlatego ważne jest, aby firmy i organizacje działające w dziedzinie sztucznej inteligencji działały na zasadzie otwartości i transparentności.

W dużej mierze wspominany już Google jest aktywny w dziedzinie otwartości i publikowania wyników związanych z sztuczną inteligencją. Firma publikuje wiele algorytmów i bibliotek w ramach otwartego dostępu (Open Source), które są dostępne dla każdego, kto chce ich używać i przyczyniać się do ich rozwoju. Przykładami takich projektów są TensorFlow, który jest popularną biblioteką do uczenia maszynowego oraz TensorFlow.js, który umożliwia uruchamianie modeli TensorFlow w przeglądarce. A także Google Colab, który umożliwia uruchamianie modeli uczenia głębokiego w przeglądarce za darmo.

Google Bard AI sztuczna inteligencja

Ponadto Google przeprowadza regularne badania i publikuje wyniki w ramach różnych konferencji naukowych, serwisach preprintowych i czasopism o otwartym dostępie i czasopism, takich jak np. NeurIPS czy arXiv. Istnieją również inne publiczne technologie Google’a, takie jak Keras, TensorFlow Lite czy Google Cloud AI Platform.

Chociaż Google udostępnia wiele narzędzi AI w open source, nie ujawnia wszystkich swoich algorytmów AI publicznie. Niektóre z algorytmów Google’a są trzymane jako tajemnice handlowe lub są wykorzystywane wewnętrznie do zwiększenia wydajności i jakości usług firmy, czyli po to, żeby konkurować. Pewne ograniczenia i wykluczenia są oczywiście zrozumiałe.

Zamknięcie OpenAI na wzór „tajnych” firm

Decyzja OpenAI o zamknięciu swoich modeli i danych szkoleniowych jest krokiem wstecz w dziedzinie sztucznej inteligencji i może prowadzić do spowolnienia postępu w tej dziedzinie. Takie podejście jest korzystne jedynie dla kilku osób związanych z OpenAI, które zyskują znaczną przewagę konkurencyjną (tudzież ich inwestorów), ale jest szkodliwe dla dziedziny jako całości.

Ponadto zamknięcie OpenAI jest nie tylko szkodliwe dla rozwoju AI, ale również może prowadzić do powstania „czarnej skrzynki” (black box), przez którą naukowcy i programiści nie mają pojęcia, jak dany model działa, co z kolei prowadzi do zmniejszenia przejrzystości i zwiększenia ryzyka błędów i wad. To poważny problem, który może mieć bardzo negatywne konsekwencje dla postępów w dziedzinie sztucznej inteligencji.

opracowanie: Dijkstra Enterprise, fot. Depositphotos/Skorzewiak

Motyw