Zgodnie z wcześniejszymi zapowiedziami OpenAI udostępniło GPT-4. Nowy model językowy ma być kamieniem milowym w deep learningu. Przejdźmy jednak do konkretów, czyli tego, co dokładnie potrafi GPT-4.
GPT-4 jako prawnik i coraz lepszy rozmówca
Gdy rozmawiamy z drugim człowiekiem, może on zareagować na to, co mu mówimy, ale także np. na zdjęcie, które mu pokażemy. GPT-3 nie posiada takiej zdolności i odpowiada wyłącznie na komunikaty tekstowe. GPT-4 jest na tym polu lepszy – jako dane wejściowe akceptuje zarówno tekst, jak i obrazy. Dane różnego rodzaju można przeplatać. Nowy model językowy w opisie OpenAI stanowi multimodalne rozwiązanie, które wprawdzie jest mniej zdolne od człowieka w wielu rzeczywistych scenariuszach, ale potrafi mieć podobne osiągnięcia do ludzi w profesjonalnych i akademickich testach.
OpenAI opisuje możliwości GPT-4 na przykładzie egzaminu prawniczego. Nowy model językowy ma osiągać wyniki zbliżone do 10% osób przystępujących do egzaminu z najlepszymi wynikami. Dla porównania GPT-3.5 mógł pochwalić się jedynie wynikami na poziomie w okolicach 10% najgorzej zdających. GPT-4 był dostosowywany przez pół roku, a jego twórcy twierdzą, że to ich najlepsze rezultaty w historii. Jednocześnie OpenAI zaznacza, że osiągniętym rezultatom nadal daleko do doskonałości.
Jak twierdzi OpenAI, w swobodnej rozmowie możliwości GPT-3.5 oraz GPT-4 mogą nie być mocno widoczne. Różnice mają się ujawnić, gdy zadanie otrzymane przez sztuczną inteligencję będzie odpowiednio złożone. Nowy model językowy ma być bardziej kreatywny i niezawodny, a także obsługiwać bardziej szczegółowe instrukcje.
GPT-4 – konkretne przykłady możliwości nowego modelu
Nowy model językowy od OpenAI znajduje zastosowanie w programowaniu. Potrafi wygenerować kod umożliwiający stworzenie prostej gry zręcznościowej.
Generowanie profesjonalnie wyglądających pism w reakcji na bardzo podstawowe informacje? GPT-4 pokazuje, że umie sobie z tym poradzić.
Odręczny szkic jako dane wejściowe i… projekt witryny internetowej jako dane wyjściowe. Oto rezultaty pracy GPT-4.
Opowiadanie innej osobie, o co chodzi w danym memie, może być frustrujące. Skutkuje bowiem tym, że mem przestaje być tak zabawny. Można jednak poprosić o pomoc AI.
GPT-4 lepszy od poprzedników… ale wciąż może popełniać błędy
OpenAI zaznacza, że pomimo swoich możliwości, GPT-4 ma podobne ograniczenia, co poprzednie modele. Nie jest w pełni wiarygodny i może popełniać błędy w rozumowaniu. To problemy, które znamy z ChatGPT. Sztuczna inteligencja może przez jakiś czas prowadzić dosyć naturalnie wyglądającą konwersację, by w pewnym momencie zacząć wymyślać zupełne bzdury lub pod wpływem sugestii zmieniać zdanie o swoich własnych możliwościach. Podczas korzystania z danych wyjściowych trzeba więc zachować ostrożność i dodatkowo weryfikować ich poprawność w przypadku chęci skorzystania z nich w poważnym zadaniu.
źródło: OpenAI, Twitter, fot. Depositphotos/chetroni