Graficzny interfejs użytkownika programu NVIDIA ACE do animacji z suwakami do regulacji emocji postaci, na pierwszym planie twarz cyfrowego modelu ludzkiego z wyrazem strachu, a na drugim planie widoczny ekran komputera z suwakami do regulowania intensywności emocji takich jak neutralność, zdumienie, gniew, figlarność, obrzydzenie, strach, smutek, radość czy ból.

NVIDIA ACE pokazuje pełnię swoich możliwości. Nowe demo zachwyca i przeraża jednocześnie [CES 2024]

3 minuty czytania
Komentarze

NVIDIA ACE, czyli autorski silnik do generowania mówiących NPC w grach, rozwija się w zatrważającym tempie. Oprócz nowych kart graficznych GeForce RTX 40 Super, na trwającym CES 2024 zobaczyliśmy również demo dwóch mikrousług dla twórców gier, mających ułatwić proces kreacji postaci NPC. Nie wiem jak wy, ale szczerze mówiąc, chciałbym, aby sztuczna inteligencja trzymała się z dala od branży gier.

NVIDIA pokazuje tłumaczenie mowa-twarz, także na inne języki

Porównanie dwóch wersji cyfrowych modeli 3D w NVIDIA Audio2Face głowy mężczyzny, z lewej strony "Poprzednia Wersja", z prawej "Nowa Wersja", obie na czarnym tle.
Fot. NVIDIA / mat. prasowe

NVIDIA Audio2Face to model AI, którego zadaniem jest przełożenie otrzymanej próbki dźwiękowej na rzeczywiste ruchy twarzy wymodelowanej przez nas postaci NPC. Na poniższym filmie możecie zobaczyć, jak AI dostosowuje poszczególne suwaki do otrzymanej treści, by właściwie wpłynąć na wyrażane przez postać emocje. Oczywiście, twórca może potem usiąść do pracy i edytować reakcje w poszczególnych sekundach tak, by odzwierciedlały one zamierzony efekt.

Jeżeli myślimy o tym narzędziu w kontekście zwykłych NPC, przechodniów na mieście, z którymi do tej pory nie mogliśmy wchodzić w interakcje, ma to oczywiście sens. Twórcy mają również do dyspozycji NVIDIA Riva Automatic Speech Recognition. To narzędzie do tworzenia aplikacji rozpoznających mowę i wykonywania generatywnych tłumaczeń na inne języki. Pomysł na udostępnienie takich narzędzi brzmi świetnie, aczkolwiek jako gracz mam mnóstwo obaw.

AI stanowi niebezpieczeństwo dla gier jako sztuki

Niestety, branża gier wielokrotnie nam już pokazywała, że gdy pojawia się możliwość oszczędności, wydawcy korzystają z niej aż za bardzo. Prosty przykład? Gdy konsole nie miały dostępu do internetu, gra musiała być działająca i gotowa w dniu premiery. Dziś nie jest to oczywistość, bo producenci często każą czekać miesiącami na łatki, umożliwiającą w pełni komfortową zabawę. Dlatego sytuacji nie pomaga fakt, że AI powoli zakrada się nawet do największych gier.

W takim The Finals, komentatorzy meczów są w pełni obsługiwani przez mowę generowaną w sztucznej inteligencji, przez co brzmią… sztucznie. Ograniczona, lecz bardziej ekspresyjna ścieżka nagrana przez rzeczywistego aktora głosowego nie zaburzałaby klimatu telewizyjnych rozgrywek. Posłuchajcie zresztą poniżej sztucznej mowy komentatorów w The Finals.

Obawiam się, że wraz z udostępnieniem takiego narzędzia szerszej publice, znajdzie się wydawca, który zrezygnuje z zatrudnienia aktorów dla głównych postaci w grze i zamiast tego, wygeneruje je z pomocą sztucznej inteligencji. Tu warto zaznaczyć, że z opisywanego narzędzia korzysta już m.in. Ubisoft, wydawca odpowiedzialny za takie serie jak Assassin’s Creed oraz Far Cry. To nie powinno być dla wielu graczy zaskoczeniem, gdy mówimy o wielkich, otwartych światach przez studia tego wydawcy.

Zdjęcie otwierające: NVIDIA / materiały prasowe

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw