NVIDIA acaba de presentar microservicios de producción para NVIDIA Avatar Cloud Engine (ACE) que permiten a los desarrolladores de juegos, herramientas y middleware integrar modelos de Inteligencia Artificial (IA) generativa de última generación en los avatares digitales de sus juegos y aplicaciones.
Los nuevos microservicios ACE permiten a los desarrolladores crear avatares interactivos utilizando modelos de IA como NVIDIA Audio2Face™ (A2F), que crea animaciones faciales expresivas a partir de fuentes de audio, y NVIDIA Riva Automatic Speech Recognition (ASR), para crear aplicaciones personalizables de habla y traducción multilingüe utilizando IA generativa .
LEE TAMBIÉN: iPhone: trucos del teclado poco conocidos que todo usuario debe poner en práctica
Entre los desarrolladores que han adoptado ACE se encuentran Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft y UneeQ.
“Las tecnologías de IA generativa están transformando prácticamente todo lo que hacemos, y eso también incluye la creación de juegos y la jugabilidad”, afirma Keita Iida, vicepresidente de relaciones con los desarrolladores en NVIDIA. Para él, con NVIDIA ACE se abre nuevas posibilidades a los desarrolladores de juegos al poblar sus mundos con personajes digitales realistas y eliminar la necesidad de diálogos preestablecidos, lo que proporciona una mayor inmersión en el juego.
NVIDIA ACE
Los principales desarrolladores de juegos y avatares interactivos son pioneros en el uso de ACE y las tecnologías de IA generativa para transformar las interacciones entre jugadores y personajes no jugables (PNJ) en juegos y aplicaciones.
LEE TAMBIÉN: IA generativa e IA regenerativa: ¿en qué se diferencian, cuál es mejor y cómo transformarán el futuro?
Según Tencent Games, este es un momento clave para la IA en los juegos: “NVIDIA ACE y Tencent Games ayudarán a sentar las bases que llevarán a los videojuegos avatares digitales con personalidades e interacciones individuales y realistas”.
Dar vida a los personajes de los juegos
Históricamente, los PNJ se han diseñado con respuestas y animaciones faciales predeterminadas. Esto limitaba las interacciones con los jugadores, que tendían a ser transaccionales, de corta duración y, como resultado, omitidas por la mayoría de los jugadores.
En palabras de Purnendu Mukherjee, fundador y consejero delegado de Convai: “Los personajes generativos impulsados por IA en mundos virtuales desbloquean varios casos de uso y experiencias que antes eran imposibles”. “Convai está aprovechando Riva ASR y A2F para permitir NPCs realistas con tiempos de respuesta de baja latencia y animación natural de alta fidelidad”.
LEE TAMBIÉN: Las dos palabras “mágicas” de Harry Potter para encender y apagar la linterna de tu celular
Para mostrar cómo ACE puede transformar las interacciones de los NPC, NVIDIA ha trabajado con Convai para ampliar la demo NVIDIA Kairos, que debutó en Computex, con una serie de nuevas funciones y la inclusión de microservicios ACE.
En la última versión de Kairos, Riva ASR y A2F se utilizan ampliamente, mejorando la interactividad de los PNJ. El nuevo marco de Convai permite ahora a los PNJ conversar entre ellos y les da conocimiento de los objetos, lo que les permite recoger y entregar objetos en las zonas deseadas. Además, los PNJ pueden guiar a los jugadores hacia objetivos y atravesar mundos.
Los microservicios Audio2Face y Riva Automatic Speech Recognition ya están disponibles. Los desarrolladores de avatares interactivos pueden incorporar los modelos individualmente a sus procesos de desarrollo.
TE PUEDE INTERESAR
- Venom, la inteligencia artificial que ingresa a los aviones de combate: ¿reemplazará a los pilotos?
- Mickey Mouse sin derechos de autor: el tráiler del tétrico videojuego en que aparece
- Starlink despliega los primeros satélites con capacidad para dar cobertura para celulares
- ¿Qué hacer si te llaman por WhatsApp de un número internacional desconocido?
Contenido sugerido
Contenido GEC