Investigadores de la Academia de Inteligencia Artifical de Pekín (BAAI, en sus siglas oficiales en inglés) han otorgado detalles sobre la segunda versión de Wu Dao, un modelo de Inteligencia Artificial (IA) multimodal diez veces más grande que GPT-3, la más grande hasta la fecha, y capaz de soportar 1,75 billones de parámetros.
MIRA: Telegram: todas las funciones de seguridad que puedes aprovechar en la app
La BAAI ha anunciado el lanzamiento de su nuevo modelo de aprendizaje profundo Wu Dao 2.0 en su conferencia anual este martes, según informa Engadget, unos meses después de la presentación de la primera versión del modelo, en marzo de este año.
La Academia ha desvelado que el modelo ha sido entrenado con 1,75 billones de parámetros, diez veces más que el modelo de OpenAI, GPT-3, lanzado en mayo de 2020, y hasta ahora “el modelo de lenguaje más grande y avanzado del mundo”, según aseguró en septiembre Microsoft, cuando se alió con OpenAI para llegar este modelo a sus soluciones.
El modelo chino es multimodal, lo que supone que puede realizar varias tareas a la vez. Como recogen en Endgaget, este puede escribir ensayos, poemas y coplas en chino tradicional, así como crear textos alternativos en base a una imagen estática e imágenes de carácter cercano al fotorrealismo según descripciones hechas en lenguaje natural.
MIRA: ¿Puede la realidad virtual ayudar a los adultos mayores? Un estudio de Stanford espera averiguarlo
La BAAI también ha demostrado que la IA puede generar ídolos virtuales ayudado por el chatbot social de Microsoft en China, Xiaolce, además de predecir las estructuras en tres dimensiones de proteínas.
Para entrenar al modelo en tantos parámetros y con tanta rapidez, informa Engadget, los investigadores desarrollaron un sistema de aprendizaje de código abierto denominado FastMoE. Este funciona en PyTorch y es similar al Mixture of Experts de Google, aunque tiene mayor flexibilidad debido a que permitió entrenar a la IA en GPUs convencionales y en supercomputadoras, y se puede ejecutar en hardware estándar.
La Academia indicó en la conferencia que los modelos grandes y los ordenadores de gran computación son el futuro de la Inteligencia Artificial. El presidente de BAAI, el Dr. Zhang Hongjiang, indicó que están construyendo “una planta de energía para el futuro de la IA, con mega datos y gran poder computacional”, y que con ello pueden “transformar los datos para alimentar las aplicaciones de IA del futuro”.
VIDEO RECOMENDADO
TE PUEDE INTERESAR
- ¿Puede la realidad virtual ayudar a los adultos mayores? Un estudio de Stanford espera averiguarlo
- Nvidia RTX 3080 Ti | Especificaciones técnicas de la nueva tarjeta de video
- Telegram: todas las funciones de seguridad que puedes aprovechar en la app
- WhatsApp | ¿Cómo activar la función para acelerar los audios?
- El evento de videojuegos Google for Games Developer Summit 2021 tendrá lugar en julio
- Android 12 | Las características del nuevo sistema operativo de Google
- Google I/O 2021 | Las novedades del evento de desarrolladores de Google
- Facebook crea una Inteligencia Artificial que puede olvidar datos como un cerebro humano
Síguenos en Twitter...
Contenido sugerido
Contenido GEC