Los científicos quieren construir un 'cerebro cuántico' basado en las propiedades cuánticas de los materiales. (Foto: Pixabay)
Los científicos quieren construir un 'cerebro cuántico' basado en las propiedades cuánticas de los materiales. (Foto: Pixabay)
Agencia Europa Press

Agencia de noticias

Investigadores de la Academia de Inteligencia Artifical de Pekín (BAAI, en sus siglas oficiales en inglés) han otorgado detalles sobre la segunda versión de Wu Dao, un modelo de  (IA) multimodal diez veces más grande que GPT-3, la más grande hasta la fecha, y capaz de soportar 1,75 billones de parámetros.

MIRA: Telegram: todas las funciones de seguridad que puedes aprovechar en la app

La BAAI ha anunciado el lanzamiento de su nuevo modelo de aprendizaje profundo Wu Dao 2.0 en su conferencia anual este martes, según Engadget, unos meses después de la presentación de la primera versión del modelo, en marzo de este año.

La Academia ha desvelado que el modelo ha sido entrenado con 1,75 billones de parámetros, diez veces más que el modelo de OpenAI, GPT-3, lanzado en mayo de 2020, y hasta ahora “el modelo de lenguaje más grande y avanzado del mundo”, según en septiembre Microsoft, cuando se alió con OpenAI para llegar este modelo a sus soluciones.

Inteligencia artificial. (Imagen: Pixabay)
Inteligencia artificial. (Imagen: Pixabay)

El modelo chino es multimodal, lo que supone que puede realizar varias tareas a la vez. Como recogen en Endgaget, este puede escribir ensayos, poemas y coplas en chino tradicional, así como crear textos alternativos en base a una imagen estática e imágenes de carácter cercano al fotorrealismo según descripciones hechas en lenguaje natural.

MIRA: ¿Puede la realidad virtual ayudar a los adultos mayores? Un estudio de Stanford espera averiguarlo

La BAAI también ha demostrado que la IA puede generar ídolos virtuales ayudado por el chatbot social de Microsoft en China, Xiaolce, además de predecir las estructuras en tres dimensiones de proteínas.

Para entrenar al modelo en tantos parámetros y con tanta rapidez, informa Engadget, los investigadores desarrollaron un sistema de aprendizaje de código abierto denominado FastMoE. Este funciona en PyTorch y es similar al Mixture of Experts de Google, aunque tiene mayor flexibilidad debido a que permitió entrenar a la IA en GPUs convencionales y en supercomputadoras, y se puede ejecutar en hardware estándar.

La Academia indicó en la conferencia que los modelos grandes y los ordenadores de gran computación son el futuro de la Inteligencia Artificial. El presidente de BAAI, el Dr. Zhang Hongjiang, indicó que están construyendo “una planta de energía para el futuro de la IA, con mega datos y gran poder computacional”, y que con ello pueden “transformar los datos para alimentar las aplicaciones de IA del futuro”.

Conforme a los criterios de

Trust Project
Saber más

VIDEO RECOMENDADO

¿Cómo será la vida con la 6G?
¿Cuánto tardaría descargar una película de en HD de 6GB con 6G? Descúbrelo en este video.

TE PUEDE INTERESAR

Síguenos en Twitter...

Bloque HTML de muestra