OpenAI y Oracle se asocian para utilizar la infraestructura de Oracle Cloud para ampliar la plataforma Microsof Azure AI.
OpenAI y Oracle se asocian para utilizar la infraestructura de Oracle Cloud para ampliar la plataforma Microsof Azure AI.
/ ORACLE
Agencia Europa Press

OpenAI, Microsoft y Oracle se han asociado para utilizar la infraestructura de Oracle Cloud (OCI) para ampliar la plataforma Microsoft Azure AI, de cara a proporcionar capacidad adicional para impulsar los servicios de (IA) de .

MIRA: Apple actualizará sus productos con IA generativa, ¿estará a la altura de otras marcas o repetirá más de lo mismo?

La compañía especializada en IA liderada por Sam Altman ofrece servicios de IA generativa a más de 100 millones de usuarios cada mes, esto supone una demanda de infraestructuras de IA prácticamente ilimitada para poder llevar a cabo las cargas de trabajo necesarias.

Actualmente, la tecnológica estadounidense hace uso de las infraestructuras de Microsoft para impulsar estas cargas de trabajo, sin embargo, para poder obtener acceso a más infraestructura y continuar avanzando en capacidades de IA, OpenAI y Microsoft se han asociado con Oracle, con la idea de extender la plataforma Microsoft Azure AI a la infraestructura de Oracle OCI y, así, proporcionar capacidad adicional para OpenAI.

Tal y como ha explicado en un comunicado el presidente y director de tecnología de Oracle, Larry Ellison, ante un panorama en el que “la carrera para construir el modelo de lenguaje más grande del mundo está en marcha”, se está creando “una demanda ilimitada” de infraestructura de IA, como es el caso de la infraestructura Gen 2 de Oracle.

Así, OpenAI hará uso de esta OCI Gen 2 de Oracle para poder extender sus capacidades de IA en una infraestructura que, según lo define Ellison “es la más rápida y rentable del mundo”. En concreto, se trata de una infraestructura que dispone de capacidades de IA diseñadas específicamente para la OCI, y permiten a las empresas crear y entrenar modelos de manera “más rápida y confiable” en cualquier lugar de la nube de Oracle.

Siguiendo esta línea, la compañía ha detallado que para entrenar modelos de lenguaje grandes (LLM), el Supercluster de la OCI permite escalar hasta GPU NVIDIA Blackwell de 64k o Superchips Grace Blackwell GB200 conectados mediante una red de clúster RDMA de latencia ultrabaja y una opción de almacenamiento HPC.

Además, dispone de máquinas virtuales OCI Compute e instancias de GPU Nvidia bare metal de OCI, que pueden impulsar aplicaciones para IA generativa, visión por computadora, procesamiento de lenguaje natural y sistemas de recomendación, entre otras capacidades.

Con todo ello, el CEO de OpenAI, Sam Altman ha subrayado que, gracias a la asociación con Microsoft y Oracle, así como a las capacidades que ofrece la OCI, OpenAI podrá “seguir escalando”.

Asimismo, con esta asociación, OpenAI se unirá a “miles de innovadores de IA en industrias de todo el mundo”, que ya ejecutan sus cargas de trabajo de IA en la infraestructura de la OCI. Entre estas empresas se encuentran algunas como Modal, Adept, Nvidia, Reka, Twelve Labs y xAI de Elon Musk.

No obstante, OpenAI ha aclarado en una publicación en X (antigua Twitter) que su relación estratégica en la nube con Microsoft “no ha cambiado” y que, con la asociación con Oracle, la compañía utilizará la plataforma Azure AI para “inferencias y otras necesidades”. Por tanto, todo el entrenamiento previo de los modelos de OpenAI “continuarán realizándose en supercomputadoras construidas en asociación con Microsoft”.

Contenido sugerido

Contenido GEC