Las empresas tecnológicas Oracle y AMD anunciaron una expansión significativa de su colaboración para brindar infraestructura de inteligencia artificial a gran escala. A partir del tercer trimestre de 2026, Oracle Cloud Infrastructure (OCI) será el primer proveedor de nube en ofrecer públicamente un supercluster impulsado por 50.000 unidades de procesamiento gráfico AMD Instinct MI450 Series.
Este anuncio, realizado durante Oracle AI World en Las Vegas, representa un hito en la evolución de la infraestructura cloud diseñada específicamente para entrenar y ejecutar modelos de IA de próxima generación.
Una colaboración que se expande hacia el futuro
La alianza entre Oracle y AMD no es nueva. Ambas compañías han trabajado juntas durante más de una década, desde la adopción de procesadores AMD EPYC hasta la implementación de aceleradores AMD Instinct en la nube de Oracle.
En 2024, OCI lanzó instancias con GPUs AMD Instinct MI300X. Ahora, con la disponibilidad general de OCI Compute equipado con GPUs AMD Instinct MI355X y el anuncio de los futuros superclusters de IA con MI450 Series, Oracle consolida su posición como líder en infraestructura para cargas de trabajo de inteligencia artificial masivas.
Según Mahesh Thiagarajan, vicepresidente ejecutivo de Oracle Cloud Infrastructure, los clientes están desarrollando algunas de las aplicaciones de IA más ambiciosas del mundo, lo que exige infraestructura robusta, escalable y de alto rendimiento. La combinación de las últimas innovaciones de AMD con la plataforma segura y flexible de OCI permite a los clientes superar límites con confianza.
Características técnicas del AMD Instinct MI450 Series
Las GPUs AMD Instinct MI450 Series están diseñadas para ofrecer un rendimiento excepcional en entornos cloud. Sus especificaciones incluyen capacidades que responden directamente a las demandas actuales de la industria:
Memoria y capacidad de cómputo mejoradas: Cada GPU contará con hasta 432 GB de memoria HBM4 y 20 TB/s de ancho de banda. Esto permitirá entrenar e inferir modelos hasta 50% más grandes que las generaciones anteriores, completamente en memoria.
Diseño optimizado «Helios»: Racks densos refrigerados por líquido con 72 GPUs que maximizan la densidad de rendimiento, reducen costos y optimizan la eficiencia energética.
Procesadores AMD EPYC de próxima generación: Los nodos principales utilizarán CPUs con nombre en código «Venice», que incluyen capacidades de computación confidencial y características de seguridad integradas.
Redes convergentes aceleradas por DPU: Basadas en la tecnología AMD Pensando, estas redes ofrecen ingesta de datos a velocidad de línea y mejoran la postura de seguridad para infraestructuras de IA a gran escala.
Conectividad de última generación para entrenamientos distribuidos
Uno de los aspectos más destacados del anuncio es la integración de tecnologías de red avanzadas. Cada GPU puede equiparse con hasta tres AMD Pensando «Vulcano» AI-NICs de 800 Gbps, proporcionando conectividad sin pérdidas, de alta velocidad y programable que soporta estándares avanzados RoCE y UEC.
El sistema también incorpora UALink, un estándar de interconexión abierto diseñado específicamente para aceleradores de IA. Esta arquitectura minimiza la latencia y los saltos de red sin necesidad de enrutar a través de CPUs, permitiendo redes coherentes a nivel de hardware y compartición de memoria entre GPUs dentro de un rack.
Forrest Norrod, vicepresidente ejecutivo de AMD, enfatizó que la colaboración con Oracle establece el ritmo de la innovación en IA en la nube, proporcionando sistemas abiertos, optimizados y seguros construidos para centros de datos masivos.
Disponibilidad y opciones para clientes
Oracle también anunció la disponibilidad general de OCI Compute con GPUs AMD Instinct MI355X. Estas estarán disponibles en el OCI Supercluster de escala zettascale, que puede expandirse hasta 131.072 GPUs.
Las instancias con MI355X están diseñadas para ofrecer valor superior, flexibilidad cloud y compatibilidad con código abierto, brindando a los clientes opciones adaptadas a diferentes necesidades de escala y presupuesto.
La implementación inicial de 50.000 GPUs MI450 Series comenzará en el tercer trimestre de 2026, con expansiones planificadas para 2027 y años posteriores.
Software abierto y virtualización avanzada
Un componente fundamental de esta oferta es el stack de software AMD ROCm, que proporciona un entorno de programación abierto y flexible. Esto incluye frameworks populares, bibliotecas, compiladores y tiempos de ejecución que facilitan la migración de cargas de trabajo existentes de IA y computación de alto rendimiento.
Además, las capacidades avanzadas de particionamiento y virtualización permiten a los clientes compartir clústeres de manera segura y asignar GPUs según las necesidades de cada carga de trabajo, mediante particionamiento granular de GPU y pod, virtualización SR-IOV y multi-tenencia robusta.
El futuro de la infraestructura de IA empresarial
La demanda de capacidad de IA a gran escala se está acelerando a medida que los modelos de próxima generación superan los límites de los clústeres actuales. Para entrenar y ejecutar estas cargas de trabajo, las empresas necesitan soluciones de cómputo flexibles y abiertas, diseñadas para escala y eficiencia extremas.
La alianza expandida entre Oracle y AMD responde directamente a esta necesidad, ofreciendo arquitectura optimizada verticalmente a escala de rack que maximiza rendimiento, escalabilidad y eficiencia energética para entrenamiento e inferencia de IA a gran escala.
Esta colaboración marca un punto de inflexión en la disponibilidad pública de infraestructura de IA de clase empresarial, democratizando el acceso a recursos de cómputo que anteriormente solo estaban disponibles para las organizaciones más grandes del mundo.








