Fecha de publicación: 16 de Noviembre de 2025 a las 19:21:00 hs
Medio: INFOBAE
Categoría: GENERAL
Descripción: Según las declaraciones de Satya Nadella, CEO de la compañía de Redmond, la empresa aprovechará la innovación de la organización dedicada a la investigación en IA “incluso a nivel de sistema”
Contenido: Microsoft ha tomado una decisión estratégica para acelerar su desarrollo en inteligencia artificial al planificar la integración de semiconductores personalizados diseñados por OpenAI en su oferta de hardware. Gracias a su colaboración renovada con el creador de ChatGPT, la compañía obtendrá acceso exclusivo a los avances en chips, modelos y sistemas desarrollados para la compañía tecnológica especializada en IA.
Según las declaraciones de Satya Nadella, CEO de Microsoft, en un reciente podcast, la empresa aprovechará la innovación de OpenAI “incluso a nivel de sistema” y “obtendrá acceso a todo eso”. La organización de Redmond planea “incorporar lo que crean [OpenAI] para ellos” y ampliar esas soluciones para fortalecer su propio hardware.
El acuerdo revisado entre ambas partes garantiza a Microsoft acceso a los modelos de OpenAI hasta el año 2032 y a la investigación de vanguardia hasta 2030 —o hasta la consecución de la inteligencia artificial general, según la evaluación de un panel de expertos—. Así lo dio a conocer Bloomberg.
Es pertinente señalar que el hardware de consumo de OpenAI queda fuera de los derechos de uso intelectual, según lo pactado.
OpenAI, por su parte, colabora con Broadcom en el diseño de chips y hardware de red optimizados para IA. Mientras tanto, aunque Microsoft ha dado algunos pasos en el desarrollo de sus propios chips, aún no ha igualado el éxito de empresas rivales en la nube, como Google.
Con este acuerdo, Microsoft busca cerrar esa brecha, aprovechando las innovaciones de la empresa de inteligencia artificial para aplicar los diseños de chips a sus propias necesidades en nube y fortificar su posición en IA.
La asociación con OpenAI representa una oportunidad clave para Microsoft: le permite no solo beneficiarse de la última tecnología en semiconductores, sino también adaptar estas soluciones a su infraestructura de nube, multiplicando el impacto comercial y la eficiencia operativa.
El respaldo de Broadcom en el proceso de diseño subraya la apuesta conjunta por la creación de hardware específicamente adaptado a los desafíos de la inteligencia artificial de próxima generación.
Este movimiento estratégico fortalece la posición de Microsoft en la competencia global por la supremacía de la IA, garantizándole acceso inmediato a los avances del laboratorio más innovador del sector y situándolo un paso por delante en la carrera por liderar los servicios y plataformas inteligentes del futuro.
La reciente integración de dos grandes centros de datos de Microsoft ubicados en Wisconsin y Atlanta ha dado como resultado la creación de lo que la empresa denomina su primera “superfábrica de IA”.
Esta infraestructura innovadora representa un salto en la eficiencia del entrenamiento de modelos de inteligencia artificial, logrando reducir procesos que solían tomar meses a apenas unas semanas, y posicionando a Microsoft a la vanguardia en la aceleración del desarrollo de IA a gran escala.
Esta superfábrica responde a la demanda creciente de recursos computacionales necesarios para entrenar modelos avanzados de inteligencia artificial. Basada en la arquitectura Fairwater, la instalación combina varios centros de datos distribuidos pero integrados como una sola unidad poderosa.
Así, tanto equipos de OpenAI como el grupo de Superinteligencia de Microsoft pueden acceder a recursos de procesamiento punteros para sus labores de entrenamiento.
El gerente general de infraestructura Azure, Alistair Speirs, señaló que el objetivo central es “construir una red distribuida que pueda actuar como un superordenador virtual para abordar los mayores desafíos del mundo de formas que no serían posibles en una sola instalación”.
Este sistema incorpora varias innovaciones técnicas clave. Utiliza sistemas NVIDIA GB200 NVL72 a nivel de rack, capaces de agrupar cientos de miles de GPUs NVIDIA Blackwell para ofrecer el rendimiento más alto por rack actualmente disponible en plataformas cloud.
El diseño en dos niveles maximiza la densidad de GPUs, y un sistema avanzado de refrigeración líquida garantiza mínimo consumo de agua. Además, una red dedicada de fibra óptica denominada AI Wide Area Network (AI WAN) enlaza los centros de datos, facilitando el tráfico de datos a gran velocidad.
Visitas: 0