Microsoft ha presentado su chip de inteligencia artificial de segunda generación, Maia 200, mientras busca fortalecer su negocio en la nube y aliviar la dependencia de los procesadores Nvidia.
La demanda de potencia informática de inteligencia artificial se ha disparado, lo que obliga a los proveedores de la nube a encontrar un equilibrio entre la eficiencia energética y el rendimiento o los costos.
Como componente clave en la estrategia de chips de inteligencia artificial y computación en la nube de Microsoft, el nuevo Maia 200 de Microsoft ofrece una alternativa al dominio de Nvidia en este ámbito.
Microsoft está posicionando el Maia 200 como competencia contra la superior potencia de procesamiento de Nvidia. Con la introducción de cada serie de chips de la familia Maia, Scott Guthrie, vicepresidente ejecutivo de Nube e IA de Microsoft, afirmó que el Maia 200 es "el sistema de inferencia más eficiente que Microsoft ha desarrollado jamás".
Un analista con experiencia en entornos de hiperescala afirmó que el desarrollo del chip Maia era necesario. Este analista señaló que Microsoft dio este paso porque necesita contar con su propia tecnología de chip para mantener bajos los costos al utilizar grandes cantidades de potencia de procesamiento, en lugar de alquilar continuamente recursos de Nvidia.
Un consultor de la nube ha declarado que “para que los mayores proveedores de la nube sigan siendo competitivos en el mercado actual, deben desarrollar tecnología de chips personalizada”
The Cryptopolitan informó anteriormente que la introducción de los chips Azure Maia 100 y Cobalt 100 en 2023 marcó el primer paso de Microsoft en la producción de semiconductores para IA. Estos chips estaban destinados a desempeñar un papel fundamental en la mejora de las capacidades del servicio de computación en la nube Azure de Microsoft.
De cara al futuro, Microsoft está desarrollando activamente versiones posteriores de estos chips, lo que sugiere un compromiso de mantenerse a la vanguardia de la inteligencia artificial y la tecnología de semiconductores.
El procesador Maia 200, fabricado con tecnología de 3 nanómetros de Taiwan Semiconductor Manufacturing Company, está diseñado para cargas de trabajo de inferencia. A medida que más empresas buscan implementar tecnologías de IA en lugar de modelos de entrenamiento, este se ha convertido en un mercado en rápida expansión para empresas como Maia.
Según Microsoft, el Maia 200 ofrece un rendimiento un 30 % superior al de otros procesadores similares del mercado y puede procesar más memoria de alto ancho de banda que los de Amazon o Google. El ingeniero de Microsoft afirmó que la eficiencia de inferencia es la clave para ganar o perder margen de beneficio en el negocio de la nube. El menor consumo de energía del Maia 200 mejorará su rentabilidad.
Esto ha sido el resultado de la colaboración con Arm, que ha sido fundamental en este proyecto. El compromiso de Arm para facilitar el desarrollo de soluciones de silicio personalizadas ha sido crucial.
Los ecosistemas Arm Neoverse CSS y Arm Total Design son fundamentales para estos esfuerzos, simplificando la compleja tarea de brindar soluciones personalizadas y especializadas para centros de datos e infraestructura de red.
El uso de Maia 200 en el grupo de superinteligencia de Microsoft, Microsoft 365 Copilot y Foundry AI permitirá a Microsoft llegar a sus clientes actuales y potenciales, así como optimizar sus servicios en la nube. La implementación de Maia 200 comenzará en los centros de datos centrales de Microsoft en EE. UU., y posteriormente se extenderá a otras ubicaciones.
Uno de los primeros desarrolladores de software que probó el Maia 200 afirmó que el uso es un factor clave en el éxito del Maia 200 y dijo: "La prueba definitiva es si puede permitir que los clientes utilicen el producto de manera realista y a gran escala"
Hazte notar donde importa. Publicita en Cryptopolitan Research y llega a los inversores y creadores de criptomonedas más inteligentes.