A Microsoft apresentou seu chip de inteligência artificial de segunda geração, o Maia 200, em uma iniciativa para fortalecer seus negócios em nuvem e reduzir a dependência de processadores da Nvidia.
A demanda por poder computacional de inteligência artificial disparou, obrigando os provedores de nuvem a encontrar um equilíbrio entre eficiência energética e desempenho ou custos.
Como componente fundamental na estratégia de computação em nuvem e chips de IA da Microsoft, o novo Maia 200 oferece uma alternativa ao domínio da Nvidia nesse setor.
A Microsoft está posicionando o Maia 200 como concorrente ao poder de processamento superior da Nvidia. Através do lançamento de cada série de chips da família Maia, Scott Guthrie, vice-presidente executivo de Nuvem e IA da Microsoft, afirmou que o Maia 200 é "o sistema de inferência mais eficiente que a Microsoft já construiu".
Um analista com experiência em ambientes de hiperescala afirmou que o desenvolvimento do chip Maia já estava atrasado. Esse analista observou que a Microsoft tomou essa medida porque precisa ter sua própria tecnologia de chip proprietária para manter os custos baixos ao usar grandes quantidades de poder de processamento, em vez de alugar recursos continuamente da Nvidia.
Um consultor de nuvem afirmou que "para que os maiores provedores de nuvem permaneçam competitivos no mercado atual, eles precisam desenvolver tecnologia de chips personalizada"
O Cryptopolitan noticiou anteriormente que o lançamento dos chips Azure Maia 100 e Cobalt 100 em 2023 marcou o primeiro passo da Microsoft na produção de semicondutores para IA. Esses chips estavam destinados a desempenhar um papel fundamental no aprimoramento das capacidades do serviço de computação em nuvem Azure da Microsoft.
Olhando para o futuro, a Microsoft está desenvolvendo ativamente versões subsequentes desses chips, o que demonstra seu compromisso em permanecer na vanguarda da inteligência artificial e da tecnologia de semicondutores.
O processador Maia 200, fabricado com tecnologia de 3 nanômetros pela Taiwan Semiconductor Manufacturing Company, é voltado para cargas de trabalho de inferência. À medida que mais empresas buscam implementar tecnologias de IA em vez de treinar modelos, esse mercado se expande rapidamente para empresas como a Maia.
Segundo a Microsoft, o Maia 200 tem um desempenho 30% superior ao de outros processadores similares no mercado e consegue processar mais memória de alta largura de banda do que os processadores da Amazon ou do Google. O engenheiro da Microsoft afirmou que a eficiência de inferência é o fator determinante para o sucesso ou fracasso do negócio de computação em nuvem. O menor consumo de energia do Maia 200 contribuirá para a sua rentabilidade.
Isso foi resultado da colaboração com a Arm, que foi fundamental neste empreendimento. O compromisso da Arm em facilitar o desenvolvimento de soluções de silício personalizadas desempenhou um papel crucial.
Os ecossistemas Arm Neoverse CSS e Arm Total Design são fundamentais para esses esforços, simplificando a complexa tarefa de fornecer soluções personalizadas e especializadas para centros de dados e infraestrutura de rede.
A utilização do Maia 200 no grupo de superinteligência da Microsoft, no Microsoft 365 Copilot e no Foundry AI permitirá à Microsoft alcançar seus clientes atuais e potenciais, além de aprimorar seus serviços em nuvem. A implementação do Maia 200 começará nos data centers centrais da Microsoft nos EUA, seguida por outras localidades.
Um dos primeiros desenvolvedores de software que testou o Maia 200 afirmou que a usabilidade é um fator chave para o sucesso do produto, dizendo: "O teste definitivo é se ele consegue permitir que os clientes o utilizem em larga escala na prática."
Seja visto onde importa. Anuncie na Cryptopolitan Research e alcance os investidores e criadores mais experientes em criptomoedas.