Publicado em 15/11/2023
Por Stephen Nellis
Reuters — A Microsoft (MSFT.O) anunciou na quarta-feira uma dupla de chips de computação personalizados, juntando-se a outras grandes empresas de tecnologia que – confrontadas com o alto custo de fornecimento de serviços de inteligência artificial – estão trazendo tecnologias importantes internamente.
A Microsoft disse que não planeja vender os chips, mas sim usá-los para potencializar suas próprias ofertas de software por assinatura e como parte de seu serviço de computação em nuvem Azure.
Em sua conferência de desenvolvedores Ignite, em Seattle, a Microsoft apresentou um novo chip, chamado Maia, para acelerar as tarefas de computação de IA e fornecer uma base para seu serviço “Copilot”, de US$ 30 por mês, para usuários de software empresarial, bem como para desenvolvedores que desejam para criar serviços de IA personalizados.
O chip Maia foi projetado para executar grandes modelos de linguagem, um tipo de software de IA que sustenta o serviço Azure OpenAI da Microsoft e é um produto da colaboração da Microsoft com o criador do ChatGPT, OpenAI.
A Microsoft e outros gigantes da tecnologia, como a Alphabet (GOOGL.O), estão se debatendo com o elevado custo da prestação de serviços de IA, que pode ser 10 vezes superior ao dos serviços tradicionais, como os motores de busca.
Os executivos da Microsoft disseram que planejam enfrentar esses custos direcionando quase todos os esforços crescentes da empresa para colocar IA em seus produtos por meio de um conjunto comum de modelos fundamentais de IA. O chip Maia, disseram, está otimizado para esse trabalho.
“Acreditamos que isso nos permite fornecer melhores soluções aos nossos clientes, mais rápidas, com menor custo e maior qualidade”, disse Scott Guthrie, vice-presidente executivo do grupo de nuvem e IA da Microsoft.
A Microsoft também disse que no próximo ano oferecerá aos seus clientes Azure serviços em nuvem que rodam nos mais novos chips da Nvidia (NVDA.O) e Advanced Micro Devices (AMD.O). A Microsoft disse que está testando o GPT 4 – o modelo mais avançado da OpenAI – nos chips da AMD.
“Isso não é algo que esteja substituindo a Nvidia”, disse Ben Bajarin, presidente-executivo da empresa de análise Creative Strategies.
Ele disse que o chip Maia permitiria à Microsoft vender serviços de IA na nuvem até que computadores pessoais e telefones fossem poderosos o suficiente para lidar com eles.
“A Microsoft tem aqui um tipo de oportunidade muito diferente porque está ganhando muito dinheiro por usuário com os serviços”, disse Bajarin.
O segundo chip da Microsoft anunciado na terça-feira foi projetado para economizar custos internos e uma resposta ao principal rival da Microsoft em nuvem, Amazon Web Services.
Batizado de Cobalt, o novo chip é uma unidade central de processamento (CPU) feita com tecnologia da Arm Holdings (O9Ty.F). A Microsoft divulgou na quarta-feira que já está testando o Cobalt para potencializar o Teams, sua ferramenta de mensagens empresariais.
Mas Guthrie, da Microsoft, disse que sua empresa também quer vender acesso direto ao Cobalt para competir com a série “Graviton” de chips internos oferecidos pela Amazon Web Services (AWS) (AMZN.O).
“Estamos projetando nossa solução Cobalt para garantir que sejamos muito competitivos tanto em termos de desempenho quanto de relação preço-desempenho (em comparação com os chips da Amazon)”, disse Guthrie.
A AWS realizará sua própria conferência de desenvolvedores no final deste mês, e um porta-voz disse que seu chip Graviton agora tem 50 mil clientes.
“A AWS continuará a inovar para fornecer gerações futuras de chips projetados pela AWS para oferecer desempenho de preço ainda melhor para qualquer carga de trabalho do cliente”, disse o porta-voz depois que a Microsoft anunciou seu chip.
A Microsoft forneceu poucos detalhes técnicos que permitiriam avaliar a competitividade dos chips em relação aos fabricantes tradicionais de chips. Rani Borkar, vice-presidente corporativo de sistemas e infraestrutura de hardware Azure, disse que ambos são feitos com tecnologia de fabricação de 5 nanômetros da Taiwan Semiconductor Manufacturing Co (2330.TW).
Ela acrescentou que o chip Maia seria conectado a um cabeamento de rede Ethernet padrão, em vez de uma tecnologia de rede Nvidia personalizada mais cara que a Microsoft usou nos supercomputadores que construiu para OpenAI.
“Você nos verá seguindo muito mais o caminho da padronização”, disse Borkar à Reuters.
Reportagem: Stephen Nellis em São Francisco
Edição: Edmund Klamann e Jonathan Oatis