Google e Microsoft estabelecem batalha de hardware de IA com Next
LarLar > blog > Google e Microsoft estabelecem batalha de hardware de IA com Next

Google e Microsoft estabelecem batalha de hardware de IA com Next

May 24, 2023

Por Agam Shah

20 de fevereiro de 2023

A Microsoft e o Google estão conduzindo uma grande mudança na computação ao trazer a IA para as pessoas por meio de mecanismos de pesquisa, e uma medida de sucesso pode ser a infraestrutura de hardware e datacenter que suporta os aplicativos.

Na semana passada, a Microsoft e o Google anunciaram mecanismos de pesquisa de última geração com inteligência artificial que podem raciocinar, prever e fornecer respostas mais abrangentes às perguntas dos usuários. Os motores de busca serão capazes de gerar respostas completas para consultas complexas, assim como o ChatGPT pode fornecer respostas detalhadas ou compilar ensaios.

A Microsoft está colocando AI no Bing para responder a consultas de texto, e o Google compartilhou planos para colocar AI em suas ferramentas de pesquisa de texto, imagem e vídeo. Os anúncios foram feitos em dias consecutivos na semana passada.

As empresas reconheceram que a IA nos mecanismos de busca não seria possível sem uma forte infraestrutura de hardware. As empresas não compartilharam detalhes sobre o hardware real que impulsiona a computação de IA.

Durante anos, a Microsoft e o Google têm desenvolvido hardware de IA projetado para anúncios no horário nobre, como os mecanismos de pesquisa de IA da semana passada.

As empresas têm infraestruturas de computação de IA muito diferentes, e a velocidade das respostas e a precisão dos resultados serão um teste decisivo sobre a viabilidade dos mecanismos de busca.

O Bard do Google é alimentado por seus chips TPU (Tensor Processing Unit) em seu serviço de nuvem, o que foi confirmado por uma fonte familiarizada com os planos da empresa. A Microsoft disse que seu supercomputador de IA no Azure – que provavelmente roda em GPUs – pode fornecer resultados na ordem de milissegundos ou na velocidade da latência de pesquisa.

Isso estabelece uma batalha muito pública na computação de IA entre as TPUs do Google contra a líder do mercado de IA, a Nvidia, cujas GPUs dominam o mercado.

"As equipes estavam trabalhando para capacitar e desenvolver máquinas e data centers em todo o mundo. Estávamos orquestrando e configurando cuidadosamente um conjunto complexo de recursos distribuídos. Construímos novas peças de plataforma projetadas para ajudar no balanceamento de carga, otimizar o desempenho e dimensionar como nunca antes", disse Dena Saunders, líder de produto do Bing na Microsoft, durante o evento de lançamento.

A Microsoft está usando uma versão mais avançada do ChatGPT da OpenAI. No evento da Microsoft, o CEO da OpenAI, Sam Altman, estimou que havia 10 bilhões de consultas de pesquisa todos os dias.

O caminho da Microsoft para o Bing com AI começou com a garantia de que tinha a capacidade de computação com seu supercomputador AI, que a empresa afirma estar entre os cinco supercomputadores mais rápidos do mundo. O computador não está listado no ranking Top500.

"Fizemos referência ao supercomputador de IA, mas esse trabalho levou anos e muitos investimentos para construir o tipo de escala, o tipo de velocidade, o tipo de custo que podemos trazer em cada camada da pilha. Acho que ... é bastante diferenciado, a escala em que operamos", disse Amy Hood, vice-presidente executiva e diretora financeira da Microsoft, durante uma teleconferência com investidores na semana passada.

O custo da computação para IA na camada do supercomputador continuará diminuindo com o tempo, à medida que escalas de uso e otimizações forem implementadas, disse Hood.

"O custo por transação de pesquisa tende a diminuir com a escala, é claro, acho que estamos começando com uma plataforma bastante robusta para poder fazer isso", disse Hood.

Os custos de computação geralmente aumentam à medida que mais GPUs são implementadas, com os custos de resfriamento e outras infraestruturas de suporte aumentando as contas. Mas as empresas geralmente vinculam a receita ao custo da computação.

O supercomputador AI da Microsoft foi construído em parceria com a OpenAI e possui 285.000 núcleos de CPU e 10.000 GPUs. A Nvidia assinou em novembro um acordo para colocar dezenas de milhares de suas GPUs A100 e H100 na infraestrutura do Azure.

A participação de pesquisa do Bing da Microsoft não chega nem perto da Pesquisa do Google, que tinha uma participação de mercado de 93% em janeiro, de acordo com a Statcounter.

A inteligência artificial é fundamentalmente um estilo diferente de computação baseado na capacidade de raciocinar e prever, enquanto a computação convencional gira em torno de cálculos lógicos. A IA é feita em hardware que pode realizar a multiplicação de matrizes, enquanto a computação convencional gira em torno de CPUs, que se destacam no processamento serial de dados.