Você já se perguntou onde são processadas todas as perguntas que você faz ao ChatGPT? Se você não está muito imerso no mundo da inteligência artificial, a resposta pode surpreendê-lo: tudo acontece em servidores de propriedade da Microsoft. Essa infraestrutura, por sua vez, é alimentada principalmente pelo hardware NVIDIA mais recente, mas temos motivos para acreditar que as coisas mudarão no futuro.
Dependências excessivas não são recomendadas. No setor empresarial, predispõem cenários de vulnerabilidade, inovação limitada e perda de controle. Um dos exemplos mais claros que podemos encontrar disso na indústria de tecnologia é a antiga dependência da Apple dos processadores Intel, algo que Cupertino abordou a partir do chip M1.
Microsoft quer reduzir sua dependência da NVIDIA
Independentemente das diferenças, parte do presente (e do futuro) da Microsoft está ligada aos produtos NVIDIA. E, não nos enganemos, isso trouxe muitos benefícios. A empresa dirigida por Satya Nadella começou a construir seu relacionamento com a OpenAI em 2016, oferecendo um de seus tesouros mais preciosos, que não era outro senão o serviço de computação Microsoft Azure.
Naquela época, o serviço era suportado principalmente por um grande número de GPUs NVIDIA Tesla K80 com arquitetura Kepler, embora já se falasse em fazer uma grande atualização nas próximas GPUs do fabricante baseadas em sua nova arquitetura Pascal. A OpenAI precisava de supercomputadores rápidos para treinar seus modelos mais avançados, e a Microsoft os tinha, graças ao hardware NVIDIA, é claro.
Os data centers do Azure atingiram outro nível quando a Microsoft fez seu primeiro investimento em OpenAI em 2019. Colocou na mesa 1 bilhão de dólares. A empresa prometeu construir um supercomputador com enorme potência. A empresa liderada por Sam Altman precisava treinar modelos cada vez maiores e, mais uma vez, a Microsoft ofereceu sua solução.
Desta vez, adquiriu a GPU NVIDIA A100 para tornar sua infraestrutura em nuvem mais robusta e poderosa. Esta foi uma das mudanças mais importantes que o Azure sofreu nos últimos anos. Na verdade, os engenheiros da Microsoft tiveram que inovar métodos para fazer com que tantas GPUs funcionassem juntas. Mas a indústria de IA está avançando rápido, muito rápido.
Esse investimento estupendo – e multimilionário – da gigante de Redmond logo começou a ser insuficiente. A corrida para liderar o desenvolvimento da IA exigiu mais mudanças. Então a Microsoft retirou o portfólio mais duas vezes, em 2021 e em 2023, para financiar a OpenAI e novamente comprou o hardware NVIDIA mais moderno, o NVIDIA H100, e depois encomendou o novo NVIDIA H200.
Como podemos ver, a ligação entre OpenAI e Microsoft tem sido sustentada com base nos poderosos investimentos desta última em combinação com a sua maravilhosa infra-estrutura informática com espírito NVIDIA. Ambas as empresas, no entanto, já estão a trabalhar para reduzir a sua dependência da empresa liderada por Jensen Huang, embora os seus esforços levem tempo a dar os primeiros frutos.
De acordo com o Windows Central, o plano de Satya Nadella e Sam Altman é tremendamente ambicioso. Especificamente, contempla um investimento de cerca de 100 bilhões de dólares em infraestrutura de computação para aplicações de IA. Estamos a falar de um investimento superior, por exemplo, ao que a Microsoft pagou pela Activision Blizzard. Lembremos que a operação foi encerrada em 69 bilhões de dólares.
O plano, segundo rumores, tem vários aspectos. Por um lado, um supercomputador de IA será construído para Azure, conhecido pelo codinome “Stargate”, que não teria hardware NVIDIA. Por outro lado, outro supercomputador um pouco menor estaria preparado para uso exclusivo do OpenAI. O primeiro ficaria pronto em 2028, enquanto o segundo teria início em 2026.
Você pode estar se perguntando quais alternativas à NVIDIA a Microsoft tem hoje. A resposta é que a gigante de Redmond também é uma empresa de hardware e há algum tempo dedica orçamento para desenvolver seus próprios chips de IA. No evento Microsoft Ignite do ano passado, soubemos da existência de dois de seus novos produtos.
O Azure Maia AI é um chip de data center otimizado para IA generativa e IA geral. O Azure Cobalt, baseado em ARM, foi projetado para potencializar a computação de uso geral. “Estamos reimaginando todos os aspectos de nossos data centers para atender às necessidades de nossos clientes”, disse Scott Guthrie, chefe de IA e serviços em nuvem, durante o evento.
Imagens | Microsoft
Em Xataka | A NVIDIA vende mais chips para inteligência artificial do que qualquer outra empresa, embora outra empresa domine este mercado
Em Xataka | Empresas dos EUA e da China unem as mãos por um bom motivo: para criar o primeiro padrão global para IA generativa