Durante quatro décadas, Não havia ninguém para tossir na Intel. Aí chegaria a AMD, que conseguiu desembolsar muito e com quem desde o início do milênio se divide o bolo de CPUs para desktops e servidores.
Este duopólio específico continua até hoje, mas apenas nessas duas áreas. A revolução dos smartphones mostrou que a arquitetura ARM era uma opção melhor, e essa foi a oportunidade que os novos impérios de chips aproveitaram: primeiro a Qualcomm, depois, em menor medida, a MediaTek, e mais tarde, quase sem fazer barulho, a Apple, que ele finalmente percebeu que os chips ARM também eram ótimos para seus computadores.
Mais uma vez parecia difícil que este panorama mudasse radicalmente, mas esta nova revolução provocada pela inteligência artificial abriu outro novo campo de batalha no campo dos semicondutores. Aquele com chips de IA.
Esse motivo não é outro senão evitar a dependência da NVIDIA, que neste momento está em vantagem. Suas placas gráficas profissionais – a H100 agora, a recentemente anunciada B200 dentro de alguns meses – são referências claras se alguém quiser desenvolver e treinar seus próprios modelos de IA, mas acontece que aqueles que o fazem perceberam uma coisa importante: fazer chips estão disponíveis para todos eles.
Big Tech se inscreve para fabricar chips de IA
Não é uma questão trivial fazê-lo, sem dúvida, mas todas estas empresas têm recursos mais que suficientes para o fazer. Anunciamos isso em dezembro de 2020, quando surgiram rumores de que a Microsoft estava preparando seus próprios chips, embora não estivesse claro para onde iria.
Hoje sabemos a resposta para essa pergunta: os chips Azure Maia AI são projetados precisamente para, como dizem em Microsoft, “reimaginar todos os aspectos de nossos data centers”. Ou o que dá no mesmo, insistimos, pare de depender da NVIDIA.
As restantes empresas envolvidas no desenvolvimento de grandes plataformas de inteligência artificial estão a fazer o mesmo. Google é provavelmente o melhor exemplo. O trabalho deles começou há anos: em 2015 eles começaram a usar suas TPU (Tensor Processing Units) internamente, mas o anúncio público da existência deste produto só ocorreu no Google I/O em 2016.
Acontece que o conceito acabaria dando o salto para seus celulares: os Pixels passaram a usar processador próprio (Google Tensor) com o Pixel 6 de 2022, e desde então vem desenvolvendo novas versões a cada ano. Estes SoCs também nasceram com uma abordagem curiosa. Eles não venceram nenhuma guerra em poder ou mesmo em eficiência, mas venceram em seu desempenho específico para tarefas de IA.
Mas como dizemos, a aprendizagem, embora tenha sido aplicada aos telemóveis, continuou o seu caminho no mundo dos servidores. As TPUs do Google também continuaram evoluindo e hoje conta com a chamada Cloud TPU v5e, voltada especificamente para inferência e treinamento de modelos de IA.
Amazonas, dominante no cenário da computação em nuvem, também aposta fortemente nesta área. A empresa tem em seu recente AWS Graviton 4 e AWS Trainium 2, e em seu anúncio de novembro, deixou claro que esses chips ofereciam melhorias na eficiência energética para uma ampla gama de cargas de trabalho, “incluindo treinamento de aprendizado de máquina (ML) e aplicações de geração artificial artificial inteligência (IA).
O último grande grande da tecnologia que era um estranho no mundo dos semicondutores também parece ter aderido à tendência com força. Em 2023, engenheiros da meta Eles apresentaram o chamado MTIA v1 (do Meta Training and Inference Accelerator). Esta semana já nos falaram sobre a próxima geração destes chips especializados no segmento de IA e que na verdade farão parte de uma família de chips multidisciplinares.
O chip será claramente superior à sua primeira versão, tanto em termos de fotolitografia (5 nm vs 7 nm) quanto de TDP (90 W vs 25 W). Na Meta garantem que graças a tudo isso oferecerá até 3,5x o desempenho em “computação densa (dados com poucos valores zero) e até 7x o desempenho em computação esparsa (muitos valores zero) – em operações com matrizes, básico em computação de IA – com relação ao que é alcançado com MTIA v1.
Mas espere, tem mais
É claro que todos estes gigantes da tecnologia não estarão sozinhos nos seus esforços. Já falamos da NVIDIA e dos seus H100 e B200, mas há uma concorrência igualmente importante de fabricantes que, sem entrar nessa categoria Big Tech, são claros rivais da NVIDIA no que diz respeito a fornecer as suas soluções a quem desenvolve modelos de IA.
Aqui é claro que é AMD, que também investe nessa área há mais tempo do que pensávamos. Apresentou seu primeiro Radeon Instinct no final de 2016, e esse trabalho continuou: há alguns meses apresentou a última iteração desse projeto, o Instinct MI300X.
Informaçõessua companheira e rival de viagens há anos, parecia um tanto ignorante na área de IA, mas ela bateu o pé e hoje apresentou seu Gaudi 3, uma placa aceleradora de IA que promete superar o H100 da NVIDIA e que acima de tudo, tem um objetivo particularmente marcante: tentar expulsar o CUDA do mercado.
Mas junto com a Intel e a AMD também temos fabricantes renomados como Qualcommque em novembro apresentou seus aceleradores Cloud AI 100 Ultra, ou Huaweique graças à sua família Ascend também possui cartões especializados em inferência (Atlas 300I) e treinamento (Atlas 300T).
Entretanto, a China parece querer juntar-se a esta febre específica. A Alibaba tem uma subsidiária que está a desenvolver chips de IA, mas aqui o gigante asiático parece estar em clara desvantagem neste momento devido ao bloqueio comercial a que está sujeito.
Tudo isso pinta um panorama dos mais competitivos para o mercado de inteligência artificial. O que já se via no segmento mobile – Apple, Google, Huawei ou Samsung fabricando seus próprios chips – também começa a ser visto no mundo da IA, e a dúvida, claro, é quem vai acabar assumindo a liderança . água.
Imagem | Richyart com Midjourney
Em Xataka | O lançamento do novo superchip de IA da NVIDIA deixa uma questão: onde estão seus equivalentes para PC e dispositivos móveis?