A AMD previu que o mercado de chips para aplicações de inteligência artificial (IA) terá um volume de US$ 400 bilhões em 2027. E pretende ficar com uma boa fatia desse bolo, embora não seja fácil. A NVIDIA atualmente representa cerca de 80% deste mercado e nada parece indicar que a sua posição dominante será alterada no curto prazo. Na verdade, o seu negócio está cada vez mais forte, como confirmado pelos seus resultados financeiros durante o terceiro trimestre do atual ano fiscal.
Lisa Su, CEO da AMD, apresentou há poucas horas duas GPUs para IA das quais ouvimos falar há vários meses, mas que até agora não tinham visto oficialmente a luz do dia: a GPU Instinct MI300X e a APU Instinct MI300A . Suas especificações, como veremos, são muito promissoras, mas há algo que permite que esses chips se destaquem de seus concorrentes: seu design modular no qual o chips Eles lideram o caminho.
Chiplets são o melhor trunfo da AMD para competir com a NVIDIA
Los chips Eles são velhos conhecidos. Chegaram aos processadores de uso geral da AMD com arquitetura Zen e cada um deles reúne uma parte da lógica da CPU. Na prática eles são vários circuitos integrados diferentes que se comunicam por meio de links de alto desempenho e que são coesos na mesma embalagem. Esta é a receita usada pela empresa liderada por Lisa Su para preparar seus mais recentes e ambiciosos chips para IA.
Uma plataforma Instinct MI300X de oito GPUs tem desempenho de até 10,4 petaflops de acordo com a AMD em operações FP16
A GPU Instinct MI300X é uma fera absoluta. Pelo menos está no papel. E reúne nada menos que oito chips de memória HBM3 totalizando 192 GB e outros oito com litografia de 5 nm que contém a lógica da GPU. Este hardware coexiste com 256 Mbytes de cache Infinity e está sendo empacotado usando a tecnologia híbrida mais avançada que a AMD possui atualmente. Tudo isso parece bom, mas o mais chocante é que esses chips foram projetados para funcionar em grupos de oito.
Uma plataforma de oito GPUs Instinct MI300X para aplicações generativas de inteligência artificial totaliza 1,5 TB de memória HBM3 e tem, segundo a AMD, desempenho de até 10,4 petaflops nas operações do FP16. É assustador, mas não devemos esquecer que é isso que esta empresa nos promete, por isso será interessante ver se o seu desempenho é o esperado num cenário de utilização real. Em qualquer caso, a AMD garante que um chip Instinct MI300X é entre 1,3 e 2,4 vezes mais poderoso que uma GPU NVIDIA H100 dependendo do cenário de uso que enfrentamos.
Por outro lado, os recursos do APU Instinct MI300A também são impressionantes. É importante não esquecermos que se trata de uma APU, por isso combina a lógica de uma CPU e de uma GPU no mesmo pacote. pilha oito chips HBM3 sobre aqueles que contêm a lógica de GPU e CPU, embora tenham menos capacidade que os da GPU Instinct MI300X, por isso se contenta com 128 GB. A AMD afirma que o desempenho deste APU também é superior ao do chip H100 da NVIDIA, mas a empresa liderada por Jensen Huang já apresentou o seu GPU H200. E chegará em 2024. As espadas estão levantadas.
Imagem de capa: AMD
Mais informação: AMD
Em Xataka: A China obterá os chips de IA mais poderosos que existem. E os Estados Unidos não poderão evitá-lo