Hoje em dia a Samsung comemorou o Memory Tech Day, evento focado especificamente no segmento de chips de memória. Foi aí que apresentou vários novos desenvolvimentos neste campo, e embora o claro protagonista sejam as memórias HBM3E (Shinebolt), também houve a oportunidade de avançar detalhes sobre as iminentes memórias GDDR7.
Raio Brilhante. Esse é o codinome da nova evolução da tecnologia HBM (High Bandwidth Memory), que desde seu lançamento oferecia recursos fantásticos para placas gráficas devido à sua alta largura de banda, mas tinha um problema: era mais cara que as memórias GDDR tradicionais. A sua evolução ainda tem sido notável e agora estes benefícios compensam uma indústria muito particular: a da inteligência artificial, que é uma consumidora voraz de largura de banda.
Quem usa essa memória. Em agosto passado soubemos que a NVIDIA apresentou seus novos superchips de IA, o GH200. Esses componentes muito complexos incluem uma poderosa CPU e GPU, mas a novidade é que também integraram memória HBM3E, sendo o primeiro fabricante do mundo a utilizar este tipo de chips de memória.
E por que. A chave não está tanto na capacidade desses chips – isso também, porque o máximo sobe de 24 GB (HBM3) para 36 GB (HBM3E) – mas na sua maior largura de banda: no HBM3 (Icebolt) a largura de banda máxima por pino é 6,4 Gb/s, mas no HBM3e (Shinebolt) atinge teóricos 9,8 Gb/s, 50%. É algo excepcional que permite movimentação de até 1.225 TB/s contra os 819,2 GB/s de seu antecessor, e que também é muito mais que os 256 GB/s da memória HBM2 original.
Eficiência semelhante. Embora a Samsung alardeie que o Shinebolt será 10% mais eficiente que o Icebolt – ele consome 10% menos energia para cada bit transferido – o problema é que essas memórias funcionam 25% mais rápido, o que acaba erradicando essa vantagem em eficiência. Assim, embora seja de fato mais eficiente, quando funciona “acelerado” nativamente acaba consumindo basicamente o mesmo (ou até mais) que seu antecessor.
Grandes notícias para IA. Estas memórias não se destinam ao mercado de utilizadores finais e às placas gráficas que utilizamos para jogar, mas sim uma opção mais ambiciosa e cara dirigida, como dissemos, ao domínio da inteligência artificial. Neste segmento, tanto a largura de banda quanto a capacidade dos chips de memória são fatores que limitam o desenvolvimento desta disciplina, e essas melhorias são uma ótima notícia para quem trabalha no desenvolvimento, por exemplo, de grandes modelos de linguagens.
Visão geral do GDDR7. Além da memória HBM3E — que já está em produção e chegará ao mercado em 2024 — a Samsung deu mais informações sobre a GDDR7, a nova geração de memória gráfica. Entre as novidades notáveis está a utilização da codificação PAM3 – que permitirá o envio de mais informações por ciclo – em módulos de 16 Gbit que poderão oferecer largura de banda 33% superior à oferecida pelos chips GDDR6. Não só isso: esses chips também serão 20% mais eficientes que seus antecessores. Estamos, portanto, perante os próximos protagonistas nos nossos gráficos de jogos, mas eles também acabarão por ser utilizados em soluções de IA e até na área automóvel.
O futuro em 10 nm. Embora seja normal falar em processadores de 5 nm – e em breve veremos processadores de 3 nm – os chips de memória estão um passo atrás em termos de processos fotolitográficos. Até agora o protagonista era a fotolitografia de 14 nm e 12 nm, mas a Samsung já está trabalhando na sua próxima geração (11 nm) e até na futura tecnologia de 10 nm que, segundo o fabricante, permitirá a criação de módulos de 100 Gbit quando atualmente o o normal é ter módulos de 16 Gbit. Mais capacidade e mais eficiência mostram que o futuro deste tipo de componentes parece garantido.
Em Xataka | A IAdas placas gráficas NVIDIA, posta à prova: analisamos o impacto do DLSS 2.0 no desempenho e na qualidade de imagem
Reescreva o texto para BR e mantenha a HTML tags