A “lei de Moore” está em questão há algum tempo. O desenvolvimento da tecnologia de litografia desacelerou à medida que os fabricantes de semicondutores se aproximaram dos limites físicos impostos pelo silício. E isto é precisamente o pilar em que está a “lei” postulada por Gordon Moore, cofundador da Intel, em 1965. Este respeitado engenheiro e físico americano negou publicamente em diversas ocasiões que a observação que fez naquele ano tivesse sido atribuída ao status de lei.
E na realidade o que ele fez foi uma previsão resultante de observação empírica, e não uma lei apoiada por um estudo científico meticuloso. Mesmo assim, durante muitas décadas a sua observação emergiu como a regra de ouro utilizada pela indústria microelectrónica para prever o ritmo a que se desenvolverá a médio e curto prazo.
O que Moore percebeu há pouco mais de cinco décadas e meia foi que o número de transistores em circuitos integrados duplicaria a cada ano e, ao mesmo tempo, o seu custo relativo reduziria drasticamente. Dez anos depois, ele alterou sua observação aumentando o período de tempo necessário para que esse desenvolvimento da tecnologia de integração fosse realizado, colocando-o em 24 meses, e não em um ano. E desde então sua previsão foi cumprida com uma precisão mais do que razoável.
A “lei de Huang” traça no horizonte um futuro em que a NVIDIA e a IA reinarão
“Lei de Huang” refere-se a Jensen Huang, o CEO da NVIDIA, mas não leva seu nome. A responsável pelo nome deste postulado é Tekla S. Perry, editora sênior do IEEE Spectrum, e ela o formulou no artigo que publicou em 2 de abril de 2018 com o objetivo de descrever o desenvolvimento muito rápido que os processadores gráficos já estavam experimentando. . Claro, é justo lembrar que o verdadeiro responsável pela popularização da “lei de Huang” é Christopher Mims, colunista do The Wall Street Journal.
Tekla S. Perry surgiu com esta “lei” depois de assistir a uma palestra de Jensen Huang.
Seja como for, a razão pela qual Tekla S. Perry decidiu nomear esta “lei” depois de assistir a uma palestra proferida por Jensen Huang foi que a “lei de Moore” já não parecia descrever corretamente o desenvolvimento vertiginoso que as GPUs estavam experimentando, especialmente no campo da inteligência artificial. Na verdade, é disso que se trata a previsão que leva o nome do fundador da NVIDIA. O gráfico que publicamos abaixo destas linhas reflete muito claramente do que estamos falando. E isso impressiona.
O título do gráfico contém a ideia mais importante: durante a década entre 2012 e 2022, o desempenho dos chips NVIDIA para aplicações de inteligência artificial se multiplicou por 1.000. Nada menos que 1.000. É certo; A “lei de Moore” não reflecte adequadamente este rápido desenvolvimento. Contudo, é importante ter em mente que o impacto do desenvolvimento dos processos litográficos não explica esta rápida evolução.
Durante a década entre 2012 e 2022, o desempenho dos chips NVIDIA para aplicações de inteligência artificial se multiplicou por 1.000
Bill Dally, um dos principais funcionários da NVIDIA na área científica, deu uma conferência muito interessante há apenas duas semanas na qual explicou o papel crucial que inovação no campo da microarquitetura para sustentar o desenvolvimento de GPUs para inteligência artificial. Já não basta apegar-se ao aprimoramento da litografia e à qualidade dos transistores; Ou você refina a arquitetura de seus chips ou fica preso.
Dally é cauteloso e, portanto, não garante que até 2032 a capacidade das GPUs aumentará novamente em 1.000. No final das contas, se formos rigorosos, não devemos esquecer que nem a “lei de Huang” nem a “lei de Moore” são realmente leis. São apenas previsões razoavelmente confiáveis que não durarão para sempre.
Mais informação: NVIDIA
Em Xataka: Más notícias para a China: sua melhor empresa de chips de inteligência artificial acaba de sofrer um duro revés
Reescreva o texto para BR e mantenha a HTML tags