Ketan Patel, chefe da divisão de PCs e laptops da HP, é claro. Ele está sentado na minha frente e de outros dois jornalistas de outros países e Ele não parece muito preocupado..
Deveria. O segmento de PCs está passando por um momento difícil. Após um crescimento espetacular das vendas durante a pandemia – o confinamento mudou hábitos e costumes – os últimos três trimestres (4º trimestre de 2022, 1º trimestre de 2023, 2º trimestre de 2023) foram terríveis para a indústria.
Patel admite isso abertamente. As coisas não correram bem e levará tempo para melhorar, diz ele. E, no entanto, o seu discurso não é necessariamente pessimista e, de facto, a conversa rapidamente muda de tom. Fá-lo graças a essas duas palavras que são a prometida próxima grande revolução no nosso mundo.
inteligência artificial.
Patel está na HP há muito tempo. Ele foi responsável por esta unidade de negócios na Índia antes de dar o salto e gerenciá-la globalmente, então ele sabe do que está falando. Claro: jogue com vantagem. Ele sabe de algo que nós não sabemos e, embora pareça estar morrendo de vontade de nos dizer o que é, ele não consegue. Ainda não. Mas revela algo.
Na verdade, na HP eles falaram sobre isso o dia todo durante o evento HP Imagine 2023. Alex Cho, outro dos principais gerentes dessa divisão, já fez isso antes, e durante a conferência inaugural fez um aceno semelhante no mesmo sentido. . “Tenho algo aqui”, explicou ele, mostrando parte de um laptop em uma bolsa, “mas não posso dizer mais nada por alguns meses”.
Enrique Lores, CEO da HP, ri, talvez um tanto sem jeito. Este engenheiro espanhol atingiu o topo da hierarquia da empresa, e fê-lo depois de mais de 30 anos a trabalhar lá. Ele também sabe do que está falando e também sabe de algo (muito) que não sabemos. Alex Cho olha para ele e diz “nem você esperava isso, certo?” Não sabemos se ele esperava, mas ele ri, talvez admitindo que gostou da piscadela.
Perguntamos a Ketan Patel sobre essa revelação. “Que significa?”. E então começa o debate sobre o papel da IA e como Eles o veem como um componente essencial no futuro do PC. Cho e seus colegas falaram sobre possíveis mudanças na interação – do mouse e teclado à voz? Quem sabe – mas especialmente em como tirar proveito dos modelos de inteligência artificial.
Da nuvem para o PC
Hoje esses modelos estão na nuvem e são caros. Pelo menos, se quisermos ter acesso aos últimos avanços. Acontece com ChatGPT Plus ou Midjourney nas suas versões mais recentes, mas o facto de nos quererem cobrar pela utilização destes modelos é normal: o custo associado a estes pedidos é muito elevado na capacidade de cálculo e, portanto, no consumo de energia e até água.
Os responsáveis por ChatGPT e Midjourney usam infraestruturas enormes e muito caras. Dezenas, centenas e até milhares de GPUs são responsáveis por este chatbot responder a qualquer pergunta com aparente solvência e pela IA generativa do Midjourney criar imagens incríveis em apenas alguns segundos.
Fazer algo assim em um PC é possível, mas não é nada barato. Se você tiver uma placa gráfica de última geração – uma RTX 4090 melhor que uma 4080 e uma 4080 melhor que uma 4070 – você pode instalar um dos modelos Open Source existentes. Llama 2 é a referência quando se trata de alternativas ao ChatGPT, e Stable Diffusion é a referência se você deseja gerar imagens em casa. O problema é que o desempenho destes modelos não é atualmente comparável aos geridos por empresas como a OpenAI.
A menos que possua os referidos equipamentos com os melhores gráficos de última geração, as respostas daqueles “ChatGPT domésticos” serão exasperantes se se quiser utilizar os modelos mais competentes (que muitas vezes são os que lidam com o maior número de parâmetros).
Com um RTX 4090 e o Llama 2 modelo 30B, segundo alguns benchmarks, gira-se em torno de 30 tokens por segundo, um número mais que respeitável, mas no qual o custo de energia deve ser incluído: o consumo desses gráficos é muito alto, então Hoje a solução prática para o público em geral é simplesmente usar opções de nuvem, como ChatGPT ou Bard.
Para Patel e o resto dos gestores da HP, no entanto, O futuro desses chatbots e ferramentas de IA não é a nuvem, mas o PC e o laptop. Embora não forneçam detalhes, deixam claro que assim como a Microsoft acaba de anunciar sua grande atualização para o Windows 11 23 H2 com Windows Copilot, em alguns meses veremos uma espécie de “HP Copilot” que será integrado em seus PCs e isso irá muito além da proposta da Microsoft.
“Como isso é possível?”, pergunto. “Hoje em dia você pode fazer isso com uma placa gráfica muito poderosa, mas não é uma solução viável ou prática para a grande maioria dos usuários”, acrescento. Ketan Patel sorri novamente, seguro de si. É evidente que ele sabe (ou pensa que sabe) algo que nós não sabemos.
Ele nos conta como veremos isso em alguns meses. Dentro de um ano, com certeza. Na HP estão desenvolvendo uma solução que não é detalhada, mas que Parece ser esse tipo de ChatGPT ou o próprio Copilot. Um que será separado do da Microsoft e que será o elemento essencial dessa transformação do conceito de PC a que tanto Alex Cho como Enrique Lores e os restantes executivos da Microsoft aludiram na conferência inaugural. Para eles também é claro.
Para eles, o PC deixará de ser um ‘Computador Pessoal’ para ser um ‘Personal Companion’ (assistente pessoal).
A diferença é importante, porque estes dispositivos propõem aproveitar todos os dados que guardamos nos nossos computadores para nos ajudar a trabalhar com eles e facilitar todo o tipo de tarefas. Você tem dados sobre suas finanças? Este assistente poderá criar alertas, resumos e até recomendações. Você está com sua agenda cheia? Esta IA irá ajudá-lo a encontrar lacunas ou reorganizar tudo melhor. Você criou uma lista de futuros lugares que deseja visitar? Não tem problema, o assistente irá perguntar se você deseja organizar uma viagem para um desses destinos e reservar avião, hotel e restaurantes para você.
Estes são apenas alguns dos exemplos desta nova filosofia “vertical” de que falaram Patel e os seus colegas, e que se soma à tradicional visão horizontal e geral dos PCs: todos servem para navegar na Internet ou trabalhar com documentos, mas se você deseja uma abordagem específica e “vertical”, o assistente de IA fornecerá isso. Também o fará de forma totalmente privada e segura.: Esses dados não vão para nenhuma nuvem e o processamento é local, no nosso PC ou laptop, então tudo fica em casa.
A questão, claro, é como isso acontecerá quando os requisitos de energia e de potência de processo são tão elevados neste momento. Para este gestor, a resposta está nas fichas parceiras com as quais está trabalhando. As NPUs (Unidades de Processamento Neural) são o segredo.
Antes, os protagonistas eram as CPUs e GPUs. Abram caminho: o NPU chega
É aí que surgem as dúvidas. A Apple e o seu A17 Bionic e a Google com o seu Tensor G3 há muito que promovem precisamente este tipo de unidades de processamento nos seus SoCs móveis. A Meta e a Qualcomm também estão trabalhando nesses avanços e anunciaram uma aliança em julho de 2023 para levar o Llama 2 AI aos celulares, mas embora a capacidade desses chips tenha aumentado, seu uso atual é restrito (pelo menos, nos celulares). no campo da fotografia computacional.
A questão é se um processador destinado a laptops e PCs poderia conseguir exatamente algo assim. Isto é o que a Intel certamente parece propor., que este ano anunciou um salto qualitativo promissor com o Meteor Lake e seus NPUs. Essas “unidades de processamento neural” não funcionarão necessariamente sozinhas e, de fato, a Intel revelou em setembro como elas serão capazes de se combinar com a CPU e a GPU em todos os tipos de cenários. Tentaram-se analisar seu desempenho e capacidade, embora sem referências claras seja difícil decidir se o salto será tão marcante quanto a Intel promete.
Na verdade, em testes internos com Stable Diffusion v1.5, eles viram como a execução de 20 iterações desse mecanismo generativo de IA usando apenas o NPU levou 20,7 segundos e consumiu 10 W. Ao fazer isso com a ajuda da GPU, o tempo do NPU caiu para 11,3 segundos, mas foram consumidos 30 W. O ideal seria poder escolher se queremos realizar a tarefa em menos tempo ou consumir menos energia, mas no momento não está claro o que decidirão a esse respeito.
Seja como for, não parece que a curto prazo seja possível que uma futura iteração do Google Tensor (G4, G5?) num telemóvel ou um Meteor Lake integrado num portátil possa oferecer a capacidade de processamento que um RTX 4090 oferece em tarefas de IA.
Ou pode? Patel não pôde dizer mais nada. E ainda assim ele continuou a parecer confiante.
“Em alguns meses veremos“, explica. Por precaução, avisa: “esta tecnologia será de primeira geração e melhorará nas sucessivas iterações”. E, no entanto, lá permanece ele, aparentemente convencido de que têm uma carta vencedora.
Um que, aparentemente, tornará nossos PCs muito mais do que são agora. E se for assim, talvez o PC ressurgirá. E então – supomos – virá o smartphone, que também pode acabar nos dando acesso a um ChatGPT ou a uma Difusão Estável localmente.
Um que seja privado, seguro e que aproveite tudo o que fazemos no nosso celular para facilitar nossa vida. Se essa promessa for cumprida, Certamente teremos um argumento muito contundente para mudar o PC.
Em Xataka | Como ter uma IA como o ChatGPT local no seu computador com GPT4All
Reescreva o texto para BR e mantenha a HTML tags