A Apple parecia ter perdido o barco na IA, mas talvez esteja apenas fervendo sua revolução específica. É pelo menos isso que emerge de uma descoberta recente: uma investigação de especialistas da empresa que apontam para um rival do ChatGPT com uma diferença fundamental: não será baseado na nuvem.
Um estudo promissor. Um grupo de pesquisadores da Apple publicou um novo relatório intitulado “LLM in a flash” que levanta uma ideia interessante. De acordo com este estudo, o armazenamento Flash é mais abundante em dispositivos móveis do que a RAM normalmente usada em LLMs. Com o seu método é possível tirar partido deste tipo de arrumação, algo que abre portas a possibilidades marcantes.
Duas técnicas para resolver o problema. Para habilitar esses tipos de recursos, os pesquisadores criaram duas técnicas diferentes. O primeiro, o chamado “windowing”, que permite ao invés de utilizar novos dados a cada vez, a IA reaproveita parte dos dados já processados, reciclando-os. A segunda, o chamado “Row-Column Bundling”, que permite reagrupamento de dados de forma mais eficiente, podendo assim acelerar a capacidade da IA de compreender e gerar linguagem.
Um AppleGPT em resumo. A combinação destes métodos permite-nos propor a chegada de um “AppleGPT” que não funcionaria a partir da nuvem, mas sim directamente no telemóvel, mesmo que não tenhamos ligação a redes de dados. Além disso, dizem os pesquisadores, as técnicas permitiriam que a velocidade de processamento da IA fosse multiplicada por 4 a 5 vezes na CPU móvel e até 20 a 25 vezes em sua GPU. Como salientam no seu estudo, “este avanço é especialmente crucial para a implantação de LLMs avançados em ambientes com recursos limitados, expandindo assim a sua aplicabilidade e acessibilidade”.
Uma Siri supervitaminada? Conforme indicado pela Bloomberg há algumas semanas, a Apple está trabalhando em uma versão mais poderosa do Siri, na qual haveria uma integração significativa de inteligência artificial. O assistente poderia, assim, responder a perguntas mais complexas ou completar frases automaticamente com mais eficiência. Fala-se também em tradução de idiomas em tempo real e, claro, em novas capacidades na área da fotografia e realidade aumentada, especialmente agora que o Vision Pro está prestes a chegar.
Ajax como base. No verão já falamos sobre este ambicioso projeto da Apple que terá o Ajax como componente fundamental. Este LLM tentará competir com GPT-4 (ou pelo menos GPT-3.5), PaLM 2 ou Llama, os modelos OpenAI, Google e Meta. Os movimentos da Apple nesse sentido também afetam as ferramentas com as quais seus desenvolvedores estão trabalhando, e o esforço parece querer se cristalizar com o iOS 18.
A Apple quer que você use seu chatbot localmente. O grande diferencial aqui está na possibilidade de usar esse ‘Apple GPT’ – ou como é chamado – de forma totalmente independente da nuvem. Estamos diante de um caso de solução de computação “edge”, ou seja, executada localmente, sem a necessidade de estarmos conectados a redes de dados, por exemplo. É a mesma coisa que, por exemplo, o Google está buscando com o Gemini Nano.
Por que isso é importante. Esta diferença no seu modo de funcionamento é relevante porque é precisamente consistente com a filosofia da Apple: evitar a nuvem permitirá teoricamente à empresa ter mais garantias em termos de privacidade porque o que pedimos e o chatbot nos responde não sairá do nosso dispositivo ou ” será coletado.” A Apple há muito se autoproclama a campeã da nossa privacidade (ahem), e isso poderia reforçar esse discurso.
Imagem | Jano le Roux
Em Xataka | Os assistentes de voz já foram a grande promessa da IA. Hoje eles nada mais são do que o patinho feio