Na Apple, eles pareciam ter perdido o barco na IA, mas nos últimos meses tentaram se recompor e, aos poucos – e com base no dinheiro – começaram a compartilhar alguns de seus avanços neste campo. O último é especialmente interessante porque aponta diretamente para que tipo de IA veremos em seus iPhones mais cedo ou mais tarde.
O minúsculo OpenELM. Os pesquisadores da Apple publicaram OpenELM (Open-source Efficient Language Models), uma família de quatro grandes modelos de linguagem (LLM) que são realmente pequenos em comparação com a maioria dos modelos nos quais ChatGPT ou Gemini são baseados, por exemplo. A Apple também tem uma pesquisa que acompanha o lançamento dos modelos.
Quatro “tamanhos”. Os modelos estão disponíveis nas versões 270M, 450M, 1.1B e 3B. O menor, aquele com 270 milhões de parâmetros, é significativamente compacto, e por exemplo o modelo Phi-3 Mini que a Microsoft acaba de publicar possui parâmetros de 3,8B, ou seja, é 14 vezes maior em número de parâmetros. Cada tamanho possui duas versões, uma “pré-treinada” (mais geral) e uma “ajustada à instrução” (mais focada em uma finalidade específica).
Eficiência por bandeira. Como o próprio nome indica, o objetivo nesses modelos é buscar a eficiência, ou o que é o mesmo, poder executá-los sem que o consumo de recursos seja gigantesco. Modelos maiores exigem mais poder de computação para gerar texto com fluência, mas no OpenELM os requisitos são muito mais modestos e isso aponta diretamente para um objetivo.
O iPhone, por seu próprio “AppleGPT”. Já falamos sobre os planos da Apple de criar seu próprio chatbot, que provisoriamente apelidamos de “AppleGPT”. É mais do que provável que não se chame assim, mas o que está claro é que ele rodará no iPhone (ou em outros aparelhos da Apple) localmente, sem precisar da nuvem. Esses novos modelos são pequenos o suficiente para rodar sem problemas aparentes nos poderosos chips da Apple, embora também tenham uma desvantagem.
Mais limitado. Quanto menor for um modelo, mais “generalista” e menos rico, preciso e específico ele poderá ser. Portanto, não poderão competir com modelos muito mais ambiciosos como o GPT-4 ou os utilizados no Gemini 1.5 Pro ou Claude 3 Opus, mas estes modelos necessitam de muito mais recursos para poderem funcionar com fluidez, razão pela qual por enquanto a nuvem é a alternativa para utilizá-los.
Testes sintéticos. A variante 450M tem o melhor desempenho comparativamente de acordo com os testes realizados na pesquisa, mas é superada por outros modelos Open Source em diversos cenários. Aqueles que já experimentaram eles avaliam isso como um modelo “sólido mas muito alinhado”, o que significa que as suas respostas são pouco criativas e muito formais.
E eles também podem estar errados. A própria Apple alerta que esses modelos “são disponibilizados sem qualquer garantia de segurança. Consequentemente, existe a possibilidade de que esses modelos produzam resultados imprecisos, prejudiciais, tendenciosos ou questionáveis em resposta à entrada do usuário”.
Em Xataka | O plano da Apple de liderar em IA, mais vivo do que nunca: a compra da Darwin AI é a prova disso