Meta é conhecida por ser dona do Facebook, Instagram e WhatsApp. Também pela sua insistência no Metaverso, no Meta Quest 3 ou no Ray-Ban Meta. Mas, além dos entusiastas da tecnologia, a Inteligência Artificial não é tão conhecida como OpenAI ou Google. O que não significa, como sabemos aqueles que acompanham esta indústria de perto, que Meta não esteja lá.
Na verdade, já existe há muito tempo. Tudo começou com o FAIR (Fundamental AI Research, antigo Facebook AI Research), laboratório criado em 2013 com sede em Menlo Park – onde a empresa está sediada -, Londres e Nova York.
Seu objetivo, estude ciência de dados, aprendizado de máquina e IA, Eles pareciam estranhos ao que a empresa era naquela época: basicamente o Facebook, em menor medida o Instagram. Muito pouco mais. A compra do WhatsApp ainda nem havia sido realizada.
Hoje FAIR é Meta AI e seus avanços foram muito além. Um dos seus marcos foi a previsão da estrutura tridimensional de 600 milhões de proteínas em 2022. E agora, visitando a sede parisiense da Meta AI, pudemos conversar com alguns de seus líderes sobre o passado, o presente e o futuro da Meta AI. esta ambição da empresa.
Tecnologia dura, retornos futuros
“Muitas das aplicações de IA que vemos hoje nos produtos Meta são resultado de anos de pesquisa e desenvolvimento”, explica. Joelle Pineau, vice-presidente de pesquisa de IA da Meta. Onde eles estão refletidos? Principalmente, nas funções de classificação e recomendação, bem como em algumas funções específicas das aplicações. Por exemplo, no corte de imagens.
A trajetória da Meta neste campo tem sido curiosa. Sua receita vem da publicidade, que eles maximizam mantendo seus usuários o maior tempo possível dentro de seus aplicativos. Os seus esforços em IA, por outro lado, vêm de há mais de uma década, e a aposta foi feita na tecnologia dura sem se saber que resultados alcançariam e como poderiam torná-los rentáveis.
Às vezes esses resultados não vêm tanto na forma de funções óbvias para o usuário, mas em melhorias sutis, até mesmo que decidem o que o usuário não verá. Como remoção automática de conteúdo impróprioComo explicou Pineau: mais de 95% do conteúdo relacionado ao discurso de ódio e ao conteúdo violento é removido da plataforma antes que uma única pessoa possa vê-lo. Dentro ou fora da empresa. Ou seja, sejam eles usuários ou moderadores. Uma conquista que tem a ver com a utilização de IA em algoritmos para esse fim.
Algo semelhante ao que você obtém na área de publicidade: mostrar anúncios muito mais interessantes para cada usuário e reduza a exposição a publicidade que não seja atraente para você.
E nessa mesma linha está algo anunciado recentemente pela empresa: a rotulagem do conteúdo como “feito com IA”, seja áudio, vídeo ou imagem, caso sejam detectados indicadores disso ou se o próprio usuário o tiver revelado. Desta forma, pretende-se reduzir possíveis casos de manipulação e aumentar a transparência. Isso começará a entrar em vigor em maio.
Nos resultados mais tangíveis, alguns recém-chegados, o Ray-Ban Meta, que pudemos testar recentemente. São um produto que poderíamos definir como estratégico para o Meta: não são apenas uma forma de capilarizar a sua presença no mundo, mas também a melhor forma de fazer com que o mundo utilize o Meta AI, o seu chatbot.
Siri, Alexa ou Google Assistant têm seus produtos físicos prontos para serem invocados pelo usuário. A Meta precisa de seus próprios produtos físicos para não precisar depender do usuário para abrir um aplicativo para fazer isso, com o atrito que isso acarreta.
Os Ray-Ban Meta têm seu melhor território nos Estados Unidos, pois é no país norte-americano onde você pode aproveitar ao máximo este assistente. Por exemplo, usar esses óculos como fones de ouvido através dos quais podemos conversar com ele e fazer perguntas sobre o que precisamos em todos os momentos. Fora de lá seu assistente é bem mais limitado, por enquanto.
E se falamos de algo presente em um aplicativo, e não em um dispositivo, temos o modelo Segment Anything, que permite separar objetos de imagens com um único toque. É algo voltado para o lado comercial incluí-lo como função em redes como o Instagram para a criação de adesivos ou edição de imagens. Ele tem sua própria demonstração pública.
O trabalho acumulado na Meta AI não se limita a funções, óbvias ou subtis, para as suas plataformas: mantém o compromisso de pesquisa aberta por meio da construção e divulgação pública de modelos, papéis e código relacionado.
PyTorch, uma biblioteca de desenvolvimento Aprendizado de máquina, começou como um projeto interno para acelerar a produtividade de seus pesquisadores. Hoje ele não apenas foi lançado, mas tem sido uma peça-chave no desenvolvimento de muitas ferramentas relevantes de IA, desde o Autopilot da Tesla até o ChatGPT.
Nos últimos anos, logicamente a principal aposta tem sido a IA generativa. Pineau considera que a unificação organizacional da Meta foi essencial para este salto, reunindo a equipa de IA fundamental e a equipa de IA generativa, para conseguir “uma transferência muito mais rápida da investigação para a produção”.
Sobre o futuro para onde se dirige o laboratório, o VP afirma que a empresa está a trabalhar na criação de “modelos mundiais” mais avançados que possam capturar e compreender informações multimodais para fazer raciocínio e planejamento mais precisos.
Aqui a presença de dispositivos de realidade aumentada e virtual, como o Meta Quest 3, dentro da empresa está bem contextualizada: não se trata apenas de vender um produto e criar uma plataforma dentro dele, mas de aproveitar a evolução na compreensão do ambiente em duas direções.
Estes esforços, um ano e meio depois da chegada do ChatGPT, que agitou como ninguém o vespeiro para despertar o interesse pela IA por parte da população em geral, poderíamos supor que têm a ver com a alardeada chegada de AGI (Inteligência Artificial Geral, que superará o ser humano em todas as facetas do conhecimento).
Em absoluto. Ou pelo menos não com esse termo.
Yann LeCun, vice-presidente e cientista-chefe de IA da Meta, é um peso-pesado na empresa e no setor. Ganhou o Prêmio Turing em 2018 e é um dos criadores da tecnologia de compressão de imagens DjVu, entre outros marcos. E na sua opinião, o termo ‘AGI’ não tem sentido, uma vez que a inteligência humana é “muito especializada”.
Além disso, ele acredita que a IA e o aprendizado de máquina fizeram melhorias significativas, mas ainda não conseguem igualar a velocidade e a eficiência do aprendizado humano. Até mesmo aprendizagem animal.
Na sua opinião, a tecnologia ainda está longe de ser capaz de replicar a inteligência humana “ou a de um gato doméstico”, destacando deficiências de compreensão, memória persistente, planejamento e raciocínio. E ao mesmo tempo, destruindo as previsões que sugerem uma conquista iminente neste campo. Um excesso de otimismo.
O que depende de a IA continuar a progredir para superar esses limites? “O que trouxe progresso foi o que chamamos de aprendizagem auto-supervisionada”, diz LeCun. Aquele que permite aos sistemas compreender e manipular a linguagem de forma mais eficiente, além de permitir modelar e compreender o mundo físico, um desafio particularmente complexo.
A arquitetura de IA que ele propõe para isso é uma arquitetura “orientada para objetivos”, que se concentra em atingir esses objetivos, ao mesmo tempo que cumpre os limites éticos e de segurança. Desta forma, diferiria dos modelos generativos tanto na abordagem como na aplicação.
LeCun considera que hoje as máquinas não aprendem como o mundo funciona, fazendo a comparação com uma criança de dez anos: ela é capaz de aprender a limpar a mesa ou a colocar a máquina de lavar louça em minutos, mas hoje os robôs não conseguem igualar isso. Ou com um garoto de 17 anos: ele pode aprender a dirigir com vinte horas de prática, mas hoje ainda não temos direção autônoma nível 5 sem limites. É aqui que entra o paradoxo de Moravec: a IA facilita o que é difícil para um ser humano e vice-versa.
Por enquanto, o futuro da Meta AI confessado pelos seus próprios porta-vozes é estar acessível em todas as plataformas, incluindo WhatsApp, tanto para indivíduos quanto para empresas.
Algo semelhante ao assistente do Ray-Ban Meta: não espere que ele seja invocado em um dispositivo estranho. Nem numa aplicação específica, mas sim naquelas que os utilizadores já utilizam, plano anunciado em setembro que ainda não chegou ao grande público.
E o futuro dos assistentes virtuais, na sua opinião, passa por ser de código aberto e constituir uma infraestrutura compartilhada (como a Internet de hoje) para se tornar um repositório de todo o conhecimento e cultura humana. E sublinha a importância do código aberto: “a cultura e o conhecimento não podem ser controlados por algumas empresas na costa oeste americana ou na China”.
Falando em modelos e voltando ao presente: LLaMA, LLM da Meta, acaba de anunciar sua versão 3, está disponível em formato web, possui versões 8B e 70B (8.000 e 70.000 milhões de parâmetros respectivamente), e está chegando uma versão 400B multimodal com 400.000 milhões de parâmetros.
E também, certamente o seu maior diferencial: É de código aberto, ou quase. Porque é muito parecido com usar uma licença comunitária, mas sem ser completamente Código aberto. Porém, já marca uma diferença importante em relação aos seus concorrentes.
Por que código aberto? Porque assim conseguem se posicionar de forma mais atrativa para grandes pesquisadores. Meta não perdeu a oportunidade de salientar que é chocante pensar que um pequeno número de pessoas numa sala fechada, sem responsabilização ou transparência, fará sempre a coisa certa.
LeCun conclui a entrevista sem evitar uma pergunta sobre o futuro do Metaverso uma vez que o seu investimento espectacular está pelo menos no ar, pelo menos face à opinião popular.
“Tal como a IA, é um investimento a longo prazo. A