Esse coelhinho terá dificuldade em ter sucesso. Não porque seja uma má ideia, mas precisamente o contrário. Quando Jesse Lyu apresentou seu Rabbit R1, ele nos revelou o potencial futuro dos chatbots de inteligência artificial: eles não ficariam mais satisfeitos em responder às nossas perguntas, mas poderiam agir de acordo. Este dispositivo é um exemplo perfeito do que tem sido chamado de agentes de IA, e aqui é provável que em breve veremos (muito) movimento.
Uma ótima ideia. Nessa apresentação do início de 2024, o pequeno e original Rabbit R1 demonstrou como era capaz de reservar um Uber ou pedir mesa num restaurante. Foi, portanto, mais longe que o ChatGPT e os seus concorrentes, porque são capazes de lhe dizer como ir de um local a outro ou recomendar um restaurante, mas não vão além disso. Não agir.
Agentes de IA. Mas o Rabbit R1 sim, e o segredo está no seu modelo de IA, chamado LAM (Large Action Model), que é uma espécie de “mordomo” que se conecta a determinadas plataformas para executar ações que a outra parte (o chatbot) sugere. É como um ChatGPT supervitaminado, porque primeiro responde às nossas perguntas (“Onde comer sushi?”) e depois age de acordo (“Vou reservar uma mesa para você no restaurante X, se quiser”). Isto é o que fazem os chamados agentes de IA, e todos eles representam uma revolução interessante neste campo.
Uma ideia que surgiu há meses. Embora o Rabbit R1 tenha sido a demonstração mais clara do que os agentes de IA podem fazer, a ideia vem de algo anterior. Começamos a falar sobre eles sem usar esse termo há quase um ano, quando descobrimos o AutoGPT. Este modelo de IA, cujo código está disponível no GitHub, é um “criador de agentes” que fazem coisas por nós. Naquela altura estava essencialmente focado na programação, mas as suas opções vão mais longe e um agente criado com AutoGPT é, por exemplo, capaz de controlar um computador usando as mesmas entradas e saídas que um usuário humano aproveitaria.
E eles vão mais longe. Nos últimos dias, testemunhamos o nascimento de outro agente promissor de IA. Seu nome é Devin e ele foi descrito por seus criadores como “o primeiro engenheiro de software de IA”, capaz de detectar e corrigir erros de código por conta própria. Recentemente apareceu um concorrente do Devin chamado MAGIS, desenvolvido por pesquisadores chineses e que também é capaz de resolver erros em projetos GitHub de forma autônoma.
Também em videogames. Esses tipos de modelos de IA também são interessantes no mundo dos videogames. O Google DeepMind demonstrou isso há duas semanas ao revelar o SIMA, um agente de IA treinado para aprender a jogar videogames – mesmo aqueles em mundos abertos – por conta própria. Segundo os responsáveis, esta interação com mundos virtuais pode acabar por ser importante para mais tarde acabar por aplicar esse aprendizado no mundo real.
Na OpenAI (e outros) eles já estão fazendo isso. Como dissemos, o ruim de ter uma boa ideia como a do Rabbit é que provavelmente alguém acabará copiando-a. Aparentemente é isso que fará a OpenAI, que segundo fontes próximas à empresa está preparando “uma espécie de agente de software que automatiza tarefas complexas ao assumir o controle efetivo do dispositivo do cliente”. Enquanto isso, o ex-CEO da Salesforce, Bret Taylor, e seu sócio, Clay Bavor, ex-executivo do Google, também preparam um projeto chamado Sierra para levar agentes de IA às empresas.
Mas eles têm que fazer isso direito. O maior desafio neste momento não é tanto que os chatbots sejam ativos e não passivos, mas que quando agem não cometem erros. Tanto o ChatGPT quanto seus rivais costumam errar e inventar coisas, então, se isso se traduzir em ações no mundo real, as consequências poderão ser desastrosas. Por enquanto, o Rabbit R1 resolveu o problema da maneira mais lógica: seu agente de IA pergunta a você antes de fazer qualquer coisa. Se você não confirmar aquela reserva de Uber ou restaurante, tudo permanecerá como estava.
Imagem | Darrencoxon com meio da jornada
Em Xataka | Gemini Nano vai ser uma revolução e é o que quero que o Siri seja no iOS 18