No mundo das pizzas, o grande debate “com abacaxi / sem abacaxi” ficou em segundo plano após o último erro do Google. Os seus modelos generativos de IA já lhe causaram problemas no passado, mas agora demonstram mais uma vez que (como noutros casos) não se deve confiar demasiado neles.
Cola para pizza de queijo. Ontem um usuário compartilhou uma pesquisa no Google. “Queijo não gruda na pizza”, reclamou. O novo motor de busca já tem resultados sugeridos pela IA, o que o Google chama de “Visão Geral da IA”, e nessa resposta a IA do Google sugeriu que “você também pode adicionar 1/8 xícara de cola não tóxica ao molho para dar-lhe mais adesividade”. .
Mas essa informação errada era uma velha piada do Reddit. A sugestão surpreendente nem foi uma invenção do modelo de IA do Google. O chatbot simplesmente plagiou um comentário irônico que um usuário do Reddit chamado Fucksmith fez há 11 anos. Por que a IA do Google considerou esse comentário legítimo? Impossível saber.
Google usa dados do Reddit para sua IA. E também o faz oficialmente graças ao acordo que ambas as empresas chegaram há algumas semanas. Isto permite que os modelos de IA do Google sejam treinados com todos os comentários desta plataforma e, embora muitos sejam úteis, outros são simplesmente piadas e ironias.
Papagaios estocásticos. A IA não entende o que lê ou o que escreve. Um estudo de 2021 já deixou claro como esses tipos de modelos generativos de IA são como papagaios estocásticos: podem ser convincentes na geração de texto, mas não há realmente nenhuma compreensão do que fazem.
Perigosamente errado. As probabilidades imperam aqui, e se o modelo considerar que colar o queijo na pizza é relevante – pela forma como está programado – ele irá recomendá-lo sem saber se é ou não um método adequado para obter esse efeito. Aqui o erro é até bacana, mas o problema é que ele pode ocorrer em cenários muito mais sensíveis.
Outro desastre de IA do Google. Os erros dos modelos de IA do Google estão se tornando infames. Tudo começou com Bard e seu erro em uma questão sobre o Telescópio Espacial James Webb. Há apenas três meses, ocorreram problemas com seu mecanismo de geração de imagens, que era excessivamente inclusivo, e agora eles estão mais uma vez cometendo um erro inocente, mas grave, com esse método de cozinhar pizza.
Por precaução, não confie. Embora o Google tenha cometido o erro, todos os chatbots cometem erros em todos os tipos de questões. Mesmo em áreas como a matemática, uma área em que dependemos de computadores, Bate-papoGPT comete erros em massa, mas insistimos, ele e outros fazem isso, tanto na matemática quanto em muitas outras áreas em que ele inventa dados. A conclusão permanece a mesma: por precaução, não confie em tudo o que ele lhe diz e verifique essas respostas.
Ah, e outra coisa. Viva a pizza com abacaxi.
Em Xataka | ChatGPT está escrevendo estudos médicos e econômicos. Sabemos disso porque ele usa palavras estranhas