Era uma época em que praticamente não havia dados, especialmente para a inteligência artificial. Tinha um longo caminho a percorrer antes de se tornar uma indústria, o hardware estava muito atrasado, os problemas eram baseados em brinquedos e a pesquisa era artesanal. Agora, com a IA enfrentando problemas do mundo real, há uma abundância de informações para processar e uma indústria próspera em torno dessa tecnologia, dois pesquisadores nos contam como era trabalhar três décadas atrás, nos anos 90, quando começaram nesse campo. Era um momento em que eles deixavam as máquinas funcionando e voltavam no dia seguinte na esperança de que os cálculos tivessem terminado. Juan Antonio Rodríguez-Aguilar, professor pesquisador do Instituto de Pesquisa em Inteligência Artificial do CSIC, cuja carreira começou em 1993, rapidamente aponta uma das grandes diferenças com o momento atual: “Quando começamos, não havia dados. Todos esses dados estavam sendo produzidos. E todos os problemas que existiam na IA eram pequenos problemas, com dados sintéticos que alguns pesquisadores criaram. Além disso, estávamos usando hardware muito limitado.” Ao contrário de agora, o trabalho era feito localmente, muitas vezes com um simples computador desktop. Jesus Cerquídes, chefe do Departamento de Aprendizado de Máquina do Instituto de Pesquisa em Inteligência Artificial do CSIC, ingressou em 1995, durante o seu último ano de graduação em Ciência da Computação. “Tínhamos um software que nos deram da França, que só funcionava em uma máquina específica e era muito lento. Você movia o mouse e, após um segundo, o mouse se movia para outra parte da tela.” Era um Sun SPARCstation 1, que podia atingir no máximo 64 MB de memória. Em comparação, um smartphone intermediário hoje tem cerca de 8 GB de RAM, ou seja, 125 vezes mais. Rodríguez-Aguilar também estava no último ano de graduação quando lhe explicaram como as redes neurais funcionavam. Seu interesse pela inteligência artificial foi despertado e, durante o seu Erasmus na Inglaterra, seu professor propôs-lhe implementar alguns dos seus trabalhos teóricos. Então ele começou a implantar esse algoritmo em um Macintosh Plus, um computador lançado em 1986 com um processador de 8 MHz. (Novamente a comparação com os celulares intermediários: o chip MediaTek 1080 é composto por 2 núcleos a 2,6 Ghz). “Passei um tempo lá implementando o algoritmo em uma máquina que era hilária. Fiz isso com a linguagem de programação LISP. Agora a IA é programada em Python ou C++, mas essa era a linguagem da época”, lembra. Os data centers modernos das Big Tech eram nada menos que utopias para os pesquisadores de IA do passado. (Serviços Web da Amazon) Na década de 90, nas pesquisas em IA, era comum programar um algoritmo e executa-lo em um computador desktop, até mesmo em casa. Agora é impensável experimentar IA sem usar centros de supercomputação ou serviços na nuvem. Esta tem sido uma das razões pelas quais as empresas privadas têm avançado esmagadoramente em comparação com os centros de pesquisa. O enorme poder computacional dos data centers do Google, Microsoft ou Amazon permite experimentações massivas. “Para reproduzir um artigo da DeepMind provavelmente preciso que alguém me dê milhões de euros em computação”, diz Cerquides. “Então esqueça, não posso reproduzir. Tenho que acreditar cegamente nos resultados porque não tenho dinheiro para reproduzi-los.” Naquela época, quando a Internet ainda era um embrião do que viria a ser mais tarde, a pesquisa em IA dedicava-se a resolver problemas que hoje consideramos mínimos. Eles estavam trabalhando no reconhecimento de caracteres, para identificar quais números estavam escritos à mão. “Estávamos pensando nos serviços postais. Os códigos postais apareciam nas cartas e sabíamos que seria útil não ter que inserir esses códigos postais à mão, mas sim lê-los a partir de uma foto”, explica Cerquides. Foi a pré-história do reconhecimento da caligrafia. Eles também aprimoraram algoritmos para prever o resultado de um jogo de xadrez, uma disciplina que na época era vista como um limite para as máquinas. Eles fizeram isso com base na posição das peças e com base em um jogo real já disputado. Prever manchas solares ou analisar dados médicos foram outras tarefas exploradas pela IA. Sempre lidaram com problemas de dimensões modestas, especialmente porque as bases de dados eram demasiado pequenas para suportar hipóteses complicadas. Quase todo o trabalho foi feito no centro de pesquisa. Embora alguns pesquisadores tenham levado para casa certas tarefas leves de computação. O avanço da vertigem nos últimos anos Agora pesquisadores podem se conectar de casa para trabalhar com inteligência artificial. A Internet, os sistemas em nuvem e o aumento exponencial do hardware mudaram tudo. Antes o código nem estava disponível, o GitHub não existia e o movimento do software livre era minoritário. “Você lê artigos de outros pesquisadores em papel”, comenta Rodríguez-Aguilar, enfatizando o formato físico, “às vezes você fotocopia os artigos na biblioteca”. Ambos se lembram de voltar de conferências de inteligência artificial nos Estados Unidos carregado com os livros dos palestrantes. E quando ele chegou todos os seus companheiros lhe pediram isso. O contraste é abismal. Hoje em dia os investigadores têm acesso a qualquer artigo científico publicado há duas semanas. Todos estes factores, somados à abundância de…