O desenvolvimento da bomba atômica no âmbito do famoso “Projeto Manhattan” mudou o curso da história. Ele fez isso, é claro, sob medidas extremas de segurança que tentaram manter o projeto completamente secreto e impedir que os russos pudessem desenvolver uma arma semelhante. Agora há quem defenda que deveríamos fazer o mesmo com a inteligência artificial, desenvolvendo-a como um projeto ultrassecreto para que não caia em mãos erradas. É o velho debate sobre tecnologia.
O (não tão secreto) Projeto Manhattan. Os locais onde o projeto foi desenvolvido – Los Alamos, Oak Ridge, Hanford – eram geograficamente isolados e fortemente protegidos pela polícia militar e por arame farpado. Havia segurança e controles de acesso 24 horas por dia, 7 dias por semana, além de sinalizações e lembretes constantes para os funcionários manterem em segredo o que sabiam. Apesar disso, os espiões soviéticos conseguiram obter informações críticas que aceleraram o desenvolvimento da bomba atômica soviética em cerca de 12 a 18 meses. A propósito, aquela bomba soviética era uma cópia quase exata daquela criada pelo Projeto Manhattan.
Marc Andreessen quer “desligar” a IA. O conhecido investidor, cofundador da Netscape, Recentemente fiz essa analogia entre o Projeto Manhattan e o desenvolvimento de modelos de IA. Na sua opinião, a inteligência artificial deveria ser gerida como aquele projeto da Segunda Guerra Mundial. Ou seja, com medidas extremas de segurança para evitar, segundo ele, que “o Partido Popular da China tenha acesso à IA americana”.
Até fuzileiros navais e detectores de mentiras. Andreessen propõe que haja acesso restrito a todos os desenvolvimentos que variam do CEO “ao cozinheiro da empresa”, e propõe a criação de mecanismos de vigilância interna “constantes” e até mesmo que os funcionários passem por detectores de mentiras todos os meses. Locais de trabalho seguros também devem ser criados e guardados pelos fuzileiros navais dos EUA 24 horas por dia.
Este investidor também propõe evitar vazamentos protegendo os dispositivos utilizando gaiolas de Faraday, contramedidas eletrônicas e que todos os funcionários tenham algo semelhante a um AirTag para poder acompanhá-los em todos os momentos. Também deveria haver um grande segurança que pudesse interrogar qualquer pessoa – e “aterrorizá-la” – a qualquer momento.
IA é uma ameaça à civilização. A desculpa de Andreessen, como a de outros tecnogurus, é apontar a IA como a grande ameaça à nossa civilização. Se caísse em mãos erradas, este tipo de projeto poderia levar (talvez) ao fim da raça humana.
A segurança de hoje é como queijo suíço. O empresário critica que em vez de fecharem estes empreendimentos, nem a OpenAI nem outras startups deste ramo estão a proteger demasiado os seus empreendimentos. “A segurança equivale ao queijo suíço. A penetração chinesa nestes laboratórios poderia ser trivial usando qualquer método de espionagem industrial, como simplesmente subornar pessoas que limpam seus escritórios para conectar chaves USB a laptops.” Para ele, de facto, a realidade é que a China já está a espiar os EUA e neste momento há downloads noturnos de todas as pesquisas dos EUA em IA.
OpenAI deveria ser nacionalizada. A solução é clara para Andreessen: a OpenAI deve ser nacionalizada imediatamente. Isso representaria potenciais mudanças importantes na gestão desta empresa, que provavelmente se tornaria algo mais semelhante ao Pentágono ou à NSA.
Elon defendeu a abertura e agora fecha a IA mais do que qualquer outra pessoa. É exatamente o mesmo discurso que Elon Musk defende há anos, mas curiosamente foi cofundador da OpenAI como uma organização que pretendia partilhar tudo o que descobrissem. A empresa (agora sem ele) acabou convertendo o GPT-4 em um desenvolvimento mais secreto, mas Musk, que também iniciou seu projeto com xAI, não o fez como o OpenAI propôs inicialmente, mas de forma totalmente fechada e secreta.
Apoia. Existem outras personalidades que concordam com Andreessen. Um deles é o bilionário Vinod Khosla, cofundador da Sun Microsystems. Faz meses comentou como “há muita beleza na abertura. A publicação do estudo dos transformadores permitiu que a IA florescesse hoje”. E ainda assim, observa ele, “essas publicações, ideias e linhas de código estão se espalhando na China”.
O magnata acreditava no Open Source com o surgimento do Linux, “mas não sou mais. Se você está otimizando para progredir o mais rápido possível, coloque seu trabalho nas mãos do maior número de pessoas com o menor custo possível. Essa é a receita para um progresso rápido. E isso é ciência básica. Mas isso não é ciência básica. Este é o Projeto Manhattan.”
Vamos fechar tudo para nos proteger (e ganhar mais dinheiro). O que Andreessen propõe é uma visão já conhecida e comum entre muitas das grandes personalidades à frente da Big Tech. A abertura parcial de muitas delas ao Open Source sempre foi criticada como postura. A Microsoft é um bom exemplo disso: durante anos criticou essa filosofia – lembre-se, Ballmer chamou o Linux de “um câncer” – e acabou adotando-a gradativamente para reconquistar a comunidade de desenvolvedores e usuários.
É claro que é uma boa notícia que as grandes empresas apoiem estes projectos, mas quer o façam ou se tornem ainda mais expressivos, é muito improvável que o façam por convicção moral. Pelo menos quem assina tem certeza de que o faz para ganhar mais dinheiro. É legal, sem dúvida, mas argumentos como “temos que nos proteger da China” ou “fazemos isto para ter um mundo melhor” permanecem em segundo plano.
Mas a IA de código aberto está se tornando cada vez mais promissora. Os comentários de Andreessen destacam o fato de que os projetos de IA de código aberto continuam a ganhar terreno e muito interesse. Isso é feito, por exemplo, pelo Llama 2, LLM da Meta, que tem Yann LeCun como o grande defensor dessa abertura de pesquisa. O próprio LeCun respondidas para Vinod Khosla, que reivindicado que “estamos numa guerra económica com a China e a IA deve ser uma vitória”. De acordo com o chefe de IA da Meta, “Qualquer que seja a guerra em que você pensa que estamos, Vinod, inevitavelmente a perderemos se banirmos ou simplesmente impedirmos plataformas de IA de código aberto”. Lembremos: há mais de um ano até o Google estava preocupado com o avanço de modelos como o Llama 2, e os responsáveis indicaram que “O código aberto pode nos ofuscar”. Há muito, muito dinheiro em jogo.
Imagem | TechCrunch
Em Xataka | Meta, IBM e outros formam a AI Alliance. Seu objetivo: defender o desenvolvimento de modelos de IA de código aberto