O ChatGPT, como os demais chatbots do mercado, tem um problema: não sabem guardar segredos. Isso é um problema para muitas empresas quando os utilizam, mas é ainda mais problemático para as agências de segurança governamentais.
Os serviços secretos dos EUA queriam precisamente aproveitar as vantagens dos modelos generativos de IA, mas evitando esses riscos, e agora têm o que procuravam: algo como um “ChatGPT para espiões”.
Conseguiram isso graças à Microsoft, que desenvolveu um modelo generativo de IA completamente desconectado da Internet e que pode ser usado para analisar informações ultrassecretas.
Segundo William Chappell, chefe do departamento de missões estratégicas da Microsoft, é a primeira vez que um LLM é utilizado dessa forma, já que a maioria deles depende de serviços em nuvem para aprender e inferir padrões a partir de dados.
O desenvolvimento de Redmond é baseado no GPT-4 e foi implementado em uma “nuvem privada” isolada da internet, normalmente conhecida como “air-gapped”. A CIA já criou um chatbot há alguns meses para analisar informações não confidenciais, mas a comunidade de inteligência precisava trabalhar com dados muito mais sensíveis.
Sheetal Patel, um dos responsáveis por esta iniciativa no ICA, explicou no mês passado como “há uma corrida para alcançar IA generativa para dados de inteligência”, e o primeiro país que conseguir utilizar este tipo de tecnologia vencerá. “E queremos ser nós”, acrescentou.
A Microsoft tem trabalhado neste projeto nos últimos 18 meses. Para criá-lo, eles aproveitaram um supercomputador de Iowa especializado na área de inteligência artificial. A versão totalmente isolada da internet Só é acessível pelo governo dos Estados Unidos. Apenas cerca de 10.000 pessoas podem acessar este sistema, disse Chappell. Este modelo baseado em GPT-4 também é “estático”: pode ler arquivos, mas não pode aprender com eles ou coletar informações da Internet. Graças a isso, é garantido que o modelo está “limpo” e que nenhuma informação sensível vaza para o exterior.
O serviço começou a funcionar esta semana e agora passará por fase de testes e avaliações. Isso não impede que haja riscos: os modelos de IA cometem erros e inventam coisas, por isso será interessante ver se este chatbot para agências de segurança acaba realmente por dar os resultados que os seus responsáveis procuram.
Imagem | Imagens Universais
Em Xataka | Uma das grandes desvantagens do ChatGPT é que ele não tinha “memória”. Isso acabou de mudar