O ChatGPT se tornou parte da vida de milhões de pessoas que o utilizam diariamente para diversas tarefas, desde a preparação para entrevistas de emprego até o resumo de reuniões. Mas, Quão expostas estão suas conversas? Já sabemos há algum tempo que a OpenAI pode usar conteúdo de chat para melhorar seus modelos de IA, a menos que o histórico de chat seja desativado ou a versão paga do ChatGPT Enterprise seja usada.
O que precede significa que alguns funcionários da empresa liderada por Sam Altman têm a possibilidade de aceder às suas conversas para fins técnicos ou de segurança. Por isso é tão importante não compartilhar informações confidenciais, mas sim avisar a Samsung que acabou proibindo o uso do ChatGPT entre seus funcionários. Além disso, existem outras maneiras pelas quais as conversas podem acabar nas mãos de terceiros, por exemplo, um cibercriminoso.
O ataque cibernético que compromete a segurança do ChatGPT
Imagine que você está em um café usando o ChatGPT do seu laptop conectado à rede Wi-Fi pública. Este cenário pode ser propício para que um invasor use certos elementos ao seu alcance para tente deduzir as respostas do chatbot. Tudo isso, sem você perceber. As informações sobre o ataque que explicaremos a seguir vêm de um interessante estudo do Laboratório de Pesquisa de IA Ofensiva da Universidade Ben-Gurion em Israel que é desenvolvido basicamente em quatro etapas:
- Interceptar o tráfego da vítima
- Filtre pacotes para encontrar respostas ChatGPT
- Revele o comprimento dos tokens
- Inferir a resposta do ChatGPT usando um LLM
Se você é usuário do ChatGPT, certamente deve ter notado que o chatbot lhe envia progressivamente a resposta. Também podemos explicar este processo da seguinte forma: o modelo, GPT-3.5 ou GPT-4, transmite os tokens para o seu computador à medida que os gera. Agora, embora essa transmissão sequencial seja criptografada, ela abre a porta para o uso de um tipo de ataque conhecido como Ataque de canal lateral que pode revelar o comprimento dos tokens para inferir informações.
O desafio que o invasor tem neste momento é interceptar os dados enviados entre os servidores OpenAI e o seu computador, algo que pode ser conseguido com um ataque como Homem no meio. Depois que o agente mal-intencionado comprometer a segurança da rede, ele filtrará o tráfego por endereço IP e analisará os pacotes em busca de um padrão incremental para descobrir pacotes relacionados às respostas do ChatGPT.
Você pode então identificar o comprimento dos tokens usando os tamanhos dos pacotes observados anteriormente. Aqui, precisamente, está o maior nível de dificuldade: dado que um token pode representar uma unidade de texto tão curta como um carácter ou tão longa como um conjunto de palavras, é necessário recorrer a uma solução adicional interpretá-los e inferir as respostas. A solução dos pesquisadores foi usar um LLM para esta tarefa.
Estamos falando de um modelo de linguagem longa especialmente treinado, capaz de analisar o comprimento dos tokens e prever com bastante precisão as respostas geradas pelo ChatGPT. Os resultados podem variar, mas nos testes o modelo conseguiu inferir 55% de todas as respostas com alta precisão (as palavras podem mudar um pouco, mas o significado da frase um pouco). Além disso, 29% deles tiveram precisão perfeita.
Embora este seja um ataque que requer certos elementos sofisticados para ser executado, nunca é demais ter em mente até que ponto nossos dados podem acabar sendo expostos. Ressalta-se que esta técnica, segundo os pesquisadores, não funciona apenas com ChatGPT, mas também com outros bots de inteligência artificial como o Copilot, que envia os tokens sequencialmente. O Gemini do Google não é alcançado, justamente por ter uma arquitetura diferente.
Imagens | Levart_Fotógrafo | Viralft
Em Xataka | 600 pessoas foram resgatadas nas Filipinas. Eles foram sequestrados e forçados a trabalhar como amantes online em golpes