Era uma questão de tempo até que os cibercriminosos começassem a usar ferramentas de inteligência artificial para tornar os seus ataques mais eficazes. Não é segredo que atores maliciosos Eles tiveram dificuldades na execução de algumas de suas campanhas. Às vezes, o código utilizado era detectado por sistemas antivírus e e-mails que tentavam se passar por empresas ou organizações apresentavam defeitos óbvios aos usuários.
Bem, de acordo com a Microsoft e a OpenAI isso está mudando em diferentes níveis. Os cibercriminosos estão aproveitando os benefícios dos grandes modelos de linguagem (LLM), como o GPT-4, para melhorar suas técnicas. Assim como qualquer um de nós pode utilizar ferramentas como o ChatGPT para criar textos em diversos idiomas e até programar com mais facilidade, os hackers podem utilizá-los para atividades ilegais, embora com o risco de serem descobertos.
Cibercriminosos descobertos
As referidas empresas anunciaram esta quarta-feira que detetaram vários grupos cibercriminosos ligados à Rússia, Coreia do Norte, Irão e China que têm utilizado os seus serviços para um vasto conjunto de tarefas suspeitas. Estas são descobertas que surgem após pesquisas aprofundadas destinadas a descobrir “ameaças emergentes na era da inteligência artificial”. Vejamos alguns detalhes dos grupos mencionados pela Microsoft e OpenAI em seu estudo.
Estrôncio. Foi classificado como um “ator de inteligência militar russo” que promove ataques de interesse tático e estratégico para o governo ao qual responde. Acredita-se que esteja relacionado com atividades militares na Ucrânia. O estudo observa que o Strontium recorreu a modelos de IA para tarefas básicas, como automatizar e otimizar operações técnicas, mas também para tarefas mais avançadas, como compreender protocolos de comunicação por satélite e tecnologias de radar.
Granizo Esmeralda. Neste caso estamos falando de um grupo norte-coreano que utilizou o LLM para identificar vítimas e até encontrar vulnerabilidades em diversos sistemas para realizar ataques. Uma delas tem sido a vulnerabilidade CVE-2022-30190 em uma ferramenta de suporte da própria Microsoft. Da mesma forma, segundo o relatório, este grupo tem utilizado modelos de IA para melhorar a escrita e geração de conteúdos que provavelmente poderiam ser utilizados em campanhas de phishing.
Tufão de Carvão. Aqui estamos a falar de um actor malicioso ligado ao governo chinês com uma vasta gama de objectivos que incluem os sectores governamental, tecnológico, de infra-estruturas de comunicações e de infra-estruturas energéticas. Tal como os intervenientes já mencionados, este grupo utilizou modelos de IA para compreender melhor as tecnologias e plataformas que poderiam ser utilizadas para realizar ataques. Ele também teria usado essas ferramentas para melhorar o código de malware, bem como para práticas de engenharia social.
Tempestade de Areia Carmesim. Finalmente temos um grupo que a Microsoft e a OpenAI consideram estar ligado ao Corpo da Guarda Revolucionária Islâmica (IRGC) e que está activo desde pelo menos 2017. Os seus ataques no passado tiveram como alvo o transporte marítimo, a defesa e os cuidados médicos. Uma das práticas mais notáveis deste grupo com modelos de IA tem sido utilizá-los para tentar escapar aos sistemas de segurança das suas potenciais vítimas.
Embora em todos os casos se trate de atores maliciosos que aparentemente promovem atividades ilegais há algum tempo, a Microsoft e a OpenAI apontam que ainda não foram capazes de detectar nenhum “ataque significativo” específico usando o LLM. Em qualquer caso, ambas as empresas decidiram publicar as suas pesquisas para expor qualquer tipo de movimento na sua fase inicial. Da mesma forma, optaram por bloquear as contas associadas aos grupos acima mencionados.
Deve-se notar que tanto ChatGPT quanto DALL·E e outros produtos OpenAI estão sujeitos a uma política de uso que prevê sanções para usuários que cometem violações. A própria empresa explica que utiliza diferentes métodos para avaliar atividades potencialmente suspeitas. “A violação de nossas políticas pode resultar em ações contra sua conta, até suspensão ou cancelamento”, afirma a empresa na página da política de uso atualizada em 10 de janeiro.
Imagens: Jonathan Kemper | Markus Spiske
Em Xataka: Perguntamos a três especialistas em segurança cibernética se faz sentido pagar por um antivírus hoje. Isso é o que eles pensam
No Engadget: ChatGPT agora tem memória e lembrará coisas sobre nós em conversas futuras (se quisermos)