Algumas semanas atrás, ouvimos no Xataka como a inteligência artificial está sendo usada para fraudes de várias maneiras. Em este artigo Contamos a história de Ruth Card, 73, uma mulher mais velha que recebeu uma ligação do que parecia ser seu neto Brandon, mas na verdade era um grupo de vigaristas: “Vovó, estou na cadeia, sem carteira, sem telefone. Preciso de dinheiro para a fiança.” O timo foi realizado com um deepfake de áudio que imitava a voz do neto enquanto a ligação era feita.
A coisa não parou por aí. Este tipo de fraude evoluiu rapidamente nos últimos meses com a incipiente criação de ferramentas de IA e clones de voz e até vídeo de uma pessoa já estão sendo usados para enganar seus familiares por videochamada.
AI com o objetivo de fraudar. Conforme aponta o El Mundo em este artigo, um homem do norte da China recebeu uma chamada de vídeo WeChat de sua esposa. Este pedia-lhe 3.600 euros porque tinha sofrido um acidente de viação e teve de resolver a situação com o outro condutor. Claro, não era sua esposa. E embora o chamasse de outra conta, o homem caiu na armadilha, pois o rosto que apareceu na videochamada gesticulando e falando com o mesmo tom de voz era o de sua esposa. Embora tenha sido outra imitação com IA.
Aparentemente, os golpistas estavam observando o casal e conheciam seus hábitos, além do fato de a mulher ter um canal de culinária bastante popular em uma rede social e de lá tiraram screenshots de seu rosto e voz para fazer o deepfake.
Uma tendência mundial. Uma nova onda de golpes usando vozes geradas por IA está crescendo em todo o mundo. The Washington Post reúne vários casos recentes e avisar que de acordo com dados da FTC, em 2022 esse tipo de fraude em que alguém se faz passar por outra pessoa foi o segundo mais frequente, com mais de 36 mil denúncias de pessoas que foram enganadas (ou quase) por outras que se fizeram passar por amigos ou parentes. Em 2021, uma pessoa conseguiu roubar 35 milhões de dólares a um banco usando esta tecnologia.
Como funciona? Avanços em inteligência artificial já permitem replicar uma voz com uma amostra de áudio de apenas algumas frases (algo muito facilmente acessível nas redes sociais da pessoa). O software de geração de fala analisa o que torna a voz de uma pessoa única (idade, sexo ou sotaque) e pesquisa um vasto banco de dados de vozes para encontrar vozes semelhantes e prever padrões. então você pode recriar o tom, o timbre e os sons individuais da voz de uma pessoa para criar um efeito semelhante. A partir daí, o golpista pode falar o que quiser com aquela voz.
Na maioria dos casos é quase impossível distingui-lo, muito menos quando a pessoa que faz a ligação o faz com certa urgência. E é ainda mais complicado para um idoso que desconhece essas tecnologias perceber o perigo. empresas como ElevenLabsuma startup de síntese de fala por IA, transforma uma pequena amostra vocal em uma voz gerada sinteticamente por um preço modesto que varia de 5 euros a 300 euros por mês, dependendo do limite de áudio.
Preocupações na China. No país asiático esse fenômeno Já é motivo de preocupação por parte das autoridades.que começaram a aconselhar o público por meio de postagens no Weibo, o twitter chinês, a “ter cuidado ao fornecer informações biométricas e abster-se de compartilhar vídeos e outras imagens suas na Internet”. criou alguma controvérsia na indústria de comércio eletrônico porque alguns usuários estão usando essa tecnologia para clonar os rostos de streamers famosos e vender seus produtos.
Outro caso de grande repercussão foi a prisão de um homem que tinha usado o ChatGPT para criar um artigo falso sobre um acidente de trem com nove mortos. Além disso, conseguiu posicioná-lo no topo do mecanismo de busca do Baidu.
legislação. É o maior obstáculo para travar este flagelo. Especialistas dizem que reguladores, autoridades policiais e tribunais não têm recursos suficientes para conter esse fenômeno crescente. Primeiro, porque é muito difícil identificar o golpista ou rastrear ligações, que estão localizados em todo o mundo e a jurisdição de um país nem sempre alcança todos os lugares. E segundo, porque é uma tecnologia nova e não há jurisprudência suficiente para que os tribunais responsabilizem as empresas por isso.
Na China, eles lideram a batalha contra esse tipo de fraude. No país asiático, foi aprovado uma nova lei que regula tecnologias generativas de IA texto, imagens e vídeos. Essa lei, lançada pela Administração do Ciberespaço, que trata do campo da Internet na China, foi aprovada logo após o lançamento do ChatGPT, o chatbot OpenAI, que também é censurado no país, embora muitos o acessem ilegalmente.
Imagem:
Em Xataka | Diferenciar o Chicote real do Chicote deepfake gerado por IA já é quase impossível (e é um problema)