Para o funcionário de uma multinacional de Hong Kong isso soou um pouco estranho. O diretor financeiro da empresa disse a ele por e-mail que ele precisava fazer uma transferência de dinheiro e que ligaria para ele por videoconferência.
Ele fez isso e, ao longo de uma semana, o funcionário realizou diversas videoconferências com o CFO e outros executivos da empresa. Eles ordenaram que ele executasse várias transferências no valor total de HK$ 200 milhõescerca de 25,6 milhões de dólares.
O problema? Que o CFO não era o CFO. Foi um deepfake. E o resto dos diretores dessas reuniões, o mesmo.
Como apontam no SCMP, quando o funcionário percebeu o engano já era tarde e o dinheiro já havia sido transferido. Ele contatou a polícia, que confirmou a ocorrência do golpe. recriando digitalmente vários gerentes da companhia.
Todos os presentes nas videochamadas, exceto o funcionário, eram deepfakes. A polícia não divulgou detalhes sobre a empresa e os funcionários envolvidos.
O responsável pela investigação, Superintendente Barão Chan Shun-ching, indicou que embora noutros casos as vítimas tenham sido enganadas com videochamadas pessoais, “desta vez, em uma conferência com várias pessoas, o que acontece é que todos que você vê são falsos“.
De acordo com depoimentos coletados pela polícia, os funcionários atendidos pareciam pessoas reais que o funcionário reconhecia. De acordo com Chan, “eles usaram tecnologia deepfake para imitar a voz de seus alvos lendo um roteiro”. Os vídeos dos gestores recriados com esta tecnologia foram feitos a partir de vídeos reais que estavam disponíveis publicamente.
Durante a videoconferência, os golpistas pediram que o funcionário se apresentasse, mas então eles não interagiram com ele: Eles simplesmente lhe deram ordens e a reunião terminou repentinamente.
A partir daí, eles mantiveram contato com o funcionário por meio de e-mails, ligações pessoais e mensagens instantâneas. Os golpistas tentaram a mesma coisa com dois ou três outros funcionários no total, mas nada mais se sabe sobre essas tentativas e até agora não houve prisões.
Este tipo de personificação usando vozes clonadas de IA já é uma ameaça perturbadora, mas As coisas ficam ainda mais complicadas com essas videochamadas em que também podemos ver aquela pessoa e portanto tudo parece ainda mais real. Embora existam maneiras de detectá-los, fazê-lo é cada vez mais complicado.
Em Xataka | Golpes de voz clonada por IA estão se tornando mais comuns, mas há uma solução potencial: “senhas de família”