Stephen Fry é uma das lendas da comédia, mas provavelmente não está nem um pouco divertido com o que descobriu atualmente. É algo que de facto deixa clara a ameaça da IA como ferramenta, porque alguém simplesmente roubou a sua voz.
Não sou eu daquele documentário. É o que dizem no Deadline, indicando como o veterano ator, escritor e comediante britânico – de 66 anos – descobriu que alguém roubou sua voz. Ele contou isso no Festival CogX em Londres, quando a voz de Fry soou como a do narrador de um clipe de um documentário. Mas ele não tinha feito tal coisa.
Tudo graças a (ou por causa de) Harry Potter. “Eu não disse nenhuma dessas palavras”, explicou o ator. “Era uma máquina. E sim, isso me surpreendeu. Eles usaram minha leitura dos sete volumes de Harry Potter, e a partir desse conjunto de dados uma IA da minha voz foi criada e fez aquela nova narração.”
(Perigosos) Deepfakes personalizados. O próprio ator quis esclarecer esse tipo de tecnologia ao público. “O que você ouviu não é resultado de uma mixagem, vem de uma voz artificial flexível em que as palavras são moduladas para se adequarem ao significado de cada frase.” Como ele reconheceu, a sua voz poderia ser usada para qualquer coisa, “desde um apelo à invasão do parlamento até pornografia explícita, tudo sem o meu conhecimento e sem a minha permissão”.
Ignorância. Outra surpresa para Fry foi que esse tipo de tecnologia e o que ela é capaz de fazer eram bastante desconhecidos na indústria. Seus próprios agentes desconheciam sua capacidade. Assim que descobriu, disse: “Enviei-o aos meus agentes em ambos os lados do Atlântico e eles enlouqueceram: não tinham ideia de que algo assim era possível”.
E as coisas vão piorar. O problema não é só com o áudio, mas como apontou Stephen Fry, mais tarde também chegará o vídeo e uma onda de deepfakes preocupantes. “Não demorará muito até que os vídeos deepfake sejam igualmente convincentes.” Para ele, o estado atual da tecnologia é comparável ao do primeiro automóvel: “impressionante, mas não o produto final”. O que temos não é o que será, acrescentou.
O perigo de usos fraudulentos. O que aconteceu com a voz de Stephen Fry é igualmente viável para muitas outras pessoas cujas vozes podem ser coletadas, baixadas e usadas para treinar sistemas surpreendentes de inteligência artificial. Em breve chegará um momento em que provavelmente não deveremos acreditar em nada do que ouvimos… só para garantir. E então também não seremos capazes de acreditar em nada do que vemos.
Imagem | Marco Raaphorst
Em Xataka | Até agora, o golpe de IA mais comum consistia na “clonagem” de vozes. Agora é hora das videochamadas
Reescreva o texto para BR e mantenha a HTML tags