‘What Did Jennifer Do’ é atualmente o documentário mais visto da Netflix, e concorre no Top 10 com produções como ‘The Batman’ ou o atual número um, o filme de Aitana ‘Wall with Wall’. No entanto, um momento fugaz de sua filmagem põe em causa toda a sua documentação, destruindo a sua poderosa abordagem crime Verdadeiro.
O filme conta o caso real dos pais da jovem estudante Jennifer, que são baleados quando intrusos entram em sua casa. Ela parece traumatizada com o acontecimento, mas logo começam a aparecer peças que não cabem em seu depoimento. Em breve conheceremos a história da filha, que, para não decepcionar os exigentes pais, inventou toda uma carreira triunfante no ensino médio e na universidade. O filme é baseado em um caso real que nem está completamente encerrado, já que há recursos pendentes e muitas dúvidas sobre como o julgamento foi desenvolvido.
Acima desses debates específicos do produto crime Verdadeiroporém, surge outra dúvida: o site Futurismo detectou, poucos dias após a estreia, que no filme Um par de imagens geradas por IA é usado como documentação gráfica. As supostas fotografias têm “todas as características de uma foto gerada por inteligência artificial: mãos e dedos destruídos, traços faciais deformados, objetos modificados no fundo e um dente frontal excessivamente longo”.
Isto abre um debate muito importante sobre o uso de IA generativa. Porque se a ferramenta já suscita discussões éticas quando é utilizada na ficção (desde como seu uso tira o trabalho de profissionais qualificados até a origem dos materiais que utiliza), nos documentários as dúvidas se multiplicam, pois o espectador confia que o material que você utiliza estão sendo mostrados para apoiar a narrativa é autêntico.
Isto, claro, tem todo o tipo de ramificações: em certas ocasiões, os documentários ficcionalizam acontecimentos quando não dispõem de material documental a que recorrer ou como mero recurso estético/dramático. Por exemplo, as dramatizações de crimes tão comuns em séries documentais de televisão. Mas aí a linguagem visual muda para que, instintivamente, o espectador saiba que está perante uma situação falsificada. O problema dessas imagens que a Netflix apresenta é que em nenhum momento afirma que se trata de fotos falsasmas são usados para que o espectador tenha empatia pela protagonista, para ter a prova de que ela era “uma garota normal”.
Rachel Antell, cofundadora da Archival Producers Alliance e especialista no uso antiético de imagens pela IA em documentários, diz ao site 404 que “mesmo que seja divulgado que [un material] É gerado por IA, pode sair de qualquer documentário, chegar à Internet e a outros filmes, e depois fazer parte para sempre do registo histórico.” E recomenda tomar uma série de medidas para garantir o conhecimento do espectador: “Incentivamos as pessoas ser transparente sobre o uso e, em alguns casos, quando apropriado, obter consentimento para recriar coisas que não necessariamente aconteceram.
Cabeçalho | Netflix
Em Xataka | O AI Pin alcançou seus primeiros usuários. E as suas conclusões não são nada esperançosas.