O recente escândalo sobre imagens pornográficas de Taylor Swift geradas com modelos generativos de IA destacou mais uma vez a necessidade de rotular estas imagens de alguma forma para que possamos saber que não são reais. Existem vários esforços no mercado, mas agora temos um avanço notável.
OpenAI. A empresa anunciou que começou a criar marcas d'água em imagens geradas com sua plataforma DALL-E 3. Na verdade, essas marcas serão integradas em imagens geradas através do site ChatGPT e através da API ChatGPT. Modelo DALL-E 3. Usuários de o aplicativo móvel terá essa opção a partir de 12 de fevereiro.
Você os verá e não os verá. As marcas d'água incluídas nas imagens geradas com DALL-E 3 terão dois componentes. Um visível, com um símbolo CR visível (de “content CRedentials”) que aparecerá no canto superior esquerdo da imagem, e também um componente invisível como parte dos metadados da imagem.
Verificação simples. Graças a este esforço, qualquer utilizador poderá consultar a origem das imagens geradas com as plataformas OpenAI. Para isso, bastará utilizar sites como Content Credentials Verify, embora no momento você só possa adicionar e verificar essa marca d'água nas imagens. Vídeos e textos não possuem atualmente um mecanismo desse tipo.
Uma marca “leve”. Na OpenAI explicam que esses metadados têm pouco impacto na latência, o que evitará que o uso desta tecnologia desacelere ou piore a qualidade dessas imagens, que também não serão modificadas. Em algumas tarefas o tamanho das imagens será simplesmente um pouco maior.
CP2A para o resgate. O sistema utilizado tem origem no consórcio C2PA do qual são membros empresas como Adobe e Microsoft e que há muito promove este mecanismo de identificação de imagens geradas por IA. A Adobe já criou aquele novo ícone “cr” nas imagens e a OpenAI é a primeira das empresas de referência nesta área a utilizá-lo. A Meta, por exemplo, também está começando a rotular imagens geradas por IA em suas plataformas.
Não é um mecanismo perfeito. Embora a ideia seja interessante, os próprios responsáveis pela OpenIA indicam que os metadados “podem ser facilmente apagados tanto inadvertidamente como intencionalmente”. Muitas plataformas de mídia social eliminam metadados do conteúdo que adicionam, e tirar uma captura de tela de qualquer imagem nas redes sociais também os elimina. Ainda assim, é um bom começo para resolver um dos grandes problemas da indústria, especialmente quando se trata de limitar o alcance dos deepfakes.
Em Xataka | Temos um grande problema com imagens geradas por IA. Google acredita que tem a solução