A Getty Images processou a Stability AI – responsável pela Stable Diffusion – meses atrás. A conhecida agência de imagens detectou que parte do seu catálogo foi utilizada para treinar este modelo generativo de IA e gerou um debate que nos acompanhou durante todo o ano. Essa demanda não tem sido muito útil até agora, então os artistas seguiram outro caminho. Muito mais engenhoso.
Beladona. Este é o nome da nova ferramenta criada por um grupo de acadêmicos como parte de um estudo recente. Com ele, os artistas podem “envenenar” seus trabalhos para que, se alguém os usar para treinar seus modelos generativos de IA, as imagens que esses modelos geram posteriormente não respondam às solicitações dos usuários.
Esmalte. Ben Zhao, professor da Universidade de Chicago, é responsável tanto pelo desenvolvimento anterior quanto pelo Glaze, outra ferramenta que permite aos artistas “mascarar” seu estilo pessoal para evitar que seja plagiado por IAs generativas. Nesse caso, o que a ferramenta faz é alterar os pixels das imagens de uma forma muito sutil e invisível ao olho humano. Ainda assim, isso permite que modelos de aprendizado de máquina sejam manipulados para que interpretem a imagem como algo diferente do que realmente é mostrado.
Corrompendo a arte para salvá-la. Essas ferramentas aproveitam o fato de que esses modelos de IA são treinados com quantidades gigantescas de dados. As imagens às quais essas ferramentas são aplicadas acabam confundindo esses processos de formação. Os artistas podem assim carregar os seus trabalhos online e protegê-los contra possíveis empresas que os utilizem para treinar os seus modelos.
Você pede um gato e ele cria um cachorro para você. Com Nightshade e Glaze você faz com que os modelos atuem de maneira defeituosa: quando você pede um gato eles podem criar um cachorro, e quando você pede um carro eles podem gerar uma vaca. O estudo mostra como modelos corrompidos fazem coisas que não deveriam, o que prejudica seu uso. Excluir imagens modificadas é muito difícil, pois as empresas que acabam utilizando-as devem localizá-las e excluí-las de forma independente.
Mas isso cria outros problemas.. Essas ferramentas poderiam ser usadas para fins maliciosos, mas, segundo Zhao, para conseguir isso seriam necessárias milhares de imagens corrompidas e modelos muito poderosos. Especialistas, porém, alertam que é necessária a implementação de defesas tanto para essas ferramentas quanto para modelos grandes que podem coletar imagens sem autorização para serem treinados.
Ainda não sabemos como as IAs são treinadas. Essas ferramentas são outro sintoma do problema enfrentado pela IA generativa. Tanto o ChatGPT quanto o Stable Diffusion e suas alternativas foram treinados em grandes quantidades de dados, mas não está claro quais autores e artistas poderão ver seu trabalho usado nesses processos. As demandas e críticas são cada vez maiores, e essa batalha ímpar entre quem oferece esses modelos e os criadores do conteúdo não parece ter solução simples.
Imagem | Xataka com Bing Image Creator
Em Xataka | Um estudo colocou vários humanos para diferenciar textos de escritores profissionais e IA. Há boas notícias
Reescreva o texto para BR e mantenha a HTML tags