A União Europeia continua a trabalhar a todo vapor para lançar aquele que será o primeiro grande regulamento de IA da história. El proceso, que comenzó en mayo de 2022, se enfrenta ahora a su fase final, y lo hace con un planteamiento singular que aboga por clasificar los sistemas de IA en tres grandes niveles de prestaciones para luego aplicar distintas restricciones según el alcance de cada uno deles.
Três níveis, três. A Bloomberg afirma ter tido acesso a um rascunho da chamada Lei de IA, que fala sobre três categorias de sistemas de IA. A primeira, a dos modelos fundamentais (tipo GPT-4 ou PaLM 2) que são a base da maioria das implementações práticas. A segunda, a de sistemas “muito capazes” que diferem na capacidade de processamento utilizada para treiná-los. O terceiro, sistemas de uso geral como o ChatGPT, e aqui sua influência seria medida de acordo com o número de usuários.
A UE apresenta a sua proposta. Os representantes das três instituições da União Europeia já apoiaram esta solução baseada em camadas ou categorias numa reunião anterior este mês, mas segundo a Bloomberg os especialistas desenvolveram esta proposta mais concreta que data de 16 de outubro. Anteriormente já tínhamos visto este quadro regulamentar baseado no risco que estas soluções representam. Vejamos essas grandes categorias e suas limitações.
Primeiro, todos os modelos fundamentais. Os desenvolvedores de IA precisarão documentar o modelo e seu processo de treinamento antes de publicá-lo. Eles precisarão analisar sua segurança tentando forçar o mau comportamento, e também será necessário saber como são gerenciados possíveis conflitos de direitos autorais. Esses modelos, segundo o documento, podem “executar com competência uma ampla gama de tarefas diferentes”.
Em segundo lugar, os modelos fundamentais “altamente capazes”. Se o modelo for mais ambicioso, terá que passar por uma avaliação mais aprofundada. Na verdade, peritos externos nomeados pelo novo Gabinete de IA da UE realizarão os testes de avaliação de segurança “red-teaming”. Haverá também verificações regulares de que as regras são seguidas e a transparência é mantida. Esses modelos serão classificados de acordo com o poder computacional aplicado para treiná-los medido em FLOPS, magnitude que já é tradicional na avaliação de supercomputadores. No momento as faixas de potência não foram estabelecidas, mas serão atualizadas.
Terceiro, sistemas de IA de uso geral e em escala. Haverá também aqui análises externas de segurança e a obrigação de criar um relatório de riscos e medidas para minimizá-los. Esses sistemas serão classificados de acordo com o número de usuários: se houver mais de 10.000 usuários empresariais ou 45 milhões de usuários cadastrados, o sistema será considerado membro desta categoria. Ainda assim, o AI Office poderá incluir outros sistemas quando esse número de utilizadores não for ultrapassado, mas pode representar riscos.
Caso não cumpram, suspensão. As medidas específicas ainda não estão detalhadas no rascunho de acordo com a Bloomberg, mas o AI Office irá coletar documentação, organizar testes de conformidade, criar um registro de especialistas em segurança e realizar investigações. Caso seja detectado que os modelos não cumprem este regulamento, o modelo poderá ser suspenso “como último recurso”. Algo assim aconteceu quando a Itália proibiu temporariamente o uso do ChatGPT, por exemplo. Este regulamento deverá ser debatido na próxima semana, embora a sua elaboração só esteja finalizada no final do ano.
Mas. A implementação da regulamentação, embora necessária, tem um contraponto: se for demasiado restritiva pode acabar por prejudicar o desenvolvimento e a implementação destes sistemas na UE. Isso faria mais uma vez com que o velho continente ficasse para trás nesta nova revolução (teórica), enquanto os EUA ou a China avançam com regulamentações mais flexíveis, se acabarem por as estabelecer. Os especialistas já falam de um grande perdedor, o Código Aberto, mas essa pressa também pode ser um mau conselho porque a regulamentação pode tornar-se obsoleta.
Imagem | Jernej Furman | Escritório de advocacia sobre lesões em Tingey
Em Xataka | Foi assim que automatizei toda a minha casa com inteligência artificial e um sistema open source
Reescreva o texto para BR e mantenha a HTML tags