Parlamento Europeu aprova Lei da IA: manipulação e vigilância em massa são proibidas mundialmente

O Parlamento Europeu acaba de dar luz verde à votação para a aprovação do seu primeiro Regulamento de Inteligência Artificial. Com o precedente do white paper publicado em 2020 e proposto oficialmente pela Comissão Europeia em abril de 2021, o curso dos acontecimentos desde que o ChatGPT e a empresa entraram nas nossas vidas deu mais sentido ao seu processamento.
Com 523 votos a favor, 46 contra e 49 abstenções, a Lei Europeia da IA é agora uma realidade. Não existem precedentes semelhantes para esta nova Lei noutras regiões, pelo que o Parlamento Europeu considera que este texto não é apenas um novo quadro jurídico, mas também uma referência global para regulamentações semelhantes noutros territórios, que de facto já estão a preparar os seus quadros regulatórios.
Dois objetivos e quatro níveis de risco
Este primeiro quadro regulamentar da União Europeia para a Inteligência Artificial dois objetivos principais que marcam a forma como esta disciplina deve ser abordada em território europeu, uma Ying Yang que procura alcançar um equilíbrio entre inovação e proteção.
- Segurança para os cidadãos, garantir que os sistemas de IA utilizados na UE e introduzidos no mercado europeu sejam seguros e respeitem os direitos dos cidadãos.
- Estimular o investimento e a inovação no domínio da IA na Europa.
Além disso, a instituição faz uma nuance importante que serve de alerta aos navegadores: “A lei vai regulamentar a IA com base nos seus riscos. Quanto maior o risco, mais rígidas serão as regulamentações”. Um mantra que marcou todo o texto.

Imagem: Xataka.
A primeira coisa é determinar o que é IA e o que não é. Embora pareça simples a nível técnico, é importante definir claramente o que distingue uma IA de outros softwares mais simples, estabelecendo critérios claros para perceber a quem se aplica a nova Lei. E a definição escolhida é a fornecida pela OCDE:
A OCDE define um sistema de IA como um sistema baseado em máquinas que, para um determinado conjunto de objetivos definidos pelo homem, faz previsões, recomendações ou decisões que influenciam ambientes reais ou virtuais.
A Lei tem ainda outras nuances: não se aplica a áreas fora do âmbito de aplicação do Direito Europeu e não afetará as competências dos Estados-membros em matéria de segurança nacional. Nem aos sistemas utilizados exclusivamente para fins militares ou de defesa, nem aos utilizados para fins de “investigação e inovação”, dando assim mais margem tanto à segurança nacional de cada país como à I&D.

Dragos Tudorache. Imagem: Parlamento Europeu.
A visão de longo prazo desta Lei deixa uma incógnita: se o salto quântico que ocorrerá em algum momento poderá torná-la obsoleta. "Temos que pensar nos saltos quânticos que podem ser dados nesta tecnologia, temos que pensar quando esta tecnologia nos surpreende com a sua capacidade."“Teremos algum tipo de inteligência gerada artificialmente e aí teremos que pensar nas consequências morais dessa evolução”, explicou Dragoş Tudorache, do partido liberal Renew e presidente da comissão especial sobre IA, no Parlamento Europeu.
"Temos de garantir que este conjunto de regras chega. Precisamos de alcançar a harmonia na aplicação. Depois das eleições, na nova legislatura, teremos de abrir um caminho de aplicação e oferecer certeza aos cidadãos europeus", acrescentou Tudorache.

Brando Benifei. Imagem: Parlamento Europeu.
Este quadro regulamentar foi desenvolvido no meio de inúmeras pressões. Brando Benifei, um dos membros do comité especial de IA, do partido social-democrata S&D, admitiu ter recebido “muita pressão sobre os direitos de autor”, em referência não só às grandes empresas tecnológicas, mas também à indústria audiovisual.
Esta nova lei também estabeleceu vários critérios de proteção horizontal para determinar quando um sistema de IA pode causar danos à sociedade: Se for detectado um que se enquadre nestes critérios, estará sujeito a vários requisitos e obrigações para poder aceder ao mercado europeu.
<img alt="O grande debate com a IA é se se trata do novo Projeto Manhattan: alguns defendem a abertura, outros o fechamento definitivo" src="https://i.blogs.es/191068/andre/375_142.jpeg">
Entre aqueles que se enquadram nesse lado da definição, aqueles que são considerados “riscos inaceitáveis” serão diretamente proibidos. A UE deu alguns exemplos de tais casos: sistemas destinados à manipulação cognitivo-comportamental ou ao rastreio indiscriminado de imagens faciais extraídas da Web.
Quer dizer, proibição do uso de IA para manipulação ou vigilância em massa. Aqueles considerados uma ameaça à segurança e aos direitos das pessoas. As únicas exceções, muito limitadas e protocolizadas, dizem respeito a utilizações extremamente urgentes que necessitam de autorização judicial.
Os sistemas de IA que representam um risco elevado estarão sujeitos a requisitos e certificações rigorosos e não poderão ser comercializados até serem aprovados pelo órgão regulador. E se durante o ciclo de vida do referido sistema forem aplicadas alterações relevantes, será necessário repetir todo o procedimento antes de colocá-lo no mercado.
Aqueles com risco limitado estão apenas sujeitos a requisitos de rotulagem para esclarecer que se trata de sistemas de IA, e aqueles com risco mínimo podem ser utilizados gratuitamente, sem requisitos ou obrigações.

Imagem: Xataka.
A versão final deste texto - na ausência de alterações de última hora, apenas de carácter técnico -, apresentado no final de Janeiro ao Conselho de Ministros da União Europeia, encontrou alguma resistência por parte de alguns países devido aos curtos prazos para analisá-lo, mas finalmente obteve luz verde até se tornar a aprovação recém-conquistada.
A eterna busca pelo equilíbrio
Neste processo, que começou com um rascunho nada convincente, também tem havido alguma resistência a uma abordagem dura e mais focada, na sua opinião, na protecção do utilizador à custa de uma maior permissividade para grandes modelos de IA.
Especificamente, foram a França, a Alemanha e a Itália que solicitaram um regime mais leve para eles, a fim de não cortar as asas das empresas emergentes de IA nascidas em solo europeu, como Mistral AI (francês) ou Aleph Alpha (alemão). Outros países, como a Áustria ou a Eslováquia, também demonstraram relutância ou solicitaram alguns esclarecimentos, embora a posição do mesmo país possa ter variado ao longo deste quadro regulamentar.
<img alt="A Internet como a conhecíamos está morrendo: a IA generativa está destruindo-a" src="https://i.blogs.es/e2e64d/lap/375_142.jpeg">
No entanto, o Parlamento Europeu permaneceu unido numa abordagem rigorosa a estes modelos, com uma abordagem escalonada, regras horizontais para cada modelo e obrigações para aqueles que considera correr riscos inerentes.
A última fase de preparação deste texto coincidiu com a presidência espanhola (segundo semestre de 2023) e a presidência belga (desde janeiro passado). Este último, dadas as reservas da França, da Alemanha e da Itália, manteve os prazos apertados que estavam em vigor para não atrasar ainda mais a votação ou facilitar modificações devido a essas pressões.
O contexto é importante: a legislatura está prestes a terminar, as próximas eleições europeias são em junho e foi feito um esforço final para aprovar este quadro regulamentar para a IA antes dessa data.
A França, a nação que mais tensões causou neste sentido, acabou por ficar sozinha nas suas fricções, uma vez que primeiro a Alemanha e depois a Itália concordaram com o texto. Neste último caso, a sua presidência rotativa do G7 presumivelmente desempenhou um papel importante, onde a IA tem um foco maior do que nunca.
Em qualquer caso, as exigências francesas passaram uma implementação que garanta que o desenvolvimento de modelos competitivosque pode enfrentar os do Google, OpenAI e empresa, não será prejudicado.
Ou seja: esta nova regulamentação não sobrecarrega as empresas com obrigações, mas antes equilibra-as com a proteção dos seus segredos comerciais. Algo especialmente valioso para PME e startups, com muito menos recursos para dedicar a procedimentos burocráticos. Especialmente se acabar por levar a uma redução do seu nível de inovação e competitividade, ou provocar diretamente um êxodo extra-UE de tecnologias emergentes de IA.
E essa é a questão que mais deu voltas até chegar à versão final, em que todos tiveram que ceder até certo ponto para poder cumprir esta nova Lei: equilíbrio a procura constante de um nível que equilibre a proteção dos cidadãos europeus com a competitividade e a inovação.
Em Xataka | O Google está em uma encruzilhada. E a culpa é de Sundar Pichai, que perdeu algo crucial para ter sucesso
Imagem em destaque | Xataka