Alemanha, França e Itália assumiram as rédeas da regulamentação da inteligência artificial (IA) na Europa logo após o acordo alcançado pelo G7 em 30 de outubro. O Governo dos EUA defende o desenvolvimento de uma regulamentação permissiva que não coloque obstáculos ao desenvolvimento desta tecnologia disruptiva, enquanto a França e a Alemanha partilham uma visão muito mais rigorosa que procura regular a IA através de um controlo rigoroso.
Finalmente, a opção que obteve o apoio da maioria não foi a dos Estados Unidos nem a da Europa; Foi o do Japão. A sua proposta situa-se a meio caminho entre a permissividade americana e o rigor europeu, embora a sua frouxidão não entre em conflito com a necessidade de proteger os direitos de autor ou de evitar a exposição de dados pessoais. Esta é precisamente a sua maior força e a razão pela qual esta terceira via conseguiu finalmente prevalecer.
No entanto, ainda há muito trabalho a fazer. E o acordo alcançado pelo G7 há apenas três semanas propõe um código de conduta que presumivelmente deveria ser respeitado pelas empresas que trabalham na área da IA. Naturalmente, a sua entrada em vigor requer viajar um itinerário em que estão envolvidas numerosas organizações internacionais, como a OCDE (Organização para a Cooperação e Desenvolvimento Económico) ou a Aliança Global sobre inteligência artificial.
A Europa mantém-se firme e continua a trabalhar numa lei rigorosa
O código de conduta proposto pelo acordo alcançado pelo G7 é voluntário, pelo que não levará à aprovação de uma ou mais leis. No entanto, a regulamentação em que a União Europeia trabalha desde maio de 2022 dará forma a uma lei. A sua estratégia defende a classificação dos sistemas de IA em três níveis com características diferentes que serão reguladas por restrições diferentes dependendo das capacidades de cada um deles.
Alemanha, França e Itália defendem a necessidade de regular a aplicação da inteligência artificial e não a tecnologia em si
Foi neste contexto que a Alemanha, a França e a Itália definiram o quadro em que será desenvolvida a futura regulamentação europeia com o objectivo de estar pronta e entrar em vigor o mais rapidamente possível. No entanto, a proposta destes três países terá que ser debatido em breve na Comissão Europeia, no Parlamento Europeu e no Conselho da Europa para dar voz às outras nações representadas nestas instituições.
O documento elaborado pelos três países que mencionei no parágrafo anterior defende a necessidade de regulamentar a aplicação da inteligência artificial e não a tecnologia em si. “Os riscos inerentes à IA residem no uso que vamos dar aos sistemas de inteligência artificial e não na tecnologia em si”, lê-se na proposta da Alemanha, França e Itália. Além disso, especifica que “os modelos devem incluir informações relevantes que nos permitam compreender o seu funcionamento, as suas capacidades e os seus limites, e devem ser apoiados pelas melhores práticas da comunidade de desenvolvedores”.
De qualquer forma, este documento inicialmente não defende a imposição de sanções. O que propõe é que, caso ocorram violações do código de conduta após um determinado período de tempo, os reguladores estabeleçam um sistema de sanções ajustado ao âmbito das violações. Veremos como os outros países da União Europeia recebem o documento assinado pela Alemanha, França e Itália e se no final o movimento Open Source é o grandemente prejudicado por uma regulamentação menos frouxa do que a dos EUA ou da China, como alguns especialistas defender.
Imagem de capa: Dilf
Mais informação: Reuters
Em Xataka: A China será imbatível em inteligência artificial. Não é qualquer um que diz isso, o CEO do Google defende