A tensão que os governos dos EUA e da China mantêm nas esferas geopolítica e geoestratégica não tem de ser apoiada por comportamentos comparáveis entre as suas empresas. O oposto. Empresas destes e de outros países cuidar de seus próprios interesses, o que muitas vezes os leva a fazer negócios entre si. A NVIDIA, por exemplo, é excelente em vender suas GPUs para inteligência artificial (IA) sem restrições em um mercado tão grande como a China.
E para a ASML, fabricante holandesa de equipamentos de litografia de última geração, exatamente a mesma coisa. A razão pela qual estas empresas não podem vender alguns dos seus produtos na China, os mais avançados, é que os governos dos EUA e os seus aliados estão determinados a impedir que a Administração de Xi Jinping os utilize para desenvolver ainda mais a sua já muito notável capacidade militar. No entanto, de vez em quando, as empresas americanas e chinesas lembram-nos que podem trabalhar em conjunto, para além das disputas dos governos dos seus países.
Por uma inteligência artificial generativa mais segura para todos
As empresas chinesas Baidu, Tencent e Ant, e as americanas NVIDIA, Microsoft, Meta, Google, Amazon e OpenAI estão trabalhando juntas para desenvolver um padrão global que busca estabelecer uma estrutura que garanta que a inteligência artificial generativa será desenvolvido de forma segura no futuro tanto para usuários quanto para empresas. Soa bem. Na situação actual, é algo surpreendente que várias empresas relevantes pertencentes a dois países com interesses conflituantes estejam a trabalhar em conjunto. Mas sim, eles estão fazendo isso. Para o bem de todos.
Os especialistas dessas empresas apresentaram dois documentos que reúnem o trabalho realizado até o momento em evento da Conferência das Nações Unidas sobre Ciência e Tecnologia.
Na verdade, eles não estão trabalhando em um único padrão; Eles estão colaborando simultaneamente no desenvolvimento de dois. O primeiro deles será dedicado à inteligência artificial generativa na sua totalidade, e o segundo expressamente aos grandes modelos de linguagem.
Precisamente na terça-feira desta mesma semana, especialistas destas empresas apresentaram em evento da Conferência das Nações Unidas sobre Ciência e Tecnologia, realizada em Genebra (Suíça), dois documentos que recolha seu trabalho até o momento: “Padrão para Análise de Segurança e Validação de Inteligência Artificial Gerativa” e “Método para Análise de Segurança de Grandes Modelos de Linguagem”.
Estes são atualmente os únicos padrões globais que abordam especificamente a IA generativa e grandes modelos de linguagem, e o facto de especialistas das empresas que impulsionam o desenvolvimento destas tecnologias estarem diretamente envolvidos no seu desenvolvimento é tranquilizador. A China foi o primeiro país a regulamentar a IA generativa e os serviços a ela ligados. Ele fez isso em julho de 2023.
Existem também outras normas internacionais, como a “Recomendação para Ética em IA” elaborada pela UNESCO em 2021 ou as recomendações propostas pela ISO em 2022 e 2023. Ainda no papel nenhum deles aborda segurança de IA generativa e grandes modelos de linguagem com a ambição com que os dois documentos elaborados pelas empresas que mencionei algumas linhas acima o fazem. Esperemos que seus esforços finalmente sirvam a um propósito.
Imagem | Pavel Danilyuk
Mais informações | SCMP
Em Xataka | O líder da NVIDIA se molha: ele definiu com muita precisão a data em que a inteligência artificial geral estará pronta