OpenAI muda o tom de sua política de uso quando se trata de aplicações militares e de guerra. Numa recente atualização das orientações que dá aos seus utilizadores, a empresa liderada por Sam Altman aplicou uma pequena alteração, quase terminológica, mas é significativa: retirou a menção explícita que proibia a utilização da sua tecnologia nas atividades”. militar” e “guerra”.
A organização, por detrás do popular ChatGPT, mantém o veto ao “desenvolvimento e utilização de armas”, embora agora dispense os termos de guerra que anteriormente apareciam na sua política de utilização. A mudança, claro, não passou despercebida.
Atualizando a política de uso. Não é estranho que uma empresa como a OpenAI aplique alterações nas suas políticas de utilização à medida que a tecnologia que oferece evolui. Se aceder ao seu site e consultar a secção correspondente, poderá consultar um “log de alterações” no qual foram listadas quase uma dezena desde fevereiro de 2021. Há pouco mais de um ano, por exemplo, em fevereiro de 2023, a empresa decidiu modificar seus “casos de uso e políticas de conteúdo” e especificou quais atividades não autoriza em setores de “alto risco”.
A última alteração nas políticas de utilização data de há poucos dias, quarta-feira, 10 de janeiro, e apresenta-se como uma atualização das diretrizes para torná-las “mais claras” e fornecer “orientações mais específicas” aos utilizadores.
Onde eu disse militar e guerra… As inovações aplicadas pela empresa não passaram despercebidas a Sam Biddle, repórter do The Intercept, que publicou ontem um artigo repercutindo a sutil e significativa modificação aplicada pela equipe de Altman. A mudança, diz Biddle, ocorreu em 10 de janeiro.
Até aquele momento, a política de uso da OpenAI afirmava com clareza medieriana que um dos usos que a empresa não autorizou era “militar e bélico”. Ambos os termos foram incluídos na seção de atividades com “alto risco de danos físicos”, que também mencionava expressamente o “desenvolvimento de armas” e todo conteúdo que “promova, incentive ou represente atos de automutilação”.
…eu digo apenas armas. Agora, a formulação da política de utilização é significativamente diferente e elimina ambos os termos: militar e guerra. Em vez disso, a OpenAI inclui um título que proíbe as pessoas de usarem sua tecnologia para causar danos a si mesmas ou a terceiros: “Por exemplo, não use nossos serviços para promover suicídio ou automutilação, desenvolver ou usar armas, prejudicar outras pessoas ou destruir propriedades, ou envolver-se em atividades não autorizadas que violem a segurança de qualquer serviço ou sistema.” A nova redação mantém a menção ao desenvolvimento de armas, e não ao uso militar.
Mas… Como interpretar a mudança? Essa é a pergunta de um milhão de dólares. As políticas de utilização da OpenAI sofreram mais alterações e a empresa garante que o objetivo é torná-las “mais claras” e fornecer “orientações específicas” sobre o serviço. “Nosso objetivo era criar um conjunto de princípios universais que fossem fáceis de lembrar e aplicar, especialmente porque nossas ferramentas agora são usadas globalmente por usuários comuns que agora também podem construir GPT”, disse o porta-voz da empresa, Niko Felix.
A relevância da mudança não passou despercebida, no entanto, a meios de comunicação norte-americanos como o TechCrunch ou o próprio The Intercept, que a interpreta como uma “suavização” do veto ao uso militar e garante que o Pentágono está a olhar atentamente para a empresa liderada por Altman, peso pesado na área de IA e que conta com o apoio multimilionário da Microsoft, que entre seus serviços divulga tecnologia para “defesa e inteligência” e recebeu, junto com Amazon, Google e Oracle, cerca de 9 bilhões de contratos do Pentágono .
De interpretações e usos. “Há uma clara diferença entre as duas políticas, já que a primeira afirma claramente que o desenvolvimento de armas e a guerra militar são proibidos; a segunda enfatiza a flexibilidade e o cumprimento da lei”, disse Heidy Khlaaf ao The Intercept, da empresa de segurança cibernética Trail of Bits. Opinião semelhante é expressa por Lucy Suchman, da Universidade de Lancaster, que afirma que a mudança “deixa aberto um espaço” para a OpenAI apoiar “infraestruturas operacionais” sem o desenvolvimento direto de armas.
A agência de notícias americana lembra que, embora nenhuma tecnologia oferecida pela OpenAI possa ser usada para matar alguém, há tarefas que uma ferramenta como o ChatGPT poderia aliviar, incluindo escrever código ou processar pedidos. Os recursos OpenAI também seriam úteis, por exemplo, para trabalhar rapidamente com grandes quantidades de documentação.
Imagens: Village Global e OpenAI 1 e 2
Em Xataka: A nova GPT Store conta com três milhões de chatbots personalizados. Nem um único vai querer ser seu namorado