Google abandona promessa de não usar IA para armas e vigilância

Empresa remove compromisso de seu documento de princípios éticos, mas mantém trechos sobre segurança, liberdade e direitos humanos.

Giovanni Santa Rosa
• Atualizado 05/02/2025 às 09:24
Resumo
  • O Google removeu de seus princípios éticos para IA o compromisso de não utilizar a tecnologia em armas e vigilância.
  • Segundo a big tech, a mudança reflete a ampla disseminação da IA nos últimos anos e a crescente demanda de clientes governamentais, especialmente em questões de segurança nacional.
  • Apesar da alteração, o documento atualizado ainda menciona segurança, liberdade, igualdade e direitos humanos.

O Google alterou sua página de princípios éticos para inteligência artificial e removeu a promessa de não usar a tecnologia em armas ou sistemas de vigilância. A versão anterior do documento continha uma seção chamada “Aplicações que não buscaremos” — agora, esta seção não existe mais.

A alteração foi notada pela Bloomberg. Questionado pelo Washington Post especificamente sobre os trechos envolvendo armas e vigilância, o Google se recusou a responder.

Por que o Google alterou suas políticas para IA?

O Google explica que atualizou seus princípios para IA porque, nos últimos anos, a tecnologia está muito mais disseminada e porque é necessário que empresas de países democráticos atendam clientes governamentais e envolvidos com a segurança nacional.

As informações constam em um texto publicado pela companhia em seu blog nesta terça-feira (04/02). Nele, a companhia também afirma que empresas, governos e organizações devem “trabalhar juntos para criar inteligências artificiais que protejam as pessoas, promovam crescimento global e apoiem a segurança nacional”.

O Google publicou seus princípios para inteligência artificial pela primeira vez em 2018. O documento veio logo após protestos de funcionários contra um projeto da companhia para o Departamento de Defesa dos Estados Unidos. Naquela ocasião, o movimento levou o Google a não renovar este contrato.

Documento ainda menciona segurança e direitos humanos

Mesmo sem a seção “Aplicações que não buscaremos”, a versão atualizada dos princípios do Google para desenvolver a IA ainda contém trechos que mencionam tópicos como segurança, liberdade, igualdade e direitos humanos.

Em um dos trechos, a empresa diz que usará supervisão humana e receberá feedback para garantir que as tecnologias estejam alinhadas com “princípios amplamente aceitos de direito internacional e direitos humanos”. Além disso, a companhia promete que fará testes para mitigar resultados não intencionais ou nocivos.

Com informações de Washington Post e TechCrunch

Relacionados

Escrito por

Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.