O Google tem sido bastante criticado por manter um contrato com o Pentágono no projeto Maven. O acordo prevê o uso de inteligência artificial para analisar imagens capturadas por drones militares e foi alvo de uma petição de funcionários que pediam a saída do “negócio de guerra”.

Pensando nisso, a empresa decidiu apresentar um documento com sete princípios que deverão nortear o uso da inteligência artificial em seus projetos daqui para frente. O texto proíbe o uso da tecnologia para o desenvolvimento de armas, mas mantém aberta a possibilidade de trabalhar com militares.

Para firmar esse compromisso, vários representantes do Google se pronunciaram. O CEO Sundar Pichai disse no blog da empresa que sabe da responsabilidade de fazer o uso correto da tecnologia. “Usamos inteligência artificial para tornar os produtos mais úteis”, afirmou. “Reconhecemos que uma tecnologia tão poderosa levanta questões igualmente poderosas sobre seu uso”.

Em outro post, a CEO do Google Cloud, Diane Green, confirmou que o contrato com os Estados Unidos com a sua divisão não seria renovado. No entanto, ela admitiu a possibilidade de seguir trabalhando com o governo em outras áreas, como segurança cibernética, ferramentas de produtividade, assistência médica e outras iniciativas na nuvem.

“Embora isso signifique que não buscaremos certos tipos de contratos, queremos garantir que ainda estamos fazendo tudo que pudemos dentro de nossas diretrizes para apoios nosso governo, os militares e nossos veteranos”, afirmou.

Resumindo, o Google entende que a inteligência artificial deve:

  1. Ser socialmente benéfica;
  2. Evitar criar ou reforçar preconceitos;
  3. Ser construída e testada para segurança;
  4. Ser subordinada às pessoas;
  5. Incorporar princípios de design de privacidade;
  6. Ter altos padrões de excelência científica;
  7. Estar disponível para usos que estejam de acordo com esses princípios.

Ao detalhar cada item, o Google evitou impor regras muito específicas e deixou espaço para interpretação com uso de termos como “apropriado”.

Um dos trechos afirma que as “tecnologias de inteligência artificial serão sujeitas a direção e controle humanos apropriados“. Em outro ponto, há a promessa de “oferecer transparência e controles apropriados sobre o uso dos dados”.

O que pareceu ser mais concreto são as proibições. A inteligência artificial do Google não fará:

  • Tecnologias que causam ou podem causas danos gerais (sujeito à análise de risco-benefício);
  • Armas ou outras tecnologias cuja finalidade ou implementação principal é causar ou facilitar o dano às pessoas;
  • Tecnologias que coletam ou usam informações para vigilância, violando normas internacionalmente aceitas;
  • Tecnologias cujo objetivo contraria os princípios amplamente aceitos do direito internacional e dos direitos humanos.

Com informações: Google, TechCrunch, The Verge.

Receba mais sobre Google na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Victor Hugo Silva

Victor Hugo Silva

Ex-autor

Victor Hugo Silva é formado em jornalismo, mas começou sua carreira em tecnologia como desenvolvedor front-end, fazendo programação de sites institucionais. Neste escopo, adquiriu conhecimento em HTML, CSS, PHP e MySQL. Como repórter, tem passagem pelo iG e pelo G1, o portal de notícias da Globo. No Tecnoblog, foi autor, escrevendo sobre eletrônicos, redes sociais e negócios, entre 2018 e 2021.

Relacionados