Início » Inteligência Artificial » Elon Musk, DeepMind e outros querem impedir armas letais com inteligência artificial

Elon Musk, DeepMind e outros querem impedir armas letais com inteligência artificial

O grupo argumenta que a inteligência artificial não deve tirar a vida de uma pessoa por conta própria

Victor Hugo Silva Por

Preocupadas com o modo como a inteligência artificial será utilizada no futuro próximo, algumas empresas têm se posicionado a respeito de questões éticas. Em 2017, Elon Musk e outros líderes pediram à ONU a proibição de armas robóticas. Neste ano, o Google definiu sete princípios para seus projetos na área.

Agora, por meio de uma carta aberta, as companhias voltaram a se unir para firmar o compromisso de não criar “armas autônomas letais”. O documento foi assinado pelo próprio Elon Musk e executivos como Shane Legg, Mustafa Suleyman e Demis Hassabis, fundadores da DeepMind, a subsidiária de inteligência artificial do Google.

Elon Musk

No texto, eles afirmam que a “inteligência artificial está pronta para desempenhar um papel crescente em sistemas militares”. No entanto, o grupo entende que “a decisão de tirar uma vida humana não deve nunca ser delegada a uma máquina”.

O documento também argumenta que, ao selecionar alvos sem intervenção humana, as armas letais autônomas seriam “desestabilizadoras para cada país e indivíduo”. Para resolver o problema, o grupo pede que governantes ajudem a criar “um futuro com normas, regulações e leis internacionais fortes contra armas letais autônomas”.

A carta foi organizada pelo Future of Life Institute, que visa “atenuar o risco existencial” à humanidade. A associação também enviou a carta à ONU pela proibição de armas robóticas. O novo documento foi assinado por 170 organizações e 2.464 especialistas de 26 países, incluindo a Sociedade Brasileira de Computação e diversos acadêmicos brasileiros.

Ainda não é possível saber se o movimento terá resultados expressivos, mas, unidos, empresas e pesquisadores podem ter mais sucesso. Os próprios princípios do Google, por exemplo, só foram definidos após uma pressão de funcionários que pediam para a empresa sair do “negócio de guerra”.

Com informações: The Verge.

Comentários

Envie uma pergunta

Os mais notáveis

Comentários com a maior pontuação

Alessandro Perigo

Esse demis e outro ali estao com uma trolha enfiada na bunda que eles nem imaginam

Alessandro Perigo

kkk.. é foda.

Impossivel parar isso... IA para militarismo é inevitável.

João

Paz e humanos não combinam na mesma frase. O que vc quer já se provou falho nas trocentas guerras e guerras mundiais que tínhamos e temos ainda. E quem mais sofre são os inocentes e os soldados na linha e frente, enquanto os comandantes ficam tranquilos dando ordens.

Carlin

Parece a premissa de algum filme de ficção cientifica, construímos exércitos, e mandamos eles se destruírem, enquanto isso televisionamos tudo e lucramos com apostas e propagandas durante as transmissões!

A IA pode ser "solução" pra tudo, menos para resolver conflitos entre governos! A paz sempre sera a melhor saída!

João

O melhor mesmo são os humanos se matando desde antes de cristo, bem sensato mesmo. Na minha opinião esse seria o futuro, IA contra criminosos/terroristas evitando que policiais/soldados se matem a custo de nada na linha de frente.

Mario Bros

Imaginei um Hummer militar, estacionado, recebendo comando pra matar todos os militares ao redor :v

Lucas Santos

Elon virou bosta depois que chamou o mergulhador inglês de pedófilo.

Dusqis Surupis

Ninguém tem garantias suficientes de que essas empresas não irão desenvolver tecnologias para o governo...