Meio Bit » Robótica e IA » Nossos robôs vão nos matar. Culpa de Asimov, não Skynet

Nossos robôs vão nos matar. Culpa de Asimov, não Skynet

Sabe o lindo carro do Google, e outros exemplos de inteligência artificial? Um dia eles vão começar a matar pessoas. Pior, isso estará na programação, e muita gente achará correto. Duvida? Clique e leia.

5 anos atrás

paimky6f28caj6ezpxmf

Não, não estamos comprando o hype do Musk, Gates e Dawkins alertando contra a Inteligência Artificial, embora seja exatamente esse o risco exposto. A questão, comentada de todos os lugares logo no Top Gear, me fez repensar a validade de carros autônomos como o do Google. Agora não é mais vergonha de ser visto em um que me impede de andar naquilo, é medo mesmo.

Medo não da Inteligência Artificial dar tela azul ou algo do gênero, medo sim de ela funcionar corretamente. Calma que eu explico.

Os carros (mais avançados e caros, não seu Dacia Sandero) de hoje possuem um monte de dispositivos eletrônicos para proteção dos ocupantes e das pessoas na rua. Há até carros traidores do movimento que monitoram e protegem ciclistas, mas essa proteção é em sua maioria passiva (ui!).

Quando carros começarem a andar sozinhos toda a tomada de decisão será feita pelo software, e ele terá algumas decisões bem indigestas para tomar. Quer dizer, para os ocupantes. Para ele será simples pois como toda inteligência artificial estará sujeita aos preceitos morais das 3 Leis da Robótica, de Asimov:

  • 1ª Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  • 2ª Lei: um robô deve obedecer as ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
  • 3ª Lei: um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

·
KITT

Durante décadas Asimov se divertiu escrevendo histórias onde as 3 Leis eram esticadas distorcidas e interpretadas pelos próprios robôs, e a decisão era sempre lógica, e esse é o problema. Se usarmos lógica, relembrando Spock, concluímos que:

As necessidades da maioria se sobrepõe às da minoria. Ou de um só.”

É a busca do bem maior, ninguém discorda que salvar 10 vidas é melhor do que salvar uma, seu futuro carro robótico concorda. Mas e se a vida for sua?

Digamos que você está viajando de noite, Serra das Araras, chovendo torrencialmente. Um ciclista espalha esporões na estrada. Seu carro perde o controle. Reagindo muito mais rápido do que qualquer humano o software realiza milhares de correções, aciona torque negativo nas rodas do seu iCarro 4+, atuadores movem o motor para alterar o centro de gravidade do veículo (isso existe, sério) enquanto sensores ficam de olho no precipício à sua esquerda.

Christine-by-bay

O carro embica na curva e percebe um grupo de estudantes pré-escolares cadeirantes asmáticos órfãos carregando filhotes de panda se escondendo da chuva debaixo de uma árvore. Todos os cálculos indicam que se continuar com as correções você escapará do despenhadeiro mas atingirá em cheio as criancinhas.

Ciente de sua responsabilidade com a 1ª Lei, o carro soltará um

“Sorry Dave I'm afraid I can't do that”, cancelará as correções e você irá pra vala, literalmente.

É a solução lógica para o problema, é o que qualquer computador inteligente ou vulcano (se bem que dá no mesmohumana.

196a8z6zrbob6jpg

Nosso instinto de sobrevivência impede que pratiquemos esse tipo de ato de abnegação. Não somos programados assim. Claro, há inúmeros casos onde nos sacrificamos para salvar outros, mas ou há empatia prévia, ou estamos protegendo nossos filhotes, algo profundamente priorizado (yay gene egoísta) em nossos cérebros básicos, ou temos tempo o bastante para racionalizar a situação.

Nada disso se aplica a um sujeito sozinho em um carro na estrada tentando não bater em um caminhão da ACME cheio de explosivos só pra perceber um ônibus escolar na outra faixa.

Esqueça o exagero. Imagine que o software tem que decidir entre te jogar no caminhão de esterco explosivo ou atropelar o Justin Bieber e aquela ex que você odeia. Para ele todos os humanos são igualmente importantes, então matematicamente você rodou, meu amigo.

Estamos desenvolvendo softwares que tratarão dilemas morais em situações onde normalmente não temos tempo pra isso. Dito assim soa como algo bom, mas na maioria das vezes nós somos os prejudicados na história.

Eu sei que soa demasiado egoísta mas não estou preparado para entrar num carro que é programado para me matar quando achar necessário.

relacionados


Comentários