Um carro autônomo do Google bateu num ônibus (e a culpa foi do software)
Os carros autônomos do Google já andaram cerca de 2,2 milhões de quilômetros desde 2009, quando o projeto começou. Desde então, foram 17 acidentes (sem contar este), dos quais nenhum o carro do Google havia sido culpado (a falha sempre era humana). Só recentemente um acidente causado por um motorista distraído resultou em feridos. Mas agora o cenário mudou.
Segundo o Departamento de Veículos Motorizados (DMV) da Califórnia (equivalente a uma CET em São Paulo), um dos lugares onde os carros autônomos rodam, um Lexus RX450h bateu em um ônibus ao fazer uma conversão. No relatório mensal de fevereiro, que sai amanhã e foi obtido com exclusividade pelo The Verge, o Google admite “alguma responsabilidade” pela batida.
O relatório escrito pela DMV detalha o acidente, que aconteceu no dia 14 de fevereiro. O veículo estava a 3,2 km/h se aproximando de um cruzamento, e moveu-se para a faixa da direita, que estava com sacos de areia à frente por conta de uma construção. Para desviar deles, o carro voltou para a faixa da esquerda, onde um ônibus se aproximava, a uma velocidade significativamente maior, de 24 km/h.
Como de praxe em conversões na faixa, o motorista que estava dentro do carro autônomo achou que o ônibus iria diminuir a velocidade ou parar para o veículo voltar à faixa. Mas isso não aconteceu: três segundos depois, quando o carro autônomo estava voltando para a esquerda, ele colidiu com o ônibus, danificando parte do para-choque esquerdo, a roda e alguns sensores do Lexus. Ninguém ficou ferido.
É difícil identificar um culpado claro nesses casos, mas até o Google admite que o seu veículo deveria ter parado. No entanto, “o nosso motorista de testes achou que o ônibus iria reduzir a velocidade ou parar para permitir que o carro continue seu caminho, e que teria espaço o suficiente para isso acontecer”, disse o Google.
Depois de revisar o acidente no simulador inteligente da empresa (e milhares de variações), eles conseguiram ajustar o software para coisas como estas não acontecerem de novo. Eles adicionaram a informação de que ônibus e outros veículos largos são menos prováveis de dar passagem que outros tipos de veículo, o que foi constatado no simulador.
Analisando o caso, é uma questão curiosa saber que nem o motorista de testes, que estava dentro do veículo, previu que o ônibus não daria passagem. Em situações como esta no trânsito, como aponta o The Verge, existe um grau de negociação entre ambos os motoristas, e suposições podem estar erradas (o que causa acidentes).
É realmente uma questão de ir ajustando o software para ele ficar perfeito. Ainda nesse âmbito do aprendizado de máquina, mas do lado oposto, já foi constatado que os carros autônomos do Google seriam “seguros demais”, uma vez que eles brecavam constantemente em cruzamentos e não sabiam direito se um carro estava dando passagem ou não. Em uma realidade que a inteligência artificial divide as ruas com os humanos, ser cuidadoso demais também é um problema.
E qual a solução? Não existe fórmula mágica. Em ambos os casos, o software foi modificado para entender melhor como os humanos dirigem. Só depois de vários outros dilemas os carros autônomos poderão dominar as ruas. Afinal, ainda não chegamos num patamar em que o trânsito é autônomo e os pedestres não cometem erros.
Com informações: Reuters, iG Tecnologia.
Programados para matar
Falamos mais sobre esse assunto de carros autônomos no Tecnocast 033, com o título “Programados para matar”. Ele aborda, entre ouras questões, os impasses que esse tipo de tecnologia enfrenta no mundo atual.
Tomamos como base algumas questões éticas levantados por um professor de Stanford, que argumenta que os veículos autônomos, em várias situações, precisam decidir qual vida é mais importante (a do motorista ou de um pedestre), em caso de uma colisão iminente. Quem você acha que ele deve salvar? O botão de play fica logo abaixo! 🙂