Autopilot da Tesla ‘é inocentado’ por morte em acidente de carro

Caso de 2019 vitimou motorista e feriu dois passageiros, incluindo uma criança de 8 anos; defesa das vítimas alegava falha no Autopilot

Felipe Freitas

A Tesla foi inocentada de um acidente fatal ocorrido em 2019, que vitimou o motorista Micah Lee (37) e deixou dois passageiros feridos, incluindo uma criança de 8 anos. O caso foi julgado no tribunal do júri e os advogados das vítimas alegaram que a empresa vendeu o veículo sabendo que havia falhas no Full Self-Driving (FSD), recurso de direção autônoma que estava (e ainda está) na fase beta.

No acidente ocorrido em Los Angeles, o Tesla Model 3, sedã de entrada e modelo mais vendido da marca, virou abruptamente saindo da pista e se chocou contra uma árvore. No momento que saiu da pista, o veículo estava a 105 km/h. Com a batida, o carro pegou fogo e o motorista morreu no local.

Tesla diz que não há garantia que o Autopilot estava ligado

Tesla Model 3 (imagem: divulgação)
Tesla Model 3 virou abruptamente, saiu da pista a 105 km/h e acertou uma árvore (Imagem: Divulgação/Tesla)

Em sua defesa, a Tesla alegou que não há nenhuma garantia que o Autopilot estava ativado no momento da batida. No julgamento, a empresa alegou que houve erro humano de Micah Lee na condução do veículo, já que exames mostraram que a vítima ingeriu bebida alcoólica antes de entrar no carro.

A informação de não haver garantia se o Autopilot estar ligado levanta um ponto para a futura regulamentação da tecnologia de direção autônoma (que corre mais lenta que um Ford Ka 1.0 ano 2000). Se nem a fabricante sabe dizer se o recurso foi ativado, será que o próximo passo da tecnologia é adotar uma caixa preta igual a de aviões?

Por se tratar de um caso envolvendo mortes, o caso foi julgado no tribunal do júri. Os jurados consideraram a Tesla inocente. As vítimas e parentes de Lee exigiam uma indenização de US$ 400 milhões mais pagamento de danos.

A defesa das vítimas alegou que a Tesla conscientemente engana os consumidores ao vender o Autopilot como um serviço de direção autônoma. A fabricante saiu livre desse caso (o primeiro envolvendo uma fatalidade), mas tem outras disputas à frente.

Mais processos contra o Autopilot

Tesla em modo Full Self-Driving (Imagem: divulgação/Tesla)
Tesla anuncia FSD como direção autônoma, mas não é nada disso (Imagem: Reprodução/Tesla)

A Tesla enfrenta vários processos envolvendo acidentes com o Autopilot ativado, com alguns sendo julgados nos próximos meses. A NHTSA, órgão rodoviário dos Estados Unidos, publicou um relatório mostrando que houve 273 acidentes com o recurso da fabricante.

A ferramenta possui uma “expansão” de direção autônoma, o FSD, que teve seu beta liberado para todos os usuários — basta pagar US$ 15.000.

Apesar de seu nome ser traduzido como “direção autônoma total”, ela não é nada disso, pois exige que o motorista monitore o veículo o tempo todo. Na Califórnia, a Tesla pode ser obrigada a mudar a estratégia de venda — e ela mesmo afirma que não é uma direção totalmente autônoma.

Para essa tecnologia, a principal definição vem da Associação de Engenheiros Automotivos (SAE, em inglês), que a divide em cinco níveis. A FSD da Tesla está mais próxima do nível 2, já que exige uma supervisão humana. O nível 5 para o consumidor segue bem distante, independente da fabricante.

Com informações: Tech Crunch e Engadget

Relacionados

Escrito por

Felipe Freitas

Felipe Freitas

Repórter

Felipe Freitas é jornalista graduado pela UFSC, interessado em tecnologia e suas aplicações para um mundo melhor. Na cobertura tech desde 2021 e micreiro desde 1998, quando seu pai trouxe um PC para casa pela primeira vez. Passou pelo Adrenaline/Mundo Conectado. Participou da confecção de reviews de smartphones e outros aparelhos.