Tesla libera polêmico Full Self-Driving em beta para todos nos EUA e Canadá
Sistema de direção autônoma da Tesla esteve envolvido em 273 acidentes de acordo com NHTSA, órgão rodoviário americano
Sistema de direção autônoma da Tesla esteve envolvido em 273 acidentes de acordo com NHTSA, órgão rodoviário americano
A Tesla está disponibilizando a sua tecnologia de Full Self-Driving (FSD) em beta para todos os seus veículos nos Estados Unidos e no Canadá. A liberação do recurso não dependerá de atender aos requisitos mínimos de segurança — basta comprá-lo.
O sistema de Full Self-Driving da Tesla, que na verdade é uma automação de Nível 2, é investigado pelo órgão rodoviário americano por centenas de acidentes. Há casos de carros que bateram em veículos de emergência parados e um homem foi processado por homicídio culposo, conforme divulgado pela Associated Press.
Elon Musk, CEO da Tesla, divulgou a atualização sobre o beta do Autopilot no Twitter, sua outra empresa. Na publicação, Musk explica que acesso ao beta do Full Self-Driving estará disponível para todos que realizarem a compra — feita diretamente pelo painel do veículo.
O FSD custa US$ 15.000 e é uma “expansão” do Autopilot, sistema de direção assistida com recursos como de velocidade de cruzeiro, troca e controle de faixa de pista, estacionamento automático e detecção de veículos. O Autopilot é recomendado para o uso em rodovias, não em cidades. Comprando o Full Self-Driving, o cliente ganha acesso ao recurso de controle de semáforo e placas de “pare”.
Antes da liberação do beta para todos os clientes que comprem o FSD, era necessário que o motorista cumprisse algumas exigências: 80 pontos de segurança no sistema da Tesla e 160 km usando o Autopilot. Agora, essas exigências foram eliminadas. Clientes da marca estão relatando que tiveram acesso ao beta sem cumprir os dois pontos.
A SAE (sigla em inglês para Sociedade de Engenheiros Automotivos) divide as tecnologias de direção autônoma em cinco níveis — sendo o Nível 5 a automação total de um veículo e o sonho de Musk.
O Autopilot e o FSD da Tesla estão mais próximos do Nível 2 da SAE, onde ainda é necessário que o motorista monitore o veículo. Contudo, há inúmeros relatos de motoristas que dormem ao volante durante o Autopilot (via NBC) e, claro, de acidentes com o veículo.
A NHTSA divulgou que dos 392 acidentes entre junho de 2021 e junho de 2022 envolvendo sistemas de auxílio de direção, 273 foram com veículos da Tesla. Na época da publicação, a Tesla reforçou a segurança do seu sistema e se defendeu comparando o número de acidentes fatais com carros não-autônomos.
E por mais que os números fatais sejam pequenos (são seis mortes registradas no relatório), segurança não se trata apenas de ficar vivo. A NHTSA também abriu uma investigação sobre os problemas de “freada fantasma”, em que o Autopilot freava “do nada” e sem nenhum risco iminente. Esses incidentes indicam alguma falha no software e podem ser perigosos em situações nas quais há um veículo “colado” na traseira do Tesla — principalmente um caminhão. Entretanto, um usuário consciente do Autopilot terá tempo de reagir e se salvar.
Por causa da NHTSA, a Tesla também desativou a função “rolling stop” em seus carros. Sem uma tradução direta para o português, o “rolling stop” é a atitude na qual o motorista entra em um cruzamento sem parar completamente o veículo, mantendo o carro ainda em um movimento lento, preparando para acelerar caso seja possível seguir o caminho. Essa funcionalidade estava disponível no modo “Assertivo” do Full Self-Driving, na qual a IA realiza manobras mais arriscadas — uma opção para quem tem pressa.
Ferramentas de assistência de direção são importantíssimas para a segurança nas estradas. Porém, motoristas imprudentes não deveriam participar do beta. Ao liberar o acesso a pessoas com baixas pontuações de segurança da Tesla e com menos de 160 km de uso do Autopilot, os testes podem acabar trazendo mais problemas para o objetivo de direção autônoma — a de verdade, Nível 5 — na Tesla.
Com informações: The Verge e TechCrunch