Tesla libera polêmico Full Self-Driving em beta para todos nos EUA e Canadá

Sistema de direção autônoma da Tesla esteve envolvido em 273 acidentes de acordo com NHTSA, órgão rodoviário americano

Felipe Freitas
Por
Tesla Model S (Imagem: Divulgação/Tesla)
Tesla Model S (Imagem: Divulgação/Tesla)

A Tesla está disponibilizando a sua tecnologia de Full Self-Driving (FSD) em beta para todos os seus veículos nos Estados Unidos e no Canadá. A liberação do recurso não dependerá de atender aos requisitos mínimos de segurança — basta comprá-lo.

O sistema de Full Self-Driving da Tesla, que na verdade é uma automação de Nível 2, é investigado pelo órgão rodoviário americano por centenas de acidentes. Há casos de carros que bateram em veículos de emergência parados e um homem foi processado por homicídio culposo, conforme divulgado pela Associated Press.

CEO da empresa revelou novidade no Twitter

Elon Musk, CEO da Tesla, divulgou a atualização sobre o beta do Autopilot no Twitter, sua outra empresa. Na publicação, Musk explica que acesso ao beta do Full Self-Driving estará disponível para todos que realizarem a compra — feita diretamente pelo painel do veículo.

O FSD custa US$ 15.000 e é uma “expansão” do Autopilot, sistema de direção assistida com recursos como de velocidade de cruzeiro, troca e controle de faixa de pista, estacionamento automático e detecção de veículos. O Autopilot é recomendado para o uso em rodovias, não em cidades. Comprando o Full Self-Driving, o cliente ganha acesso ao recurso de controle de semáforo e placas de “pare”.

Antes da liberação do beta para todos os clientes que comprem o FSD, era necessário que o motorista cumprisse algumas exigências: 80 pontos de segurança no sistema da Tesla e 160 km usando o Autopilot. Agora, essas exigências foram eliminadas. Clientes da marca estão relatando que tiveram acesso ao beta sem cumprir os dois pontos. 

Autopilot: nem tão “auto”, nem tão seguro

Tesla Model Y teve sistema Autopilot enganado pelos engenheiros da Consumer Reports
Tesla Model Y teve sistema Autopilot enganado pelos engenheiros da Consumer Reports (Imagem: Reprodução/CR)

A SAE (sigla em inglês para Sociedade de Engenheiros Automotivos) divide as tecnologias de direção autônoma em cinco níveis — sendo o Nível 5 a automação total de um veículo e o sonho de Musk.

O Autopilot e o FSD da Tesla estão mais próximos do Nível 2 da SAE, onde ainda é necessário que o motorista monitore o veículo. Contudo, há inúmeros relatos de motoristas que dormem ao volante durante o Autopilot (via NBC) e, claro, de acidentes com o veículo.

A NHTSA divulgou que dos 392 acidentes entre junho de 2021 e junho de 2022 envolvendo sistemas de auxílio de direção, 273 foram com veículos da Tesla. Na época da publicação, a Tesla reforçou a segurança do seu sistema e se defendeu comparando o número de acidentes fatais com carros não-autônomos.

E por mais que os números fatais sejam pequenos (são seis mortes registradas no relatório), segurança não se trata apenas de ficar vivo. A NHTSA também abriu uma investigação sobre os problemas de “freada fantasma”, em que o Autopilot freava “do nada” e sem nenhum risco iminente. Esses incidentes indicam alguma falha no software e podem ser perigosos em situações nas quais há um veículo “colado” na traseira do Tesla — principalmente um caminhão. Entretanto, um usuário consciente do Autopilot terá tempo de reagir e se salvar.

Por causa da NHTSA, a Tesla também desativou a função “rolling stop” em seus carros. Sem uma tradução direta para o português, o “rolling stop” é a atitude na qual o motorista entra em um cruzamento sem parar completamente o veículo, mantendo o carro ainda em um movimento lento, preparando para acelerar caso seja possível seguir o caminho. Essa funcionalidade estava disponível no modo “Assertivo” do Full Self-Driving, na qual a IA realiza manobras mais arriscadas — uma opção para quem tem pressa.

Ferramentas de assistência de direção são importantíssimas para a segurança nas estradas. Porém, motoristas imprudentes não deveriam participar do beta. Ao liberar o acesso a pessoas com baixas pontuações de segurança da Tesla e com menos de 160 km de uso do Autopilot, os testes podem acabar trazendo mais problemas para o objetivo de direção autônoma — a de verdade, Nível 5 — na Tesla.

Com informações: The Verge e TechCrunch

Receba mais notícias do Tecnoblog na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Felipe Freitas

Felipe Freitas

Repórter

Felipe Freitas é jornalista graduado pela UFSC, interessado em tecnologia e suas aplicações para um mundo melhor. Na cobertura tech desde 2021 e micreiro desde 1998, quando seu pai trouxe um PC para casa pela primeira vez. Passou pelo Adrenaline/Mundo Conectado. Participou da confecção de reviews de smartphones e outros aparelhos.

Relacionados