technology

Tesla faz recall de 362.000 veículos devido a falhas de software de direção autônoma que podem causar acidentes | tesla

.

A Tesla disse que recolheria 362.000 veículos dos EUA para atualizar seu software Full Self-Driving (FSD) Beta, depois que os reguladores disseram na quinta-feira que o sistema de assistência ao motorista não aderiu adequadamente às leis de segurança no trânsito e pode causar acidentes.

A National Highway Traffic Safety Administration (NHTSA) disse que o software da Tesla permite que um veículo “exceda os limites de velocidade ou viaje por cruzamentos de maneira ilegal ou imprevisível aumenta o risco de um acidente”.

A Tesla lançará uma atualização de software over-the-air (OTA) gratuita, e a fabricante de veículos elétricos disse não ter conhecimento de nenhum ferimento ou morte que possa estar relacionado ao problema do recall. A montadora disse que tinha 18 pedidos de garantia.

As ações da Tesla caíram 1,6%, para US$ 210,76, na tarde de quinta-feira.

O recall abrange veículos Modelo S 2016-2023, Modelo X, Modelo 3 2017-2023 e Modelo Y 2020-2023 equipados com software FSD Beta ou com instalação pendente.

A NHTSA pediu à Tesla que fizesse o recall dos veículos, mas a empresa disse que, apesar do recall, não concordava com a análise da NHTSA. A mudança é uma rara intervenção de reguladores federais em um programa de testes do mundo real que a empresa vê como crucial para o desenvolvimento de carros que podem dirigir sozinhos. O FSD Beta é usado por centenas de milhares de clientes da Tesla.

O revés para o esforço de direção automatizada da Tesla ocorre cerca de duas semanas antes do dia do investidor da empresa em 1º de março, durante o qual seu presidente-executivo, Elon Musk, deve promover a capacidade de inteligência artificial da fabricante de veículos elétricos e planeja expandir sua linha de veículos.

A Tesla não pôde ser imediatamente contatada para comentar.

A NHTSA tem uma investigação em andamento aberta em 2021 sobre 830.000 veículos Tesla com sistema de assistência ao motorista Piloto automático sobre uma série de acidentes com veículos de emergência estacionados. A NHTSA está analisando se os veículos Tesla garantem adequadamente que os motoristas estão prestando atenção. A NHTSA disse na quinta-feira, apesar do recall do FSD, que “a investigação sobre o piloto automático da Tesla e os sistemas de veículos associados permanece aberta e ativa”.

A Tesla disse que em “certas circunstâncias raras … o recurso pode potencialmente infringir as leis de trânsito ou costumes locais durante a execução de certas manobras de direção”.

Possíveis situações em que o problema pode ocorrer incluem viajar ou virar em certos cruzamentos durante um semáforo amarelo e fazer uma mudança de faixa de certas faixas de conversão para continuar viajando em linha reta, disse a NHTSA.

A NHTSA disse que “o sistema pode responder insuficientemente às mudanças nos limites de velocidade afixados ou não considerar adequadamente o ajuste do motorista da velocidade do veículo para exceder os limites de velocidade afixados”.

No ano passado, a Tesla fez o recall de quase 54.000 veículos dos EUA com o software FSD Beta que pode permitir que alguns modelos realizem “paradas contínuas” e não parem completamente em alguns cruzamentos, representando um risco à segurança, disse a NHTSA.

Tesla e NHTSA dizem que os recursos avançados de direção do FSD não tornam os carros autônomos e exigem que os motoristas prestem atenção.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo