Montadoras como GM, Tesla e Mercedes-Benz querem transformar como dirigimos. Depois de anos de promessas, o chamado “eyes-off driving” – tecnologia que permite tirar as mãos do volante e os olhos da estrada – está perto de sair do papel. Mas o avanço, que promete mais conforto e menos esforço ao motorista, reacende um questionamento importante: quem é o culpado quando o carro autônomo erra?
O novo patamar de automação, classificado como nível 3, marca o ponto no qual o veículo assume o controle completo da direção em determinadas situações, enquanto o condutor pode relaxar, usar o celular ou assistir a vídeos, por exemplo.
Só há um detalhe: a pessoa sentada no banco do motorista precisa estar pronta para retomar o volante a qualquer momento. E é justamente nessa zona cinzenta – entre máquina e humano – que se concentram as maiores dúvidas de segurança e de responsabilidade, aponta o site The Verge.
O novo dilema da automação de carros: conforto ou responsabilidade?
A promessa dos carros com direção autônoma nível 3 é tentadora. Imagine que gostoso, por exemplo, puxar o celular e se aconchegar no banco para dar uma olhada nas redes sociais enquanto o veículo cuida do resto.
Porém, na prática, o cenário é bem mais complexo. Fabricantes como General Motors, Mercedes-Benz e Tesla avançam em tecnologias cada vez mais autônomas, enquanto governos e tribunais ainda tentam definir quem responde por um erro de direção quando não há ninguém realmente dirigindo.
O resultado é um momento de transição, com entusiasmo, incertezas, riscos… tudo junto. Essa mistura deve marcar a próxima década da mobilidade, segundo o Verge.
O próximo passo da direção autônoma
A General Motors quer estrear seu sistema de direção autônoma nível 3 até 2028, começando pelo Cadillac Escalade IQ. A tecnologia deve depois chegar a outras marcas do grupo, como Chevrolet, Buick e GMC.
Na prática, o sistema deve permitir que motoristas assistam a vídeos, joguem ou usem o celular enquanto o carro dirige sozinho em rodovias específicas.
A diferença em relação ao Super Cruise, sistema atual da GM, é que o novo modelo vai além: ele libera o condutor de olhar para a estrada, o que transformaria o ato de dirigir numa experiência quase passiva, ainda que supervisionada.
O problema é que esse conforto vem com um asterisco. Mesmo com o modo “eyes-off” ativado, o motorista precisa estar pronto para reassumir o controle a qualquer momento. Se não reagir rápido a um alerta, pode ser responsabilizado por um acidente, mesmo que a falha tenha começado no sistema automatizado.
Esse ponto é o que mais preocupa especialistas, que alertam para o risco de uma falsa sensação de segurança. Afinal, o carro promete autonomia, mas ainda depende da atenção humana para não errar.
No fim, quem é o culpado?
A Mercedes-Benz já vive esse dilema com o sistema Drive Pilot, aprovado apenas em trechos específicos da Califórnia e de Nevada, nos Estados Unidos.
A montadora afirma assumir a responsabilidade por falhas quando o modo autônomo está ativo, mas essa exceção ainda é rara. A maioria das empresas evita prometer o mesmo, já que a legislação varia de estado para estado nos EUA – e, em muitos lugares, a direção de nível 3 ainda é proibida.
Fabricantes como Ford, Honda e Stellantis também correm para lançar suas versões, mesmo sem regras claras sobre quem será o culpado em caso de acidente.
Casos recentes mostram o tamanho do impasse. Motoristas da Uber e de modelos da Tesla, por exemplo, já foram acusados de homicídio culposo em acidentes ocorridos com sistemas automáticos ativados.
Em outro processo, um júri na Flórida decidiu que tanto o motorista quanto a Tesla tinham culpa. E condenou a empresa a pagar US$ 243 milhões (cerca de R$ 1,4 bilhão) às famílias das vítimas.
Ao Verge, o advogado Mike Nelson, especialista em mobilidade, disse que essas decisões ainda são embrionárias. Os tribunais tentam entender onde termina a responsabilidade humana e onde começa a da máquina, num cenário que ele descreve como “inevitavelmente caótico”.
Leia mais:
- Tesla enfrenta novo processo judicial por morte em acidente com Model S
- Moto e patinete elétricos podem pegar chuva?
- Veja quais carros podem ou não operar na Uber em 2026
Limites entre motorista e máquina
Mesmo com sensores cada vez mais sofisticados (câmeras, radares, rastreadores de olhar), a tecnologia ainda depende de algo imprevisível: o comportamento humano.
Pesquisas mostram que motoristas têm dificuldade de reagir com precisão quando passam longos períodos sem conduzir o carro. Ao serem forçados a reassumir o controle de forma repentina, tendem a reagir tarde demais ou de maneira exagerada, o que pode agravar incidentes.
A pesquisadora Alexandra Mueller, do Insurance Institute for Highway Safety, disse ao Verge que essa convivência entre humanos e máquinas será longa e turbulenta.
Ela lembra que a frota global ainda levará décadas para ser inteiramente autônoma. E que, até lá, os carros automatizados precisarão operar num ambiente caótico, cheio de variáveis imprevisíveis.
Nesse “meio do caminho”, diz ela, a transparência das montadoras será crucial para conquistar a confiança do público. Como resume o advogado Nelson: “não é um caos inesperado – ele simplesmente acompanha toda revolução industrial”.
O post Carros que dirigem sozinhos estão chegando, mas será que estamos prontos? apareceu primeiro em Olhar Digital.