Em 29 de dezembro de 2019, um Honda Civic adentrou o cruzamento das avenidas Artesia e Vermont, em Gardena, na Califórnia. Era pouco mais de meia-noite. O sinal estava verde.
Quando o carro prosseguia no cruzamento, um Tesla Model S sob comando do Autopilot havia deixado uma freeway, avançou o sinal e atingiu o Civic. O motorista do Civic, Gilberto Alcazar Lopez, e sua passageira, Maria Guadalupe, Nieves-Lopez, tiveram morte instantânea.
Cerca de dois anos depois, os promotores do condado de Los Angeles entraram com ação de crime culposo contra o motorista do Tesla, Kevin George Aziz Riad, de 27 anos. Peritos acreditam ser este o primeiro caso de ação contra um motorista acusado de causar uma fatalidade nos Estados Unidos ao utilizar um sistema de assistência ao motorista parcialmente automatizado.
“É um alerta para todos os motoristas,“ disse Alain Kornhauser, diretor do programa de condução autônoma da Universidade de Princeton. “Isso certamente nos leva, de repente, a não nos tornarmos tão relaxados no uso dessas funções, ao ponto de esquecermos do fato de que nós somos os únicos responsáveis — não apenas pela nossa segurança, mas pela dos outros.”
Apesar de a condução automatizada visar assistir motoristas, sistemas chamados de Autopilot, SuperCruise e ProPilot podem levar os consumidores a engano no sentido de acharem que os carros são capazes de muito mais do que são na realidade, disse Kornhaus
Mesmo que carros totalmente autônomos estejam sendo testados em vias públicas, fabricantes de automóveis, empresas de tecnologia, organizações que estabelecem normas de engenharia, agências reguladoras e legisladores falharam em deixar claro para o público — e em alguns casos até entre si — quais são as diferenças técnicas ou quem está sujeito à responsabilidade legal quando pessoas se ferem ou morrem.
Riad, que é motorista de limusine, alegou não ser culpado, pagou fiança e está em liberdade enquanto o caso está pendente. Seu advogado não respondeu a um pedido de comentário feito recentemente,
Caso Riad seja considerado culpado, “dará um frio para baixo e para cima na espinha de quem tiver um desses veículos e se conscientize de que “Epa, sou eu o responsável,’” disse Kornhauser. “Como eu quando dirijo meu Chevy ’55 — é minha responsabilidade assegurar que ele fique entre as faixas brancas.”
Depois da colisão fatal em Gardena, a National Highway Traffic Safety Administration (NHTSA), a agência federal de segurança rodoviária dos EUA, iniciou uma investigação do acidente para descobrir o que aconteceu. Apesar de os documentos da justiça de Los Angeles não mencionarem o Autopilot pelo nome, é esperado que a agência não demore a publica suas conclusões provando que a tecnologia estava sendo usada.
Uma série de investigações nos anos seguintes continuou a questionar a segurança e a confiabilidade da condução automatizada, incluindo uma ampla investigação de 765.000 carros Tesla produzidos entre 2014 e 2021.
No ano passado, a NHTSA determinou que dezenas de empresas fabricantes de automóveis e de tecnologia a informar relatórios de acidentes com veículos automatizados como maneira de monitorar melhor sua segurança.
Em 16 de agosto de 2021 publicamos a matéria “Por que carros Testa continuam a colidir com veículos de emergência? A agência federal de segurança está investigando.”
Nenhum veículo automotor disponível comercialmente hoje pode se autoconduzir completamente, disse a agência. O Autopilot da Testa é classificado como autonomia de veículo“ Nível 2”, o que significa que o veículo é capaz de controlar direção e aceleração, mas um humano no banco do motorista pode assumir o controle a qualquer momento.
“Se um sistema de condução automatizada (Nível 2) está ativado ou não, todo veículo à venda requer um motorista humano nos controles o tempo todo, e todas as leis estaduais consideram o motorista humano responsável pela operação de seus veículos,“ disse um porta-voz da NHTSA. “Certos auxílios avançados ao motorista podem promover segurança ao ajudá-los a evitar acidentes e mitigar a sua severidade caso ocorram, mas como com todas as tecnologias e equipamentos dos veículos automotores, devem ser usados correta e responsavelmente”
O resultado do caso pode estabelece um precedente para uma indústria encurralada entre tecnologia de ponta e erro humano básico.
Bryant Walker Smith, professor da Universidade da Carolina do Sul e perito em leis relacionadas a carros automatizados, disse que enquanto as empresas rotineiramente enfrentam responsabilidade civil, elas raramente são processadas criminalmente por questões de projeto.”
Mas Smith se posiciona com a assertiva de que motoristas — e só motoristas — são responsáveis na automação Nível 2 ou inferior. Por exemplo, se uma bolsa inflável de um carro bem conservado deflagra de repente e causa um acidente, o motorista não será culpado, disse.
“Por outro lado, se um fabricante vende um carro perigoso, ele pode ser responsável civilmente. E, pelo menos em teoria, ele poderá sofrer processo criminal. Isso, contudo, é um caso raro.”, disse ele, lembrando que quando o estado de Indiana processou a Ford pelo acidente envolvendo o modelo Pinto há mais de quatro décadas, a fabricante foi absolvida.
Um representante da Testa, a qual fechou seu departamento de relações com a imprensa, não foi encontrado para comentar.
Em 31 dezembro de 2019 publicamos a reportagem “Acidente fatal em Gardena sob investigação da NHTSA”.
Vários peritos em leis são unânimes em dize que a responsabilidade de sistemas Nível 2 como o Autopilot é totalmente do motorista — não das empresas que vendem tecnologias que possam levar consumidores a achar que tais itens são mais capazes do que eles.
Mas o Departamento de Veículos Automotores (DMV) da Califórnia está às voltas com a confusão sobre a Condução Autônoma Total, versão avançada do Autopilot que tenciona eventualmente fazer exatamente o que o nome diz: prover autonomia total, ao ponto de ser desnecessário um humano para dirigir.
Mas enquanto outros desenvolvedores de carros autônomos como Waymo e Argo empregam motoristas de testes treinados que obedecem regras rígidas, a Tesla está fazendo testes utilizando seu próprios clientes, cobrando US$ 12.000 pelo privilégio.
E enquanto outras empresas de tecnologia autônoma são obrigadas a comunicar acidentes e falhas de sistema ao DMV dentro das suas regras de permissão de testes, nas vias públicas, a agência tem permitido à Tesla optar por ficar fora dessas regras.
Depois da pressão dos legisladores estaduais, gerados por vídeos aterradores no YouTube e no Twitter mostrando o mau desempenho da Condução Autônoma Total, o DMV disse no começo do mês estar revendo sua posição sobre a tecnologia da Tesla.
A agência está pensando também em conduzir uma revisão para determinar se a Testa está violando outra regra com respeito a sistemas de Condução Autônoma Total — a que impede empresas comercializar seus carros como autônomos sem o serem realmente.
A revisão começou há oito meses, disse o DMV num e-mail ao The Times como “em andamento”.
Em 18 de janeiro de 2022 publicamos a matéria “Acusações de crime do condado de L.A. são as primeiras para o fatal acidente envolvendo o Autopilot da Testa.”
Em meio à confusão sobre carros automatizados, a que é menos nebulosa são as tragédias reais que resultam dos acidentes.
Em 2020, autoridades no Arizona entrarem com homicídio por negligência contra um motorista de suve Uber que atropelou e matou um pedestre durante um teste de capacidade autônoma total. A vítima daquele atropelamento, Elaine Herzberg, é tida como a primeira fatalidade relacionada a um carro autônomo.
Em Los Angeles, as famílias de Lopez e Nieves-Lopez entraram com ação contra Riad e a Tesla.
Arsen Sarainian, advogado da família Nieves, disse quinta-feira que eles estão monitorando de bem perto o caso criminal, esperando os resultado do relatório da investigação da NHTSA e contando com justiça.
Mas disse Sarapinian, “nem o caso criminal pendente, nem a ação civil trarão de volta a srta. Nieves ou o sr. Lopez.”
BS
Nota: matéria publicada na edição online do jornal Los Angeles Times em 19/01/2022
Por Hayley Smith e Russ Mitchel