Se você possui um Tesla, ou um ente querido, ou está pensando em comprar um, ou compartilha vias públicas com carros Tesla, talvez queira assistir ao novo documentário “Elon Musk’s Crash Course”.
Estreando na sexta-feira no FX e no Hulu, o show de 75 minutos de terror destaca os perigos persistentes das tecnologias de direção automatizada da Tesla, a cultura de segurança frouxa da empresa, o hype de marketing no estilo PT Barnum de Musk e os reguladores de segurança fracos que parecem não se importar.
Solidamente relatado e absolutamente preciso (eu cobri a empresa desde 2016 e posso atestar sua veracidade), o projeto, parte da série em andamento “New York Times Presents”, pode muito bem se tornar um artefato histórico do variedade de pensamentos do inferno.
A linha central é a história de Joshua Brown, um raivoso fã de Tesla e um geek ousado do techno decapitado quando seu Tesla com piloto automático dirigiu a toda velocidade em uma rodovia da Flórida sob o trailer de um caminhão em 2016.
Quaisquer que sejam as lições aprendidas na Tesla não impediram um acidente fatal quase idêntico, também na Flórida, três anos depois. Um número desconhecido de acidentes relacionados ao piloto automático ocorreu desde então – desconhecido para qualquer pessoa, exceto a Tesla, que tem a capacidade de rastrear seus carros por meio de conexões sem fio – porque o processo de décadas do governo para coletar estatísticas de acidentes é inadequado para a era digital. A empresa está atualmente sob investigação por reguladores federais de segurança por uma aparente tendência a colidir com veículos de emergência estacionados ao lado da rodovia.
Aqui estão mais quatro lições importantes do “Curso de Crash de Elon Musk”.
The New York Times apresenta “Elon Musk’s Crash Course” episódio 1 vai ao ar sexta-feira.
(FX)
1. O recurso de piloto automático da Tesla não recebeu testes adequados, alegam ex-funcionários
A pressão para levar os recursos do Autopilot aos clientes rapidamente, prontos ou não, foi implacável, de acordo com vários ex-membros da equipe de desenvolvimento do Autopilot apresentados no documentário. “Não houve uma fase de pesquisa profunda” como em outras empresas de carros autônomos, diz um gerente de programa de engenharia, com “os clientes essencialmente substituindo os motoristas de teste profissionais”.
O depoimento desses desenvolvedores é um destaque do “Crash Course”. É raro ouvir pessoas de dentro da Tesla porque o “absolutista da liberdade de expressão” Musk faz os funcionários assinarem acordos de confidencialidade e os impõe com um vasto exército de advogados bem pagos.
Quando o carro de Brown passou por baixo do caminhão, disse a empresa, o sistema confundiu o lado do trailer com o céu claro e culpou seu fornecedor de câmeras. Mas dentro da Tesla, a equipe do Autopilot ainda estava lutando para saber como seu software poderia distinguir um caminhão atravessando uma rodovia de uma ponte aérea, diz o engenheiro de software Raven Jiang: “A taxa de aprendizado não foi ótima. Foi pessoalmente difícil para mim acreditar que a promessa seria cumprida.”
A mídia estava relatando a fraude da Theranos na época, o que provocou uma “busca de alma” por Jiang, que pediu demissão para outro emprego. Akshat Patel, gerente do programa de engenharia do piloto automático, concorda com a preocupação de Jiang. Se alguém considera Tesla “um exemplo de integridade científica, responsabilidade pública e engenharia racional e metódica”, diz Patel, “não é”.
2. Teslas totalmente autônomos são mais ficção científica do que realidade
Atualmente, a Tesla vende um recurso por US $ 12.000 chamado Full Self-Driving, que não é totalmente autônomo. Carros totalmente autônomos disponíveis para compradores individuais não existem.
Mas isso não impediu Musk de afirmar, ano após ano, que os Teslas autônomos estão chegando.
Clipe após clipe em “Crash Course” mostra suas falsas alegações.
2014: “Sem mãos, sem pés, nada”, diz ele do volante de um Tesla. “O carro pode fazer quase tudo.”
2015: Musk diz a uma multidão que está “bastante confiante” que a autonomia será alcançada dentro de três anos, a ponto de “você poder estar dormindo o tempo todo”.
2016: “Acho que estamos basicamente a menos de dois anos da autonomia total”, disse ele à jornalista Kara Swisher no palco da conferência.
2017: “Ainda estamos no caminho certo para poder atravessar o país de Los Angeles a Nova York até o final do ano, totalmente automatizado.”
2018: “Até o final do próximo ano, a direção autônoma será pelo menos 100% a 200% mais segura do que uma pessoa.”
2019: Comprar um carro que não inclui Full Self-Driving é “como comprar um cavalo”.
2022: Com um chapéu de cowboy preto e óculos de sol: “O carro o levará a qualquer lugar que você quiser, em última análise, 10 vezes mais seguro do que se você estivesse dirigindo. Vai revolucionar completamente o mundo.”
O documento também explica como Tesla manipulou um vídeo amplamente compartilhado de um Tesla dirigindo pelas ruas de Palo Alto alguns meses após a morte de Brown.
A receita do Autopilot e Full Self-Driving, deve-se notar, é em grande parte responsável pelo cumprimento das metas de remuneração que tornaram Musk tão rico.

Engenheiro Raven Jian em “Curso de choque de Elon Musk”.
(FX)
3. Os fãs de Musk não hesitam. Mesmo na câmera
Entre seus 94 milhões de seguidores no Twitter, Musk atraiu uma base de fãs particularmente raivosa, para a qual “Crash Course” gesticula ocasionalmente. (Um tweet diz: “Elon é o Senhor.”) Mas o documentário não se aprofunda Por quê tantas pessoas parecem tão fascinadas por ele. Esse é o reino da especulação, ou talvez da psicologia.
Ainda assim, existem algumas citações de escolha dos fãs de Tesla e apoiadores de Musk que se sentam para entrevistas, aparentemente sem perceber a ironia:
“Acho que Elon quer fazer um estrago no mundo.”
“Qualquer empresa mataria para ter esse nível de fandom e devoção.”
“Ele tem os recursos que lhe permitem fazer coisas que seriam irresponsáveis ou insanas para qualquer outra pessoa.”
4. Falhas regulatórias são parte do problema
No meio do “Crash Course”, os espectadores podem começar a se perguntar: onde estão os reguladores de segurança?
Ótima pergunta. A Administração Nacional de Segurança no Tráfego Rodoviário investigou o acidente de Brown, determinou que o piloto automático de alguma forma errou o lado largo de um caminhão na frente do carro e, no entanto, determinou que não havia defeito, dando a Tesla um passe.
“Fiquei um pouco pasmo”, disse o repórter do New York Times Neal Boudette à câmera. “O sistema não conseguiu ver o trailer do trator? E isso não é um defeito?”
Um oficial de comunicação da NHTSA na época tenta explicar: “É um pouco complicado e quase contra-intuitivo, certo? O piloto automático nem acionou para tentar parar o acidente. Mas o fato é que o Autopilot não foi projetado para parar todos os acidentes em todos os casos.”
O fato é que vários altos funcionários da NHTSA nos governos Obama e Trump passaram a aceitar empregos na indústria de carros autônomos.
A NHTSA sob o comando de Biden e o secretário de Transportes Pete Buttigieg está ficando mais difícil com a Tesla no acesso a dados, e suas investigações continuam em andamento.
Enquanto isso, um Tesla de alta velocidade colidiu com um canteiro de obras da rodovia Newport Beach em 12 de maio. Três pessoas morreram. O piloto automático ou a condução totalmente autônoma estavam envolvidos? A polícia está investigando o incidente e a NHTSA abriu uma investigação.
‘The New York Times Presents: Crash Course de Elon Musk’
Onde: FX
Quando: Sábado, 22h
Transmissão: Hulu, a qualquer hora, a partir de sábado
Avaliação: TV-MA (pode não ser adequado para menores de 17 anos)