A tecnologia de direção autônoma da Tesla costumava depender de câmeras e radares, mas abandonou o último e adotou uma nova abordagem chamada Tesla Vision.

Os veículos autônomos empregam vários tipos de sensores, como a tecnologia de detecção e alcance de luz (LiDAR) para medir longas alcances variáveis, sensores ultrassônicos para alcances curtos e radares, que são semelhantes ao LiDAR, mas dependem de ondas de rádio em vez de lasers.

Líderes tecnológicos autônomos, como General Motors, Waymo e Mercedes-Benz, dependem de sensores, mas não da Tesla. A montadora com sede no Texas usou radar e câmeras para tornar possível seu sistema de direção semiautônoma Autopilot, mas a partir de maio de 2021, anunciou que estava abandonando o radar para o Modelo 3 e o Modelo Y na América do Norte, mudando seu foco para uma abordagem exclusivamente baseada em câmera que chamou Visão Tesla.

Mas quais foram as razões por trás da decisão da Tesla de remover radares e sensores ultrassônicos de seus carros e nem mesmo considerar LiDAR ou mapas? Vamos explorar mais este tópico.

instagram viewer

Visão computacional: o plano de Tesla

Crédito da imagem: tesla

A Tesla desenvolveu seu próprio sistema de visão computacional, chamado Tesla Vision, para calcular o que o carro autônomo da Tesla vê. Baseado no CUDA da Nvidia, que é uma plataforma de computação paralela projetada para unidades de processamento gráfico (GPUs), esse sistema de ponta a ponta alimenta o piloto automático da Tesla e a tecnologia de direção autônoma. Ele se baseia na visão computacional para entender as informações visuais coletadas pelas câmeras do veículo.

Em vez de usar o LiDAR, a abordagem da Tesla envolve treinar o computador para reconhecer e interpretar o mundo visual, com o objetivo de alcançar capacidades de direção autônoma. O fabricante diz que pode acelerar drasticamente o processo de treinamento graças ao uso de aprendizado de máquina e sua própria rede neural, que roda em um supercomputador chamado Dojo.

Redução de custos

A mudança da Tesla de abordagens baseadas em sensores para visão computacional é motivada principalmente pelo custo. A Tesla pretende reduzir os preços dos veículos, minimizando o número de peças necessárias. No entanto, a eliminação de peças pode representar um desafio quando o sistema não pode funcionar sem elas, e a Tesla recebeu muitas críticas quando anunciou que estava removendo o radar de seus carros.

Um trabalho de pesquisa de Universidade de Cornell sugere que as câmeras estéreo têm o potencial de gerar um mapa 3D quase tão preciso quanto um mapa LiDAR. Isso apresenta um ponto interessante, pois indica que, em vez de investir US$ 7.500 em um dispositivo LiDAR, pode-se usar algumas câmeras muito mais baratas, custando apenas US$ 5. Como resultado, quando a Tesla afirma que tal tecnologia pode se tornar obsoleta em um futuro próximo, pode estar no caminho certo.

O outro lado da moeda é que, depois de remover o suporte do radar, o sistema Autopilot da Tesla passou por vários downgrades de recursos que levaram meses para serem restaurados. Adicionalmente, muitos proprietários de Tesla relataram problemas com o sistema sem radar, como eventos frequentes de "frenagem fantasma" em que o veículo freia desnecessariamente para obstáculos inexistentes.

Embora muitas empresas considerem sensores como LiDAR e radar essenciais para uma direção autônoma confiável, a Tesla escolheu a visão computacional devido ao seu potencial de desenvolvimento mais rápido. Embora o LiDAR e o radar possam detectar obstáculos com alta precisão hoje, as câmeras ainda precisam de mais refinamento para atingir o mesmo nível de confiabilidade. No entanto, Tesla acredita que a abordagem de visão computacional é o caminho a seguir.

Baixa Complexidade

Embora ter um número maior de sensores possa oferecer inúmeras vantagens, incluindo melhor gerenciamento de dados por meio da fusão de sensores qualificados, também apresenta desvantagens significativas. O aumento do número de sensores pode levar à criação de softwares mais complicados. A complexidade dos canais de dados também aumenta, e a cadeia de suprimentos e os processos de produção durante a montagem do veículo tornam-se mais complicados.

Além disso, os sensores precisam ser ajustados e seu software correspondente mantido. A calibração adequada também é essencial para garantir que o processo de fusão funcione corretamente.

Apesar das vantagens potenciais de mais sensores, o custo e a complexidade de integrá-los em um sistema não podem ser negligenciados. A decisão da Tesla de diminuir o número de sensores em seus veículos demonstra a compensação entre os benefícios e as desvantagens de incorporar mais sensores.

Verbosidade do código

Crédito: tesla

A verbosidade do código é um problema comum no desenvolvimento de software, onde complexidade e comprimento desnecessários podem tornar o código difícil de compreender e manter. No caso da Tesla, o uso de radares e sensores ultrassônicos aumenta a verbosidade do código, levando a atrasos e ineficiências no processamento.

Para atenuar esse problema, empregou a abordagem de visão computacional para minimizar a verbosidade, aprimorar o desempenho e a confiabilidade do software, além de fornecer uma melhor experiência de usuário para seus clientes.

A filosofia de Elon Musk

Crédito: Tesla/YouTube

Elon Musk, o fundador da Tesla, tem uma filosofia única quando se trata de projetar e fabricar veículos elétricos. A mentalidade "a melhor parte não é parte" é fundamental para sua abordagem, que visa reduzir a complexidade, o custo e o peso sempre que possível. Isso é evidente nos veículos da Tesla, que se caracterizam por seu design minimalista e interface amigável.

Um aspecto dessa filosofia é a decisão de remover os sensores dos veículos da Tesla e não considerar o uso da tecnologia LiDAR. Enquanto alguns concorrentes contam com sensores LiDAR para ajudar seus carros autônomos a ver o mundo ao seu redor, Musk criticou essa abordagem como uma missão tola. Ele também disse que qualquer empresa que dependa desse tipo de tecnologia está condenada. Ele argumenta que o LiDAR é muito caro e que mapear o mundo e mantê-lo atualizado é muito caro. Em vez disso, a Tesla se concentra em sistemas baseados em visão, que ele acredita serem mais eficazes e econômicos.

De acordo com Musk, as estradas são projetadas para serem interpretadas com visão, e a tecnologia da Tesla é otimizada para contar com câmeras e outros sensores baseados em visão para navegar pelo mundo. Isso também significa que os veículos que possuem apenas câmeras também poderão se adaptar às novas condições da estrada melhor do que os sistemas que exigem extensos conjuntos de dados pré-mapeados para funcionar.

No entanto, falando com Eletrek, Musk disse que não está disposto a usar radar, mas acredita que a qualidade atual do radar não está à altura. "Um radar de alta resolução seria melhor do que [Tesla Vision], mas tal radar não existe", disse ele. "Quero dizer, o Vision com radar de alta resolução seria melhor do que o Vision puro." À medida que a tecnologia melhora e o preço cai, podemos ver o radar reintegrado nos carros da Tesla.

Os sensores serão eliminados gradualmente?

Em um Forbes entrevista com o CEO da Zoox (subsidiária de direção autônoma da Amazon), Jesse Levinson, foi discutido o tema da decisão da Tesla de abandonar os sensores em seus carros. Levinson reconheceu que adicionar mais sensores pode ser complexo e barulhento, mas argumentou que os benefícios superam os custos.

Com mais desenvolvimento, a visão por si só pode eventualmente ser suficiente, mas os computadores carecem das mesmas capacidades que o cérebro humano. A Tesla ainda tem muito trabalho pela frente se quiser criar veículos que se dirigem totalmente sem nenhuma intervenção do motorista.