Ultimamente, tem havido tanto burburinho em torno do LiDAR nos novos dispositivos da Apple que é fácil esquecer que a realidade aumentada móvel pode funcionar de qualquer outra maneira. Mas pode e faz, especialmente com as ferramentas ToF alcançando novos patamares nos telefones Samsung.
Seja você um desenvolvedor, procurando um novo dispositivo no mercado ou apenas curioso, vale a pena dedicar algum tempo para desempacotar essas siglas e aprender os meandros do sensor de profundidade em telefones celulares.
O que é ToF?
ToF é a abreviatura de Time of Flight.
Tecnicamente, ToF se refere ao uso da velocidade da luz (ou mesmo do som) para determinar a distância. Ele mede o tempo que leva para a luz (ou som) deixar o dispositivo, ricochetear em um objeto ou avião, e retornar ao dispositivo, tudo dividido por dois revela a distância do dispositivo ao objeto ou plano.
Então, a relação é que todo LiDAR é um tipo de Time of Fight, mas nem todo Time of Flight é LiDAR. Para manter as coisas simples, quando falamos sobre "ToF", queremos dizer medição de distância óptica, sem incluir LiDAR.
Portanto, se o LiDAR e o não-LiDAR ToF óptico usam luz para determinação de distância e mapeamento 3D, como eles são diferentes?
O que é LiDAR?
LiDAR é a abreviação de Detecção de luz e alcance. Essa tecnologia usa um laser, ou uma grade de lasers, como fonte de luz na equação detalhada acima.
Procurando um novo smartphone? Quer os melhores recursos? Então, você pode querer considerar um smartphone com LiDAR.
Uma única leitura de LiDAR pode ser usada para medir coisas como a largura de uma sala, mas várias leituras de LiDAR podem ser usadas para criar "nuvens de pontos". Eles podem ser usados para criar modelos tridimensionais de objetos ou mapas topográficos de todo áreas.
Embora o LiDAR possa ser novo para dispositivos móveis, a tecnologia em si já existe há um bom tempo. Em ambientes não móveis, o LiDAR é usado para fazer tudo, desde mapear ambientes subaquáticos até descobrir sítios arqueológicos.
Como o LiDAR e o ToF são diferentes?
A diferença funcional entre o LiDAR e outras formas de ToF é que o LiDAR usa lasers pulsados para construir uma nuvem de pontos, que é então usada para construir um mapa ou imagem 3D. Os aplicativos ToF criam "mapas de profundidade" com base na detecção de luz, geralmente por meio de uma câmera RGB padrão.
A vantagem do ToF sobre o LiDAR é que o ToF requer equipamentos menos especializados, de modo que pode ser usado com dispositivos menores e mais baratos. O benefício do LiDAR vem da facilidade com que um computador pode ler uma nuvem de pontos em comparação com um mapa de profundidade.
O API de profundidade que o Google criou para dispositivos Android funciona melhor em dispositivos habilitados para ToF e funciona criando mapas de profundidade e reconhecendo o recurso " pontos. "Esses pontos característicos, muitas vezes barreiras entre diferentes intensidades de luz, são então usados para identificar diferentes planos no ambiente. Isso basicamente cria uma nuvem de pontos de resolução mais baixa.
Como o ToF e o LiDAR funcionam com o Mobile AR
Mapas de profundidade e nuvens de pontos são legais e, para algumas pessoas e aplicativos, são suficientes. No entanto, para a maioria dos aplicativos de AR, esses dados devem ser contextualizados. Tanto o ToF quanto o LiDAR fazem isso trabalhando em conjunto com outros sensores no dispositivo móvel. Especificamente, essas plataformas precisam entender a orientação e o movimento do seu telefone.
Entender a localização do dispositivo em um ambiente mapeado é chamado de Localização e Mapeamento Simultâneo ou "SLaM". SLaM é usado para outras aplicações, como veículos autônomos, mas é mais necessário que os aplicativos de RA para dispositivos móveis coloquem objetos digitais no ambiente físico.
Isso é particularmente verdadeiro para experiências que permanecem no lugar quando o usuário não está interagindo com elas e para colocar objetos digitais que parecem estar atrás de pessoas e objetos físicos.
Outro fator importante na colocação de objetos digitais em aplicativos baseados em LiDAR e ToF envolve "âncoras". Âncoras são pontos digitais no mundo físico para os quais os objetos digitais são "em anexo."
Em aplicativos de escala mundial, como o Pokémon Go, isso é feito por meio de um processo separado denominado "geotagging". No entanto, em aplicativos AR baseados em dispositivos móveis, o objeto digital é ancorado a pontos em uma nuvem de pontos LiDAR ou um dos pontos de recurso em um mapa de profundidade.
O LiDAR é melhor do que o ToF?
A rigor, o LiDAR é mais rápido e preciso do que o tempo de voo. No entanto, isso se torna mais significativo com aplicativos mais avançados tecnologicamente.
Por exemplo, o ToF e a API de profundidade do Google têm dificuldade em entender planos grandes e de baixa textura, como paredes brancas. Isso pode dificultar que os aplicativos que usam esse método posicionem objetos digitais com precisão em algumas superfícies do mundo físico. Os aplicativos que usam LiDAR são menos propensos a ter esse problema.
No entanto, os aplicativos que envolvem ambientes maiores ou mais variados texturalmente são improváveis de ter esse problema. Além disso, a maioria dos aplicativos de AR de consumidor baseados em dispositivos móveis envolvem o uso de um Filtro AR no rosto ou corpo do usuário—Um aplicativo que provavelmente não apresentará problemas devido a grandes superfícies não texturizadas.
Por que a Apple e o Google usam sensores de profundidade diferentes?
Ao lançar seus dispositivos compatíveis com LiDAR, maçã disse que eles incluíram os sensores, bem como outros hardwares para "abrir mais fluxos de trabalho profissionais e oferecer suporte a aplicativos profissionais de foto e vídeo". O lançamento também é chamado de compatível com LiDAR iPad Pro "o melhor dispositivo do mundo para realidade aumentada" e elogiou os aplicativos de medição da Apple.
O Google não deu explicações tão diretas sobre por que sua API Depth e a nova linha de dispositivos de suporte não usam LiDAR. Além de contornar o LiDAR, mantendo os dispositivos Android mais leves e acessíveis, há também uma grande vantagem de acessibilidade.
Como o Android funciona em dispositivos móveis feitos por várias empresas, o uso do LiDAR favoreceria os modelos compatíveis com o LiDAR em detrimento de todos os outros. Além disso, como requer apenas uma câmera padrão, a API Depth é compatível com versões anteriores de mais dispositivos.
Na verdade, a API de profundidade do Google é independente de dispositivos, o que significa que os desenvolvedores que usam Plataforma de criação de experiência de AR do Google pode desenvolver experiências que funcionam em dispositivos Apple também.
Você já explorou a detecção de profundidade?
Este artigo se concentrou principalmente em LiDAR e ToF em experiências de RA baseadas em dispositivos móveis. Em grande parte, isso ocorre porque essas experiências mais complexas exigem mais explicações. É também porque essas experiências são as mais divertidas e promissoras.
No entanto, abordagens de detecção de profundidade como essas são a base de muitas experiências e ferramentas mais simples e práticas que você pode usar todos os dias sem se preocupar muito. Esperançosamente, a leitura de ToF e LiDAR proporcionará a você um pouco mais de apreciação por esses aplicativos.
Precisa de uma régua para iPhone para medir objetos do dia a dia? Esses aplicativos de ferramentas do iPhone permitem medir distâncias, comprimentos e muito mais.
- Tecnologia Explicada
- Android
- Iphone
- Realidade aumentada
- Realidade virtual
- Câmera de smartphone
Jon Jaehnig é um escritor / editor freelance interessado em tecnologias exponenciais. Jon é bacharel em Comunicação Científica e Técnica com especialização em Jornalismo pela Michigan Technological University.
Assine a nossa newsletter
Junte-se ao nosso boletim informativo para dicas de tecnologia, análises, e-books grátis e ofertas exclusivas!
Mais um passo…!
Confirme o seu endereço de e-mail no e-mail que acabamos de enviar.