Propaganda

Imagine um mundo onde as barreiras entre surdos e ouvintes se foram. Um mundo em que as conversas fluem fluentemente entre aqueles que ouvem som e aqueles que não ouvem. Esse mundo poderia se tornar real em um futuro próximo?

Em junho, um grupo de estudantes de marketing da Berghs School of Communication desenvolveu um vídeo conceitual para um produto fictício chamado Google Gesture. O produto incluía uma pulseira de pulso e um aplicativo móvel que usava eletromiografia para ler os movimentos musculares de uma pessoa surda fazendo linguagem de sinais. O sistema passou esses sinais para o aplicativo, que os traduziu em uma voz digitalizada e falaria pela pessoa.

Assistir ao vídeo de marketing falso foi bastante emocionante. Tão emocionante, de fato, que os principais sites de tecnologia, como Mashable, Slashgear e outros, anunciaram o produto como real e, posteriormente, tiveram que recontar a reclamação e pedir desculpas pelo erro. Foi um erro estranho, considerando que realmente

é um produto do Google chamado Google Gesture Search [Já não está disponível], que permite desenhar gestos na tela do seu celular para pesquisar contatos, favoritos e muito mais.

Independentemente disso, o conceito dos estudantes de Berghs apresentou uma idéia notável, levando à pergunta - seria possível criar um aplicativo como esse de verdade?

É possível traduzir a linguagem de sinais?

A dissecação do conceito de marketing em um nível técnico revela que a tecnologia que usa a eletromiografia (EMG) para "detectar" a linguagem de sinais não é realmente tão absurda. Já em 2009, pesquisadores da Universidade de Washington foram capazes de utilizar vários sensores EMG para decodificar movimentos musculares e convertê-los em gestos reais de braço e mão.

Os pesquisadores construíram uma "biblioteca de reconhecimento de gestos" completa, identificando quais sinais musculares representavam qual gesto. A pesquisa prova que esse tipo de tecnologia está disponível e pronta para ser implementada no tipo de aplicativo que os estudantes de Bergh imaginavam.

Então, alguém já conseguiu isso? Caso contrário, por que ninguém está fazendo isso e fornecendo aos surdos e deficientes auditivos a capacidade de se comunicar com qualquer pessoa no mundo através da linguagem de sinais?

O futuro da tecnologia de tradução em tempo real

A verdade é que alguém está de fato trabalhando nessa tecnologia de tradução em linguagem de sinais em tempo real.

linguagem de sinais1

Existe uma empresa chamada SpeechTrans [URL quebrado removido], que tem aumentado os limites de tecnologias de tradução Esqueça o Google Translate: 3 maneiras de obter uma tradução rápida e precisaSe você planeja se candidatar a um emprego ou um apartamento no exterior ou está procurando traduzir sua página da Web, precisa fazer as coisas direito, mesmo com um idioma estrangeiro. consulte Mais informação nos últimos anos. A SpeechTrans trabalha com parceiros de tecnologia para produzir alguns dos serviços de tradução de idiomas em tempo real mais notáveis ​​do mercado atualmente. São serviços que traduzem bate-papo de texto em bate-papo de texto, voz em texto e até mesmo tradução de idiomas de voz em voz em tempo real através de aplicativos para celular e desktop.

Para explorar se uma tecnologia de linguagem de sinais pode se tornar realidade em um futuro próximo, o MakeUseOf sentou-se com o CEO da SpeechTrans, John Frei, e o COO Yan Auerbach para discutir esse novo e inovador tecnologia de tradução Entenda qualquer idioma com esses 5 sites de tradução de idiomasA tecnologia fez do mundo um lugar menor. Pessoas de todas as partes deste planeta usam muitas das mesmas ferramentas, visitam alguns dos mesmos sites e misturam-se em várias salas de bate-papo online. O... consulte Mais informação e quão longe no futuro pode ser.

Desenvolvendo um aplicativo de tradução de linguagem de sinais

MUO: É possível fazer o tipo de linguagem de sinais para tradução de fala que os alunos de Berghs retrataram neste vídeo conceitual do Google Gesture?

John Frei - CEO da SpeechTrans

John: Eu diria que a tecnologia está disponível para desenvolver isso. No momento, estamos trabalhando com a Microsoft e a Intel na exploração de algumas das tecnologias lançadas em termos de hardware e software. Prevemos a capacidade de usar essa tecnologia para reconhecer a linguagem de sinais e depois convertê-la em saída de fala e áudio.

MUO: Você está trabalhando ativamente no desenvolvimento dessa tecnologia agora?

Yan: Portanto, havia um cliente que estava usando nosso software e achou maravilhoso modificá-lo para que pessoas com deficiência auditiva possam usá-lo para faça chamadas telefônicas a partir de nosso aplicativo, para se comunicar sem a necessidade de linguagem de sinais quando estiver pessoalmente ou sem a necessidade de um serviço do tipo TTY para telefone chamadas. Desenvolvemos esse produto e, com financiamento da Microsoft e da Intel, lançamos o SpeechTrans para deficientes auditivos no Windows 8.1, o que elimina a necessidade de linguagem de sinais.

MUO: Como o aplicativo "pessoalmente" funciona?

Yan: Existe um modo de escuta e um modo de entrada. Portanto, quando alguém está falando com você, você coloca o modo de escuta e digita o que está dizendo na tela em texto. Então, quando você responde, digita e depois fala em voz alta o que digita. Com o telefone, você apenas disca o número de telefone de qualquer pessoa e, quando ele atende, ele se torna uma mensagem instantânea. O que quer que eles falem, você recebe uma mensagem instantânea. Então, o que você digitar será falado em voz alta pelo telefone. Essa é a primeira fase.

Tradução de linguagem de sinais do futuro próximo

MUO: Quais tecnologias as pessoas podem esperar ver no futuro próximo? Qual é a próxima fase?

John: Prevemos - para alguém que só tem a capacidade de usar a linguagem de sinais - poder fazer isso na frente de um dispositivo, como telefone, PC ou laptop. A Intel tem um novo sistema de câmera, e a Microsoft também se dá com o Kinect, que faz reconhecimento de gestos.

MUO: Como isso é melhor do que o conceito de braçadeira apresentado pelos estudantes de Berghs?

linguagem de sinais3

Yan: Basicamente, o nosso vai funcionar de uma maneira que não exige que você coloque nada em seu braço. Ele reconhecerá 64 pontos na sua mão. Estamos usando a versão beta da câmera RealSense da Intel. Portanto, não apenas seremos capazes de reconhecer toda a linguagem de sinais e vários dialetos diferentes da linguagem de sinais, como também também é capaz de reconhecer emoções, expressões faciais e outras pequenas nuances e convertê-las em palavras faladas como bem.

Isso não exige que você use luvas ou qualquer coisa. Estamos focados nesse mercado especificamente porque gostamos de ajudar as pessoas em geral. Não queremos apenas ajudar pessoas que querem falar em muitos idiomas diferentes, mas também queremos ajudar pessoas que não sabem falar em nenhum idioma. A tecnologia existe e não há razão para que sua qualidade de vida seja diferente da nossa.

John: É um conceito viável. É apenas uma entrada e saída diferentes. Algumas das conversas que tivemos com a Microsoft sobre algumas das futuras tecnologias são onde alguém poderia realmente implantar um microchip no pescoço e ele lê diretamente as ondas cerebrais padrões. Portanto, se você estiver ajudando pessoas que não conseguem se comunicar, veríamos algo assim como uma implantação da fase três.

No ano passado, houve um grupo de estudantes que lançou um protótipo funcional de uma luva que estava conectada a um computador. Os gestos que você fez com a luva seriam então reconhecidos e convertidos em linguagem de sinais. Portanto, eles já têm capacidade com a tecnologia atual.

Nossa visão é que realmente não queremos criar acessórios como as braçadeiras que você deve usar. Deve ser natural e de fluxo livre para eles [pessoas que fazem a linguagem de sinais] fazerem isso na frente da câmera de vídeo. 90% do que as pessoas dizem em comunicação está realmente na linguagem corporal. Ao acessar o reconhecimento facial, gestos e emoções, poderemos usar esses dados como bem, para garantir que a tradução e o que eles estão tentando transmitir sejam expressos corretamente Formato.

MUO: A Intel está dentro dos 5 anos em que possui essa tecnologia de reconhecimento de linguagem de sinais?

John: A Intel definitivamente possui muitos recursos disponíveis. A tecnologia e o software deles estão surgindo a um ritmo em que podemos fazer isso acontecer rapidamente.

MUO: Você tem um prazo para quando espera colocar essa tecnologia no mercado?

John: Para a linguagem de sinais, são cerca de 12 a 18 meses.

MUO: Mais alguém por aí tem algo assim para tradução de linguagem de sinais?

John: Vi um vídeo do YouTube da IBM fazendo um protótipo em que alguém fazia linguagem de sinais, mas era uma prova de conceito e tinha apenas três ou quatro palavras que reconhecia. Temos mais de quinhentas mil palavras com as quais planejamos lançá-lo, e isso levará a um nível totalmente diferente.

Conclusão

Embora a visão que os alunos da Berghs tenham sonhado possa não se tornar o aplicativo de tradução de linguagem de sinais do futuro, isso não significa que esse conceito não ocorra. O que o trabalho realizado na SpeechTran, Intel e Microsoft prova é que a tradução em linguagem de sinais certamente se tornará uma tecnologia real em apenas alguns anos. Provavelmente, não envolverá braçadeiras complicadas, mas nada além de uma câmera de vídeo especial e um aplicativo móvel.

Através da magia do gesto e do reconhecimento facial, este aplicativo de tradução de linguagem de sinais do futuro promete revolucionar completamente as comunicações interpessoais para centenas de milhares de deficientes auditivos 5 Melhores Recursos para Usuários de Mac e Apple com Deficiência consulte Mais informação ou pessoas com deficiência auditiva em todo o mundo.

Ryan é bacharel em Engenharia Elétrica. Ele trabalhou 13 anos em engenharia de automação, 5 anos em TI e agora é engenheiro de aplicativos. Um ex-editor-chefe do MakeUseOf, ele falou em conferências nacionais sobre visualização de dados e foi apresentado na TV e rádio nacional.