Menu
Acessibilidade

Live Caption: o killer app de acessibilidade no Android Q do Google

“Desde que comprei meu primeiro Mac Classic em 1988, sou um cidadão razoavelmente feliz do mundo Apple. E, quando a Apple apresentou o iPhone, me joguei nele. Nunca cogitei seriamente trocar meu iPhone por um smartphone Android — até agora. Isso porque o Google acaba de anunciar que seu novo sistema operacional Android Q virá com o aplicativo Live Caption, que fará legendas automaticamente, e outras características de acessibilidade.

 

LEGENDA: Um vídeo do Google mostra como o Live Caption ajuda as pessoas com perda auditiva a negar o mundo do áudio e do vídeo digitais. O vídeo tem closed captions. Se você está usando um smartphone, ative as closed captions clicando nos três pontinhos.

O Live Caption cria transcrições instantâneas, em tempo real, para vídeos, podcasts, e para mensagens de áudio para qualquer aplicativo que rode no Android Q. Assim que a linguagem é detectada, as legendas aparecem, mesmo que o aplicativo não tenha suporte próprio para legendas. Ele cria legendas até mesmo para vídeos e áudios gravados pelo usuário.

Se o Live Caption funcionar tão bem quanto demonstrado ontem na conferência anual Google I/O para desenvolvedores, ele pode ser o exato tipo de aplicativo indispensável que vai atrair usuários aguerridos de iPhone, como eu, a considerar mudar de plataforma.

Como disse o Google num post a respeito do Android Q:

Para 466 milhões de pessoas surdas e com dificuldades para ouvir no mundo inteiro, legendas são mais do que uma conveniência — elas tornam o conteúdo mais acessível. Trabalhamos em proximidade com a Comunidade Surda para desenvolver uma capacidade que melhorasse o acesso a mídias digitais. Basta bater o dedo na tela que o Live Caption automaticamente cria legendas para os conteúdos que estiverem transmitindo áudio no seu telefone. O Live Caption funciona com vídeos, com podcasts, e com mensagens de áudio, em qualquer aplicativo — incluindo coisas que você mesmo grave. Assim que a linguagem é detectada, aparecem as legendas, sem necessidade de WiFi, de rede de dados, e sem que qualquer áudio ou legenda saia do seu telefone.

Anúncio do Google Android Q

Legendas sempre que você precisar, onde você precisar

Com meus dois implantes cocleares, passo muito bem em conversas ao vivo e, na maioria dos casos, no telefone. Porém, ainda tenho muita dificuldade para entender a fala na TV. E gravações de áudio e vídeo tocados no computador e no telefone podem ser ainda mais problemáticos. Eu sempre uso closed captions quando vejo TV, mas, para outros tipos de mídia, muitas vezes não há solução adequada.

Quando assisto a vídeos em meu telefone ou no computador, não gosto de colocar o volume alto demais por medo de incomodar os outros. E dispositivos que tenham caixas de som inferiores podem tornar a linguagem quase ininteligível até mesmo para muitas pessoas com boa audição.

O Live Caption, junto com outros aplicativos que existem graças à nova tecnologia Live Transcribe do Google, promete mudar tudo isso com legendas sempre que você precisar, onde você precisar.

LEGENDA: Sundar Pichai, CEO do Google, demonstra o Live Caption em seu keynote (aos 46m50s do vídeo). O vídeo tem closed captions. Se você estiver usando um smartphone, ative as legendas clicando nos três pontinhos.

Inovações em machine learning permitem o Live Caption e o Live Relay

O Live Caption converte a fala em texto em tempo real. Utilizando inovações em machine learning, ele oferece transcrições imediatas de vídeos de YouTube, podcasts, chats em vídeo, chamadas do Skype, e gravações de áudio e vídeo criadas pelo usuário. Todo o processamento acontece no smartphone Android do usuário.

O Live Caption funciona em background, sem interromper outros aplicativos. E, como ele não precisa mandar dados para a nuvem para processar, ele elimina atrasos de conexões sem fio muitas vezes problemáticas.

Para chamadas telefônicas normais, há também o novo Live Relay. Trata-se de algo que vai salvar a vida de pessoas surdas ou que têm perda auditiva severa, e para aqueles que têm dificuldades para ser entendidos ao telefone.

O Live Relay permite que o telefone ouça e fale pelos usuários enquanto eles digitam. Como as respostas são imediatas e oferecem sugestões de texto em tempo real, os usuários conseguem digitar rápido o bastante para fazer uma ligação telefônica normal.

LEGENDA: O Live Relay, do Google, converte digitação em fala e fala em texto, permitindo ligações telefônicas sem falar ou ouvir. Este vídeo tem closed captions. Se você está usando um smartphone, ative as legendas clicando nos três pontinhos.

Live Transcribe: tecnologia para vários aplicativos

O Live Caption e o Live Relay são aplicativos práticos que utilizam a tecnologia Live Transcribe que o Google anunciou em fevereiro. Uma equipe liderada por Dimitri Kanevsky, pesquisador surdo do Google, colaborou com estudantes e professores surdos na Universidade Gallaudet para desenvolver uma nova tecnologia de transcrição em tempo real de voz para texto.

O Live Transcribe é uma tecnologia baseada em inteligência artifical que usa machine learning para aprimorar constantemente a conversão de fala para texto. Ela está sendo integrada a aplicativos para computadores pessoais e a smartphones, e oferece suporte a microfones externos em fones com fio ou com Bluetooth, e para microfones USB.

Ela estará disponível em até 70 línguas e dialetos. Além do novo sistema operacional Android Q, o Google diz que ela estará disponível para todos os smartphones que rodem o Android 5.0 ou versões posteriores.

O projeto Euphonia, do Google, ajuda as pessoas com impedimentos de fala

Além de ajudar as pessoas com perda auditiva, o Google disse que introduzirá tecnologias para ajudar as pessoas com impedimentos de fala a comunicar-se mais claramente. Seu Projeto Euphonia usa inteligência artificial para melhorar as capacidades dos computadores de entender vários padrões de fala, como uma fala que tenha impedimentos.

O software do Google transforma amostras de voz gravada num espectograma, que é uma representação visual do som. O computador então usa espectogramas transcritos comuns para “treinar” o sistema a reconhecer melhor esse tipo menos comum de fala.

O Google fez uma parceria com a organização sem fins lucrativos ALS Therapy Development Institute (ALS TDI) e com a ALS Residence Initiative (ALSRI) para gravar as vozes de pessoas que têm esclerose lateral amiotrófica, um transtorno neuro-degenerativo que pode resultar na incapacidade de falar e de se mover.

Após ficar sabendo das necessidades comunicativas das pessoas com ALS, o Google otimizou os algoritmos baseados em inteligência artificial para que smartphones e computadores possam transcrever de maneira mais confiável palavras faladas por pessoas com dificuldades de fala.

LEGENDA: Cientistas do Google explicam como o Projeto Euphonia vai melhorar a acessibilidade e as comunicações para pessoas com impedimentos de fala. Este vídeo tem closed captions. Se você está usando um smartphone, ative as closed captions clicando nos três pontinhos.

Apaixonando-se de novo

Não me entendam mal. Eu ainda amo meu iPhone, meu iPad, meu MacBook Pro, meu iMac com sua tela de Retina, e todas as outras coisas com o iOS e com o MacOS. Eu até ainda guardo meu Mac Classic das antigas.

Porém, temo que, com o app Live Caption do Google, eu acabe me apaixonando ainda um pouco mais com o admirável mundo novo acessível do Android.

Update: o Pixel 4 lançado com o Live Caption

Hoje, o Google lançou tanto o Live Caption quanto os novos smartphones Pixel 4 e Pixel 4L. Veja esse novo vídeo mostrando o Live Caption no Pixel 4.

LEGENDA: O Google publicou o vídeo com a legenda: “Se tem áudio, agora pode ter legenda. Vídeos, podcasts, mensagens de áudio, em qualquer app — e até aquilo que você mesmo gravar.

  • Por David Copithorne. David Copithorne bloga há muito tempo a respeito de perda auditiva e é diretor de conteúdo de HearingTracker. Em 2002, ele sofreu uma perda auditiva súbita e severa. Desde então, ele se dedica a compartilhar as valiosas informações que obteve em sua jornada.
  • Artigo publicado originalmente em Hearing Tracker
  •  Tradução de Pedro Sette-Câmara

About Author

Paula Pfeifer é uma surda que ouve com dois implantes cocleares. Ela é autora dos livros Crônicas da Surdez, Novas Crônicas da Surdez e Saia do Armário da Surdez e lidera a maior comunidade digital do Brasil de pessoas com perda auditiva que são usuárias de próteses auditivas.

No Comments

    Leave a Reply