Google: “Melhorar a acessibilidade para pessoas com deficiência traz inovação para todos”

Formação de uma equipe central de acesso para desenvolver um aplicativo para pessoas com deficiência visual, auditiva e de linguagem

O “G” do Google

[EPA 연합뉴스 자료사진 재판매 및 DB 금지]

(San Francisco = Yonhap News) Repórter Jeong Seong-ho = “Se você fizer um produto que seja útil para usuários com deficiências, também será útil para todos os usuários, porque todos nós (até certo ponto) temos deficiências. Melhorando a acessibilidade traz inovação.”

Eve Anderson, chefe da equipe de Acesso Central do Google, uma empresa de mecanismos de busca, disse isso no evento de imprensa “Show and Explain Accessibility”, realizado no campus do Google em Mountain View, Califórnia, no dia 6 (horário local).

Essa equipe atua como a atividade principal para aumentar a acessibilidade para pessoas com deficiência em vários produtos e serviços do Google.

“A acessibilidade tem sido uma das missões do Google desde o início”, disse Anderson.

Como parte desse esforço, ele disse, o Google está criando equipes inclusivas e ambientes inclusivos que incluem pessoas com deficiências reais que desenvolvem esses produtos que melhoram a acessibilidade.

Ele disse que a função de preenchimento automático ao inserir texto era originalmente uma função para deficientes, mas agora todo mundo a usa, e ele ouviu dizer que melhorar a acessibilidade para deficientes ajuda todos os usuários.

Essa equipe frequentemente colabora com várias equipes de desenvolvimento de produtos localizadas em toda a organização do Google para garantir que os esforços do produto para melhorar a acessibilidade sejam incluídos. Para este fim, a pesquisa básica é conduzida para ajudar a compreender as necessidades das pessoas com deficiência e estabelecer padrões.

Anderson acrescentou que cria ferramentas para testes, colabora com organizações externas e treina funcionários do Google em todo o mundo, de engenheiros a pesquisadores e designers, para estarem cientes dos problemas de acessibilidade.

READ  Guia de compra de impressoras e multifuncionais para estudantes universitários para o novo semestre

Como resultado desses esforços, um dos produtos desenvolvidos pela Equipe Central de Acessibilidade foi o aplicativo “Pesquisa” (app). Este aplicativo para deficientes visuais ou deficientes visuais lê e lê em voz alta o texto impresso em documentos, livros, embalagens de produtos, etc.

Equipe da equipe de acesso central do Google
Equipe da equipe de acesso central do Google

[구글 제공. 재판매 및 DB 금지]

Basta instalar este aplicativo em seu smartphone Android, ligar a câmera e colocá-lo em um livro ou papel de embrulho. Para que o objeto a ser lido seja bem capturado na tela, também é fornecida orientação por voz como “Você precisa mover a câmera mais para a direita” ou “Mover mais longe”.

Scott Adams, da equipe, disse que já fez uma cirurgia no olho no passado, então pode perder a visão um dia.

Atualmente, o aplicativo pode ler 23 idiomas e três tipos de notas: dólar americano, taxa de trânsito e rupia indiana.

Também desenvolvemos o Alto-falante e o Live Typing como aplicativos para surdos ou deficientes auditivos. Sound Amplifier é um aplicativo que combina um microfone de smartphone com tecnologia de inteligência artificial para amplificar muito a voz das pessoas ao seu redor enquanto reduz o ruído.

“É uma versão econômica de um aparelho auditivo instalado em um smartphone”, disse Sagar Sabla, que desenvolveu o aplicativo.

O Ditado em Tempo Real é um aplicativo que converte sons de fala diretamente em letras. Atualmente 80 idiomas são suportados. Ele reconhece não apenas os sons da fala humana, mas também 100 sons não verbais, como assobios, latidos de cães, choro de crianças, sirenes, alarmes de incêndio e vento.

Esta equipe está atualmente trabalhando no desenvolvimento de um aplicativo chamado ‘Project Related’ que pode ajudar pessoas com deficiências de fala a se comunicarem bem com outras pessoas.

READ  “Overwatch 2” Temporada 9 “Stirring Controversy”.. O equilíbrio está tão bom quanto está?

O modelo de aprendizado de máquina aprende palavras faladas por pessoas que gaguejam levemente, ou pessoas que têm dificuldade em falar por causa de acidente vascular cerebral, dano cerebral, síndrome de Down ou doença de Lou Gehrig (ELA) e as converte em texto ou áudio em tempo real.

Quando uma pessoa com deficiência de fala registra 500 frases de amostra, a IA cria um modelo de reconhecimento especializado para os padrões de fala de cada indivíduo e os entende.

O projeto envolve um funcionário chamado Aubrey Lee, que desenvolveu uma deficiência na fala devido a uma distrofia muscular real. Ele disse que depois de usar esse aplicativo, seus colegas ao seu redor puderam entender melhor o que ele queria dizer, e assim a comunicação ficou mais fácil, e o número de colegas que entenderam mesmo sem o aplicativo aumentou.

“Não é perfeito, mas está ficando cada vez melhor”, disse Bob MacDonald, que trabalha no projeto.

sisyphe@yna.co.kr

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *