conecte-se conosco


Tecnologia

Aplicativos para pessoas com deficiência: como a inteligência artificial pode melhorar a vida de milhões de brasileiros

Publicado

em

“A inteligência artificial revolucionou não só a minha vida como as dos meus alunos.” É essa frase que Luciane Molina, professora universitária e de tecnologia assistiva na Universidade de Taubaté, em São Paulo, usa para definir a relação que tem com as iniciativas que surgiram para melhorar a autonomia das pessoas com deficiência por meio de algoritmos.

No Brasil, de acordo com o Censo de 2010 do Instituto Brasileiro de Geografia e Estatística (IBGE), existem 45,6 milhões de pessoas com deficiência no país (23,9% da população à época).

Luciane é cega e faz uso de diversos aplicativos no smartphone para reconhecer imagens, rótulos de produtos, cédulas de dinheiro e acessar materiais impressos.

Com essas soluções de acessibilidade, ela já pôde descobrir a senha do Wi-Fi sozinha em casa e também quando, por exemplo, seu computador estava passando por uma atualização. Isso porque os atuais softwares de leitura de tela para cegos não têm acesso a telas como a de atualização do Windows.

A professora também apresenta os recursos tecnológicos a seus alunos. “A cada novidade que eu apresento, a vida deles se torna mais fácil”, diz.

Recentemente, uma aluna de Luciane ganhou mais autonomia com um aplicativo leitor de cédulas de real. “Ela tinha muita vontade de ficar sozinha em casa e conseguir pagar a marmita sem a ajuda de outras pessoas”, conta.

Grande parte dessas soluções foi desenvolvida por meio de sistemas que “aprendem” com um alto volume de dados. A partir dessas informações, eles são capazes de identificar padrões e tomar decisões com o mínimo de intervenção humana. É o chamado “aprendizado de máquina”.

Mas a transcrição de fala para texto em tempo real e os recursos de visão computacional são só alguns exemplos de aplicações de inteligência artificial.

Mulher e sua projeção computadorizada

“Quanto mais usamos [os recursos de inteligência artificial para pessoas com deficiência], melhores eles ficam”, diz a professora. Entre os aplicativos que ela usa estão o TapTapSee, para ler rótulos de produtos, e o Seeing AI, para organizar documentos e diplomas em pastas e reconhecer os textos das fotos que recebe por email ou redes sociais como o Facebook.

A professora até desenvolveu um suporte de madeira para apoiar os livros e materiais impressos para conseguir fotografar com o ângulo ideal e com uma boa iluminação.

O Seeing AI é uma iniciativa de inteligência artificial da Microsoft para pessoas cegas e com baixa visão. O app usa visão computacional e redes neurais para identificar objetos, cores, textos, cenas e até mesmo características físicas e expressões faciais de uma pessoa. Por enquanto, só está disponível para iOS, o sistema operacional utilizado pelos dispositivos da Apple.

Aporte milionário

O aplicativo é só uma das ações de acessibilidade desenvolvidas pela Microsoft. Em maio de 2018, o CEO da empresa, Satya Nadella, anunciou um investimento de US$ 25 milhões (cerca de R$ 93 milhões), ao longo de cinco anos, em projetos de inteligência artificial para pessoas com deficiência.

Desenvolvedores, ONGs, acadêmicos, pesquisadores e inventores podem submeter projetos de acessibilidade baseados em inteligência artificial para o programa AI For Accessibility até o dia 1º de fevereiro de 2019. Os aprovados receberão um aporte da companhia para levar os projetos e ideias a outro patamar. As solicitações são aceitas de modo contínuo e para se inscrever é necessário preencher um formulário.

Conexão abstrata de linhas e esferas

O Facebook é outra gigante da tecnologia que investe em projetos de inteligência artificial para pessoas com deficiência. A rede social usa algoritmos para gerar uma descrição de imagem automática para cegos. O recurso não é perfeito e tampouco substitui uma descrição humana, mas colabora para um ambiente mais acessível.

Existem vários métodos de aprendizagem de máquina. O que eles possuem em comum é que todos precisam de pessoas para ensiná-los a aprender uma determinada tarefa, e, assim, fazer o que se deseja. No Facebook, os sistemas de reconhecimento de imagem são supervisionados por pessoas que olham as fotos e informam ao sistema o que há nela.

De acordo com Matthew King, engenheiro do Facebook especialista em acessibilidade, embora a inteligência artificial esteja em desenvolvimento há décadas, os sistemas que temos ainda são novos. “Apesar de eles estarem melhorando rapidamente nos últimos anos, eles ainda têm muitas limitações”, diz. Mesmo assim, representam um grande salto para a plena participação das pessoas cegas no ambiente online, segundo o especialista.

A professora universitária e de tecnologia assistiva, Luciane Molina, concorda. Ela conta que antes não se interessava tanto pela rede social pela quantidade de posts com imagens com os quais não podia interagir, por não saber do que se tratavam.

Certa vez, uma amiga dela postou uma foto e escreveu na legenda: “Olha minha nova pulseira”. Mas, na verdade, a imagem se referia ao gesso colocado no braço da amiga após um machucado. Luciane só percebeu tal fato lendo todos os comentários.

Ela reconhece que as descrições são básicas e não substituem uma audiodescrição, mas valoriza o recurso. “O fato de a inteligência artificial do Facebook ter agregado esses recursos de reconhecimento de imagem foi um ganho incrível na acessibilidade”, diz.

Recentemente, a empresa também liberou a funcionalidade de descrições automáticas e de escrever uma descrição manual também no Instagram. A rede social, no entanto, é criticada por algumas pessoas cegas por não ter uma boa usabilidade. Ao ser questionado pela reportagem da BBC Brasil, King, o engenheiro do Facebook, disse que é um processo contínuo de melhora.

“Adicionar descrições de fotos foi um passo muito importante para o Instagram, porque as fotos são o tipo mais popular de conteúdo da rede social. Mas estamos planejando muito mais.”

Novas possibilidades para a comunicação alternativa

O reconhecimento de fala e a transcrição da linguagem humana em tempo real é um dos recursos mais tradicionais da inteligência artificial e com grande utilidade para pessoas com determinados tipos de deficiência. Alex Garcia é surdocego e foi o primeiro brasileiro com essa deficiência a cursar uma faculdade.

Ele tem 1% de visão e não escuta. A surdocegueira é definida pela não compensação dos sentidos. Existem aqueles que conseguem ouvir e ver com muita dificuldade.

Hoje, Alex se dedica a dar palestras e a gerenciar a Associação Gaúcha de Pais e Amigos dos Surdocegos e Multideficientes (Agapasm). Um dos aplicativos que ele utiliza se chama Comunicador Táctil Once (CTO), uma ferramenta para comunicação de surdocegos, com diversos recursos.

Entre elas está o ditado. Embora a principal forma de comunicação se dê quando as pessoas escrevem na sua mão, há vezes em que isso não é possível. Nesse caso, Alex aproxima o microfone do celular à boca da pessoa, para que ela possa falar. Em seguida, ele consegue ter o texto na tela em letras ampliadas por meio do app.

“O celular me ajuda quando a pessoa não consegue escrever. O aplicativo, portanto, é uma valiosa alternativa, porque me dá mais tranquilidade. Caso um meio não funcione, o outro vai dar certo”, relata. Ele diz que ser surdocego implica uma situação social de extrema delicadeza e vulnerabilidade.

Embora os recursos de inteligência artificial estejam extremamente difundidos nos smartphones, também existem iniciativas para trazer essa realidade para o mundo físico. É o caso do Wheelie, um dispositivo desenvolvido por uma equipe de brasileiros que promete comandar cadeiras de roda por meio da inteligência artificial. A tecnologia atualmente é desenvolvida em parceria com a Intel.

O equipamento é testado nos Estados Unidos por 60 pessoas com deficiência. De acordo com Paulo Pinheiro, CEO da Hoobox Robotics, empresa que desenvolve essa tecnologia, o próximo passo é entrar no mercado chinês, em 2019. No Brasil, a perspectiva é que o produto só chegue em 2020.

O Orcam My Eyes é outro dispositivo para aumentar a autonomia das pessoas com deficiência. Ele é capaz de ler com precisão documentos impressos e está disponível em todas as 54 bibliotecas municipais da cidade de São Paulo.

Abstração de rosto computadorizado

Evolução das tecnologias assistivas

De acordo com Lúcia Miyake, especialista em pesquisa e tecnologia assistiva, as tecnologias de apoio para pessoas com deficiência sempre existiram e praticamente acompanharam as revoluções industriais. “Houve um grande avanço quando a era de máquinas a vapor passou para a era de eletricidade, na qual foram surgindo equipamentos eletrônicos. Os exemplo são a cadeira de rodas elétrica e o gravador.”

Mas a revolução mesmo veio com a possibilidade de programar os equipamentos eletrônicos. “Juntamente, veio a importância de dados e informações, que considero o começo da tecnologia artificial”, diz. Agora, estamos entrando em uma nova fase, chamada de indústria 4.0. Nela, os dados estão na nuvem e os comandos são enviados à distância.

“O mais interessante é o usuário confiar no auxílio sem conhecer de onde vem os comandos. Neste aspecto, a pessoa com deficiência poderá trabalhar ou estudar remotamente com todo acesso das informações, além de deixar os comandos dos dispositivos eletrônicos programados (preparar um café, abrir a cortina etc.)”, explica Miyake.

As principais limitações do setor estão na falta de pesquisadores e recursos ou investimentos na área de pesquisa em tecnologia assistiva. Além disso, se o produto com inteligência artificial for exclusivo para uso de pessoas com deficiência, o custo será mais alto, devido à baixa demanda para manufatura.

Apesar disso, ela é otimista em relação ao futuro. “A tecnologia assistiva está sendo cada vez mais conhecida e é uma área de boa aplicabilidade da inteligência artificial, além do design universal”, diz. Segundo matéria publicada pela Revista Forbes, o mercado de dispositivos para pessoas com deficiência e idosos foi avaliado em US$ 14 bilhões em 2015 e deve superar US$ 26 bilhões até 2024. Os dados são da Coherent Market Insights.

 

Esta matéria foi escrita por Gustavo Torniero para o BBC News Brasil.

publicidade
Clique para comentar

Deixe seu comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

nove − seis =

Tecnologia

INTELIGÊNCIA ARTIFICIAL AGORA PODE SABER SE VOCÊ VAI MORRER PREMATURAMENTE, ENTENDA

Publicado

em

Cientistas treinaram um sistema de inteligência artificial (IA) para avaliar quase uma década de dados relacionados à saúde de meio milhão de pessoas no Reino Unido. Após a inserção dos dados, a IA foi incumbida de calcular se os indivíduos correm o risco de ter mortes prematuras devido à doenças crônicas.

O experimento com a IA foi relatado em um novo estudo recentemente e publicado na revista científica PLOS ONE. As previsões de mortes prematuras feitas pela inteligência artificial se mostraram “significativamente mais precisas” do que previsões realizadas por um modelo que não utilizou o aprendizado feito pela máquina. O estudo foi liderado Stephen Weng, professor assistente de epidemiologia e com dados da Universidade de Nottingham no Reino Unido.

Os testes

Dois tipos de inteligência artificiais foram testados pelos cientistas para avaliar a probabilidade de morte prematura dos indivíduos. Uma IA de “aprendizagem profunda”, a qual as redes de processamento de informações em camadas ajudam o computador a aprender com exemplos. A outra é uma IA mais simples. Esta é chamada de “floresta aleatória”, tem como mecanismo uma combinação de vários modelos para considerar possíveis resultados.

Depois dos testes, os pesquisadores compararam as conclusões dos dois modelos de IA com os resultados de um algoritmo padrão, conhecido como Modelo de Cox. Com os três modelos, foram avaliados os dados de um banco de dados de livre acesso de dados genéticos, físicos e de saúde chamado UK Biobank.

Essa banco de dados reúne dados de mais de 500 mil pessoas, coletados entre 2006 e 2016. Nesse período, cerca de 14.500 dos participantes morreram. As principais causas dessas mortes foram câncer, doenças cardíacas e doenças respiratórias.

As variáveis

Os três modelos utilizados pelos cientistas determinaram que fatores como idade, sexo, histórico de tabagismo e diagnósticos precoces de câncer foram as principais variáveis para avaliar a probabilidade de morte prematura de uma pessoa. Entretanto, em outros fatores-chave, os modelos divergiram, segundo os pesquisadores.

O modelo de Cox se baseou em fatores como etnicidade e atividade física, já os modelos de IA não. O modelo floresta aleatória deu maior ênfase na porcentagem de gordura corporal, mais precisamente na circunferência da cintura, quantidade de frutas e legumes que as pessoas ingeriam e o tom de suas peles, segundo o estudo.

Já o modelo de aprendizagem profunda, os principais fatores incluíam exposição à riscos relacionados ao trabalho e à poluição do ar, ingestão de álcool e o uso de alguns tipos de medicações.

Quando os dados foram processados, o algoritmo de aprendizagem profunda foi capaz de fornecer previsões mais precisas. Essa IA conseguiu identificar corretamente 76% dos indivíduos que morreram durante o estudo. A IA floresta aleatória previu corretamente 64% das mortes  prematuras. Já o modelo de Cox apenas 44%.

Esta não é a primeira vez que IA são utilizadas para auxiliar os cientistas na previsão e disgnósticos de saúde. Em 2017, uma outra equipe de pesquisadores utilizou uma IA para aprender a detectar sinais prematuros da doença de Alzheimer.

A máquina avaliou varreduras cerebrais para conseguir identificar se uma pessoa teria probabilidade de desenvolver Alzheimer. Os resultados foram surpreendentes. A IA conseguiu prever com cerca de 84% de precisão, o estudo publicado na revista Neurobiology of Aging.

 

via: fatosdesconhecidos

Continue lendo

Mais Lidas da Semana