Com o apoio financeiro do COMPETE 2020, o projeto IVLinG teve como objetivo criar um intérprete virtual que permita uma comunicação bidirecional em tempo real. Foram utilizadas tecnologias avançadas de visão por computador que possibilitaram o reconhecimento automático de gestos, juntamente com técnicas de computação gráfica que deram vida a um avatar 3D intuitivo.
Entrevistamos Tiago Oliveira, responsável do projeto IVLinG: Interprete Virtual de Língua Gestual que nos falou do percurso deste projeto cofinanciado pelo COMPETE 2020 e do seu sucesso na ambição de alcançar maior inclusão social e autonomia na comunidade surda.
Pretendeu-se o desenvolvimento de uma plataforma digital para interpretação virtual e bidirecional de LG (Língua Gestual) que permita agilizar a comunicação entre a população surda e a comunidade ouvinte.
O projeto foi desenvolvido pela empresa First Solutions, pelo CCG – Centro de Computação Gráfica e IPVC – Instituto Politécnico de Viana do Castelo), contando com o apoio da FPAS – Federação Portuguesa das Associações de Surdos e APS – Associação Portuguesa de Surdos.
1. Entrevista
Tiago Oliveira | Responsável do projeto IVLinG
1.1 Como nasceu o projeto IVLinG .: Interprete Virtual de Língua Gestual? Quais foram as principais motivações?
O facto do Grupo First ter uma área de negócio direcionada para ajudar a comunidade surda no seu dia-a-dia, permite-nos conhecer bem os desafios que diariamente esta comunidade enfrenta para fazer as coisas mais simples do seu quotidiano, seja ser atendido numa farmácia, num supermercado, ligar para a empresa de eletricidade, dialogar no trabalho ou na escola com os seus colegas, etc.
Na verdade, estas pessoas estão quase sempre dependentes de terceiros para os ajudar a fazer esse diálogo, sejam eles um amigo, familiar ou então um intérprete contratado para tal.
Partindo dessa realidade, a motivação principal do projeto foi no sentido de criar tecnologia que permitisse à pessoa surda alguma autonomia e que através de tecnologia no seu telemóvel conseguisse dialogar com ouvintes, presencialmente ou à distância.
1.2. O que considera ser o elemento diferenciador do projeto?
Na altura do desenho conceptual da ideia, conseguimos perceber que já existia alguma tecnologia experimental para interpretar gestos, ainda que dependente de dispositivos específicos para tal (uso de luvas) e também para traduzir textos para a língua gestual. Porém, estas abordagens experimentais tratavam individualmente cada canal da comunicação. Neste caso, o que nos propúnhamos a criar era uma tecnologia que permitisse comunicação bidirecional entre uma pessoa surda e uma ouvinte. Ou seja, endereçar no mesmo projeto a interpretação de língua gestual para a Língua Portuguesa, e da Língua Portuguesa para a Língua Gestual Portuguesa. Isto tudo, devidamente integrado numa APP que permitisse um diálogo em tempo real entre um ouvinte e um surdo. Basicamente uma abordagem que permitisse à pessoa surda ter esta “ferramenta” disponível do seu telemóvel.
1.3. Quais foram os principais desafios com que se depararam no desenvolvimento do projeto?
Os desafios foram vários, a começar pelas técnicas que seriam usadas para a criação do avatar que permitisse efetivamente falar LGP, até às abordagens e técnicas que permitissem que um surdo falasse em LGP e esses gestos fossem efetivamente interpretados pela tecnologia e traduzidos para Língua Portuguesa. Foram testadas muitas abordagens, com muitos avanços e também com alguns retrocessos, mas julgamos que o que foi alcançado, é uma excelente plataforma tecnológica que permitirá que os respetivos dicionários continuem a crescer no futuro.
O maior desafio será agora conseguir popular ambos os dicionários para os dois canais de comunicação (interpretação de gestos e expressão através de LGP), com uma dimensão que permita que os diálogos sejam cada vez mais abrangentes e efetivos para as necessidades da comunidade surda e ouvinte.
1.4. De entre os resultados alcançados, há algum que gostariam de destacar?
O facto de termos conseguido criar a tecnologia que permite que uma pessoa surda, sem a utilização de qualquer dispositivo adicional, como por exemplo luvas, consiga ver os seus gestos interpretados e traduzidos para língua portuguesa é um excelente indicador que é perfeitamente possível que a médio prazo haja tecnologia para ajudar a vida desta comunidade.
Por outro lado, entendemos que a tecnologia e abordagens adotadas para a criação do Avatar também devem ser destacadas, dado que o resultado final, nomeadamente o grafismo alcançado e expressão linguística e corporal do avatar foram avaliados de forma muito positiva por alguns surdos, o que é um ótimo indicador do resultado alcançado.
2. Apoio do COMPETE 2020
O projeto IVLinG: Interprete Virtual de Língua Gestual foi cofinanciado pelo COMPETE 2020, no âmbito do Sistema de Incentivos à Investigação e Desenvolvimento Empresarial – na vertente em copromoção – envolvendo um investimento elegível de cerca de 843 mil euros, o que resultou num incentivo FEDER de 591 mil euros.
Comissão Europeia apresenta plano ambicioso para acelerar a transição para veículos elétricos. Este plano visa reduzir emissões de carbono e promover a sustentabilidade no setor dos transportes.
Exoesqueleto da Pafil, cofinanciado pelo COMPETE 2020, veio para melhorar as condições de trabalho das costureiras e vence na categoria Smart dos iTechStyle Awards.
António Ricardo Oliveira, membro do Conselho de Administração da OLI, partilha os bastidores da estratégia inovadora que impulsionou o sucesso da empresa, líder em patentes na Europa e maior produtora de autoclismos do Sul da Europa.