Uma equipa composta por investigadores da Universidade de Washington, da Microsoft e da Assembly AI publicaram um estudo que revela que a Inteligência Artificial (IA) pode fazer para isolar fontes de ruído e criar áreas de silêncio.
Na prática, trata-se de um sistema ligado a auriculares com cancelamento de ruído, com capacidade não apenas de isolar o barulho para o utilizador, como também os intervenientes da conversa dentro desta “bolha”. Esta abrange as pessoas num raio de dois metros, que podem conversar com interferência reduzida do som externo.
Imagine que está numa festa ou uma reunião com muito barulho, mas ao utilizar os auriculares pode ter uma conversa tranquila com outras pessoas que estejam nesse perímetro abrangido pela IA. Todos os ruídos que estejam fora dessa área são suprimidos, permitindo aos intervenientes ouvirem melhor.
Segundo é explicado no estudo publicado na Nature, o headset inteligente tem um sistema baseado em redes neurais em tempo real, que utilizam dados acústicos de até seis microfones integrados nuns auriculares com cancelamento de ruído a correr no equipamento. Este processa parcelas de áudio de 8 ms em 6,36 ms numa unidade de processamento central embutida. A rede neural consegue gerar bolhas de som com um raio programável entre um a dois metros, com capacidade de gerar sinais de output que reduzem a intensidade dos sons fora dessa bolha em 49 dB.
Na experiência feita, sem qualquer contacto com um ambiente ou utilizadores, o sistema consegue focar-se até dois intervenientes dentro da bolha e uma ou duas pessoas a fazer barulho fora do local silencioso.
O estudo aponta ainda que os auriculares com cancelamento de ruído podem suprimir sons em torno do utilizador, mas não conseguem perceber a distância ou selectivamente programar cenários acústicos com base nas distâncias dos intervenientes. E a percepção de distância do sistema da audição humana é igualmente limitada. Apesar de determinar a direcção angular da fonte de áudio, estimar a distância é algo mais desafiante para o ouvido humano. “Essa percepção de distância torna-se ainda mais desafiante com sons não familiares em ambientes desconhecidos”, aponta o documento.
Os investigadores dizem que o sistema poderá ser utilizado noutros ambientes ruidosos, tais como aviões, onde os sons de fora são suprimidos, mas consegue-se ouvir a hospedeira quando se aproxima do utilizador. Estes cenários requerem auriculares com cancelamento de ruído que consigam eliminar todo o barulho e ainda reproduzir de volta os sons dentro da bolha.
De um modo resumido, o estudo diz que os auriculares precisam de corrigir os desafios relacionados com os sistemas de audição e os algoritmos de deep-learning em tempo real. O sistema precisa, primeiro, de identificar todas pessoas a falar dentro da bolha, baseado na distância de quem utiliza o headset e separá-los da bolha com os de fora.
Outro desafio apontado é que o output de som deve ser sincronizado com os sentidos visuais do utilizador. Tal requer redes neurais a correr no equipamento em tempo real, utilizando apenas capacidades computacionais limitadas, para que tenha os requisitos de latência necessários, menos de 20-30 ms. As redes neurais devem ter a capacidade de criar diferentes tamanhos da bolha e suportar a configuração de distâncias.
Por fim, a rede neural deve conseguir adaptar-se a novos utilizadores e mais ambientes sonoros que podem mudar entre salas.
Fonte: Sapo