Mark Zuckerberg, CEO da Meta, apresentou esta segunda-feira, 22 de Maio, novos modelos de conversação baseados em Inteligência Artificial (IA), os Massively Multilingual Speech (MMS), capazes de converter voz para texto e texto para voz, com suporte de mais de 1100 idiomas, tendo sido treinados com mais de quatro mil.
A Meta referiu que quer tornar mais fácil para as pessoas aceder a informações e usar dispositivos no seu idioma preferido, mesmo que sejam os menos falados no mundo. Por isso, anunciou uma série de modelos de IA que podem ajudá-las a fazer exactamente isso.
Os modelos Massively Multilingual Speech (MMS) passam do suporte de conversão de texto-voz e voz-texto de 100 idiomas para o suporte de mais de 1100. Agora, o sistema é também capaz de identificar mais de quatro mil idiomas falados.
Existem também muitos casos de uso para tecnologia de fala, desde a tecnologia de realidade virtual e aumentada, até serviços de mensagens, que podem ser usados no idioma preferido de uma pessoa e podem entender a voz de todos.
Para ajudar a comunidade de investigação a desenvolver o seu trabalho, a tecnológica vai também partilhar publicamente os modelos e código do projecto. “No futuro, queremos aumentar a capacidade dos MMS para suportar ainda mais línguas, mas também para fazer face aos desafios dos dialectos”, acrescentou a empresa.