NEUROLOGÍA SONIDO

Diseñan un sintetizador de canto basado en las redes neuronales

Investigadores de la Universidad Pompeu Fabra (UPF) de Barcelona han diseñado un sintetizador de canto basado en redes neuronales de última generación que es capaz de modelarlo con pocas grabaciones e incorpora un algoritmo que permite crear canto sintético rápidamente.

<p>El cantante estadounidense Dave Grohl, lider de la banda Foo Fighters, en concierto. EFE/Natalia Espina</p>

El cantante estadounidense Dave Grohl, lider de la banda Foo Fighters, en concierto. EFE/Natalia Espina

Hasta ahora, los mejores sintetizadores de canto estaban basados en muestras o bien en modelos estadísticos.

Los primeros se caracterizan por juntar pequeños fragmentos de grabaciones, como si formaran un gran rompecabezas, pero tienen problemas a la hora de generar un canto fluido sin discontinuidades, mientras que los modelos estadísticos se basan en un análisis estadístico de las características sonoras de las grabaciones y generan canto fluido sin discontinuidades, pero tienen problemas para generar detalles y matices.

Jordi Bonada y Merlijn Blaauw, investigadores del Music Information Research Lab (MIRLab) vinculado al Grupo de Investigación en Tecnología Musical (MTG) de la UPF, han desarrollado este nuevo sistema que utiliza redes neuronales de última generación especializadas en señales acústicas.
Este nuevo modelo permite unir mejor los dos aspectos principales de los sintetizadores de canto tradicionales, y es capaz de generar canto fluido con detalles y matices, y sin discontinuidades.

Según ha informado la UPF en un comunicado, rompiendo la tendencia general en redes neuronales de requerir muchas horas de grabación para crear modelos de voz, el nuevo sistema es capaz de modelar canto con pocas grabaciones, 15 minutos en español y 35 en inglés.

Incorpora también un algoritmo que permite crear canto sintético alrededor de 20 veces más rápido que en tiempo real, lo que, según la UPF, lo convierte en un sistema claramente competitivo en términos de calidad sonora y eficiencia.

La evaluación y validación del nuevo sistema se ha realizado a través de un experimento de escucha con 18 oyentes.

Los dos investigadores, Bonada y Blaauw, presentarán el sintetizador en el próximo congreso internacional Interspeech 2017, que se celebrará del 20 al 24 de agosto en Estocolmo (Suecia). EFE
Etiquetado con: , , ,
Publicado en: Ciencia
Hasta ahora, los mejores sintetizadores de canto estaban basados en muestras o bien en modelos estadísticos.

Los primeros se caracterizan por juntar pequeños fragmentos de grabaciones, como si formaran un gran rompecabezas, pero tienen problemas a la hora de generar un canto fluido sin discontinuidades, mientras que los modelos estadísticos se basan en un análisis estadístico de las características sonoras de las grabaciones y generan canto fluido sin discontinuidades, pero tienen problemas para generar detalles y matices.

Jordi Bonada y Merlijn Blaauw, investigadores del Music Information Research Lab (MIRLab) vinculado al Grupo de Investigación en Tecnología Musical (MTG) de la UPF, han desarrollado este nuevo sistema que utiliza redes neuronales de última generación especializadas en señales acústicas.
Este nuevo modelo permite unir mejor los dos aspectos principales de los sintetizadores de canto tradicionales, y es capaz de generar canto fluido con detalles y matices, y sin discontinuidades.

Según ha informado la UPF en un comunicado, rompiendo la tendencia general en redes neuronales de requerir muchas horas de grabación para crear modelos de voz, el nuevo sistema es capaz de modelar canto con pocas grabaciones, 15 minutos en español y 35 en inglés.

Incorpora también un algoritmo que permite crear canto sintético alrededor de 20 veces más rápido que en tiempo real, lo que, según la UPF, lo convierte en un sistema claramente competitivo en términos de calidad sonora y eficiencia.

La evaluación y validación del nuevo sistema se ha realizado a través de un experimento de escucha con 18 oyentes.

Los dos investigadores, Bonada y Blaauw, presentarán el sintetizador en el próximo congreso internacional Interspeech 2017, que se celebrará del 20 al 24 de agosto en Estocolmo (Suecia). EFE

RSS Feed desconocido

Uso de cookies

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continúa navegando, consideramos que acepta su uso. Puede obtener más información, o bien conocer cómo cambiar la configuración, en nuestra política de cookies, pinche el enlace para mayor información.

Login

Registro | Contraseña perdida?