IA que imita la voz de cualquiera es la nueva arma de las 'fake news'

Jessica Crincoli
Responsable de comunicacion Nextcity Labs

Aunque los creadores del sistema intentan que su creación no se use para la manipulación informativa, cualquiera podría crear una versión similar para difundir mentiras cada vez más creíbles. Y es que esta tecnología ofrece una especie de disfraz vocal que permite hablar con la voz de otra persona

Este revestimiento de voz” es una obra de Modulate.ai, una compañía de Massachusetts (EE.UU.). La empresa utiliza aprendizaje automático para copiar, modelar y manipular las propiedades de la voz de una forma nueva y poderosa.


El sistema permite adoptar cualquier edad, género o tono que desee, todo en tiempo real. También permite apropiarse de la voz de una celebridad. E incluso podría mantener una larga conversación telefónica con la voz de Trump si quisiera.


Aunque la tecnología de modificación de voz no es perfecta, a medida que recibe más datos de voz mejora extraordinariamente. También muestra cómo los avances en el aprendizaje automático están comenzando a alterar rápidamente la realidad digital.


Modulate utiliza las redes generativas antagónicas (GAN) para capturar y modelar las propiedades de audio de una señal de voz. Las GAN enfrentan dos redes neuronales entre sí en una batalla para capturar y reproducir las propiedades de un conjunto de datos de una manera convincente.


Los investigadores de IA están utilizando las GAN y otras técnicas para manipular escenas de vídeos e incluso inventar caras falsas increíblemente realistas pero que no existen


El cofundador y CEO, Mike Pappas, afirma que, con los datos suficientes, podría generar un disfraz con la voz de cualquiera, de allí que Modulate tenga una voz de demostración de Barack Obama en su página web. Pero añade que la compañía no pondrá a disposición la voz de nadie sin el permiso del propietario. También insiste en que el engaño no es el objetivo principal. Pappas afirma: "No se trata de una tecnología creada para imitar a las personas. Está hecha para ofrecer nuevas oportunidades".


El objetivo de Modulate está en los juegos online como Fornite o Call of Duty, en los que los jugadores pueden hablar con extraños a través de un micrófono. La tecnología podría mejorar el juego, pero también puede abrir la puerta al abuso y al acoso.


El CEO detalla: "Cuando queremos interactuar online y tener experiencias realmente profundas, las voces son cruciales. Pero algunas personas no están dispuestas a poner su voz real ahí afuera. En algunos casos, les gustaría permanecer en el anonimato. En otros casos, les preocupa revelar su edad o género por si acaban siendo acosados".


Modulate es consciente de que su tecnología puede ser utilizada de forma indebida. Por eso asegura que buscará garantías de que cualquier cliente que copie la voz de alguien tenga permiso de esa persona. También ha desarrollado una tecnología de marca de audio que podría utilizarse para detectar una voz copiada. Este sistema emitiría una alerta si alguien está utilizando una voz falsa en una llamada, por ejemplo.