"Mi voz me pertenece, no tienen derecho a hacer esto". Françoise Cadol denuncia a Aspyr por uso con IA no autorizado

En España, han surgido tensiones similares con grandes compañías como Microsoft, que con Doom The Dark Ages y World of Warcraft habrían intentado usar grabaciones de actores para entrenar modelos de inteligencia artificial sin su consentimiento.

12 de octubre de 2025 a las 18:25h
la voz de un actor no se puede proteger
la voz de un actor no se puede proteger

La inteligencia artificial está transformando la industria del entretenimiento a una velocidad que la legislación apenas puede seguir. En el mundo del doblaje, donde la voz es el instrumento principal de trabajo, las nuevas tecnologías plantean desafíos éticos y legales sin precedentes. Recientemente, Françoise Cadol, actriz que prestó su voz a Lara Croft en las versiones francesas de Tomb Raider IV a VI, denunció a la compañía Aspyr por utilizar su voz sin permiso en nuevos desarrollos. Su reacción fue contundente

"Es patético. Mi voz me pertenece, no tienen derecho a hacer esto"

Este caso no es aislado. En España, han surgido tensiones similares con grandes compañías como Microsoft, que en títulos como Doom The Dark Ages y World of Warcraft habrían intentado usar grabaciones de actores para entrenar modelos de inteligencia artificial sin su consentimiento expreso. La polémica pone sobre la mesa una cuestión esencial si la voz de un intérprete puede ser replicada, modificada o incluso clonada sin su autorización, ¿dónde quedan sus derechos laborales y su integridad artística?

El marco legal actual en España, el Estatuto del Artista, data de 1985, una época en la que ni siquiera existían las televisiones privadas. Hoy, con la digitalización masiva y los avances en IA, resulta obsoleto. Su actualización está en marcha, y aunque fuentes del sector reconocen que el texto "avanza en la ruta correcta", también admiten que el acuerdo entre actores y productoras es difícil de alcanzar.

Las empresas temen que una regulación demasiado estricta pueda desincentivar la producción internacional en España, mientras que los artistas defienden que su voz y su interpretación no son recursos ilimitados ni desechables. El uso de nuestra voz y de nuestras interpretaciones para generar imitaciones mediante IA no forma parte de nuestra relación laboral, afirma Raúl Lara, presidente del Sindicato de Artistas de Doblaje de Madrid (Adoma).

El problema viene cuando las patronales… dicen que ya usan la IA en todos sus procesos, y que para seguir produciendo necesitan una serie de excepciones que, al final, acaban desvirtuando lo conseguido

Lara y su sindicato exigen dos medidas claras que no se entrenen modelos de inteligencia artificial con la voz de intérpretes sin su consentimiento y que todos los datos se eliminen al finalizar la producción. Consideran que la actualización del Estatuto del Artista debe ser más garantista con los artistas, quienes, según señalan, son la parte más vulnerable en esta relación laboral.

Desde Adoma también lanzan un mensaje ético en toda interpretación tiene que haber un actor o una actriz detrás. Recuerdan que el hecho de que la tecnología permita imitar una voz no significa que el resultado sea equivalente ni que sea correcto desde un punto de vista creativo o moral. Temen que, sin límites claros, la industria priorice el ahorro de costes sobre la calidad y la autenticidad artística.

La Unión de Actores y Actrices insiste en que el Consejo de Ministros apruebe el nuevo Estatuto del Artista antes de que finalice 2025. Ahora mismo trabajamos con un marco legal de hace 40 años, alertan, y añaden que los cambios actuales en la industria exigen una respuesta urgente.

Desde el punto de vista jurídico, la protección de la voz humana no es sencilla. Violeta Arnaiz, experta en propiedad intelectual y IA, explica que si bien se puede proteger una interpretación específica como la forma en que un actor canta una canción o recita un monólogo no se puede proteger la voz en abstracto. Sin embargo, el uso no autorizado de una voz puede vulnerar el derecho a la imagen, especialmente si se emplea en contextos perjudiciales o engañosos.

El Reglamento Europeo de Inteligencia Artificial (RIA) introduce un requisito clave los contenidos generados por IA que imitan voces reales deben estar claramente etiquetados como tales. Esta medida, según las abogadas Sara Gutiérrez e Isabella Penélope, refuerza la posibilidad de denunciar usos no transparentes o realizados sin consentimiento.

Pero las lagunas persisten. Iban Díez, especialista en derecho tecnológico, advierte que cuando una voz generada por IA es una mezcla indistinguible de varias fuentes, la frontera entre lo lícito y lo ilícito se vuelve difusa. En tales casos, muchas empresas podrían argumentar que el resultado es "original" y, por tanto, no sujeto a reclamaciones.

Solo si la voz puede reconocerse y asociarse al actor original, los artistas podrían denunciar un uso ilícito, incluso aunque no sea una copia idéntica

Díez insiste en que es fundamental que la futura normativa establezca criterios nítidos sobre qué se entiende por clonación o imitación. Las abogadas Gutiérrez y Penélope coinciden en ausencia de regulación específica, estas decisiones seguirán dependiendo de la interpretación judicial, lo que genera inseguridad jurídica para todos los actores involucrados.

Arnaiz también recuerda que la legislación española permite anular el consentimiento si la voz se utiliza en contextos extremos, como escenas de violencia o para expresar opiniones contrarias a las del artista. En esos casos, el profesional tiene derecho a una indemnización por daños y perjuicios. Pero este mecanismo, advierte, podría entorpecer un sistema de licencias como el que se plantea.

El debate está lejos de resolverse. Entre la necesidad de innovar y la obligación de proteger a los creadores, el camino pasa por una regulación equilibrada, clara y humana. Sin ella, el progreso tecnológico podría convertirse en una amenaza para quienes dan vida a las voces que escuchamos todos los días.

Sobre el autor
Redacción
Ver biografía