ENTREVISTAS

Jaime Delgado (Bird&Bird): “La voz se considera un dato personal y está amparada por el GDPR”



Dirección copiada

El mayor reto en el ámbito de la voz es la protección de la privacidad de los datos personales y la prevención de la proliferación de fake news y deep fakes

Publicado el 22 feb 2024

Rufino Contreras

Redactor Jefe



Jaime Delgado Bird & Bird

Como explica en la entrevista Jaime Delgado, experto legal de la prestigiosa firma Bird&Bird, el principal desafío legal para la IA generativa en el ámbito de la voz es la protección de la privacidad de los datos personales y la prevención de la proliferación de fake news y deep fakes. Existen preocupaciones sobre el uso de bases de datos para entrenar modelos de IA generativa y el uso posterior del contenido proporcionado por los usuarios, lo que puede resultar en la incorporación no autorizada de voces a bases de datos y la creación de contenido engañoso o fraudulento.

¿Cuáles son los principales desafíos legales que presenta la IA generativa en el ámbito de la voz?

Diría que los principales desafíos legales para la IA generativa es la protección del derecho a la privacidad de los datos personales y el riesgo de la proliferación masiva de fake news y Deep fakes.

En primer lugar, aún a día de hoy existen muchas incógnitas sobre las bases de datos empleadas para entrenar los modelos de inteligencia artificial generativa y sobre los usos posteriores que puedan darse al contenido que los usuarios voluntariamente proporcionan a estos sistemas (input) para interactuar con ellos.

Existe el riesgo, por tanto, de que un usuario que proporcione su voz con la intención de generar un contenido concreto (output) vea cómo su voz es incorporada a la base de datos del modelo empleado. Esto implica que la voz del usuario pueda ser usada en futuros vídeos y audios sin su permiso, con finalidades tan dispares como la generación de vídeos inofensivos hasta el fraude (empleando su voz, por ejemplo, para hacer gestiones telefónicas en su nombre) o la creación de vídeos o audios que pretendan crear narrativas ficticias (fake news o deep fakes).

En este sentido, ya se han dado casos de suplantación de identidad mediante clonación de voz realizada con inteligencia artificial, con la que los estafadores son capaces de convencer a los allegados de las víctimas de que la persona cuya voz ha sido clonada les está pidiendo cantidades de dinero para resolver un problema que, en realidad, no existe.

¿Cómo se puede proteger la creatividad en el mundo de la IA?

En numerosos casos, han sido los propios autores e intérpretes los que han tomado medidas una vez han visto sus creaciones e interpretaciones incorporados a outputs generados por inteligencia artificial.

Lo cierto es que estos modelos suelen incorporar obras e interpretaciones obtenidos directamente de internet por medio de técnicas denominadas “web scraping“, por lo que es cierto que subirlas a las redes entraña cierto riesgo en este sentido.

Algunos autores están implementando marcas de agua digitales en sus obras, que permiten rastrear los contenidos en línea hasta un creador concreto, ayudando a los creadores a demostrar que su nombre o imagen se ha utilizado de forma engañosa.

¿Qué derechos tiene una persona sobre su propia voz en el ámbito legal español y europeo?

La voz se considera un dato personal, por lo que aplican todos los derechos establecidos por el Reglamento General de Protección de Datos y su normativa de desarrollo (en España, la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales): derecho de supresión de los datos, de acceso a los mismos, de restricción de su tratamiento, etc.

Asimismo, también puede considerarse que la voz está amparada por los derechos contemplados en la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.

¿Qué papel juega la propiedad intelectual en la creación y uso de voces sintéticas?

En caso de que la voz forme parte de alguna interpretación, canción o lectura de algún contenido protegido mediante propiedad intelectual (narrativa, ensayo, teatro, etc.), su transformación, difusión y reproducción por medio de inteligencia artificial generativa supondrá una vulneración de los derechos de exclusiva de los creadores, artistas e intérpretes involucrados.

Uno de los casos más sonados en este ámbito es el enfado de Bad Bunny ante la generación de un tema mediante inteligencia generativa- que incorporaba sus registros de voz y estilo musical. El intérprete dispone, por tanto, de las medidas de defensa y ejercicio de sus derechos que la normativa de propiedad intelectual pone a su disposición, pudiendo demandar a quien haya generado la controvertida canción.

¿Qué medidas se pueden tomar para evitar el uso indebido de las voces sintéticas?

A nivel de usuario, lo más importante es revisar adecuadamente las políticas de privacidad de las herramientas de IA generativa empleadas, para detectar si se incluye la incorporación de sus inputs a la base de datos del modelo, y el fabricante o el implementador del modelo pretenden atribuirse derechos sobre los mismos.

A nivel europeo, el futuro reglamento de la inteligencia artificial ya incluye medidas de transparencia que imponen a los modelos generativos la obligación de divulgar que sus outputs se han generado mediante IA, de modo que los usuarios puedan tomar decisiones fundadas sobre la veracidad y uso debido de dicho contenido.

¿Qué recomendaciones daría a los profesionales del ámbito legal, editorial y tecnológico en relación con la IA generativa en el ámbito de la voz?

La principal recomendación deriva de la prevención de la implementación de las mencionadas técnicas de “web scraping” en el contenido propio, alojado en internet. Estas técnicas pueden ser prevenidas mediante la implementación de medidas de restricción de acciones, accesos e IP, para asegurar que el tráfico de las páginas web no está siendo destinado a su volcado de manera artificial.

Asimismo, incluir técnicas de rastreo como las mencionadas anteriormente y asegurar que los términos y condiciones de las páginas web en que se alojan las obras a proteger dejan claro que no está autorizado que dichos contenidos sean empleados para entrenar modelos de inteligencia artificial generativa o extraídos, reproducidos o incorporados a ninguna base de datos.

En todo caso, es necesaria una labor de seguimiento proactiva y defensa activa de los derechos afectados, incorporando las medidas que detallamos antes.

Artículos relacionados

Artículo 1 de 5