El 11 de mayo, la Comisión de Mercado Interior y la Comisión de Libertades Civiles del Parlamento Europeo adoptaron un proyecto de mandato de negociación, que incluye varias enmiendas a la propuesta de la Comisión de la ‘Ley (en realidad, Reglamento) de Inteligencia Artificial’, que todavía debe ser aprobado por el Pleno del Parlamento durante la sesión del 12 al 15 de junio.
El texto de compromiso (en inglés) presenta algunas novedades respecto de la propuesta de la Comisión Europea, entre las que destaca la ampliación de la lista de prohibiciones para incluir usos intrusivos y discriminatorios de sistemas de IA; especialmente, de sistemas de identificación biométrica, sistemas policiales predictivos o sistemas de reconocimiento de emociones, entre otros.
Pero en este artículo quiero centrarme en un tema que está muy de actualidad: las novedades en la regulación de las Inteligencias Artificiales generativas (como el chat GPT, de textos, y otras de imágenes e, incluso, de música y voces), que, si bien estaban incluidas, de forma genérica, en la Propuesta de la Comisión de abril de 2021, han experimentado un auténtico ‘boom’ desde finales de 2022.
La Propuesta de la Comisión (21.4.2021)
En la Propuesta de la Comisión ya el Artículo 1. Objeto, decía que “El presente Reglamento establece: d) normas armonizadas de transparencia aplicables a (…) los sistemas de IA usados para generar o manipular imágenes, archivos de audio o vídeos”. Y en el Artículo 52. Obligaciones de transparencia para determinados sistemas de IA, se establecía en su apartado 3 lo siguiente:
“Los usuarios de un sistema de IA que genere o manipule contenido de imagen, sonido o vídeo que se asemeje notablemente a personas, objetos, lugares u otras entidades o sucesos existentes, y que pueda inducir erróneamente a una persona a pensar que son auténticos o verídicos (ultrafalsificación), harán público que el contenido ha sido generado de forma artificial o manipulado”.
Pero con esta salvedad: “No obstante, el primer párrafo no se aplicará cuando el uso… resulte necesario para el ejercicio del derecho a la libertad de expresión y el derecho a la libertad de las artes y de las ciencias, garantizados por la Carta de los Derechos Fundamentales de la Unión Europea y supeditados a unas garantías adecuadas para los derechos y libertades de terceros”.
Observaciones preliminares
Curiosamente, la Propuesta de la Comisión no citaba los sistemas de IA que se pueden usar para generar textos (como el chat GPT), quizá porque no pensaba tanto en los problemas que podían plantear éstos para la Propiedad Intelectual, sino en los problemas de los ‘deepfakes’ para la Libertad de Información veraz o para el derecho al honor, a la intimidad y a la propia imagen.
Tampoco se entiende muy bien que se exceptúe la obligación de transparencia (de aclarar que el contenido ha sido generado o manipulado de forma artificial) “cuando resulte ‘necesario’ para el ejercicio del derecho a la libertad de expresión y el derecho a la libertad de las artes y de las ciencias”, por más que se supedite a unas “garantías ‘adecuadas’ para los derechos y libertades de terceros”.
No se entiende muy bien cuándo puede ser ‘necesario’ ocultar que un contenido ha sido generado o manipulado de forma artificial para el ejercicio de la libertad de expresión o la libertad de creación artística o científica, ni cuáles serían las ‘garantías adecuadas’ para proteger los derechos y libertades de terceros, a las que se supedita tal ocultación y que, en todo caso, habría que especificar.
El Texto de compromiso (11.5.2023)
Dos años después de la Propuesta de la Comisión y tras el ‘boom’ experimentado por las IAs generativas, se han aprobado algunas enmiendas en las Comisiones de Mercado Interior y Libertades Civiles del Parlamento Europeo, llegándose a un Texto de compromiso, que incluye un nuevo Artículo 28 b: Obligaciones del proveedor de un modelo básico (o ‘modelo fundacional’):
“4. Los proveedores de modelos básicos (o ‘modelos fundacionales’) utilizados en sistemas de IA destinados específicamente a generar, con diferentes niveles de autonomía, contenido complejo como textos, imágenes, audios o videos («IA generativa«) y los proveedores que especializan un modelo básico en un sistema de IA generativa, deberán además:
a) cumplir con las obligaciones de transparencia descritas en el Artículo 52,
b) capacitar y, en su caso, diseñar y desarrollar el modelo básico de manera que se aseguren las garantías adecuadas contra la generación de contenidos que infrinjan el Derecho de la Unión de conformidad con el estado de la técnica generalmente reconocido y sin perjuicio de los derechos fundamentales, incluida la libertad de expresión,
c) sin perjuicio de la legislación nacional o de la Unión sobre derechos de autor, documentar y poner a disposición del público un resumen suficientemente detallado del uso para entrenamiento de los ‘datos’ protegidos por la ley de derechos de autor”.
Conclusiones provisionales
- En cuanto a las obligaciones de transparencia, como se suele decir en un juicio, ‘damos por reproducidas’ las observaciones preliminares que hicimos más arriba al artículo 52 de la Propuesta de la Comisión.
- Respecto a “capacitar y, en su caso, diseñar y desarrollar un modelo básico de manera que se aseguren las garantías adecuadas contra la generación de contenidos ilegales”, simplemente eso es algo imposible.
- Sobre “documentar y publicar un resumen suficientemente detallado del uso para entrenamiento de los ‘datos’ protegidos por la ley de derechos de autor”, parece harto complicado, pues pueden haberse utilizado millones de ‘datos’.
- Por otro lado, convendría corregir un error grave en la redacción del artículo, porque la ‘ley de derechos de autor’ (o Directiva de propiedad intelectual) no protege datos, sino obras, utilizadas para entrenar las IAs generativas.
- No parece, por tanto, que el proyecto de Reglamento europeo de Inteligencia Artificial vaya a regular, de forma eficaz, las IAs generativas. Aunque todavía queda mucha tramitación -y negociación- por delante para mejorar el texto.
Este artículo ha sido publicado en el diario Demócrata.es
ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación