fbpx
INTELIGENCIA ARTIFICIAL

Los expertos apuestan por un marco internacional para la Inteligencia Artificial que respete los derechos fundamentales

Noticia

La Cátedra South EU Google Data Governance ha colaborado con la Sección de Derecho de las Tecnologías de la Información y de la Comunicación de la Real Academia de Jurisprudencia y Legislación en la celebración de la mesa redonda ‘Inteligencia Artificial y derechos fundamentales: ¿Qué regulación?’.

Protección de Datos RGPD-img

La mesa fue presentada por Encarnación Roca, ex vicepresidenta del Tribunal Constitucional y presidenta de la Sección y fue moderada por Mercedes Fuertes, Catedrática de Derecho Administrativo de la Universidad de León. En ella, expertos de la talla de Alejandro Huergo Lorca (catedrático de Derecho Administrativo - Universidad de Oviedo), Miguel Recio Gayo (profesor de Derecho Administrativo de la Universidad CEU San Pablo y abogado en CMS Albiñana & Suárez de Lezo) y José Luis Piñar (coordinador de la Cátedra, catedrático de Derecho Administrativo - Universidad CEU San Pablo y vicepresidente de la Sección) debatieron sobre el impacto de la Inteligencia Artificial en la regulación y en los derechos fundamentales.

El profesor Alejandro Huergo explicó que, en el uso de algoritmos, “no existe una regulación única” ya que “existen distintas capas de regulación”, lo que plantea problemas relacionados con los derechos fundamentales. En este sentido, ahondó en que “los algoritmos y la inteligencia artificial son una metodología para tomar decisiones o para influir en la toma de decisiones en base a una gran cantidad de datos” y puso como ejemplos el saneamiento de aguas o el sector de los seguros.

El profesor Huergo señaló asimismo que “las predicciones dependen de la calidad de los datos” y de sus aplicaciones en contextos jurídicos diferentes. Sobre el uso de la Inteligencia Artificial en el trato a los consumidores, puntualizó que “en la economía de los datos, los gigantes tecnológicos como Google, Facebook, Amazon y Netflix, tratan de predecir el comportamiento de los consumidores y adaptar sus iniciativas o incluso dar un trato diferente a cada consumidor, lo que implica un gran avance”.

Por otro lado, Huergo relató que “la garantía en la defensa de los consumidores no depende solamente de la intervención humana” sino también de que “las decisiones estén jurídicamente fundamentadas”: “La aplicación tiene que estar sometida al control judicial en último término, y debe haber transparencia total”, zanjó.

Protección de datos

Finalmente, en relación al Reglamento General de Protección de Datos, el profesor Huergo destacó que “establece un conjunto de obligaciones que deben concretarse en cada caso” y matizó que el aplicador del Reglamento determinará hasta dónde se exige seguridad y el grado de riesgo admisible.

Miguel Recio, recordó que “el concepto de dato personal es muy amplio” tanto en la normativa europea sobre protección de datos como en su interpretación por el Comité Europeo de Protección de Datos. Las nuevas obligaciones de compartir datos personales que se podrían imponer a los guardianes de acceso pueden tener un importante impacto que es necesario analizar con cautela y también más allá de la protección de datos.

Recio destacó la necesidad de que se atienda a la interrelación entre protección de datos personales, protección de los consumidores y derecho de la competencia. Por ejemplo, imponer a los guardianes de acceso el consentimiento como “base de legitimación del tratamiento” para cumplir con la obligación de compartir datos personales puede ser un problema e implicaría también “un solapamiento” entre la normativa europea aplicable.

También matizó que “podemos estar regulando con normativa europea (en referencia a las propuestas de Ley de Mercados Digitales -LMD o, por sus siglas en inglés, DMA- y a la Ley de Servicios Digitales -LSD o, por sus siglas en inglés, DSA-) el funcionamiento de servicios digitales en otras jurisdicciones e imponiendo obligaciones a esos servicios sin tener en cuenta todas las implicaciones”, lo que podría dar lugar a que sean interpretadas como “posibles barreras comerciales”.

Por último, mencionó el riesgo de que las “pymes europeas se podrían encontrar con que sean rechazadas por algún prestador de servicios establecido en otra jurisdicción” y abogó por un “consenso internacional” que garantice los derechos fundamentales y que evite, al mismo tiempo, barreras comerciales. E insistió sobre la importancia de tratar, en el contexto de la nueva Estrategia Digital de la UE, las incertidumbres jurídicas como puedan ser los solapamientos o vacíos que puedan emerger y lograr la coherencia entre normas.

Regulación de la Inteligencia Artificial

José Luis Piñar, reflexionó sobre los retos que tiene la regulación de la Inteligencia Artificial, sobretodo en lo relativo a la “relación entre Inteligencia Artificial y Derechos Fundamentales” en un contexto de incertidumbre y de interconexión de normas. Para él, “la regulación debe ser capaz de encauzar el desarrollo de la Inteligencia Artificial a la vez que respeta los derechos fundamentales”.

Además, el profesor Piñar recordó que hace poco el Gobierno de España aprobó la Carta de Derechos Digitales y que ahora se ha presentado una Declaración de Derechos y Principios Digitales de la Comisión Europea, aunque lamentó que, pese a ser documentos pioneros, se trate de “una mera declaración” pues “no alcanza a resolver los problemas fundamentales que plantea la Inteligencia Artificial”. A su parecer, “para la regulación de los Derechos Fundamentales no ha lugar a la autorregulación” sino que “es necesario definir el alcance de estos Derechos” ya que “deben respetarse sea cual sea el avance de técnica”.

A continuación, expuso la interdependencia entre “el derecho y la ética” para hacer frente a las cuestiones que tienen que ver con la Inteligencia Artificial y puso de manifiesto “el principio de lealtad” (que recoge el Reglamento General de Protección de Datos), ese “gran olvidado” pese a que cada vez más está recogido en distintas normas para asegurar un uso legítimo de los datos personales”.