INTELIGENCIA ARTIFICIAL

Trustworthiness

Tribuna
IA y su reglamento novedades_img

Las recientes novedades normativas y de estándares internacionales en materia de Inteligencia Artificial (IA) han llevado consigo la aparición de nuevos conceptos y obligaciones que a día de hoy todavía requieren de un debate doctrinal sobre la mejor forma de resolverse. Uno de estos aspectos hace referencia a la capacidad de acreditar que los sistemas de IA son confiables y, por lo tanto, permiten cumplir con los análisis y exigencias tanto de la ISO 42001 como del AI Act. En este texto se busca exponer qué es este concepto, por qué elementos se compone y, sobre todo, dónde puede tener más incidencia para cumplir con los textos mencionados.

 

El Reglamento europeo destinado a regular la Inteligencia Artificial titulado como Artificial Intelligence Act, al fin ha llegado. Y, con él, han llegado una serie de conceptos, requisitos y obligaciones con los que todos aquellos que debamos garantizar el cumplimiento de la misma deberemos empezar a familiarizarnos si queremos entender las reglas del juego para el uso, la comercialización y la creación de sistemas de Inteligencia Artificial (IA). Sin embargo, si hay un aspecto que destaca por encima del resto en esta nueva regulación europea para la IA es la necesidad de que los sistemas que incorporen este tipo de tecnologías sean “trustworthy” o, traducido al castellano, “confiables”.

Tal y como propugna el artículo 1 del último texto aprobado del Reglamento europeo sobre IA[1], la Unión Europea busca impulsar el uso/desarrollo de sistemas de IA que puedan reputarse como antropocéntricos (entendidas como “centradas en el ser humano”) y como confiables (esto es, “dignas de confianza por parte de los seres humanos”). En ambos casos, elementos que se vinculan a otras características que deben tener estos sistemas como son la “seguridad”, la “ética”, o la “coherencia”.

Sin embargo, como sucede en muchas otras ocasiones, el texto que actualmente conocemos no define en ningún momento qué debemos entender exactamente por “trustworthy”/confiable. Por el contrario, lo que se nos indica en su preámbulo séptimo es que para conocer qué significa este concepto debemos recurrir a las Ethics guidelines for trustworthy AI emitidas por el grupo independiente de expertos de alto nivel sobre inteligencia artificial creado por la Comisión Europea en junio de 2018 (conocido por sus siglas en inglés por “AI HLEG”)[2]. Según este documento, publicado el 8 de abril de 2019, la fiabilidad de la inteligencia artificial se sustenta sobre la base de tres aspectos:

  1. La licitud, entendiendo que durante todo su ciclo de vida la IA debe garantizar el respeto de todas las leyes y reglamentos aplicables;
  2. La ética, en el sentido de asegurar el cumplimiento de los principios y valores éticos;
  3. La robustez, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales.

Tres elementos, sin duda alguna, cruciales para entender el concepto que busca garantizar el Reglamento europeo pero de difícil entendimiento desde un punto de vista práctico. Para ello,lo mejor que podemos hacer es recurrir al estándar internacional ISO/IEC 22989:2023[3]  el cual desglosa la establece que la trustworthiness de un sistema de IA en nueve características:

  • Robustez, entendida como la capacidad de un sistema de IA de mantener su nivel de rendimiento, según lo previsto por sus desarrolladores, bajo cualquier circunstancia.
  • Fiabilidad, como la capacidad de un sistema de IA para realizar las funciones requeridas bajo condiciones establecidas durante un período de tiempo específico.
  • Resiliencia, referido a la capacidad del sistema de IA para recuperar la condición operativa rápidamente tras sufrir un incidente,
  • Controlabilidad, basada en la posibilidad de que un agente externo a la misma pueda intervenir en su funcionamiento para configurar determinados componentes.
  • Explicabilidad, capacidad según la cual los factores importantes que influyen en las decisiones del sistema de IA puedan expresarse de una manera que los humanos puedan entender.
  • Previsibilidad, entendida como la capacidad del sistema de IA de ofrecer suposiciones confiables sobre el resultado a las partes interesadas.
  • Transparencia, en tanto debe ser posible informar a las partes interesadas sobre los detalles del sistema de IA.
  • Sesgos y equidad, entendida como la posibilidad de que diferentes casos requieran un tratamiento diferente por parte del sistema de IA.
  • Verificación y validación, necesidad de confirmación de que un sistema se creó correctamente y cumple con los requisitos especificados.

En resumen, para poder acreditar que nuestro sistema de IA cumple con uno de los principales pilares de la normativa sobre IA deberemos poder acreditar que el mismo reúne el conjunto de elementos característicos de la ISO/IEC 22989:2023 junto con la necesidad de licitud de las directrices del AI HLEG. Una acreditación que devendrá obligatoria cuando, bajo el ámbito de aplicación del Reglamento, una organización deba decidir sobre la legalidad del sistema de IA que quiera desarrollar, comercializar o utilizar y que se pueda clasificar como de alto riesgo. Todo ello porque sobre la base de la Evaluación del impacto en los derechos fundamentales de los sistemas de IA fijada en el artículo 27.

Una obligación normativa que también aparece dentro del estándar ISO/IEC 42001:2023[4], que sin duda alguna tendrá un gran peso a la hora de acreditar confianza en la gestión de sistemas de IA en una organización. Y es que según este estándar internacional, toda organización que quiera proporcionar o utilizar productos o servicios que utilicen sistemas de IA, deberá llevar a cabo un doble análisis: uno organizacional y otro del sistema de IA.

En el primer caso, se buscará acreditar que la organización ha evaluado la probabilidad y la consecuencia de la materialización de aquellos riesgos que le impidan lograr sus objetivos corporativos. Por el contrario, en el segundo caso, el denominado AI system impact assessment (Evaluación del impacto del sistema de IA), lo que se buscará es que la organización evalúe cuáles son los potenciales riesgos para los individuos, grupos o la sociedad en general por el hecho de desarrollar, subministrar o usar sistemas de inteligencia artificial. Un aspecto, este último, que podría relacionarse directamente con los objetivos del Reglamento europeo y su búsqueda de la “fiabilidad” en los sistemas de Inteligencia Artificial.

Como se puede ver muchos son los aspectos que debemos empezar a comprender para la correcta aplicación de la normativa europea sobre Inteligencia Artificial y, sobre todo, para valorar la incorporación en una organización de nuevas herramientas con este tipo de tecnologías (especialmente, IA generativa).

 

[1] European Parliament. (2024). Proposal for a regulation of the European Parliament and of the Council on artificial intelligence (Artificial Intelligence Act) (TA-9-2024-0138_EN) [PDF]. Retrieved from https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.html

[2] AI HLEG (2019). Ethics guidelines for trustworthy AI [Documento web]. Recuperado de https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

[3] UNE. (s.f.). ISO 9001:2015. Sistemas de gestión de la calidad - Requisitos (N0071644) [Norma]. Recuperado de https://www.une.org/encuentra-tu-norma/busca-tu-norma/norma?c=N0071644

[4] ISO. (s.f.).ISO/IEC 42001:2023 Information technology - Artificial intelligence - Management system. [Norma]. Recuperado de: https://www.iso.org/es/contents/data/standard/08/12/81230.html


ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación