Durante el III AI & Cyber Security Forum, en el que Lefebvre colaboró como media partner, se dieron a conocer tres herramientas para mejorar la gestión de riesgos de la IA

La comunidad de ISMS Forum presenta herramientas para mejorar la gestión de riesgos en sistemas de IA en empresas

Noticia

ISMS Forum y su Grupo de Inteligencia Artificial (GIA) organizaron la tercera edición del AI & Cyber Security Forum, un evento de referencia para profesionales de la ciberseguridad y el cumplimiento normativo interesados en inteligencia artificial.

Alejandro Las Heras, consejero delegado Agencia Ciberseguridad CAM_img

El encuentro contó con la asistencia de 500 expertos y tuvo un enfoque multidisciplinar para abordar, desde una vertiente práctica, cómo las organizaciones deben afrontar el reto de incorporar las herramientas de IA a sus políticas de negocio.

Para Carlos Sáiz, vicepresidente de ISMS Forum, director del Data Privacy Institute y Partner and Head of Privacy, Risk & Compliance en Ecix Group, estas jornadas han permitido a los asistentes conocer la amplia actividad de ISMS Forum, en general, y de su Grupo de Inteligencia Artificial (GIA), en particular. En este marco se han presentado distintas herramientas y documentos para que CISOs y responsables de seguridad puedan adaptar con garantías sus políticas de IA ante el reto de la irrupción de esta tecnología emergente.

A este respecto, Sáiz destacó tres proyectos del GIA presentados en este evento, que codirigen Francisco Lázaro, CISO & DPO de Renfe, Co-Director del Grupo de Inteligencia Artificial y Board Member de ISMS Forum, y Angel Pérez, CISO & Manager de Resiliencia en Abertis Autopistas y codirector del ISMS-GIA, un grupo que integra a una treintena de expertos.

Las iniciativas presentadas fueron el Decálogo de Seguridad en la IA Agéntica, elInventario de Servicios y Sistemas de IAy elMapa de Riesgos del MIT, documentos que permiten comprender la importancia de la IA tanto desde el punto de vista normativo como tecnológico.

Una de las ponencias que Sáiz destacó fue la conversación entre Fernando Rubio, EMEA Technology Strategy CSA Manager en Microsoft, y Daniel Largacha, Global Security Operation Centre Director de MAPFRE, centrada en el concepto de resiliencia activa y en cómo evolucionar los modelos de defensa para anticipar amenazas y fortalecer la resiliencia de las organizaciones.

La conversación se centró en operaciones de seguridad, inteligencia de amenazas y capacidad de respuesta en entornos cada vez más complejos. Ambos expertos coincidieron en que la resiliencia exige equilibrar recuperación, investigación y control del riesgo durante un incidente, integrando seguridad y continuidad de negocio para responder con rapidez sin comprometer la protección de los sistemas.

Carlos Sáiz moderó también una mesa sobre accountability e IA en la que participaron Antonio Muñoz, Director Digital Compliance & DPO del Global DPO Office de Telefónica; Elena Mora, Directora de Privacidad y Protección del Dato y la IA de MAPFRE; y Javier Sanz-Blasco, Regional Lead Southern Europe de Securiti AI.

En este debate se abordaron cuestiones relacionadas con la responsabilidad activa y la rendición de cuentas en relación con el Reglamento de IA (RIA). Los expertos indicaron que la experiencia previa del RGPD en materia de cumplimiento normativo, metodología y formas de trabajo puede resultar útil para afrontar el reto de esta nueva normativa europea. También se puso de manifiesto cómo los modelos de gobernanza de IA difieren entre organizaciones.

Presencia institucional relevante

Como es habitual en este tipo de encuentros, ISMS Forum y el GIA estructuraron el evento en dos itinerarios paralelos. El primero, centrado en la relación entre inteligencia artificial y seguridad, contó con la participación de Alejandro Las Heras, consejero delegado de la Agencia de Ciberseguridad de la Comunidad de Madrid, presentado por Angel Pérez, CISO & Manager de Resiliencia en Abertis Autopistas y codirector de ISMS-GIA. Durante su intervención, Alejandro Las Heras, explicó la relación cada vez más estrecha entre la seguridad y la inteligencia artificial y repasó algunas de las iniciativas impulsadas por la Agencia en la Comunidad de Madrid para promover la ciberseguridad en el entorno empresarial.

En el segundo itinerario, centrado en gobernanza de la IA y políticas de compliance, el invitado institucional fue Manuel Ruiz, subdirector general delegado digital del Área de Economía, Innovación y Hacienda del Ayuntamiento de Madrid. En su intervención respondió a las preguntas de Francisco Lázaro, CISO & DPO de Renfe y codirector del Grupo de Inteligencia Artificial de ISMS Forum, y explicó cómo el Ayuntamiento está abordando la transformación digital, la aplicación de la IA en la gestión de la ciudad y la innovación en los servicios públicos.

Hay que definir los riesgos de la IA

Fue en este segundo itinerario donde se presentó el Mapa de Riesgos del MIT, un trabajo en el que han participado Esther Álvarez, Global CISO de Barceló Hotel Group; Andoni Valverde, Head of Global Cyber Fusion Center de Iberdrola; y Yan Bello, CEO/CAIO de la consultora SpaceMinds.

Este documento ayuda a las organizaciones a identificar, clasificar y gobernar los riesgos asociados al desarrollo y uso de sistemas de IA, con especial atención a la seguridad, la privacidad y los derechos fundamentales. El Instituto Tecnológico de Massachusetts (MIT) analizó 65 taxonomías distintas y consolidó 1.612 riesgos en un repositorio único que se ha convertido en una referencia mundial.

El informe, ya operativo en la web de ISMS Forum, adapta este marco al contexto español y europeo, alineándolo con el RIA y sus obligaciones de gestión del riesgo, con los requisitos del RGPD, especialmente en materia de privacidad por diseño y evaluaciones de impacto, y con las exigencias de NIS2 y del ENS.

Al mismo tiempo introduce dos dimensiones clave: la taxonomía causal (quién origina el riesgo, con qué intención y en qué fase del ciclo de vida) y la taxonomía de dominios (privacidad, seguridad, discriminación, desinformación, uso malicioso, impacto socioeconómico o fallos del sistema).

Según comentaron los ponentes, esta doble perspectiva permite a CISOs y responsables de cumplimiento pasar de una visión abstracta del riesgo a un mapa claro, comparable y directamente utilizable para diseñar controles, priorizar mitigaciones, estructurar auditorías e integrar la IA en las matrices corporativas de riesgo.

En un momento de creciente presión regulatoria para las organizaciones, este informe resulta de gran utilidad, ya que el mapa dispone de un repositorio que recoge riesgos relacionados con la IA. Este listado puede ser consultado por cualquier organización que quiera implementar su política de gestión del riesgo.

Cómo elaborar un inventario de sistemas de IA

El segundo estudio que se presentó durante el Track 1, centrado en IA y seguridad, fue el Inventario de Servicios y Sistemas de IA, explicado por David Moreno, CISO Global de Tendam, y Enrique Cervantes, Director de Seguridad e Infraestructura Tecnológica de Cesce.

Este documento se ha convertido en una referencia, ya que el propio Reglamento de IA (RIA) establece la necesidad de que las organizaciones dispongan de un inventario de sistemas de IA. En la práctica, se trata de una herramienta esencial para identificar riesgos, mejorar la trazabilidad y reforzar la seguridad y el cumplimiento normativo en el uso de la inteligencia artificial.

En su exposición, los autores explicaron que el documento se basa en los principales marcos internacionales de gobernanza de IA, como el NIST AI Risk Management Framework, ISO/IEC 42001:2023 (AI Management System) o ISO 23894:2023 (risk management en IA).

Este inventario actúa como la columna vertebral de la gobernanza de IA, permitiendo tomar decisiones basadas en datos y mantener un control efectivo a lo largo de todo el ciclo de vida.

La IA agéntica y sus nuevos retos de seguridad

El tercer trabajo presentado durante la jornada fue el Decálogo de Seguridad en la IA Agéntica, explicado por Angel Pérez, CISO & Manager de Resiliencia en Abertis Autopistas y codirector de ISMS-GIA, junto con Eduardo de Prado, Cybersecurity Expert & AI Researcher.

Este documento aborda un momento clave en la evolución de la inteligencia artificial: la aparición de agentes de IA capaces de actuar de forma autónoma y coordinarse entre sí, lo que transforma el panorama de riesgos para las organizaciones. Consultoras como Gartner o McKinsey coinciden en que la IA agéntica será una realidad corporativa generalizada en los próximos años.

El decálogo se apoya en referencias como OWASP Top 10 for Agentic Applications, AI Agents Attack Matrix, MITRE ATLAS y otros trabajos académicos sobre autonomía operativa, y propone diez principios prácticos que abordan cuestiones como la identificación y control de agentes y subagentes, su interacción segura con herramientas externas o la necesidad de capacidades de observabilidad y respuestas específicas para sistemas de IA.

Además, esta guía ofrece criterios accionables para mitigar amenazas emergentes, como inyecciones indirectas de prompt, manipulación de memoria mediante instrucciones laterales, fugas de credenciales o escaladas de privilegios entre agentes.

Las guías de AESIA ante el nuevo marco regulatorio de la IA

Otra de las mesas redondas del Track 2 abordó el análisis de las nuevas guías de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) y su impacto en las políticas de gobernanza, privacidad y cumplimiento en las organizaciones. En este debate participaron Javier Lomas, DPO del Grupo Codere; Gary Robertson, Manager en Privacidad, Riesgos y Cumplimiento Normativo en Ecix | RegTech y miembro del Grupo de Inteligencia Artificial de ISMS Forum; y Natalia de Mora, DPO de L'Oréal. La sesión fue moderada por Henry Velásquez, Delegado de Protección de Datos de Publicis Groupe y miembro del Comité del Data Privacy Institute.

Durante la conversación, los expertos coincidieron en que las nuevas guías de AESIA suponen un paso relevante para ayudar a las organizaciones a aterrizar el marco regulatorio de la inteligencia artificial, adaptando sus modelos de gobernanza, procedimientos de control y sistemas de auditoría. Asimismo, subrayaron la necesidad de implicar a toda la organización, incluyendo áreas de negocio, tecnología y cumplimiento, para gestionar adecuadamente riesgos como sesgos algorítmicos, impacto en derechos fundamentales y transparencia en el uso de sistemas de IA, incorporando además la dimensión ética en el desarrollo y despliegue de estas tecnologías.

Cómo evoluciona el ransomware con la IA

El Track 2 del encuentro se cerró con la intervención de Lucas Varela, Ambassador de ISMS Forum, quien analizó cómo la inteligencia artificial está transformando el panorama de las amenazas, especialmente en el ámbito del ransomware. Durante su intervención explicó cómo los atacantes están aprovechando nuevas capacidades tecnológicas para automatizar ataques y mejorar sus técnicas de intrusión.

Varela recordó que entre el 80 % y el 90 % de las intrusiones acaban derivando en movimientos laterales dentro de las organizaciones mediante el uso de credenciales comprometidas, por lo que subrayó la necesidad de reforzar controles como la autenticación multifactor (MFA) en todos los accesos externos. Asimismo, destacó que el actual contexto de ciberseguridad refleja una carrera constante entre atacantes y defensores, en la que las organizaciones deben adaptar continuamente sus estrategias de protección ante la evolución de las amenazas impulsadas por la inteligencia artificial.

Con esta tercera edición, el AI & Cyber Security Forum se consolida como uno de los principales espacios de debate en España sobre los desafíos que plantea la inteligencia artificial desde el punto de vista de la seguridad, la gobernanza y la gestión del riesgo.

A través de iniciativas como estas, ISMS Forum y su Grupo de Inteligencia Artificial (GIA) continúan impulsando el análisis y el desarrollo de herramientas prácticas que ayuden a las organizaciones a adoptar la inteligencia artificial de forma segura, responsable y alineada con los nuevos marcos regulatorios europeos.