La apertura institucional contará con la participación de Alejandro Las Heras, consejero delegado de la Agencia de Ciberseguridad de la Comunidad de Madrid, y Manuel Ruiz, subdirector general delegado Digital del Área de Economía, Innovación y Hacienda del Ayuntamiento de Madrid.
El evento abordará cómo garantizar la seguridad, la gobernanza y la resiliencia de los sistemas de IA, desde modelos predictivos y generativos hasta agentes autónomos, así como los nuevos retos regulatorios derivados del AI Act europeo. Además, se analizarán las nuevas guías publicadas por la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) para facilitar la implementación práctica del marco regulatorio.
El programa se estructura en dos grandes ejes temáticos:
Track 1 – AI Security & Resilience: Centrado en los retos técnicos y operativos de la seguridad en entornos impulsados por inteligencia artificial.
Track 2 – AI Governance, Compliance & Society: Enfocado en los marcos de gobernanza, cumplimiento normativo, auditoría y gestión del riesgo en el uso corporativo de la IA.
Durante la jornada se presentarán iniciativas y proyectos inéditos en España, junto con casos de éxito de grandes organizaciones, que buscan aportar herramientas prácticas para la gestión segura, gobernada y resiliente de la inteligencia artificial en entornos empresariales.
Entre ellos destaca el “Decálogo de Seguridad en la IA Agéntica”, un marco que analiza los riesgos emergentes asociados a los agentes de IA autónomos y propone principios de seguridad basados en referentes internacionales como OWASP y MITRE, con el objetivo de facilitar un despliegue responsable y resiliente de estos sistemas.
También se presentará el Inventario de Servicios y Sistemas de IA, una herramienta de gobernanza que permite a las organizaciones obtener una visión completa de todos los sistemas de IA en uso, incluidos modelos fundacionales, IA generativa o casos de shadow AI, alineada con estándares como NIST AI RMF o ISO 42001.
Otra de las iniciativas destacadas será el Mapa de Riesgos del MIT, un informe basado en la adaptación del repositorio de riesgos de IA del MIT que ofrece un catálogo estructurado para identificar, priorizar y gobernar los riesgos asociados al desarrollo y uso de sistemas de inteligencia artificial, con especial atención a seguridad, privacidad y derechos fundamentales.
El foro reunirá a expertos en ciberseguridad, inteligencia artificial, gestión del riesgo y cumplimiento normativo para analizar cómo las organizaciones pueden implantar la IA de forma segura, gobernada y resiliente.