Sobre el artículo 50 del Reglamento de Inteligencia Artificial (RIA) que establece la obligatoriedad de que cualquier interacción mediada o realizada mediante IA sea advertida al usuario

Avances tecnológicos, Inteligencia Artificial e impacto en la información corporativa

Tribuna
Artículo 50 RIA_img

La tecnología está transformando el mundo a pasos agigantados. Si bien el cambio ha sido constante, el verdadero punto de inflexión ocurrió a inicios de 2023 con la llegada de ChatGPT-4. Ya existía desde muchos años antes la inteligencia artificial, pero su despliegue masivo democratizó el uso de esta herramienta entre millones de personas. La utilización de la inteligencia artificial está cambiando el funcionamiento de las instituciones, la vida cotidiana de sus usuarios y la dinámica empresarial. Comenzábamos la década 2020 con la experimentación de la inteligencia artificial generativa, madurado este uso hasta convertirse en una infraestructura crítica que reescribe no solo cómo operan las empresas, sino, fundamentalmente, cómo informan sobre sus actividades a clientes, socios y colaboradores.

La información corporativa (los datos financieros, no financieros, legales y de sostenibilidad) ha dejado de ser un ejercicio retrospectivo de "rendición de cuentas" para convertirse en un flujo dinámico, predictivo y altamente automatizado gracias a las diferentes inteligencias artificiales del mercado. Sin embargo, esta evolución no está exenta de fricciones sociales, jurídicas y éticas. La entrada en vigor plena de normativas como el Reglamento de Inteligencia Artificial de la UE (EU AI Act) en agosto de 2026, junto con la exigencia de transparencia radical de la Directiva sobre Información Corporativa en materia de Sostenibilidad (CSRD), ha creado una "tormenta perfecta" para los directores financieros (CFO), asesores jurídicos y consejos de administración que se enfrentan a un fenómeno ex novo.

La aplicación del reglamento ha generado incógnitas y preocupación entre aquellas empresas que utilicen IA en cualquiera de los procesos internos o en la relación con clientes, proveedores y otras empresas del sector. Recordemos que, a pesar de que el Reglamento de IA entró en vigor formalmente en 2024, es en agosto de 2026 cuando el tejido empresarial podrá conocer su verdadero impacto operativo. Esta fecha marca el inicio de la aplicabilidad de las normas de transparencia más estrictas y la plena regulación de los sistemas de alto riesgo, los cuales son los que más controversia han generado debido a su enorme margen de aplicación.

Con el despliegue del Reglamento de Inteligencia Artificial (RIA) se ha instaurado un nuevo sistema normativo que redefine profundamente la interacción entre las corporaciones y sus grupos de interés, cristalizando en lo que hoy en día se denomina como la "nueva higiene de transparencia". A través del Artículo 50, se establece una nueva obligatoriedad que no se trata de una mera advertencia legal: se impone la obligatoriedad de que cualquier interacción mediada o realizada mediante IA sea advertida al usuario. Este precepto tiene consecuencias directas en la comunicación corporativa, especialmente en el uso de Modelos de Lenguaje Grande (LLM) para la atención al cliente, cuyos usuarios deberán conocer en todo momento si conversan con una IA o si dicha empresa ha utilizado esta herramienta en cualquiera de sus áreas de interés. Dicha comunicación también es extensible con los inversores.

La importancia del Artículo 50

La obligatoriedad establecida en el Artículo 50 se erige como la piedra angular de todo el reglamento y debe ser interpretada como un verdadero principio arquitectónico en el diseño de servicios digitales. El texto impone al "desplegador" (aquellas entidades que usan IA y que, en su inmensa mayoría, son empresas) el deber proactivo de garantizar que cualquier persona física sea plenamente consciente de su interacción con un sistema automatizado. Esto transforma el derecho a la información en una condición de validez técnica previa a la interacción.

Dicha exigencia destaca en tres dimensiones críticas para la integridad corporativa que servirán como hoja de ruta para evitar sanciones. Las corporaciones deberán focalizar su diligencia en los siguientes vectores críticos.

  • Contenidos sintéticos y marcas de agua: El etiquetado de imágenes, audios o vídeos generados o manipulados por IA en formatos legibles por máquina facilitará este principio de transparencia. Esta es una medida esencial para mitigar los riesgos de desinformación y el impacto de los deepfakes que podrían perturbar la reputación de la firma.
  • Categorización biométrica y emociones: Se trata del pilar más sensible. El Reglamento eleva la protección de estos datos en el ámbito laboral y de selección de personal, obligando a una transparencia absoluta cuando se utilicen sistemas que infieran estados anímicos, blindando así al candidato frente a posibles sesgos algorítmicos opacos.
  • Interfaces de atención al cliente: En el despliegue de Modelos de Lenguaje Extenso (LLM), la advertencia debe ser explícita y constante. La "nueva higiene de transparencia" no puede ser un proceso puntual o anecdótico; los usuarios deberán conocer en todo momento si interactúan con una IA o si ciertos procesos están automatizados.

Como se observa en estos tres pilares, la transparencia adquiere un papel preponderante  en lo referido al contenido sintético y la detección de emociones. El mercado financiero sabe que la veracidad es un activo crítico; ante el riesgo digital de los deepfakes y avatares corporativos, resulta primordial establecer planes de actuación y contingencia para prevenir crisis reputacionales o desplomes bursátiles causados por la desinformación. Las empresas deberán prestar especial atención a la IA que infiera estados anímicos o categorías biométricas, tecnologías cada vez más comunes en procesos de selección o reuniones virtuales.

Responsabilidad proactiva y vigilancia

El marco regulatorio de los sistemas de IA de alto riesgo ha inaugurado un cambio de paradigma fundamentado en el denominado principio de responsabilidad proactiva. Bajo esta premisa, la evaluación de conformidad se desplaza hacia la autoevaluación, trasladando la carga de la prueba de los organismos certificadores externos a los propios desarrolladores. Esta transferencia de soberanía evaluativa no implica una relajación del control, sino una exigencia de rigor técnico sin precedentes: las empresas deben actuar como sus propios auditores mediante sistemas de gobernanza de datos que mitiguen sesgos, documentación técnica exhaustiva y la instauración imperativa de una supervisión humana efectiva (human-in-the-loop) contemplada en la RIA.

No obstante, esta autonomía se ve reforzada por una vigilancia estatal ex post. Las autoridades de control conservan la facultad de auditar estos sistemas en cualquier etapa de su ciclo de vida, lo que obliga a las organizaciones a mantener una trazabilidad absoluta. En consecuencia, aquellas entidades que carezcan de la infraestructura jurídica y técnica para asimilar estos requisitos se exponen a una vulnerabilidad legal sistémica, lo que cataliza la emergencia de un mercado de consultoría especializada capaz de arbitrar entre la innovación y el estricto cumplimiento normativo.

El vacío de la responsabilidad civil

Este marco de obligaciones convive con un escenario sobre la responsabilidad civil que genera inquietud tanto a empresas como a instituciones. El estancamiento de la Directiva de Responsabilidad de la IA (AILD) ha dejado un vacío que la Directiva de Responsabilidad por Productos (PLD) (revisada para la economía digital) intenta llenar de forma parcial sin satisfacer plenamente las necesidades corporativas. Al clasificar el software como un "producto", se introduce un régimen de responsabilidad estricta donde los daños causados por fallos algorítmicos pueden ser reclamados sin necesidad de probar la negligencia del desarrollador. Responde quien pone el producto en el mercado, no necesariamente quien escribió cada línea de código.

Sin embargo, la ausencia de una directiva europea armonizada en materia de responsabilidad civil por daños causados por IA genera una fragmentación normativa disruptiva. Ante un mismo fallo algorítmico, los tribunales de distintos Estados miembros podrían aplicar doctrinas nacionales divergentes, produciendo una inseguridad jurídica incompatible con los objetivos del mercado interior. Esta asimetría obliga a las multinacionales a gestionar sus riesgos sobre un mosaico normativo fragmentado, lo que dificulta cualquier estrategia de cumplimiento uniforme y favorece desigualdades en el acceso a la tecnología e incluso prácticas de ingeniería jurídica para minimizar la exposición según el territorio.

La Revolución de la Información Financiera, el salto de la automatización a la predicción

La tecnología supera las fronteras del imaginario común y no solo está cambiando las reglas legales, sino la naturaleza misma de la función financiera. Años atrás, los departamentos financieros se limitaban a la recopilación de datos trimestrales y a proyectar escenarios sobre los cursos de acción. Actualmente, las direcciones financieras pueden utilizar IA predictiva y generativa para anticiparse e idear el escenario que desean protagonizar.

A) El fin del ciclo "Record-to-Report" tradicional

Es preciso recordar que el proceso de cierre contable y elaboración de informes (Record-to-Report) ha sido históricamente una labor manual, ineficiente en términos temporales y propensa a errores humanos. Durante el 2026, la automatización cognitiva reducirá drásticamente dichos ciclos, permitiendo la ejecución de cierres casi continuos.

  • Borradores inteligentes con GenAI: Existen desde hace años plataformas de gestión del rendimiento corporativo (CPM) que integran IA generativa para redactar los primeros borradores de los informes de gestión (MD&A). Mediante la integración de datos estructurados (balances y estados de resultados) con flujos no estructurados (minutas y comunicaciones corporativas), estas herramientas articulan narrativas de alta coherencia sobre las fluctuaciones financieras. Soluciones de vanguardia, como Workiva, automatizan la redacción de factores de riesgo sectoriales y sintetizan las deliberaciones de la junta directiva para su inclusión en la memoria anual.
  • El caso de Siemens: Resulta ilustrativo para comprender esta nueva dinámica. A través de su división, Siemens Global Business Services (GBS), ha desarrollado soluciones avanzadas de automatización financiera (como la iniciativa interna SiLoFiT) orientadas a resolver uno de los principales desafíos de las multinacionales: la obligación de reportar conforme a los estándares de la matriz (NIIF/IFRS) y, simultáneamente, cumplir con las exigencias regulatorias locales de cada filial. Mediante la armonización de flujos de datos heterogéneos, Siemens ha reducido significativamente la carga manual y mejorado la calidad del dato en origen. Asimismo, estas capacidades han sido progresivamente externalizadas, transformando el modelo tradicional de servicios compartidos en una oferta de valor orientada al mercado bajo esquemas de Finance-as-a-Service. 

B) Análisis Predictivo

La gestión avanzada de la liquidez se ha consolidado como uno de los ámbitos donde el análisis predictivo ofrece un retorno de inversión inmediato y verificable. Frente a un escenario tradicional en el que una parte significativa de los responsables de tesorería desconfiaba de sus propias previsiones de efectivo, los modelos actuales —alimentados por patrones históricos de pago, estacionalidad y variables macroeconómicas— han elevado la precisión del flujo de caja, permitiendo anticipar tensiones de liquidez con mayor fiabilidad.

Algunas de estas capacidades se extienden a la predicción del comportamiento de pago de clientes. Soluciones especializadas y plataformas fintech integradas permiten al usuario estimar no solo la probabilidad de cobro, sino el momento preciso en que este se producirá, lo que facilita la liberación de capital circulante y reduce la dependencia de financiación externa.

Paralelamente, la IA ha desplazado el control ex post hacia una supervisión perpetua. Ya no se trata de auditar el histórico, sino de identificar anomalías en tiempo real mediante el análisis contextual de cada transacción. Este giro ha permeado incluso en el ámbito fiscal donde la IA generativa actúa como un copiloto capaz de identificar patrones complejos. Su capacidad para discernir precedentes y clasificar activos ofrece un recurso estratégico ante la hipertrofia regulatoria de los mercados actuales.

La adopción de la IA generativa en el sector fiscal ha experimentado un crecimiento no contemplado hasta la fecha; hoy en día, un elevado número de profesionales respalda su integración, alegando la automatización de procesos, la economía del tiempo y su capacidad predictiva. Esta transición se materializa en una dicotomía crítica: la investigación tributaria aumentada, que permite localizar precedentes en segundos, y la taxonomía automatizada de activos, una solución que mitiga el riesgo de cumplimiento al precisar el tratamiento de depreciación de grandes volúmenes de activos fijos.

El desafío de la sostenibilidad: el paradigma de la CSRD

La irrupción de la Directiva CSRD no se trata de un trámite anecdótico más, para los más críticos se trata del acta de defunción de la voluntariedad en la sostenibilidad corporativa. Al equiparar la transparencia no financiera con el rigor contable, la norma ha sacudido los cimientos de un sector privado que, en gran medida, aún operaba bajo una lógica de retórica y greenwashing.

Someter a 50.000 entidades al escrutinio de los estándares ESRS ha transformado el reporte en una coreografía técnica de complejidad asfixiante. En este escenario, la recopilación manual de datos es un anacronismo temerario. La densidad de la doble materialidad, la dispersión de los datos en silos estancos y la exigencia de una trazabilidad auditable han dejado en evidencia la precariedad de los métodos tradicionales. Ante una responsabilidad jurídica que no admite ambigüedades, la digitalización avanzada es la única vía para evitar el colapso operativo bajo el peso de la norma.

Mitigación del "tsunami de datos" mediante inteligencia artificial

El principal obstáculo para el cumplimiento normativo reside en la naturaleza atomizada de la información; casi la mitad de las organizaciones identifica el volumen de datos como su mayor fricción. La información de sostenibilidad es diversa si consideramos que abarca desde facturas de consumo energético hasta registros de movilidad y auditorías de la cadena de suministro.

En este escenario, la IA generativa actúa como un director de orquesta. Su capacidad para conectar documentos no estructurados (PDF o comunicaciones internas) con los marcos normativos europeos permite una extracción de métricas con mayor integridad.  Contamos con ejemplos como el caso de Unilever, que mediante un knowledge bank basado en IA, ha logrado facilitar el acceso a datos sobre la EUDR (deforestación) y la huella de carbono, transformando el cumplimiento en un activo consultable en tiempo real.

La dialéctica de la IA: la dicotomía de la doble materialidad y el escrutinio del greenwashing

No obstante, la potencia de la IA es una arquitectura de doble filo. Si bien optimiza el reporte, también puede exacerbar el riesgo de greenwashing, sea de forma deliberada o por sesgos algorítmicos. La respuesta del mercado ha sido el despliegue de auditorías automatizadas: inversores y ONGs emplean sistemas de IA para contrastar las narrativas institucionales con datos exógenos, como imágenes satelitales. Existe ya una correlación robusta entre las anomalías detectadas por IA y las calificaciones de riesgo de agencias como Sustainalytics, lo que eleva el coste reputacional de cualquier inconsistencia.

Finalmente, la IA ha redefinido el análisis de doble materialidad, que exige ponderar tanto el impacto financiero del entorno como la huella externa de la corporación. Plataformas como Inclus facilitan esta visualización de riesgos multidimensionales, aunque el factor humano sigue siendo insustituible. Confiar ciegamente en la generación sintética conlleva el riesgo de incurrir en declaraciones genéricas o "alucinadas" que podrían actuar como detonantes en futuros litigios climáticos.

El gran reto del Shadow AI

Los algoritmos traen consigo una estela de oportunidades y responsabilidades debido a los riesgos que entraña el uso poco diligente de estas herramientas. La IA no es solo un reto tecnológico, sino un riesgo de gobernanza que el Consejo de Administración no puede ignorar. El fenómeno del Shadow AI (el uso de herramientas no autorizadas por parte de la plantilla) ha creado un punto ciego donde la eficiencia individual se paga con la pérdida de control sobre activos estratégicos y críticos. Prácticas tan comunes como cargar contratos o datos de clientes en modelos públicos no solo quiebran el secreto profesional, sino que entregan la propiedad intelectual de la firma a algoritmos de terceros. Lo que a primera vista parece un avance operativo es, en la práctica, una fuga de seguridad masiva que deja a la organización en una situación de vulnerabilidad jurídica y social.

Este escenario redefine las reglas del duty of care. Con el nuevo Reglamento, las corporaciones no podrán escudarse en la ignorancia sobre cómo se utiliza la IA en su seno; la falta de control es ahora una fuente de responsabilidad patrimonial. De hecho, las aseguradoras ya están ajustando sus pólizas de D&O (Directors and Officers) para excluir siniestros derivados de la IA si no existe una supervisión clara, mientras que los tribunales ya comienzan a rechazar demandas fundamentadas en alucinaciones algorítmicas.

Para proteger el patrimonio personal de los directivos, la solución requiere una vigilancia técnica real, donde figuras como el Legal Engineer auditen los procesos antes de que el daño sea irreparable. No se trata de frenar la tecnología, sino de asegurar que su despliegue no derive en una reclamación judicial contra la propia administración por falta de diligencia.

 

Este artículo, escrito por Covadonga Torres Assiego, profesora ayudante doctora URJC, sirvió de base para la ponencia expuesta en la tercera jornada del Consejo General de Economistas celebrada en Toledo el 20 de febrero de 2026.

 


ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación