El compliance está experimentando una profunda transformación gracias al uso de la IA

El uso de la inteligencia artificial en el ámbito del compliance: posibilidades, limitaciones y perspectivas de futuro

Tribuna
Compliance y la IA_img

I. Introducción

La inteligencia artificial (IA), en sus múltiples arquetipos, ha demostrado tener un enorme potencial en diversos ámbitos, desde la medicina hasta la industria automotriz, pasando por el marketing y las finanzas. Sin embargo, el mundo del derecho también se ha visto impactado por esta tecnología y su aplicación en diversas áreas.

En concreto, el compliance es un ámbito que está experimentando una profunda transformación gracias al uso de la IA. La implementación del compliance a través programas y sistemas de gestión es fundamental para garantizar la legalidad y la ética en la toma de decisiones empresariales, pero también para prevenir posibles sanciones y multas, proteger la reputación de la compañía y mejorar su eficiencia.

En este contexto, el uso de la IA en el compliance se presenta como una oportunidad para mejorar la efectividad y la eficiencia de estos programas. Y ello, tanto a través del machine learning (aprendizaje automático)[1] como de su aproximación “ruled-based” (IA basada en reglas)[2], permitiendo ayudar a identificar posibles riesgos, y a diseñar medidas de prevención y detección más efectivas, así como a mejorar la toma de decisiones empresariales y a garantizar el cumplimiento normativo.

En este artículo, se examinará el uso de dichas modalidades de IA en el ámbito del compliance y, en particular, su uso para articular y establecer los sistemas, controles y protocolos de prevención de riesgos penales, y en contraposición, cómo podría ser posible la regulación del uso de la IA a través del compliance.

Este uso ha generado un creciente interés en el mundo jurídico actual. La IA, como acepción general que engloba los subtipos que ya hemos mencionado, puede ser una herramienta útil para mejorar la eficiencia y efectividad del cumplimiento normativo, ya que permite la identificación temprana de posibles infracciones, el análisis de grandes volúmenes de datos y la automatización de procesos.

Sin embargo, su uso también plantea importantes desafíos y preocupaciones en cuanto a la protección de datos personales, la toma de decisiones automatizada y la responsabilidad de los actores involucrados. De hecho, la implementación de estos mecanismo en el ámbito del compliance debe ser objeto de un análisis cuidadoso de los riesgos y beneficios asociados.

En este contexto, es necesario reflexionar sobre el papel del compliance en la regulación del uso de la IA, partiendo de su modalidad “estrecha” hasta las de aprendizaje profundo -que tanto están dando que hablar en la actualidad-, y en la protección de los derechos fundamentales de los ciudadanos.

II. Uso de la inteligencia artificial en el compliance

Una de las áreas en las que la IA, cuyo uso ha ido en aumento en el ámbito empresarial en los últimos años, es en el compliance. Puede ser de gran ayuda para prevenir y detectar posibles infracciones de la normas de cumplimiento y mejorar así la eficiencia en el desempeño de los controles.

1. Aproximación a la Inteligencia Artificial desde el prisma del compliance

El uso de la IA en el ámbito del compliance supone una revolución en el modo en que las empresas pueden prevenir y detectar posibles delitos en su seno. La IA, a través del deep learning (aprendizaje profundo)[3], permite procesar grandes cantidades de información de forma automatizada, lo que facilita la identificación de posibles riesgos y la toma de decisiones basadas en datos objetivos. En definitiva, una mejora sustancial en la eficiencia y efectividad de los procesos de supervisión y control en las empresas.

Así, es de gran ayuda en la identificación de posibles infracciones de las normativas y regulaciones aplicables. Por ejemplo, se pueden utilizar técnicas de análisis de datos para identificar patrones de comportamiento indicativos de la comisión de delitos en la empresa. También, en la elaboración de informes y evaluaciones de riesgos, que faciliten la toma de decisiones en los procesos de control y supervisión.

No obstante, es importante destacar que la aplicación de la IA en el ámbito del compliance no está exenta de desafíos y limitaciones. Uno de los principales desafíos es el riesgo de que pueda generar resultados sesgados o discriminatorios. Por ello, se hace necesario asegurar que los algoritmos utilizados sean éticos y no generen perjuicios para ninguna persona, colectivo, e incluso, en última instancia, sector[4].

Además, también hay que tener en cuenta la necesidad de mantener un equilibrio entre la eficiencia que aportaría el uso de la IA a la hora de tratar y analizar grandes volúmenes de información y datos, y el respeto a la privacidad y protección de datos personales de los empleados y terceros. En este sentido, se hace necesaria la regulación y supervisión de su aplicación a través del compliance. La Agencia Española de Protección de Datos (AEPD) ha iniciado, en este sentido, de oficio, actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa[5]. Asimismo, la Regulación General de Protección de Datos (RGPD) de la Unión Europea establece una serie de requisitos y obligaciones que deben cumplir las empresas que procesan datos personales, incluyendo aquellos que utilizan tecnologías de inteligencia artificial[6].

2. Posibilidades y limitaciones del uso de la Inteligencia Artificial en el ámbito del compliance

2.1. Posibilidades de su uso

Las posibilidades del uso de la IA en el ámbito del compliance son numerosas y variadas. En primer lugar, permite el análisis de grandes cantidades de datos de forma automatizada y eficiente, lo que facilita la detección de posibles riesgos y la toma de decisiones basadas en datos objetivos. Por ejemplo, a través de técnicas de análisis de datos como el machine learning, se pueden detectar patrones de comportamiento sospechosos en los registros financieros de una empresa, lo que podría indicar la existencia de prácticas fraudulentas o de blanqueo de capitales.

Otra posibilidad es la creación de sistemas de alerta temprana que permitan a las empresas detectar y prevenir posibles infracciones normativas de forma proactiva. Estos sistemas podrían estar basados en el análisis de datos internos de la empresa, así como en el monitoreo de fuentes externas de información, como noticias o informes regulatorios.

La IA también puede ser útil en el ámbito de la formación y el entrenamiento de los empleados en materia de cumplimiento normativo. Por ejemplo, se pueden crear simulaciones de situaciones reales en las que los empleados deban tomar decisiones éticas y legales, permitiéndoles practicar y adquirir conocimientos de una forma más dinámica e interactiva.

Otra de las posibilidades es la mejora de la eficiencia y la reducción de costos en los procesos de auditoría. A través de técnicas de automatización, se pueden realizar auditorías de forma más rápida y precisa, permitiendo a los auditores centrarse en las áreas de mayor riesgo y reduciendo el tiempo.

En resumen, el uso de la IA en el ámbito del compliance tiene el potencial de mejorar significativamente la eficiencia y efectividad de los programas de cumplimiento normativo, facilitando la detección temprana de posibles riesgos y la toma de decisiones informadas.

2.2. Limitaciones

A pesar de las muchas posibilidades planteadas, se hace necesario tener en cuenta ciertas limitaciones, comenzando con la propia complejidad de implementar sistemas de IA en la empresa. La incorporación de herramientas puede requerir una importante inversión económica y tecnológica, así como la necesidad de contar con personal altamente cualificado para su correcto funcionamiento[7].

Otra de las limitaciones a tener en cuenta es la falta de transparencia de los sistemas de IA. En muchas ocasiones, los algoritmos utilizados en el procesamiento de datos pueden ser demasiado complejos para ser comprendidos por los profesionales encargados de su supervisión, lo que puede dificultar la toma de decisiones informadas.

Además, la privacidad es un aspecto fundamental. La recopilación, almacenamiento y tratamiento de datos personales puede implicar importantes riesgos de vulneración de la privacidad y el derecho a su protección ha llevado a la adopción de regulaciones, como la RGPD y la AEPD, para garantizar su adecuada protección.

En este sentido, se han producido recientes controversias en España con respecto al uso de la IA, como en el caso de la utilización de ChatGPT, que ha generado importantes debates en torno a la protección de datos y la privacidad[8]. También se ha planteado la necesidad de que las herramientas de IA (hablamos aquí, principalmente de la inteligencia artificial débil o estrecha) estén diseñadas de forma que se garantice la transparencia, explicabilidad y ética de los algoritmos utilizados, de manera que los resultados obtenidos sean interpretados de forma adecuada y no generen sesgos o discriminaciones.

En definitiva, aunque el uso de la IA en el ámbito del compliance ofrece importantes posibilidades para la prevención y detección de delitos, también presenta importantes desafíos y limitaciones que deben ser tenidos en cuenta para garantizar su correcto funcionamiento y evitar posibles riesgos para los derechos y libertades fundamentales.

3. Análisis de datos y machine learning en la prevención y detección de riesgos

3.1. Análisis de datos

El análisis de datos, dentro de la modalidad de aprendizaje automático de la IA, es el proceso de examinar y transformar datos complejos, así como grandes conjuntos de información con el objetivo de descubrir patrones, tendencias y relaciones que puedan ayudar a tomar decisiones informadas. Esta técnica es utilizada en múltiples áreas, incluyendo banca, tecnología, medicina y seguridad, entre otras.

El análisis de datos implica la aplicación de métodos estadísticos y algoritmos de aprendizaje automático para extraer información útil de aquellos, lo que puede ser utilizado para optimizar procesos, mejorar la eficiencia y reducir costes, y, en el caso del compliance, también puede ser utilizado para la prevención y detección de riesgos.

Para ello, se pueden analizar diferentes tipos de datos, tanto estructurados como no estructurados. Los primeros son los que se pueden almacenar en una tabla o base de datos, y que pueden ser fácilmente procesados por una máquina. Estos datos, principalmente, pueden incluir información como transacciones financieras, registros de llamadas, ubicaciones geográficas, entre otros.

Los datos no estructurados son aquellos que no siguen un formato predefinido y que pueden ser más difíciles de procesar por una máquina o computadora. Como ejemplos, encontramos las redes sociales, correos electrónicos, documentos de texto, imágenes y vídeos. Estos datos pueden ser analizados a través de técnicas de procesamiento de lenguaje natural y de visión por computadora, entre otras.

3.2. Machine Learning

Tal y como hemos expuesto, el machine learning es una rama de la IA que se enfoca en el desarrollo de algoritmos y modelos matemáticos que permiten a un sistema informático aprender a partir de datos, sin ser explícitamente programado para realizar una tarea específica. En lugar de eso, el sistema los utiliza para detectar patrones y relaciones, y es capaz de ajustar sus modelos para mejorar la precisión de sus predicciones a medida que recibe más datos.

En el caso de la prevención y detección de riesgos, el machine learning puede ser utilizado para analizar grandes cantidades de datos y detectar patrones que puedan ser indicativos de conductas (ya puedan ser delictivas o que simplemente pueda desentrañar un riesgo). Los algoritmos de machine learning pueden ser entrenados utilizando conjuntos de datos históricos para detectar patrones y correlaciones en los datos que puedan ser indicativos de riesgo o incluso la comisión de un delito en el futuro. Además, el machine learning puede ser utilizado para predecir el comportamiento de individuos específicos, lo que puede ser útil en la identificación de posibles sospechosos de actividades delictivas.

3.3. Casos de éxito de uso de la inteligencia artificial en el compliance

Pese a que la IA parece un tema muy reciente, y en boca de todos, ya ha habido casos de su uso exitoso en el ámbito del compliance, como el llevado a cabo para detectar y prevenir el lavado de dinero en el sector financiero.

Las instituciones financieras utilizan algoritmos de machine learning para analizar grandes cantidades de datos financieros y transacciones sospechosas, lo que les permite identificar patrones y anomalías que podrían indicar actividades ilícitas.

Otro ejemplo es el uso de la IA en la detección de fraude y corrupción en contrataciones públicas. Uno de los casos más reseñables es el del Gobierno de Colombia, que ha implementado un sistema de IA para analizar los datos de licitaciones y contratos públicos, con el objetivo de detectar posibles irregularidades o patrones de corrupción[9].

También se puede hacer uso de la IA para analizar y clasificar documentos y registros electrónicos en busca de posibles infracciones. Por ejemplo, una empresa puede utilizar la IA para identificar rápidamente documentos que contengan información confidencial o que puedan estar sujetos a regulaciones específicas, lo que puede ayudar a prevenir la divulgación de aquella sensible o la violación de normas de cumplimiento.

En general, el uso de la IA en el ámbito del compliance demuestra tener potencial para mejorar la eficiencia y efectividad en la detección y prevención de riesgos e infracciones. Sin embargo, como se ha mencionado anteriormente, también existen limitaciones y desafíos que deben ser abordados para garantizar un uso ético y responsable de dicha tecnología.

III. Riesgos y desafíos del uso de la Inteligencia Artificial en el compliance

A pesar de que el uso de la IA en el ámbito del compliance demuestra tener potencial para mejorar la eficiencia y efectividad en la detección y prevención de riesgos, su uso también plantea desafíos y riesgos, particularmente relacionados con los posibles sesgos y discriminaciones. Pese que puede ser una herramienta poderosa, su eficacia depende, en gran medida, de los datos utilizados para entrenar los algoritmos que, en su núcleo, la componen. Si los datos utilizados contienen ya de base sesgos o prejuicios, la IA puede perpetuar y amplificar estas tendencias discriminatorias.

1. Posibles sesgos y discriminaciones

En primer lugar, como se acaba de introducir, existe el riesgo de sesgos en los datos de entrenamiento utilizados para alimentar los modelos de IA. Si los datos históricos utilizados para el entrenamiento de los modelos de inteligencia y aprendizaje contienen sesgos o discriminación, los algoritmos pueden aprender y replicarlos en sus resultados. Por ejemplo, si tales datos muestran una mayor frecuencia de arrestos o condenas entre ciertos grupos demográficos, la IA puede tender a generar predicciones sesgadas y discriminatorias basadas en esa información.

Además, los sesgos inherentes en la programación de la IA también pueden ser un problema. Cabe que los algoritmos estén basados en suposiciones o criterios que reflejen los sesgos sociales existentes, de forma que resulten decisiones automatizadas que discriminen injustamente a ciertos grupos, etnias, minorías, o estratos sociales. Por ejemplo, si un algoritmo utiliza características demográficas como raza o género como variables predictivas, puede generar resultados discriminatorios al asignar un mayor riesgo a ciertos grupos sin justificación legítima.

Otro desafío radica en la interpretación y explicación de los resultados de la IA. Sus modelos, como el aprendizaje profundo, son difíciles de entender y explicar, debido a su complejidad. Esto plantea un desafío si se extrapola al ámbito del compliance, donde la transparencia y la rendición de cuentas son fundamentales. Si los resultados recogidos u obtenidos a través de estos modelos de IA no se explican de manera clara y comprensible, se dificulta la identificación y corrección de posibles sesgos o discriminaciones.

Es importante abordar estos desafíos y riesgos de manera proactiva en la implementación de la IA en los sistemas gestión de riesgos. Se requiere una cuidadosa selección y preparación de los datos de entrenamiento, así como la evaluación constante de los resultados para identificar y corregir posibles sesgos. Además, es fundamental que los algoritmos y decisiones de estos modelos de aprendizaje sean transparentes y explicables, permitiendo un escrutinio y revisión adecuados.

La utilización de IA en el ámbito del compliance también plantea el riesgo de posibles discriminaciones. La discriminación puede surgir desde el machine learning debido a diversos factores, como pueden ser, sesgos en los datos utilizados, algoritmos discriminatorios o decisiones automatizadas que afectan desmedidamente a ciertos grupos. Estos riesgos pueden tener consecuencias significativas para aquellos que son objeto de discriminación y para la sociedad en general.

En primer lugar, los sesgos en los datos utilizados para entrenar los modelos de IA es posible que produzcan discriminación. Si los datos históricos reflejan desigualdades existentes, como la infrarrepresentación de ciertos grupos o la sobrerrepresentación de estereotipos negativos, la IA puede aprender y perpetuar estos sesgos al tomar decisiones. Por ejemplo, si los datos históricos muestran una tendencia de arrestar o condenar con mayor frecuencia a ciertos grupos, la IA podría generar predicciones discriminatorias que afecten desproporcionadamente a esos grupos[10].

La discriminación a través de la inteligencia artificial puede afectar a diversos grupos, incluyendo minorías raciales, mujeres, personas de bajos ingresos y otras comunidades marginadas. Esto se debe a que los sesgos en los datos o algoritmos discriminatorios amplifican las desigualdades existentes y perpetúan la discriminación sistemática. Por ejemplo, si un algoritmo de IA utiliza características demográficas como variables predictivas, puede generar decisiones automatizadas que discriminan injustamente a ciertos grupos, como negar empleo o acceso a servicios financieros.

Los datos utilizados en el contexto del compliance pueden ser especialmente propensos a generar discriminación. Por ejemplo, si los datos históricos sobre delitos o infracciones penales reflejan disparidades en la aplicación de la ley hacia ciertos grupos, la IA puede aprender y replicar esas disparidades, perpetuando así la discriminación en la toma de decisiones automatizadas. Esto puede tener implicaciones significativas en el ámbito penal y la justicia, donde la equidad y la imparcialidad son fundamentales.

La discriminación generada por la IA en el compliance conllevaría importantes riesgos en su seno. En primer lugar, perpetuaría y amplificaría las desigualdades existentes, lo que socavaría los principios de justicia y equidad. Y, además, la confianza en los sistemas de aprendizaje y en las instituciones que los utilizan, ya que las personas afectadas podrían percibir que están siendo tratadas de manera injusta o discriminatoria. Ello genera consecuencias negativas para la reputación de las organizaciones y la aceptación del uso de los diferentes mecanismos de IA en el ámbito del compliance.

Resulta pues fundamental abordar activamente dichos riesgos y trabajar hacia la mitigación de la discriminación en su implementación. Ello requiere la selección cuidadosa de los datos utilizados, la evaluación constante de los modelos y algoritmos para identificar y corregir sesgos, así como la adopción de prácticas transparentes y éticas en la toma de decisiones.

2. Problemas de privacidad y seguridad

2.1. Privacidad

El uso de IA en los sistemas de gestión del riesgo plantea preocupaciones significativas en términos de privacidad. La IA utiliza grandes cantidades de datos personales y sensibles para realizar análisis y tomar decisiones. Esto plantea desafíos en cuanto a la protección de la privacidad de los individuos involucrados en el proceso de compliance.

En primer lugar, el uso de IA implica recopilar y procesar datos personales de empleados, clientes, proveedores y otras partes interesadas. Estos datos pueden incluir información delicada, como antecedentes penales, información financiera y otros confidenciales. Su recopilación y procesamiento plantean preocupaciones sobre la protección de la privacidad y la garantía de los derechos de los individuos en relación con sus datos personales[11].

Además, el aprendizaje automático puede requerir la implementación de técnicas de anonimización o pseudonimización de datos para proteger la identidad de las personas involucradas. Sin embargo, existe el riesgo de que los datos anonimizados puedan ser reidentificados o combinados con otras fuentes para revelar la identidad de las personas. Esto plantea preocupaciones adicionales sobre la privacidad y la protección de los datos personales[12].

Otro desafío relacionado con la privacidad es la necesidad de establecer mecanismos de transparencia y explicabilidad en los sistemas de IA que fueran a ser utilizados dentro de los sistemas de gestión de riesgos. Los individuos tienen derecho a saber cómo se utilizan sus datos y cómo se toman las decisiones automatizadas que pueden afectar sus derechos e intereses. Cabe que la falta de transparencia genere desconfianza y perjudique la aceptación de los sistemas de IA en el ámbito de los sistemas de gestión.

Además, la colaboración entre diferentes entidades en el uso de IA dentro del compliance puede plantear desafíos en términos de compartición y protección de datos. El intercambio de información sensible entre organizaciones aumenta los riesgos de violaciones de la privacidad y la seguridad de los datos. Es fundamental establecer acuerdos y salvaguardias adecuadas para proteger su privacidad de los compartidos en el contexto del compliance.

En resumen, el uso de las diferentes facetas de la IA en los sistemas de gestión del riesgo plantea desafíos significativos en cuanto a la privacidad. La protección de los datos personales, la anonimización adecuada, la transparencia y la colaboración segura son aspectos clave que deben abordarse para garantizar el cumplimiento de las regulaciones de privacidad y salvaguardar los derechos de los individuos involucrados en el proceso de compliance.

2.2. Seguridad

Además de los riesgos en cuanto a la privacidad, el uso de la IA en los sistemas de gestión del riesgo plantea importantes desafíos en términos de seguridad. Como ya se ha dicho antes, estos sistemas se basan en algoritmos y modelos de IA que procesan y analizan grandes cantidades de datos sensibles. Sin embargo, existe el riesgo de que sean objeto de ataques o manipulaciones maliciosas que comprometan su integridad y confiabilidad[13].

En primer lugar, la seguridad de los datos utilizados en los sistemas de IA es de vital importancia. Estos datos pueden contener información confidencial y sensible, como registros financieros, información personal y detalles sobre posibles delitos. Es esencial garantizar que estos datos estén protegidos de accesos no autorizados, robos o filtraciones, y que se implementen medidas de seguridad sólidas, como la encriptación y el control de acceso.

Además, la seguridad de estos modelos utilizados en el compliance también es crucial. Estos modelos pueden estar expuestos a riesgos de adversarial attacks, donde se manipulan deliberadamente los datos de entrada para engañar a la IA y obtener resultados erróneos. Esto podría tener consecuencias graves en la toma de decisiones y comprometer la efectividad de los sistemas de gestión del riesgo penal[14].

Otro desafío en términos de seguridad es la necesidad de proteger los sistemas de aprendizaje de ataques cibernéticos y hacking. Aquellos que utilizan IA pueden ser objetivos atractivos para los hackers, ya que contienen datos valiosos y pueden tener un impacto significativo en las organizaciones. Se requiere una infraestructura robusta y medidas de seguridad avanzadas, como la detección de intrusiones (tanto físicas como a través de la red) y la monitorización continua, para proteger estos sistemas contra amenazas externas.

Además, el uso de IA en los sistemas de gestión de riesgos plantea desafíos en cuanto a la seguridad de la información compartida entre diferentes organizaciones. El intercambio de datos sensibles y confidenciales en el contexto del compliance requiere garantías de seguridad y protección para evitar la divulgación no autorizada o el mal uso de la información.

3. Responsabilidad y rendición de cuentas en el uso de la Inteligencia Artificial

A medida que las organizaciones adoptan tecnologías basadas en la IA en sus sistemas de compliance, surge la pregunta de quién debe ser responsable de su buen uso y qué consecuencias podrían enfrentar en caso de un uso indebido.

En primer lugar, es fundamental establecer claramente quién es el responsable de la implementación y supervisión de la IA dentro del sistema. Esto implica designar a una persona o un equipo con la capacidad y el conocimiento necesario para asegurarse de que la IA se utilice de manera ética, responsable y conforme a las leyes y regulaciones aplicables[15]. Este responsable debe garantizar que los algoritmos y modelos de aprendizaje utilizados sean transparentes, imparciales y estén libres de sesgos y discriminaciones indebidas.

Un mal uso de la IA dentro de los sistemas de gestión de compliance puede tener consecuencias legales y reputacionales significativas para el responsable, pero sobre todo y más importante, para la organización, sociedad o empresa que la utilice. Si se descubre que se han utilizado los mecanismos basados en dicha inteligencia de manera inapropiada, o que ha llevado a decisiones incorrectas o injustas, el responsable podría enfrentar acciones legales y sanciones, como multas o incluso responsabilidad penal, en caso de incumplimiento de las leyes y regulaciones específicas. Además, como ya se ha advertido antes, un mal uso de la IA puede dañar la reputación de la organización, afectar la confianza de los clientes y otros terceros, y socavar la credibilidad del propio sistema de gestión del riesgo.

Es importante destacar que la responsabilidad en el uso de los distintos mecanismos de IA no se limita solo al responsable designado, sino que también implica la participación y la responsabilidad de todos los actores involucrados en el proceso, desde los desarrolladores de los sistemas de IA hasta los usuarios finales y las partes interesadas. Todos ellos deben ser conscientes de las implicaciones éticas y legales de utilizar la IA y deben asumir la responsabilidad de garantizar su uso adecuado y ético.

Para promover la rendición de cuentas a raíz del uso de los mecanismos de IA, es crucial establecer mecanismos de supervisión, evaluación y control efectivos. Esto puede incluir la implementación de políticas y procedimientos claros, la realización de auditorías periódicas, la transparencia en el funcionamiento de los algoritmos y modelos de IA, y la participación de expertos externos en la evaluación y revisión de dichos sistemas. Estos mecanismos ayudarían a garantizar que las decisiones adoptadas a través de o ayudados del machine learning sean justas, confiables y estén en consonancia con unos principios éticos y legales.

En suma, la responsabilidad en el uso de la IA en el ámbito del compliance recaería en aquellos que están involucrados en su implementación, supervisión y utilización. Un mal uso de dichos mecanismos y herramientas podría tener consecuencias legales y reputacionales significativas, por lo que es crucial designar un responsable adecuado, como una suerte de IA Officer, y establecer mecanismos de rendición de cuentas efectivos para garantizar su buen uso y el cumplimiento de las normas y regulaciones aplicables.

IV. El papel del compliance en la regulación del uso de la Inteligencia Artificial

1. El cumplimiento normativo como garantía de protección de derechos y libertades y su evolución necesaria

El cumplimiento normativo desempeña un papel fundamental como garantía de protección de derechos en el contexto del uso de la IA. A medida que esta última se integra en los diversos ámbitos de nuestra sociedad, es esencial que su desarrollo y aplicación se rijan por unos principios éticos y legales que salvaguarden los derechos y libertades individuales.

El cumplimiento normativo se basa en el respeto y la adhesión a las leyes, regulaciones y estándares establecidos. En el caso de la IA, en su acepción de sistema de aprendizaje, implica asegurarse de que los sistemas y algoritmos utilizados cumplen con los principios de no discriminación, privacidad, transparencia y responsabilidad. En definitiva, no solo cumplir con las normas y regulaciones actuales, sino también adaptarse a los cambios normativos y anticipar posibles riesgos y desafíos éticos emergentes.

La protección de derechos mediante el cumplimiento normativo garantiza que la IA no se utilice de manera que vulnere los derechos fundamentales de las personas. Por ejemplo, se deben evitar prácticas discriminatorias basadas en características protegidas, como la raza, el género o la orientación sexual. Además, asegurar la privacidad y confidencialidad de los datos personales utilizados en los procesos de IA, respetando las regulaciones vigentes, como el RGPD.

La evolución necesaria del cumplimiento normativo en el contexto de la IA implica adaptarse a los cambios tecnológicos y los nuevos desafíos éticos y legales que surgen. Esto implica no solo la actualización de las normas y regulaciones existentes, sino también la adopción de enfoques proactivos y éticos en el desarrollo y aplicación de la IA. Es necesario fomentar una cultura de cumplimiento en las organizaciones, y establecer mecanismos de supervisión y control efectivos para garantizar el respeto a los derechos y libertades en su uso.

La protección de derechos a través del cumplimiento normativo no beneficia únicamente a los individuos, sino también a las propias organizaciones y a la sociedad en su conjunto. Un enfoque ético y legal en el uso de la IA fortalece la confianza de los usuarios y las partes interesadas, evita posibles sanciones y daños reputacionales, y promueve la equidad y la justicia en el desarrollo y aplicación de estas tecnologías.

En síntesis, el cumplimiento normativo desempeña un papel cardinal como garantía de protección de derechos en el contexto de la IA. Asegurar el cumplimiento de las normas y regulaciones existentes, así como la adaptación a los nuevos desafíos éticos y legales, es fundamental para salvaguardar los derechos y libertades individuales.

Por otra parte, el cumplimiento normativo implica también el acatamiento de las normas, regulaciones y estándares éticos establecidos, que están diseñados para proteger y preservar las libertades de las personas. En el contexto de los mecanismos de aprendizaje automático, esto requiere asegurar que los sistemas y algoritmos utilizados respeten los derechos fundamentales, como la libertad de expresión, la libertad de pensamiento, privacidad y autonomía.

Uno de los aspectos clave del cumplimiento normativo, en relación con las libertades individuales, es evitar la discriminación y el sesgo en el uso de la IA. Sus sistemas han de ser y estar diseñados y entrenados de manera que no perpetúen o amplifiquen las desigualdades existentes, protegiendo así la igualdad de oportunidades y la libertad de todos los individuos.

Además, el cumplimiento normativo también debe abordar la protección de la privacidad en el uso de la IA. La recopilación, el almacenamiento y el procesamiento de datos personales requieren realizarse de acuerdo con las leyes y regulaciones de protección de datos, como el RGPD. Esto garantiza que las personas tengan el control sobre los mismos y que se respeten sus libertades individuales en el entorno digital.

La evolución del cumplimiento normativo es necesaria para garantizar una protección efectiva en el contexto del uso de la IA. A medida que esta avanza, evoluciona, y se integra en diversas áreas de la sociedad, es fundamental adaptar las regulaciones existentes y desarrollar nuevas normativas que aborden los desafíos éticos y legales que puedan surgir.

En primer lugar, es necesario que las normas y estándares se actualicen y adapten para abordar, de manera específica, los aspectos relacionados con la IA, lo que implica considerar la responsabilidad de los actores involucrados, establecer estándares éticos claros, y definir los límites legales en cuanto al uso y aplicación dicha tecnología. Además, es importante fomentar la transparencia en el desarrollo y funcionamiento de los sistemas de aprendizaje, de modo que las personas puedan comprender cómo se toman las decisiones y se procesan los datos.

El papel de la IA en esta evolución del compliance es, sin duda, significativo. Por un lado, puede contribuir proporcionando herramientas y técnicas para el monitoreo y la supervisión automatizada de las actividades empresariales. Como ya se comentaba antes, se pueden desarrollar sistemas de IA que analicen grandes volúmenes de datos para detectar posibles incumplimientos normativos o riesgos de manera más eficiente y precisa.

Del mismo modo, también ayuda en la automatización de procesos de cumplimiento, agilizando la identificación y gestión de riesgos y facilitando el seguimiento y reporte de actividades relacionadas con el cumplimiento normativo. Esto permite una respuesta más rápida y eficiente ante posibles violaciones y promueve la cultura de cumplimiento dentro de las organizaciones.

Sin embargo, es importante tener en cuenta que el papel de la IA en la evolución del cumplimiento normativo no puede ser independiente de la supervisión y el control humano. A pesar de las capacidades del machine learning, sigue siendo necesario contar con la intervención y la toma de decisiones éticas por parte de expertos y profesionales del cumplimiento normativo[16].

En suma, la evolución del cumplimiento normativo en el contexto de la IA requiere actualizaciones y nuevas regulaciones que aborden los desafíos éticos y legales específicos de esta tecnología. Desempeña un papel importante en esta evolución al proporcionar herramientas para el monitoreo, detección de riesgos y automatización de procesos de cumplimiento. Sin embargo, la supervisión y el control humano siguen siendo fundamentales para garantizar una protección adecuada de los derechos y libertades en el uso de la IA.

2. La importancia del diseño ético de la Inteligencia Artificial

El diseño ético de la IA refiere a la incorporación de principios éticos y valores en el desarrollo y despliegue de sus sistemas. Esto implica considerar el impacto social, legal y moral de dicha tecnología, así como garantizar el respeto de los derechos humanos, la equidad y la transparencia en su funcionamiento.

En primer lugar, un diseño ético requiere la identificación y comprensión de los posibles riesgos y desafíos éticos asociados a ella. Esto implica examinar los sesgos y discriminaciones que pueden surgir, así como los posibles impactos negativos en la privacidad, la seguridad y la toma de decisiones humanas. Además, el diseño ético de la IA implica la inclusión de principios como la transparencia y la explicabilidad. Los sistemas aprendizaje deben ser capaces de proporcionar explicaciones claras y comprensibles sobre cómo se toman las decisiones y se procesan los datos, especialmente en casos en los que afecten a los derechos y libertades de las personas.

En esta misma línea, el diseño ético implica también la responsabilidad y la rendición de cuentas. Los desarrolladores y los usuarios de la IA deben asumir la responsabilidad de los posibles impactos y consecuencias de su uso, así como establecer mecanismos para la rendición de cuentas en caso de que se produzcan errores o violaciones éticas.

La equidad y la no discriminación también son aspectos esenciales del diseño ético de la IA. Es importante garantizar que sus algoritmos y modelos no reproduzcan ni amplifiquen prejuicios o desigualdades existentes en la sociedad, y que se promueva la equidad en el acceso y la utilización de la IA.

Por tanto, el diseño ético de esta última es aquel que implique considerar los riesgos y desafíos éticos asociados con esta tecnología, así como el que incorporare principios como la transparencia, la equidad y la no discriminación en su desarrollo y despliegue.

Es trascendental asegurar que los mecanismos basados en la IA respeten los valores éticos y los derechos humanos, y que se establezcan mecanismos de responsabilidad y rendición de cuentas para garantizar su uso adecuado y beneficioso para la sociedad.

3. La necesidad de una regulación específica del uso de la Inteligencia Artificial en el ámbito del compliance

La necesidad de una regulación específica del uso de la IA en el ámbito del compliance surge debido a los desafíos y riesgos éticos, legales y sociales que esta tecnología plantea.

Como ya mencionaban Floridi[17] y Jobin[18], la IA tiene el potencial de influir en la toma de decisiones críticas, automatizar procesos y manejar grandes volúmenes de datos, lo que puede tener implicaciones significativas en el cumplimiento normativo y la responsabilidad de las empresas.

Sería más ventajoso abordar esta regulación desde el ámbito del compliance, ya que las normas existentes se centran, principalmente, en la protección de los derechos individuales y la prevención de delitos, y la IA presenta desafíos específicos que requieren una atención adicional. El compliance, en su caso, se ocupa de garantizar el cumplimiento de las normas y estándares de cumplimiento en las organizaciones, por lo que es el marco idóneo para abordar la regulación de la IA en este contexto. Ello permite establecer directrices claras y adaptadas a los desafíos particulares que esta tecnología plantea. Puede abordar aspectos como la transparencia en su uso, la explicabilidad de los algoritmos, la gestión de riesgos éticos y legales, y la responsabilidad de las empresas en el despliegue y uso de estos sistemas de IA.

Además, una regulación específica desde el ámbito del compliance nos lleva a fomentar la adopción de prácticas éticas y responsables en el uso de la IA: puede promover la consideración de principios éticos, la inclusión de evaluaciones de impacto ético, y la implementación de mecanismos de control y supervisión para garantizar el cumplimiento de las normativas y la mitigación de riesgos asociados con ella.

De aquí que la regulación específica del uso de la IA a través del compliance es necesaria para abordar los desafíos éticos, legales y sociales que esta tecnología plantea. Al ser el compliance el marco encargado de garantizar el cumplimiento normativo y ético en las organizaciones, volverá ventajoso regular la IA desde este ámbito, ya que permite abordar, de manera específica, los retos y riesgos asociados a su implementación en el cumplimiento normativo.

V. Conclusiones

El uso de la IA dentro del ámbito del compliance es una realidad, que presenta tanto posibilidades como desafíos. Ofrece herramientas y capacidades innovadoras que pueden mejorar la eficiencia y precisión en la gestión del cumplimiento normativo, así como en la prevención y detección de riesgos penales. La capacidad de procesar grandes volúmenes de datos y realizar análisis avanzados permite identificar patrones, tendencias y posibles incumplimientos de manera más efectiva.

Sin embargo, es importante tener en cuenta los posibles sesgos y discriminaciones que pueden surgir a raíz del uso de la IA, y más en el ámbito del compliance. Los algoritmos pueden verse influenciados por sesgos inherentes a los datos utilizados para entrenarlos, lo que puede llevar a decisiones discriminatorias o injustas. Es fundamental aplicar un enfoque ético y responsable en el diseño, implementación y uso de estos mecanismos de aprendizaje automático, garantizando la transparencia, la explicabilidad y la supervisión adecuada.

En cuanto a la regulación del uso de la IA en el ámbito del compliance, se hace necesaria una legislación específica que aborde los desafíos y riesgos éticos, legales y sociales asociados. El cumplimiento normativo desempeña un papel crucial en esta regulación, ya que este se enfoca en garantizar el cumplimiento de las leyes, normativas y estándares éticos dentro de las organizaciones.

Una regulación desde el prisma del compliance permite establecer directrices, claras y adaptadas, a los desafíos particulares de la adopción de esta tecnología y sus diferentes acepciones, fomentando prácticas éticas y responsables.

En síntesis, el uso de la IA dentro del compliance es posible y ofrece beneficios significativos en la gestión de riesgos. Sin embargo, es fundamental abordar, en primer lugar, los desafíos relacionados con los sesgos y discriminaciones que pueden surgir, aplicando un enfoque ético y responsable en el diseño y uso de sus mecanismos.

Además, la regulación específica desde el ámbito del compliance es necesaria para garantizar prácticas éticas, transparencia y supervisión adecuada, promoviendo la protección de derechos y libertades.

En definitiva, el uso de la IA es posible y puede ser beneficioso, siempre y cuando se aborden los desafíos inherentes a su uso, y se establezcan regulaciones adecuadas, preferiblemente desde el enfoque práctico del cumplimiento normativo.

En cuanto a las perspectivas de futuro, podemos identificar varias tendencias y desarrollos que podrían influir en su evolución:

  1. Avances tecnológicos: Se espera que los avances en IA continúen, lo que permitirá el desarrollo de sistemas más sofisticados y precisos en la detección y prevención de riesgos. La IA podría beneficiarse de técnicas más avanzadas, como el aprendizaje profundo (deep learning) y el procesamiento del lenguaje natural, para mejorar su capacidad de análisis y comprensión de información compleja.
  2. Énfasis en la ética y transparencia: la ética en el uso de la IA se está convirtiendo en un aspecto crucial. Se espera que las regulaciones y estándares éticos se fortalezcan, exigiendo la transparencia en los algoritmos utilizados, así como en la toma de decisiones basadas en IA. Sus modelos deberán ser justos, explicables y capaces de abordar los sesgos y discriminaciones.
  3. Colaboración entre humanos y máquinas: a medida que los mecanismos de aprendizaje complejos se integren en estos procesos, será esencial establecer una colaboración efectiva entre los profesionales del compliance y los sistemas de IA. Los primeros jugarán un papel fundamental en la supervisión y validación de los resultados generados por la IA, asegurando su coherencia con las políticas y regulaciones.
  4. Interconexión de sistemas y datos: la interconexión de sistemas y datos permitirá una visión más completa y precisa de los riesgos penales en las organizaciones. La integración de fuentes de información internas y externas, como bases de datos públicas y redes sociales, proporcionará una imagen más amplia y actualizada de posibles irregularidades.
  5. Mejora en la detección de patrones y tendencias: la capacidad de la IA para analizar grandes volúmenes de datos de forma rápida y precisa permitirá una detección más temprana de patrones y tendencias relacionados con el incumplimiento normativo. Esto ayudará a las organizaciones a identificar y abordar posibles riesgos antes de que se conviertan en problemas mayores.

Las perspectivas de futuro en el uso de los mecanismos de IA en el ámbito del compliance apuntan hacia una mayor sofisticación tecnológica, un enfoque ético más sólido, una colaboración efectiva entre humanos y máquinas, una mayor interconexión de sistemas y datos, y una mejora en la detección de patrones y tendencias. Estos avances prometen fortalecer la capacidad de las organizaciones para garantizar el cumplimiento normativo y prevenir riesgos (reputacionales, éticos, etc.) de manera más eficiente y efectiva.

Y ya, para terminar con este análisis, y como recapitulación a lo que aquí se ha mencionado, queda decir que el uso de la IA en el ámbito del compliance representa, en definitiva tanto oportunidades como desafíos.

Su regulación es necesaria para establecer marcos normativos claros, que garanticen la protección de los derechos y libertades, y promuevan la responsabilidad y rendición de cuentas. La colaboración entre los expertos en compliance, los profesionales de la tecnología y los responsables de la toma de decisiones será esencial para desarrollar regulaciones efectivas que se adapten a la rápida evolución de la tecnología.

En términos de perspectivas de futuro, se espera que la IA continúe avanzando, impulsada por tecnologías más sofisticadas y complejas y por un enfoque ético y transparente. La interconexión de sistemas y datos, junto con una mejor detección de patrones y tendencias, fortalecerá la capacidad de las organizaciones para prevenir y abordar riesgos penales

En última instancia, el uso de la IA dentro del cumplimiento normativo y los sistemas de gestión de riesgos ha de ser considerado como una herramienta complementaria, respaldada por la experiencia humana y guiada por principios éticos sólidos. La combinación de la IA y la sabiduría humana puede permitir una gestión de riesgos más efectiva y una cultura de cumplimiento sólida en las organizaciones.

 

[1] A grandes rasgos, se basa en el desarrollo de algoritmos y modelos que permiten a las máquinas aprender a partir de datos sin ser programadas explícitamente.

[2] Este enfoque utiliza reglas predefinidas y un conjunto de condiciones para tomar decisiones o realizar tareas. Los sistemas basados en reglas se limitan a seguir instrucciones específicas y no pueden adaptarse o aprender de manera autónoma.

[3] El “aprendizaje profundo” es una técnica de aprendizaje automático que se basa en redes neuronales artificiales con múltiples capas. Estas redes son capaces de aprender y extraer características de datos complejos, como imágenes, texto o sonido, y se utilizan en tareas como reconocimiento de imágenes, procesamiento de lenguaje natural y conducción autónoma.

[4] Butler, Tom; O’Brien, Leona (2019). Artificial intelligence for regulatory compliance: Are we there yet? Este artículo explora la capacidad que tendría la inteligencia artificial para transformar el sector financiero, y los riesgo que esto conlleva.

[5] https://www.aepd.es/es/prensa-y-comunicacion/notas-de-prensa/aepd-inicia-de-oficio-actuaciones-de-investigacion-a-openai.

[6] https://www.aepd.es/sites/default/files/2020-02/adecuacion-rgpd-ia.pdf

[7] https://www.worldcomplianceassociation.com/1567/articulo-como-la-inteligencia-artificial-esta-influyendo-en-el-futuro-del-compliance.html.

[8] https://www.aepd.es/es/prensa-y-comunicacion/notas-de-prensa/aepd-inicia-de-oficio-actuaciones-de-investigacion-a-openai.

[9] En relación a esta implementación, https://www.elespectador.com/noticias/politica/la-ia-que-descubre-la-corrupcion-en-los-contratos-publicos/. Este artículo explica cómo el gobierno colombiano implementó un sistema de IA para analizar grandes cantidades de datos de contratos públicos, con el objetivo de detectar patrones de corrupción y prevenir fraudes.

[10] O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Reino Unido: Crown.

[11] Floridi, L., Cowls, J., Beltrametti, M. et al. AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds & Machines 28, 689–707 (2018). https://doi.org/10.1007/s11023-018-9482-5.

[12] European Data Protection Board. (2020). Guidelines 1/2020 on processing personal data in the context of connected vehicles and mobility-related applications.

[13] B. C. Stahl and D. Wright, "Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation," in IEEE Security & Privacy, vol. 16, no. 3, pp. 26-33, May/June 2018, doi: 10.1109/MSP.2018.2701164.

[14] Carlini, N., & Wagner, D. A. (2017). Adversarial examples are not easily detected: Bypassing ten detection methods. In Proceedings of the 10th ACM Workshop on Artificial Intelligence and Security (pp. 3-14).

[15] En este sentido, Jobin, A., Ienca, M. & Vayena, E. The global landscape of AI ethics guidelines. Nat Mach Intell 1, 389–399 (2019). https://doi.org/10.1038/s42256-019-0088-2.

[16] También aquí, Jobin, A., Ienca, M. & Vayena, E. The global landscape of AI ethics guidelines. Nat Mach Intell 1, 389–399 (2019). https://doi.org/10.1038/s42256-019-0088-2

[17] Floridi, L., Cowls, J., Beltrametti, M. et al. AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds & Machines 28, 689–707 (2018). https://doi.org/10.1007/s11023-018-9482-5.

[18] Jobin, A., Ienca, M. & Vayena, E. The global landscape of AI ethics guidelines. Nat Mach Intell 1, 389–399 (2019). https://doi.org/10.1038/s42256-019-0088-2.


ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación