El proyecto de un robot que sea capaz, a través de la inteligencia artificial, de resolver pequeñas reclamaciones a través de unos algoritmos es una realidad en algunos países como Estonia, China o Estados Unidos. La inteligencia artificial puede definirse como el proceso por el que un ordenador está en aptitud de realizar tareas que, cuando las realiza un ser humano, requiere de razonamiento[1]. Los defensores de este proyecto resaltan que con ello se eliminan los aspectos subjetivos que pueden afectar a la toma de decisiones, haciendo un juez verdaderamente imparcial. El problema que plantea este juez robot es quién lo programa, es decir, bajo qué ética se construye el algoritmo, pues el propio programador puede incorporarle sus propios sesgos discriminatorios aún de manera inconsciente. Es más, existe el peligro de la manipulación del propio algoritmo que programa el robot para conseguir un efecto determinado. Así sucedió con Tay, un bot[2] de conversación creado por Microsoft para Twitter en 2016, bajo el nombre de usuario @TayandYou. Este bot era capaz, a través de la Inteligencia Artificial, de responder Tweets y de crear memes de Internet. Después de solo un día de funcionamiento, los usuarios de Twitter lograron que Tay enviara mensajes racistas y con contenido sexual imitando los mensajes intencionales de otros usuarios.
Cuestiones complejas
Además, un algoritmo no es adecuado para interpretar cuestiones complejas que pueden aparecer en la reclamación aparentemente más sencilla o de menos importe, o para la fijación de los hechos declarados como probados. Hemos de tener en cuenta que las palabras utilizadas por la ley no siempre tienen un sentido unívoco y han de interpretarse de acuerdo con la realidad social en la que han de aplicarse y que el sistema experto desconoce[3], e incluso la letra de los contratos tiene una serie de normas para su interpretación atendiendo a los actos anteriores y posteriores de las partes, e incluso a la interpretación conjunta de todo el contrato[4]. Sin embargo, hemos de reconocer que el uso de sistemas expertos nos puede ofrecer una gran ayuda en la consulta de antecedentes jurisprudenciales, en la medida en que no nos impone una solución determinada, sino que nos sirve de herramienta y no tiende a sustituir al juez. El sistema experto es a la vez un bastón de seguridad para el caminante intelectual del Derecho y una exigencia a caminar cada vez más y más atrevidamente, un apoyo del razonamiento del juez y un desafío a su capacidad intelectual[5].
Uno de los primeros “sistemas expertos” que se desarrolló fue el MYCIN en el ámbito de la medicina. Lo desarrolló la Universidad de Stanford en los setenta, para ayudar a diagnosticar y tratar la meningitis y las infecciones bacteriológicas del cerebro. En Estados Unidos, se utiliza el algoritmo COMPAS[6] en los tribunales penales del Estado de Wisconsin para estimar el grado de peligrosidad y riesgo de reincidencia, al que se le acusa de discriminar al colectivo afroamericano.
Aplicación de la Inteligencia Artificial en el Derecho
Buchanan y Headrick analizaron por primera vez la aplicación de la Inteligencia Artificial en el Derecho, en la obra “Some Speculation about A.I. reasoning”, en la que se plantean si el razonamiento jurídico puede realizarse por un ordenador y abre cuatro ámbitos en esta materia: búsquedas en bases de datos legales y jurisprudenciales, gestión y redacción documental, formulación de dictámenes y resolución de casos y elaboración de teorías, dogmas y sistemas jurídicos. Tras este primer intento se han desarrollado otros proyectos, sin embargo, ninguno de ellos ha alcanzado un resultado práctico relevante. Podemos mencionar el sistema experto desarrollado por el Massachusetts Institute of Technology para establecer la responsabilidad civil de lesiones por agresión (assault and battery); el sistema JUDITH creado por Walter G. Popp y Bernhart Schlink, que podía aplicar el Código Civil alemán; y el sistema HYPO creado para analizar casos de secretos comerciales, de manera que, introducidos los datos de un caso concreto, es capaz de devolver una relación de casos similares para la defensa del caso o la fundamentación de la sentencia. En China se ha creado recientemente el primer asistente robot que contesta preguntas jurídicas en lenguaje sencillo, llamado Xiao Fa.
En el caso de España, existe el Sistema de Seguimiento Integral en los casos de violencia de género, VioGén.
Este sistema permite hacer una valoración policial del riesgo de violencia contra la mujer como pareja[7] y entró en funcionamiento el 26 de julio del 2007, en cumplimiento de lo establecido en la Ley Orgánica 1/2004, de 28 de diciembre de Medidas de Protección Integral contra la Violencia de Género.
Se trata de un formulario cumplimentado por los propios agentes de las Fuerzas y Cuerpos de Seguridad habilitados para ello (no por las víctimas), y que son los encargados de la instrucción de diligencias y de la protección de las víctimas. Los formularios deben ser cumplimentados en función de toda la información recogida la investigación: la facilitada por la propia mujer denunciante, el propio autor, otras personas implicadas (familiares o vecinos), otros servicios (bases de datos policiales), y la contenida en informes o documentos (la inspección técnico ocular, partes médicos de lesiones, o informes de los Servicios Sociales o psicológicos)[8]
Estos formularios se cumplimentan exclusivamente de modo on line (no existen versiones en papel) a través del Sistema VioGén, para que operen los algoritmos matemáticos que proporcionan al agente un resultado automático del riesgo en que se encuentra la víctima, que el agente posteriormente puede confirmar o modificar según su experiencia y conocimientos el caso.
El sistema ha sido objeto de diversas revisiones y mejoras desde que entró en funcionamiento, iniciándose sobre la base de un juicio profesional no estructurado (juicio clínico), pasando por un modelo actuarial, y terminando en un sistema semiactuarial que utiliza indicadores estáticos y dinámicos (de riesgo y protección[9]). El Sistema VioGén cuenta con un algoritmo propio y es capaz evaluar la probabilidad de reincidencia.
La conclusión que se alcanza de todo lo anterior es que, si bien un sistema de inteligencia artificial puede ser increíblemente útil para nuestra tarea de juzgar y hacer ejecutar lo juzgado, lo cierto es que los proyectos desarrollados hasta ahora no pueden sustituir la labor hecha por el Juzgador, ni siquiera en las reclamaciones más sencillas.
[1] TRAZEGNIES de, F. ¿Seguirán existiendo jueces en el futuro? El razonamiento judicial y la inteligencia artificial. Revista Ius et Veritas nº 47, diciembre 2013. ISSN 1995-2929, página 115.
[2] Programa informático que efectúa automáticamente tareas repetitivas, cuya realización por parte de una persona sería imposible o muy tediosa
[3] Artículo 3.1 Código Civil Español: Las normas se interpretarán según el sentido propio de sus palabras, en relación con el contexto, los antecedentes históricos y legislativos y la realidad social del tiempo en que han de ser aplicadas, atendiendo fundamentalmente al espíritu y finalidad de aquéllas.
[4] Artículos 1281 a 1289 del Código Civil Español.
[5] TRAZEGNIES de, F. ¿Seguirán existiendo jueces en el futuro? El razonamiento judicial y la inteligencia artificial. Revista Ius et Veritas nº 47, diciembre 2013. ISSN 1995-2929, página 128.
[6] Acrónimo de Correctional Offender Management Profiling for Alternative Sanctions
[7] Además de este objetivo, el Sistema también pretende aglutinar las diferentes instituciones públicas que tienen competencias en materia de violencia de género, integrar toda la información de interés, realizar seguimiento y protección a las víctimas en todo el territorio nacional y prevenir, emitiendo avisos, alertas y alarmas, a través del "Subsistema de Notificaciones Automatizadas", cuando se detecte alguna incidencia o acontecimiento que pueda poner en peligro la integridad de la víctima.
[8] GONZÁLEZ ÁLVAREZ, J.L., LÓPEZ OSSORIO J.J., MUÑOZ RIVAS, M. La valoración policial del riesgo de violencia contra la mujer pareja en España – Sistema VioGén (2018) Ministerio del Interior. Página 110.
[9] El formulario de Valoración Policial de la Evolución del Riesgo está constituido por 43 indicadores, de los que 34 son de riesgo y 9 de protección. El formulario incluye un indicador dirigido a conocer la percepción que tiene la víctima de su propio riesgo, si bien, después de registrar la respuesta de la víctima, el profesional que realiza la valoración tiene que responder a una respuesta de control para establecer en qué medida la víctima puede estar infravalorando su riesgo. Esta estimación de contraste permite que los agentes policiales especializados en la protección de las víctimas puedan contribuir mediante una entrevista a que la víctima ajuste mejor su percepción de riesgo y contribuya en su mejor autoprotección. GONZÁLEZ ÁLVAREZ, J.L., LÓPEZ OSSORIO J.J., MUÑOZ RIVAS, M. La valoración policial del riesgo de violencia contra la mujer pareja en España – Sistema VioGén (2018) Ministerio del Interior. Página 61.
ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación