En los últimos años se ha producido una gran evolución y desarrollo tecnológico y modernización de la justicia, que tiene relevancia capital para todos los operadores jurídicos, y se proyecta tanto en el sector público como en el privado. En este contexto, cada vez más se habla de Legaltech[1], en referencia a la tecnología para servicios jurídicos.
Entre las herramientas habilitadoras de Legaltech más conocidas están: el blockchain o cadena de bloques, big data, inteligencia artificial, automatización robótica de procesos o “bots” (RPA)[2], o jurimetrics[3] que aplica métodos cuantitativos, estadística y probabilidad.
Es incuestionable la utilidad de estas herramientas[4], en el presente y en el futuro. La herramienta blockchain o cadena de bloques que permite veracidad y trazabilidad del dato, ha sido aplicada a los conocidos como smart contracts. La tecnología RPA, entre otras, está siendo utilizada por Estonia para la creación de los llamados jueces robot en un proyecto piloto en los juicios denominados menores, de 7.000 euros o menos.
En estas primeras líneas del artículo nos centraremos en las herramientas de Legaltech de analítica jurisprudencial, como son la francesa Prédicte, la norteamericana Context de Lexis Nexis o la española Jurimetría[5].
En la analítica, en general, se distingue entre: analítica descriptiva, analítica predictiva, y analítica prescriptiva. La analítica descriptiva, utiliza los datos históricos, es la más usada, trata como está lo analizado hasta la fecha, estadística. La analítica predictiva permite la creación de modelos que vaticinen lo que va a ocurrir con antelación, busca extraer conocimiento en forma de patrones, modelos o tendencias para situaciones futuras. Y, por último, la analítica prescriptiva, analiza los datos para ver cuál es la mejor solución, con uso de simulación.
Para la analítica predictiva y prescriptiva, es necesario la elección de un algoritmo adecuado que permita el aprendizaje automático -machine learning-.
En este tipo de aprendizaje automático pueden enumerarse sin exhaustividad tres categorías: -aprendizaje supervisado, -aprendizaje no supervisado, -aprendizaje de refuerzo según la naturaleza de los datos que recibe.
En el aprendizaje supervisado los algoritmos trabajan con datos etiquetados[6], el algoritmo aprende con el histórico de datos, dada la variable de entrada[7] asigna una etiqueta a la salida, es decir predice el valor de salida. Ejemplos: detector de spam del correo electrónico.
El aprendizaje no supervisado tiene lugar cuando no se tienen datos etiquetados para el entrenamiento. Sólo se conocen los datos de entrada, pero no existen datos de salida que correspondan a un determinado imput, por ello se dice que tienen carácter exploratorio. Ejemplo: agrupamientos[8] basados en similitudes, pero nada garantiza que tenga significado o utilidad, y se pueden encontrar correlaciones espurias. Se suele usar para el perfilado o profiling.
Y por último el denominado aprendizaje por refuerzo. Que se basa en la retroalimentación, el algoritmo aprende observando el mundo que le rodea, es un feedback del mundo exterior. No es supervisado porque no se basa en datos etiquetados.
En las herramientas de analítica jurisprudencial, en España, se utiliza la analítica descriptiva, si bien con estos datos se pueden crear modelos de predicción. Estas herramientas incluyen la posibilidad de segmentación por distintas variables: por el caso-materia-, abogado, empresa, tribunal, organismo público, y del magistrado o magistrada individualmente por nombre y apellidos, entre otros.
Lo importante para estas herramientas es contar con un gran volumen de resoluciones judiciales representativas de todos los órdenes jurisdiccionales para entrenar al algoritmo, y que abarque todas las temáticas.
En este artículo se intenta poner de relieve algunos problemas claves de posibilidad de identificar al magistrado o magistrada unívocamente por nombre y apellidos.
El procesamiento de las decisiones judiciales y los datos debe tener propósitos claros, en pleno cumplimiento de los derechos fundamentales garantizados por el Convenio Europeo de Derechos Humanos (CEDH) y el Convenio sobre la Protección de Datos Personales (Convenio para la Protección de las Personas con respecto a la Automática Procesamiento de Datos Personales ETS No. 108 según enmendado por el protocolo de enmienda CETS No. 223)[9], con el respeto a los principios del estado de derecho[10], y a los principios constitucionales[11].
En este contexto, recientemente, en Francia, el art. 33[12] de la Nueva Ley para la reforma de la Justicia, establece penas de cárcel de hasta 5 años para quien publique información estadística sobre las decisiones y el patrón de conducta de los jueces en cuanto a las sentencias que dictan. Es decir, una prohibición como esta limita parte de la funcionalidad de las herramientas respecto a detectar patrones de conducta del juez en las sentencias dictadas.
Pero ¿qué es la elaboración de perfiles?, se puede definir como toda forma de tratamiento automatizado de datos personales consistente en utilizar datos personales para evaluar determinados aspectos de una persona física, en particular para analizar o predecir aspectos relativos al rendimiento profesional, preferencias, comportamiento, fiabilidad.
Por tanto, resulta cabal poner la atención al tratamiento de los datos personales de los jueces (nombre y apellidos) individualmente por estas herramientas en cuanto a la elaboración de perfiles. Porque se analizan las sentencias dictadas por el magistrado o magistrada y a partir de las mismas se estudia su trayectoria, líneas argumentales y posicionamiento del juez en la materia objeto de análisis.
El tratamiento de datos masivos -big data- y los algoritmos pueden tener importantes sesgos o valores contrarios a los valores constitucionales en el caso de los supervisado, y en el caso de los no supervisados, los riesgos se incrementan, por ello también hay que reivindicar la transparencia algorítmica.
“La estadística del todo”, exige cautelas, ya que se produce la paradoja: de la exigencia de transparencia al sistema judicial y la falta de transparencia algorítmica[13]. El Parlamento Europeo, en 2017, señaló en relación de la utilización de algoritmos: “que la información revelada por los análisis de los macrodatos no ofrece una visión general objetiva e imparcial de ninguna materia, y que es tan fiable como los permitan los datos subyacentes”, y ha alertado del peligro de discriminación y el sesgo algorítmico.
El uso del nombre y apellidos del juez puede comprometer el principio de imparcialidad en su vertiente externa de independencia e imparcialidad, existe un riesgo de percepción de lesión de la necesaria independencia e imparcialidad en el ejercicio de la jurisdicción, y que se comprometa la confianza de los ciudadanos en la Administración de Justicia[14].
Por último, ya existen herramientas que utilizan algoritmos no supervisados que permiten cruzar fuentes de datos -por ejemplo, nombre y apellidos del jueces- con los datos en redes sociales (Twitter, o cualquier red social) que permiten segmentar el tipo de pensamiento, consiguiendo un perfilado de la persona física.
[1] del inglés: Legal Technology.
[2] RPA: se crean robots o “bots” que pueden aprender, imitar, y luego ejecutar procesos basados en reglas. RPA permite a los usuarios crear bots mediante la observación de las acciones digitales de los humanos. Muestran que hacer a los “bots” qué hacer, y luego dejar que hagan el trabajo.
[3] El término Jurimetrics (Jurimetría en castellano) apareció por primera vez en el artículo “Jurismetrics: the next step forward” de Lee Loevinger en 1949, publicado en el Minnesota Law Review. En ese momento tenía un enfoque teórico, fue en los años 60 cuando jurimetría comenzó a tener relevancia práctica, como disciplina de lógica matemática, y los métodos estadísticos aplicado al derecho.
[4] El jurista estadounidense, y juez de la Corte Suprema de Estados Unidos, Oliver Wendell Holme Jr. (1841-1935), ya se pronunció en este sentido: “para el estudio racional de la ley, el hombre de la letra negra puede ser el hombre del presente, pero el hombre del futuro es el hombre de la estadística, y el maestro de la economía”.
[5] Jurimetría: herramienta de la editorial Wolters Kluwer, una herramienta de analítica jurisprudencial innovadora, que permite definir la estrategia procesal más idónea para el éxito del caso, a través de indicadores gráficos interactivos, basado en el análisis de millones de decisiones judiciales. Ver https://www.wolterskluwer.es/productos/bases-de-datos/jurimetria.html.
[6] Labeled data.
[7] Input data.
[8] Tareas de clustering.
[9] En un marco general, en el ámbito de la Unión Europea el marco normativo de la protección de datos personales lo configuran dos instrumentos: - el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE ( Reglamento General de Protección de Datos), en el ordenamiento jurídico español, la Ley Orgánica 3/2018 de 5 de diciembre de Protección de Datos Personales y garantía de los derechos digitales, adaptó el Reglamento General de Protección de Datos, en lo que respecta al tratamiento de los datos personales y a la libre circulación de estos datos. Y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detención o enjuiciamiento de infracciones penales o de ejecución de sanciones penales , y a la libre circulación de dichos datos, en el ordenamiento jurídico español Ley Orgánica 7/2021 de 26 de mayo de protección de datos personales tratados para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales y de ejecución de sanciones penales.
[10] La Carta Europea sobre el Uso Ético de la Inteligencia Artificial e los Sistemas Judiciales y su entorno aprobada por CEPEJ el 3 de diciembre de 2018: Los cinco principios de la Carta de Ética sobre el Uso de Artificial Inteligencia en los sistemas judiciales y su entorno: 1.-Principio de respeto por los derechos fundamentales. 2.- Principio de no discriminación. 3.- Principio de calidad y seguridad. 4.-principio de transparencia, imparcialidad, y justicia. 5.-Principio “bajo control del usuario”: excluir un enfoque prescriptivo y garantizar que los usuarios sean actores informados y que controlen las elecciones realizadas.
[11] Art. 117.1. La justicia emana del pueblo y se administra en nombre del Rey y por Jueces y Magistrados integrantes del poder judicial, independientes, inamovibles, responsables y sometidos únicamente al imperio de la ley.
[12] Art. 33 de la Ley establece concretamente: “Los datos de identidad de los magistrados y miembros del Registro no pueden ser reutilizados con el propósito o el efecto de evaluar, analizar, comparar o predecir sus prácticas profesionales reales o presuntas. La violación de esta prohibición se castiga con las sanciones previstas en los artículos 226-18, 226-24, y 226-31 del Código Penal, sin perjuicio de las medidas y sanciones previstas en la Ley n.º 78-17 de 6 de enero 1978, en relación con el procesamiento de datos, archivos, y libertades”.
[13] Richards and King (2013), incluido en el artículo Big data e Inteligencia Artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales. Lorenzo Cotino Hueso.
[14] Texto de Principios de Ética Judicial asumido por el CGPJ, en el principio 31, establece: “El juez y la jueza, como ciudadanos, tienen derecho a la libertad de expresión...” [...] “preservar su independencia y apariencia de imparcialidad y mantener la confianza social en el sistema judicial y en los órganos jurisdiccionales”.
ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación