¿Qué impacto pueden tener tecnologías como ChatGPT en la profesión legal?

Reflexiones sobre el impacto de ChatGPT en la profesión legal

Tribuna Madrid
Robotic,Hand,Assisting,Person,For,Signing,Document,Over,Wooden,Desk

Aunque la tecnología de LLM (grandes modelos de lenguaje) ya es conocida desde hace un par de años, ChatGPT ha conseguido producir la sensación de “salto cualitativo” gracias a un interfaz amigable (simplificando la “ingeniería de prompts”), su capacidad de continuar el contexto de un diálogo y una mejora de su comprensión lingüística y general.

Todos los profesionales que trabajan en alguna actividad relacionada con el conocimiento están evaluando qué impacto y limitaciones tienen este tipo de tecnologías. Al igual que está ocurriendo con la generación de imágenes, las IA están alcanzando un inesperado dominio técnico y capacidad creativa, que va ayudar a tareas de generación y búsqueda de contenidos (escritura, educación, software, marketing) pero también, en su lado oscuro, a hacer trampas en trabajos académicos y a la difusión de noticias falsas, tan bien fundamentadas como las del mejor negacionista o manipulador.

¿Qué impacto pueden tener tecnologías como ChatGPT en la profesión legal?

Es impresionante su dominio del lenguaje, pero también el nivel jurídico que están ya consiguiendo. No solo responden a preguntas, sino que crean documentos y pueden añadir cláusulas a un contrato desde distintos puntos de vista, e incluso han conseguido aprobar algunos exámenes jurídicos.

Su capacidad actual es ya cercana a la de un becario o abogado junior. Esto tiene dos implicaciones.
1. Por un lado, es portentoso que YA dispongamos de una herramienta que pueda actuar como un junior haciendo parte de los borradores de comunicaciones o contratos.
2. Por otro, SÓLO puede hacer una fracción del trabajo completo. Como con un abogado junior sus tareas tienen que estar siempre supervisadas. Es responsabilidad del abogado o socio el revisarlo y borrar o añadir.

Una de las limitaciones principales que tienen estos sistemas es que se inventan los detalles. Sí, es evidente que en ocasiones “alucinan”, pero lo expresan con mucho aplomo, como los mejores demagogos (aunque sin mala fe, no tienen ni intenciones ni modelo del mundo). Esto no es invalidante e inclusive es bueno en áreas creativas (marketing, narrativa, formación personalizada). Sin embargo, en derecho o medicina o ingeniería, no basta con proporcionar información “bastante buena”.
Lo más peligroso es que mezclan hechos ciertos con otros falsos, todos con el mismo aspecto de autoridad. Un ejemplo que ilustra este problema es esta respuesta que un aficionado a la ópera puede evaluar, pero no la mayoría. Un fallo equivalente no es permisible en un documento jurídico.

Al tratar con información jurídica, ChatGPT normalmente confunde muchos de los datos numéricos (artículos, datos de sentencia), lo cual es fácil de detectar, pero en las explicaciones se colarán sutiles errores u omisiones difíciles de percibir. Esto implica que sólo los que ya son expertos tendrán la capacidad de detectar algunos de esos fallos.

Implicaciones para la búsqueda y creación de contenidos

Son dos ámbitos que hay que analizar por separado.

Respecto a la búsqueda de información jurídica hay dos problemas todavía insalvables para poder utilizar de manera profesional estos modelos de lenguaje generativos.
1. No pueden citar sus fuentes. Esto es crítico para todo sistema información jurídica y más teniendo en cuenta su capacidad de fabular. ¿Esto quién lo dice: un tribunal, una ley, un autor o «GPT»? Si se le pregunta, se inventará la fuente con la misma tranquilidad.
2. No es fácil incorporar nuevos conocimientos. ChatGPT no sabe nada posterior a septiembre de 2021. En un buscador tradicional es fácil añadir documentos, pero en las redes neuronales, y más en las de este tipo, se requieren costosos reentrenamientos.

En cuanto a las tareas de creación de contenidos (comunicaciones, resúmenes, informes, contratos) puede ahorrar algo de trabajo en algunos escenarios y siempre que se asuma que es un borrador que deberá ser revisado y completado cuidadosamente. Ahí, como con cualquier ayudante será el profesional jurídico el que valore cuánto trabajo le ahorra y cuánto le crea (“acabo antes haciéndolo yo desde el principio”).

En cualquier caso, ya se ha producido un salto cualitativo en las capacidades de utilizar ingentes conocimientos, con una gramática clara, adaptándose a distintos estilos y a través de diálogos. Un ejemplo de cómo pueden ayudar en la creación de contenidos con distintos enfoques fueron una serie de pruebas para elaborar mensajes de presentación sobre unas nuevas funcionalidades de búsqueda. En todos los escenarios se generó ideas de notable calidad y variedad. En algunos casos, como éste, conseguía sorprendernos.

En conclusión

Por primera vez existe un sistema fácil de utilizar y que empieza a demostrar conocimientos jurídicos básicos. Además, esto no va a pararse aquí, ya que otros competidores de OpenAI como Google o Meta también han demostrado que tienen esta capacidad, y tomarán nota de por qué ahora se ha desatado este furor mediático y cómo seguir sus pasos.

La más peligroso de la información que proporcionan es que, como decían del demonio en la película 'El exorcista' ('The Exorcist', William Friedkin, 1973), es que “mezclará datos reales y datos inventados”.

Hay tareas en donde esa limitación para discernir la realidad no es un impedimento, como, por ejemplo, donde la verdad es irrelevante, como en la escritura de ficción, o cuando es fácil para el usuario comprobar si eso es correcto o no, o en áreas en que existe mucho material fiable de entrenamiento (código de programación, traducciones).

En el derecho esto no es así. Un pequeño fallo puede ser muy grave, y más si se trata de un texto bien escrito que pueda crear una apariencia de verdad. Por eso la clave es asumir que siempre van a tener que revisarse los textos que genere.

Estos son retos a los que las empresas Legaltech, como las editoriales jurídicas, tienen que afrontar para transformar estas capacidades en un producto profesional.

Probablemente los LLM no hay que verlos como una inteligencia artificial general (AGI) sino que se parecerán más a uno de los dos sistemas de la mente descritos en “Pensar Rápido, Pensar Despacio”. Estos modelos de lenguaje generativos serían el Sistema 1, la mente creativa que sugiere ideas, pero también fantasías y tentaciones, e intenta elaborar explicaciones plausibles, pero que necesita de un Sistema 2 que evalúe y ponga orden.

Y como ejemplo final, una respuesta de ChatGPT a la pregunta «¿Qué estrategia debe seguir la profesión legal para no ser reemplazada por la IA?», excelente en la forma y el fondo.

 

 

 


ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación