Como no podía ser de otra manera, la omnipresente inteligencia artificial (IA) también ha irrumpido con fuerza en el mundo jurídico, revolucionando la forma de trabajar del sector, lo que supone un avance a la altura de la digitalización de las bases de datos de jurisprudencia –los compañeros de mi quinta que tuvieron que buscar en estanterías llenas de compendios ordenados por años, sabrán a lo que me refiero–, el envío de escritos y resoluciones judiciales a tiempo real mediante correo electrónico –en lugar del fax o, incluso, el correo ordinario usado otrora para el intercambio epistolar con los procuradores–, o la digitalización de los expedientes, que nos permite trabajar desde cualquier punto del planeta que cuente con una mesa, una silla y wifi.
Antes de la IA, ya se hicieron ensayos con otras tecnologías, como la realidad virtual, que fue usada en enero de 2025 por un Juzgado del condado de Broward (Florida), que admitió como prueba una simulación de los hechos generada por realidad virtual, y que fue reproducida en la vista judicial con unas gafas Oculus Quest, con las que el Juez pudo ver una recreación de la escena enjuiciada; o el procedimiento penal tramitado por un Juzgado de Arizona, en el que se reprodujo una recreación digital generada con IA, en la que la víctima, Chris Pelkey (un veterano fallecido tras una discusión de tráfico), intervino en el acto del juicio para manifestar su perdón al acusado, que es lo que su familia pensaba que él hubiera hecho.
Además de convertirse en instrumento de trabajo para los juristas, la propia IA puede ser la protagonista del litigio, como ocurrió en la denuncia por homicidio culposo presentada contra la empresa Character.AI en mayo de 2025, por la madre de Sewell Setzer, un adolescente de 14 años que se suicidó tras mantener conversaciones de naturaleza emocional y sexual con un chatbot que imitaba un personaje de la serie Juego de Tronos. Dicha denuncia fue admitida a trámite por una Juez de Distrito de Florida, que desestimó el alegato del abogado de la denunciada para que se aplicara la Primera Enmienda de la Constitución norteamericana (libertad de expresión), rechazando que la producción automatizada de un asistente virtual pueda tener derechos constitucionales.
Pero donde realmente está generando un gran impacto la IA en el ámbito legal es en la redacción de documentos jurídicos, siendo especialmente conflictivos aquellos que están destinados a generar efectos en sede judicial (resoluciones y escritos de parte), ya que el uso inapropiado de la IA puede provocar que incluyan contenido que no se ajuste a las normas e, incluso, directamente, que sean puros inventos, con las peligrosas consecuencias que ello puede acarrear.
Por lo que se refiere a las resoluciones judiciales, en octubre de 2025 la Cámara en lo Penal de Esquel anuló una sentencia dictada por un Juzgado de Chubut (Argentina), debido a que en su texto aparecía la frase “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”, lo que evidenciaba el uso de IA para la redacción de la resolución. Esta decisión se basó en la falta de transparencia sobre qué sistema de IA se usó, qué datos se le introdujeron o qué instrucciones recibió, así como que la facultad de juzgar es una concesión personal, no pudiéndose delegar en un algoritmo la toma de decisiones que afectan a la libertad de las personas.
En cuanto a los escritos presentados en instancias judiciales por abogados, los Tribunales españoles ya han empezado a dictar resoluciones sobre la cuestión. De esta forma, el Acuerdo de 19 de septiembre de 2024 del Tribunal Constitucional resolvió por unanimidad sancionar a un abogado por la falta del debido respeto al Tribunal, al incluir en un Recurso de Amparo 19 citas jurisprudenciales “que se entrecomillaban como si fueran reales cuando en realidad no existían”.
En el mismo sentido, el Tribunal Superior de Justicia de Canarias dictó la sentencia 126/2025, de 22 de diciembre de 2025, que sancionó a un letrado que incluyó en su recurso citas entrecomilladas atribuidas al Tribunal Supremo que no existían y se invocó un imaginario informe del Consejo General del Poder Judicial de 2019 sobre la credibilidad del testimonio infantil, lo que fue calificado como “libérrima creatividad jurídica” y “palmaria negligencia”, por lo que se consideró que no se trataba de un simple error, sino una práctica reiterada que merecía una sanción disciplinaria; así como el reciente Auto de 10 de febrero de 2026 que ha multado con 420 € a un abogado por citar hasta 48 sentencias falsas sugeridas por IA, valorándose para la fijación de la cuantía el reconocimiento de los hechos y el arrepentimiento del letrado.
Por el contrario, el Auto 2/2024, de 4 de septiembre de 2024, dictado por el Tribunal Superior de Justicia de Navarra acordó no sancionar a un abogado que citó en una querella un artículo del código penal colombiano, como si fuera del código penal español, al haber usado ChatGPT para la redacción del documento. En esta ocasión, la ausencia de sanción se fundamentó también en su reacción inmediata, pidiendo disculpas y admitiendo el error, por lo que se descartó el ánimo de engaño, sin perjuicio de que se advirtió que el uso inadecuado de la IA puede constituir mala fe procesal.
De esta forma, no cabe duda de que nos encontramos en un nuevo ecosistema donde convivimos con tecnologías que pueden ayudarnos a ser profesionales más eficaces y productivos, o pueden arrastrarnos a cometer errores de impredecibles consecuencias, si se cae en la tentación de dejar que se generen contenidos sin supervisión. Y es que, como ha ocurrido con todos los progresos de la Humanidad desde que se consiguió el dominio del fuego o se inventó la metalurgia, la IA no es peligrosa en sí misma, pero puede serlo si se utiliza sin el necesario control.
ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación