El TSJC investiga a un abogado por citar jurisprudencia inexistente generada por inteligencia artificial

Última actualización: 06/01/2026
Autor: Isaac
  • El Tribunal Superior de Justicia de Canarias detecta referencias a sentencias y a un informe inexistentes en un recurso de apelación.
  • El abogado habría confiado en propuestas de herramientas de inteligencia artificial sin verificar su autenticidad.
  • La Sala ordena abrir una pieza separada para depurar posibles responsabilidades por vulnerar la buena fe procesal.
  • El caso reabre el debate sobre los límites y riesgos del uso de la inteligencia artificial en la práctica jurídica en España.

Tribunal y uso de inteligencia artificial en recursos judiciales

La actuación de un abogado en un recurso de apelación ante el Tribunal Superior de Justicia de Canarias (TSJC) ha encendido todas las alarmas sobre el uso de herramientas de inteligencia artificial en la redacción de escritos judiciales. La Sala de lo Penal del alto tribunal canario ha detectado que el letrado habría incorporado en su recurso citas de sentencias y referencias a informes oficiales que, sencillamente, no existen en las bases de datos jurídicas ni en los registros institucionales.

El caso, que parte de un procedimiento por delitos contra la libertad sexual en Tenerife, ha llevado al TSJC a abrir una investigación específica sobre la conducta procesal del abogado. Los magistrados sospechan que el profesional pudo apoyarse en contenidos generados por algoritmos de inteligencia artificial y que, lejos de contrastar las fuentes, habría dado por buenas esas referencias ficticias, usándolas como si fueran jurisprudencia firme y documentación oficial.

Un recurso contra una absolución que destapa el problema

El origen de todo se encuentra en un juicio celebrado ante la Sección Segunda de la Audiencia Provincial de Santa Cruz de Tenerife, en el que se juzgaba a un vecino de la isla acusado de agresión sexual. La Audiencia absolvió al procesado, y la acusación particular, disconforme con ese fallo, decidió interponer un recurso de apelación ante la Sala de lo Penal del TSJC para tratar de revertir la absolución.

En su reciente resolución, la Sala confirma la sentencia absolutoria y desestima el recurso, pero, al mismo tiempo, pone el foco en el contenido del escrito presentado por el letrado de la acusación. Al analizar con detalle los fundamentos jurídicos, los magistrados se encontraron con un patrón reiterado de citas jurisprudenciales y referencias documentales que no aparecían por ninguna parte en los registros oficiales.

Según detalla el propio TSJC, el tribunal halló en el recurso al menos siete supuestas sentencias del Tribunal Supremo que no coinciden con ninguna resolución conocida ni pueden localizarse en las bases de datos jurídicas utilizadas habitualmente por los órganos judiciales. A ello se suman “otras muchas” referencias de similar naturaleza que la Sala califica como un ejercicio de “libérrima creatividad jurídica”, repartidas con aparente seguridad a lo largo del escrito.

  Micron deja de vender RAM y SSD Crucial: qué supone para el usuario

La Sala describe cómo el abogado “desgrana” esas citas con soltura y desparpajo, presentándolas como jurisprudencia firme, en un intento de reforzar sus argumentos de apelación. Esa aparente naturalidad con la que se integran las referencias hizo que los magistrados pusieran la lupa sobre la procedencia real de cada una de ellas, comprobando que no se correspondían con decisiones auténticas del Supremo.

Investigación judicial sobre uso de IA en recursos

Un informe del CGPJ que nadie encuentra

Además de las sentencias inventadas, el tribunal llama especialmente la atención sobre otra referencia incluida en el recurso: un supuesto informe del Consejo General del Poder Judicial (CGPJ) relativo a la credibilidad del testimonio infantil, fechado en 2019. En el escrito del letrado se transcribe un fragmento con gran precisión, como si se hubiera tomado directamente de un documento real.

La Sala subraya que no tiene constancia de que ese informe exista y que, pese a ello, el pasaje aparece citado casi como si el documento estuviera sobre la mesa del abogado o almacenado en su ordenador. Ese nivel de detalle, unido a la inexistencia de cualquier rastro oficial del informe, refuerza las sospechas de que también se trata de un contenido ficticio incorporado al recurso como si fuera un texto institucional genuino.

Para los magistrados, el conjunto de hallazgos revela una conducta que va más allá de un error aislado. La resolución habla de “palmaria negligencia” por parte de un profesional que debería ser experto en normas procesales y actuar con arreglo a los principios deontológicos de la abogacía. El tribunal considera que no se está ante un simple descuido, sino ante una forma reiterada de incorporar material no verificado como si fuera doctrina consolidada.

En este contexto, el TSJC pone el acento en que el abogado habría fiado buena parte de su trabajo “a lo que el algoritmo le propuso”, sin hacer la comprobación elemental de confirmar que las sentencias y los informes citados existían de verdad. La abundancia de referencias, apunta la Sala, podría haber perseguido el objetivo de dotar de una apariencia de solidez y autoridad a un recurso apoyado en fuentes que, en realidad, no son más que construcciones generadas por una herramienta tecnológica.

La propia resolución recoge la sospecha de que el letrado pudo pensar que la profusión de citas pasaría inadvertida para el tribunal y que, al mismo tiempo, reforzaría la fuerza de sus argumentos. Todo ello, sin percatarse de que los jueces contrastan la jurisprudencia y los informes que se invocan en los procedimientos, especialmente cuando de ellos depende la revisión de una absolución en materia de delitos sexuales.

  Elon Musk abre el algoritmo de recomendaciones de X y promete actualizaciones constantes

Formación de una pieza separada para depurar responsabilidades

Ante la magnitud de las irregularidades observadas, la Sala de lo Penal del TSJC no se limita a confirmar la absolución del acusado, sino que ordena abrir una pieza separada para investigar la actuación del letrado. Esta decisión se adopta al amparo del artículo 247, apartados 3 y 4, de la Ley de Enjuiciamiento Civil, en relación con los artículos 552 y siguientes de la Ley Orgánica del Poder Judicial.

La normativa citada regula las consecuencias de actuar en un proceso judicial vulnerando las reglas de la buena fe procesal. En términos prácticos, permite a los tribunales imponer multas a aquellos profesionales que litigan con mala fe, abusan del proceso o faltan al respeto debido al órgano judicial, sin perjuicio de que se comuniquen los hechos al colegio profesional competente para valorar posibles sanciones disciplinarias.

La Sala explica que la conducta apreciada está “lejos de consistir en un mero desliz o error venial”. Precisamente por su reiteración y por el impacto que puede tener en la confianza en el sistema de justicia, entiende que debe ser “depurada”, es decir, analizada en un expediente específico en el que se escuche al abogado y se determine si procede imponer alguna medida correctora o sancionadora.

En la práctica, la pieza separada permitirá recabar más información sobre el modo en que se elaboró el recurso, el uso que el letrado hizo de herramientas de inteligencia artificial y el grado de conocimiento que tenía sobre la falta de veracidad de las fuentes que citaba. A partir de ahí, el tribunal deberá decidir si aprecia mala fe, temeridad procesal o un menosprecio hacia el deber de veracidad y rigor que se exige a cualquier profesional del Derecho.

Sala de lo Penal y jurisprudencia falsa

Un toque de atención sobre la inteligencia artificial en la abogacía

Más allá del caso concreto, el expediente abierto por el TSJC se interpreta como un serio aviso sobre los límites del uso de la inteligencia artificial en el ámbito jurídico. En los últimos años, ha aumentado notablemente el uso de asistentes y generadores de texto automatizados para preparar borradores de demandas, recursos y escritos de alegaciones, tanto en España como en otros países europeos.

  Modo Agente en Excel y Word: todo lo que cambia en Office

Estas herramientas pueden resultar útiles para localizar rápidamente referencias normativas o esquemas argumentales, pero el tribunal canario recuerda, de forma implícita, que la responsabilidad última recae siempre en el profesional que firma el escrito. Es el abogado quien debe comprobar que las sentencias citadas existen, que los informes institucionales son reales y que la información que se introduce en un procedimiento judicial es veraz y contrastada.

El caso canario se suma a otros episodios conocidos en distintos sistemas jurídicos, en los que se han detectado “alucinaciones” de la inteligencia artificial: respuestas aparentemente solventes, pero con referencias inventadas, fechas erróneas o resoluciones judiciales que nunca se dictaron. Cuando ese tipo de contenido se traslada sin filtro a un documento procesal, el resultado puede comprometer la credibilidad del abogado y la confianza en la Administración de Justicia.

En un escenario europeo en el que se está impulsando una regulación específica sobre inteligencia artificial, situaciones como la analizada por el TSJC ponen el acento en la necesidad de establecer pautas claras de uso responsable en profesiones especialmente sensibles, como la abogacía, la judicatura o la fiscalía. No se trata solo de aprovechar las ventajas tecnológicas, sino de hacerlo sin poner en riesgo la seguridad jurídica ni los derechos de las partes.

El expediente que ahora tramita la Sala de lo Penal del TSJC funciona, por tanto, como un recordatorio de que las nuevas tecnologías no eximen del deber básico de diligencia y honestidad en el ejercicio de la profesión. El análisis de este caso concreto, con sus sentencias inexistentes y su informe fantasma del CGPJ, puede marcar un precedente relevante a la hora de fijar el listón de lo que se considera aceptable cuando se recurre a la inteligencia artificial para preparar escritos judiciales.

El pronunciamiento del TSJC deja sobre la mesa un mensaje claro: la inteligencia artificial puede ser una herramienta más en el despacho, pero nunca un sustituto del criterio, el rigor y la comprobación personal del abogado. La investigación abierta al letrado tinerfeño ilustra hasta qué punto las consecuencias de confiar ciegamente en lo que propone un algoritmo pueden ir más allá de un simple disgusto profesional y derivar en responsabilidades procesales y disciplinarias de calado.

la IA redefinirá la ciberseguridad en 2026
Artículo relacionado:
Cómo la IA redefinirá la ciberseguridad y la gestión del riesgo digital