Un juez puede leer cientos de páginas al mes. Abogados, informes, recursos, sentencias. Todo forma parte de una maquinaria pesada, precisa, donde cada palabra cuenta. Pero algo falló en ese engranaje cuando un tribunal canario se topó con citas que no existían. Sentencias del Tribunal Supremo que nunca se dictaron. Informes oficiales que jamás vieron la luz. Y todo escrito con la soltura de quien copia de un documento real, con citas exactas, fechas detalladas, extractos aparentemente verídicos. Solo había un problema: todo era falso. Y muy probablemente, generado por inteligencia artificial.
La ficción que se coló en el juzgado
El Tribunal Superior de Justicia de Canarias ha abierto una pieza separada para investigar a un abogado que, al presentar un recurso de apelación, incluyó al menos siete sentencias del Tribunal Supremo que no figuran en ninguna base de datos judicial. Citó también un informe del Consejo General del Poder Judicial sobre la credibilidad del testimonio infantil, fechado en 2019. Un informe que, según el propio tribunal, no existe. Ni en papel, ni en digital, ni en los archivos más profundos del sistema judicial.
Lo más inquietante no es solo el error. Es la forma. El recurso desgranaba esas falsedades con una fluidez inquietante, como si el profesional hubiera tenido ante sus ojos documentos reales. El tribunal habla de “libérrima creatividad jurídica”, un eufemismo elegante para designar lo que muchos ya temen: el uso irresponsable de herramientas de inteligencia artificial en entornos críticos.
El caso no es aislado. En otros países ya han ocurrido incidentes similares. En Estados Unidos, un abogado fue sancionado por citar sentencias inventadas por ChatGPT. En Francia, también han aparecido casos de informes legales con referencias falsas generadas por IA. Pero este es el primero de estas características en España, y sucedió en un caso delicado: una acusación por delito de agresión sexual, en el que la credibilidad del testimonio infantil era clave.
Confianza ciega en la máquina
El tribunal no se limitó a desestimar el recurso. Fue más allá. Señaló que el comportamiento del letrado “parece evidenciar una conducta reveladora de la palmaria negligencia de quien, tenido por experto en normas procesales y respetuoso con los principios deontológicos de su profesión, fió su trabajo sin mayor revisión a lo que el algoritmo le propuso”.
Es una frase contundente. Subraya que no se trata de un despiste ocasional. Se habla de una omisión deliberada de verificación, una confianza ciega en la tecnología. Como si la abundancia de citas bastara para dar autoridad al argumento, sin importar su origen. Como si la cantidad sustituyera a la calidad, y la apariencia de rigor reemplazara al rigor real.
Y eso es peligroso. Porque el sistema de justicia no funciona con apariencias. Funciona con pruebas, con precedentes, con transparencia. Si un abogado puede citar sentencias que no existen y esperar que pasen desapercibidas, el sistema entero se tambalea. La buena fe procesal no es un formalismo. Es el cimiento del derecho.
¿Hasta dónde delegamos en las máquinas?
La inteligencia artificial puede ayudar. Redactar borradores, organizar jurisprudencia, resumir documentos. Pero no puede decidir qué es verdadero. No puede asumir la responsabilidad ética de un profesional. Y mucho menos en un juicio donde la libertad de una persona está en juego.
Este caso plantea una pregunta incómoda: ¿hasta dónde estamos dispuestos a delegar en algoritmos que no entienden el peso de sus palabras? Generan textos impecables, fluidos, con estructura y estilo. Pero también pueden inventar con total naturalidad. No mienten. Simplemente no saben que lo hacen. Producen “hallucinaciones” técnicas, ilusiones de sentido que suenan verdaderas.
Y si un abogado no las detecta, si no revisa, si confía ciegamente, convierte una herramienta útil en un arma de distorsión masiva. No se trata de prohibir la IA. Se trata de usarla con conciencia, con humildad, con el conocimiento de que la responsabilidad final siempre recae en el humano.
Consecuencias que van más allá del despacho
El Tribunal Superior de Justicia de Canarias ha activado un procedimiento para determinar si el abogado incurrió en una falta grave al vulnerar las reglas de la buena fe procesal. Podría enfrentar una multa. Además, los hechos serán trasladados al colegio profesional, que podría imponer sanciones disciplinarias.
Pero el impacto va más allá de una sanción individual. Este caso es una señal de alerta. No solo para abogados, sino para periodistas, médicos, científicos, educadores. Cualquiera que use IA en su trabajo debe saber que el filtro final no es el software. Es la ética. Es la verificación. Es la obligación de no confundir lo que suena bien con lo que es cierto.
La tecnología avanza a ritmo exponencial. Pero los valores no pueden quedarse atrás. Porque en un juicio, como en la vida, la verdad no es negociable. Y las máquinas, por muy inteligentes que sean, aún no saben lo que significa.