Hay un silencio incómodo en muchas salas de los juzgados españoles. No es el silencio del respeto al tribunal, sino el de la espera. Espera por un juez, por un funcionario, por una resolución que nunca llega. Detrás de cada caso judicial, hay personas cuyas vidas se detienen mientras el sistema se enlentece. Y detrás de ese enlentecimiento, hay un problema que no es nuevo, pero que ahora choca frontalmente con una nueva amenaza la dependencia acrítica de herramientas de inteligencia artificial en un entorno donde cada palabra cuenta.
Un sistema sobrecargado
En España, el sistema judicial está bajo presión. No es solo una queja común entre ciudadanos. Es una realidad que los profesionales del derecho conocen con crudeza. La falta de jueces, de funcionarios, de fiscales y de juzgados es sistémica. Lo dice con contundencia José María de Pablo, abogado penalista y profesor en varias instituciones académicas, quien advierte sin rodeos «En España hay una falta de jueces, hay una falta de juzgados, hay falta de funcionarios, hay falta de fiscales».
Esta escasez estructural no es un simple detalle administrativo. Tiene consecuencias directas. Todos los juzgados en general son lentos porque este problema estructural les impide ser rápidos. Y aunque la lentitud podría interpretarse como un mal menor frente a la precipitación, la realidad es más compleja. De Pablo no se queda en la crítica. Plantea una solución radical, pero no descabellada «A lo mejor habría que plantearse multiplicar por dos el número de plazas». No es una propuesta populista. Es una urgencia funcional.
Lentitud versus rigor
En este contexto, surge una pregunta incómoda ¿vale la pena la lentitud si garantiza justicia? Para De Pablo, la respuesta es matizada. Él prefiere un juez lento que se estudie las pruebas, que se estudie la documentación, a uno que por ir rápido cometa errores irreparables. La justicia no es velocidad. Es precisión. Es el examen minucioso de cada pieza del caso. Es la diferencia entre una sentencia fundada y una resolución que, por prisas o por descuido, se convierte en un acto burocrático vacío.
Pero ahora, esa lentitud se encuentra con una nueva tentación la inteligencia artificial. Herramientas como ChatGPT, Google Gemini, Microsoft Copilot o Perplexity prometen agilidad. Prometen respuestas en segundos, jurisprudencia a un clic, argumentos redactados con soltura. Y muchos abogados, funcionarios y hasta jueces han caído en la trampa de usarlas como oráculos. Con resultados alarmantes.
Cuando la IA se inventa la ley
«Yo he hecho pruebas cuenta De Pablo, le he hecho preguntas. Empecé con GPT, con otras inteligencias artificiales, y en cuanto le pides jurisprudencia, se va a inventar sentencias, se inventa leyes, se inventa casos». No exagera. Hay casos documentados. Un abogado sancionado por citar sentencias inexistentes, obtenidas de inteligencia artificial. Otro más, reciente, en el que un juez fue denunciado porque en una resolución judicial citó jurisprudencia que nunca existió.
"A mí me han notificado una sección de la Audiencia Provincial, dos autos con datos falsos, con datos que se imaginaba chat GPT. Yo no recomiendo chat GPT para a los abogados porque se inventa cosas" - José María de Pablo, abogado penalista
Esto no es ciencia ficción. Es el día a día de un sistema que intenta modernizarse sin comprender los riesgos. La IA puede parecer un aliado, pero en derecho, donde la exactitud es sagrada, puede convertirse en un enemigo silencioso. Y cuando se juega con la libertad de una persona, no hay margen para errores. «Yo juego con la libertad de mis clientes», dice De Pablo. «Yo trato de tomármelo muy en serio, de comprobar todo y de estudiar todo. No me puedo arriesgar a que un cliente pierda su derecho a la libertad porque yo he utilizado ChatGPT».
La ayuda que exige supervisión
Nadie niega que la inteligencia artificial pueda tener un papel útil. Pero ese papel no es el de sustituir al profesional. La IA puede ser una ayuda, pero siempre bajo supervisión rigurosa. De Pablo lo tiene claro «Yo creo que ahora mismo la inteligencia artificial puede ser una ayuda en determinados casos. Pero para decirle que me busque cosas y luego comprobarlos».
Y es que el peligro no está solo en el error técnico. Está en la normalización del copia y pega. En la tentación de aceptar una redacción pulida, un argumento convincente, sin cuestionar su origen. «A veces también ocurre advierte que ves que hay un juicio que te resuelve con un copia y pega, con ChatGPT». Cuando eso sucede, no solo se vacía el sentido del juicio. Se pone en riesgo la confianza en la justicia misma.
El sistema judicial español necesita más recursos, más personal, más tiempo. Pero también necesita más conciencia. Porque en un mundo donde la información fluye a velocidad de clic, la responsabilidad del profesional no puede delegarse a una máquina que no entiende de derechos, ni de consecuencias, ni de libertades humanas.