Un abogado introduce 48 citas judiciales falsas en un recurso de apelación. No las inventó a mano. No copió de otro pleito. Las generó con inteligencia artificial. Y fue descubierto no por un juez escéptico, sino por una documentalista que, con calma y método, comprobó una a una las sentencias citadas. Ninguna existía.
El caso ocurrió en Canarias. La Sala de lo Penal del Tribunal Superior de Justicia detectó el fraude de realidad. Las supuestas sentencias pertenecían al Tribunal Supremo. También mencionaba un informe del Consejo General del Poder Judicial. Todo falso. Todo fabricado por una herramienta de IA generalista, del tipo que cualquiera puede usar desde un navegador.
Cuando la IA inventa la ley
Imagina que escribes un trabajo sobre medicina y citas estudios que nunca se hicieron. O que redactas un informe técnico basado en normas que no existen. Sería un error grave. En el ámbito jurídico, es más que un error. Es una falla ética. Porque el derecho no admite ficciones. O al menos no debería.
El abogado en cuestión utilizó la inteligencia artificial para agilizar su trabajo. Quería fundamentar su recurso con jurisprudencia sólida. Pero no verificó ni una sola de las 48 referencias. No comprobó números de sentencia, fechas ni identificadores. No contrastó los resultados con bases oficiales. Confío ciegamente en la máquina.
El tribunal fue claro esta omisión rompe el deber básico de supervisión humana. No se trata de prohibir el uso de la IA. Se trata de no confundir una herramienta con un oráculo.
La multa que mide el precio de la negligencia
La sanción fue de 420 euros. No parece una cifra descomunal. Pero el tribunal la eligió con intención. Es exactamente la mitad del coste de una suscripción anual a una herramienta de inteligencia artificial especializada en derecho.
Con esa herramienta, el error probablemente se habría evitado. No porque sea infalible, sino porque está diseñada para operar dentro del marco legal real, con acceso a fuentes verificadas. La IA generalista, en cambio, puede sonar convincente y estar completamente equivocada. Inventa datos con naturalidad. Y los presenta como verdaderos.
El mensaje es ejemplarizante. No se castiga solo el resultado. Se advierte sobre un riesgo sistémico. Si los profesionales del derecho empiezan a confiar sin filtro en modelos de lenguaje entrenados con internet, la ficción jurídica puede volverse epidémica.
Arrepentimiento y advertencia
El abogado admitió los hechos. Reconoció su responsabilidad. Mostró un arrepentimiento que el tribunal calificó de "aparentemente sincero". No negó el uso de la IA. Tampoco justificó el fraude. Asumió las consecuencias.
El tribunal, por su parte, no demoniza la tecnología. Al contrario. Reconoce el potencial transformador de la IA en las profesiones jurídicas. Pero traza una línea roja el profesional debe entender la herramienta como un asistente, nunca como un sustituto.
La supervisión humana no es un paso más. Es el eje central de cualquier actuación profesional que use IA. Depender ciegamente de un sistema que genera contenido plausible pero falso es como dejar que un copiloto autónomo conduzca sin que el piloto mire el camino.
El futuro del derecho en tiempos de algoritmos
Este caso no es una anécdota. Es un síntoma. Cada vez más profesionales usan inteligencia artificial para redactar, resumir, investigar. En medicina, en periodismo, en ingeniería. Y en todas partes, el riesgo es el mismo confundir velocidad con rigor.
La IA puede leer millones de sentencias en segundos. Pero no entiende el derecho. No siente la responsabilidad de un letrado ante un juez. No carga con el peso de una ética profesional. Solo simula coherencia.
El tribunal de Canarias no solo sancionó a un abogado. Lanzó una advertencia a toda una profesión. La tecnología puede ayudar. Pero el juicio, la verificación, la responsabilidad, siguen siendo humanas. Y deben seguir siéndolo.