
Se puede intuir, se puede ver venir el drama: es domingo por la tarde, por poner un día, y se debe elaborar y presentar un escrito judicial al día siguiente a más tardar. El cliente es ajeno a ello, está viendo el partido de fútbol de la jornada y presume que todo está en orden. Y ya se sabe, se deben elaborar argumentos jurídicos, con el andamiaje de citas a artículos de la ley procesal civil o criminal, del Código Civil o Penal, según la materia de la que se trate, todo ello aliñado con referencias a sentencias recaídas en casos parecidos, a informes dictados por instituciones públicas o privadas o a informes periciales.
No es que el tiempo apremie, es que no hay tiempo para hacer un trabajo decente por la acumulación de tareas, que no es que uno sea vago o desordenado, sino que abarca más de lo que puede o debe. Y entonces es cuando al letrado —o al profesional de turno— le surge la idea, el ¿y si…?
Sin más rodeos, enciende su ordenador, busca alguna de las inteligencias artificiales de moda en ese momento y escribe el prompt de la perdición: «[…] Y una vez que te he relatado los hechos, necesito que me des jurisprudencia de la Sala de lo Penal del Tribunal Supremo que pueda servir para defender la posición de mi cliente».
Y la inteligencia artificial, dócil como es y siempre dispuesta a agradar al usuario, facilita unas 50 citas de sentencias, aparentemente impecables pero casi todas ellas tan falsas como el beso de Judas.
El abogado respira, las corta y las pega en los lugares adecuados de su escrito y piensa: qué maravilla la inteligencia artificial. Le comunica a su cliente por WhatsApp, esa misma tarde-noche de cualquier domingo, que al día siguiente presentará el escrito, que todo está en orden y fundamentado con antecedentes judiciales bien identificados que deben conducir a que el tribunal le dé la razón. Emojis sonrientes y pulgares hacia arriba viajan, en ida y vuelta, de uno a otro teléfono móvil. Por supuesto, no le dice que ya no tiene un becario (el pasante de toda la vida) que le ayude en el despacho, sino el favor de la tecnología.
¿Supervisión humana, en la línea de lo establecido en el Reglamento de la Unión Europea sobre Inteligencia Artificial? Eso es para desconfiados, la máquina no suele equivocarse, y total, tampoco hay tiempo para ello.
Lo escrito hasta aquí entra en el terreno de la ficción o de la conjetura, de lo que podría haber pasado, pero lo que sigue sí que es real.
La tragedia de dimensiones griegas acaba de empezar. El tribunal que recibe el escrito duda, por alguna razón le surge la sospecha. Le podía haber tocado a cualquier otro, eso que quede claro, pues probablemente este no sea el primer escrito de esta naturaleza que llega a un tribunal y quien esté libre de pecado que tire la primera piedra (incluidos los jueces, que quedan sujetos a la Instrucción 2/2026 aprobada por Acuerdo de 28 de enero de 2026, del Pleno del Consejo General del Poder Judicial, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional por parte de la Carrera Judicial).
Pero si te toca la china te toca, cogiste el palito corto, el destino te la guarda a ti y a ti te corresponde dar la cara, para lo bueno y para lo malo.
El tribunal destinatario del escrito analiza, una a una, a pesar de que no le sobran ni el tiempo ni los recursos, todas las citas a anteriores sentencias judiciales. Levanta el velo y ahí está el supuesto engaño, o, mejor, la falta de diligencia, porque para meter la gamba es suficiente con tirar de la inteligencia artificial, emplearla para un fin profesional y no tener la mínima precaución de comprobar lo que la máquina nos brinda con toda su mejor intención, si es que realmente la tiene…
Recae la sentencia por la que se resuelve el fondo del asunto, que a nosotros en este momento, a pesar de la gravedad de los hechos, no nos interesa, pero en aquella se reserva un espacio en su parte final que pasa a la historia judicial española.
El tribunal alude al discurso aparentemente «coherente y ponderado» del abogado, salpicado de citas que «deambulan» por el escrito, de «presuntas sentencias del Tribunal Supremo» y de «citas apócrifas». Se trata de una «libérrima creatividad jurídica» que además se permite inventar un «Informe del Consejo General del Poder Judicial sobre la credibilidad del testimonio infantil, 2019», que, por supuesto, también es fruto de la fértil mente alucinada de la inteligencia artificial.
El tribunal concluye —y merece la pena traer a colación esta perla un pelín extensa— que se evidencia «una conducta reveladora de palmaria negligencia de quien, tenido por experto en normas procesales y respetuoso con los principios deontológicos de su profesión, fio su trabajo, sin mayor revisión, a lo que el algoritmo le propuso, omitiendo la diligencia de verificar la existencia de lo que citaba, confiando acaso en que la abundancia de referencias no solo pasaría inadvertida a este Tribunal, sino que infundiría autoridad a sus asertos (probablemente de idéntica factura que las citas)».
Rectificar es de sabios, y el letrado aceptó el error cometido y su falta de diligencia. Se le impuso, por faltar a la buena fe —ese concepto tan jurídico, tan antiguo y todavía tan útil en sus más variadas expresiones— y por desconsideración hacia el tribunal, una sanción de 420 euros (el coste de seis meses, según se explica, de suscripción a una buena plataforma de inteligencia artificial para abogados).
Pero más duro fue que, al ser las resoluciones judiciales públicas, pudo ser identificado por sus compañeros y fue «objeto de comentarios y burlas», con impacto personal y en su reputación profesional.
La sentencia proporciona algunos otros criterios que merece retener. Por ejemplo, se acepta la relevancia de las herramientas de inteligencia artificial para las profesiones jurídicas y, en concreto, para los abogados (también, como mostramos anteriormente, para los mismos jueces). Se recoge el razonable argumento del «Libro Blanco sobre Inteligencia Artificial y Abogacía», elaborado por el Consejo General de la Abogacía y el Ilustre Colegio de Abogados de Valencia: la inteligencia artificial es un complemento y no un sustituto del profesional de la abogacía, le asiste pero no le sustituye. Esto es: usar la inteligencia artificial no está mal, pero si lo haces hazlo responsablemente, por respeto a tu cliente, a la profesión y a la administración de justicia que pagamos entre todos. Los abogados deben elegir bien al proveedor del servicio (ojo, esto es otro aviso para navegantes: una mala elección podría ser la causa de una hipotética culpa in eligendo) y deben validar siempre los resultados originados por la plataforma contratada (la idea, antes mencionada, de la inderogable supervisión humana).
El caso, como decíamos, es relevante porque es el primero por el que se sanciona a un profesional del Derecho por este uso indebido de la nueva tecnología. Sin embargo, el abogado merece misericordia por dos razones: la primera es que le tocó a él como le podría haber tocado a cualquier otro, y la segunda es que reconoció expresamente su error.
Las enseñanzas pueden ser muchas, extrapolables a los más variados ámbitos de la vida social, pero nos quedamos con una cuestión que nos parece nuclear y que no está por ahora bien resuelta, como es la de la supervisión humana de los resultados generados por la inteligencia artificial.
Estos resultados tienden al infinito, en amplitud y en profundidad, y aumentarán la eficiencia y la productividad de manera que no podemos siquiera predecir. Por tanto, cuanto mayor sea el desarrollo de la inteligencia artificial más difícil será la efectiva supervisión humana de toda la actividad generada. Esta básica intuición ya está siendo corroborada por estudios científicos.
Un reciente artículo de la Harvard Business Review ya habla de «AI brain fry» («cerebro frito por IA»), que se define como la fatiga mental derivada del uso excesivo o la supervisión de herramientas de inteligencia artificial más allá de la propia capacidad cognitiva. Los trabajadores más afectados serían los del marketing y los recursos humanos, y los que menos los grandes gestores empresariales y, curiosamente, los profesionales del Derecho (seguro que el letrado del caso que analizamos no pensaría lo mismo).
En este nuevo escenario, la verdadera pericia de todo profesional no consistirá en generar contenido, sino en la diligencia de verificarlo en su completa integridad con pulcritud exquisita, y en no asumir nunca, sin más, una quimera engendrada por un frío modelo probabilístico, elaborada por la inteligencia artificial con la misma mirada de ternura con la que algunos perros miran a sus amos.
Referencias bibliográficas
Consejo General de la Abogacía e Ilustre Colegio de Abogados de Valencia (2026): «Libro Blanco sobre Inteligencia Artificial y Abogacía». [https://www.abogacia.es/publicaciones/ebooks/libro-blanco-inteligencia-artificial-y-abogacia/].
Consejo General del Poder Judicial (2026): «Acuerdo de 28 de enero de 2026, del Pleno del Consejo General del Poder Judicial, por el que se aprueba la Instrucción 2/2026, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional». [Boletín Oficial del Estado de 30 de enero de 2026. [https://www.boe.es/diario_boe/txt.php?id=BOE-A-2026-2205].
Harvard Business Review (2026): «When Using AI Leads to ‘Brain Fry’», 5 de marzo. [https://hbr.org/2026/03/when-using-ai-leads-to-brain-fry].
Servicio de Comunicación del Poder Judicial: «El TSJ de Canarias multa a un abogado por citar hasta 48 sentencias falsas sugeridas por IA», 13 de febrero. [https://www.poderjudicial.es/cgpj/es/Poder-Judicial/Noticias-Judiciales/El-TSJ-de-Canarias-multa-a-un-abogado-por-citar-hasta-48-sentencias-falsas-sugeridas-por-IA].
Unión Europea (2024): Reglamento (UE) 2024/1689, del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial. [https://eur-lex.europa.eu/legal-content/ES/ALL/?uri=OJ:L_202401689].






