![]() |
| Fuente de la imagen: Inteligencia artificial en el ejercicio de lo público (M. Velasco, 2021) |
Resumen: Se analiza el marco normativo y ético que regula la implementación de sistemas de inteligencia artificial (IA) en la Administración de Justicia en España, tomando como eje central la reciente Instrucción 2/2026 del Consejo General del Poder Judicial. La integración de estas tecnologías en el ámbito judicial responde a una necesidad de modernización y eficiencia procesal, debiendo alinearse estrictamente con las garantías constitucionales y el Reglamento (UE) 2024/1689 de la Unión Europea. A lo largo del texto, se examinan los principios de control humano, la prohibición de sustitución del juzgador por algoritmos y los límites impuestos al tratamiento de datos judiciales. Se concluye que, si bien la IA ofrece herramientas potentes para la gestión del conocimiento y la elaboración de borradores, el núcleo de la función jurisdiccional —la valoración de la prueba y la interpretación jurídica— permanece como una prerrogativa humana inalienable, salvaguardada por mecanismos de supervisión algorítmica y responsabilidad profesional.
Palabras clave: Inteligencia Artificial, Poder Judicial, Independencia Judicial, Derechos Fundamentales, Algoritmos, Regulación Europea.
Abstract: This article analyzes the regulatory and ethical framework governing the implementation of artificial intelligence (AI) systems in the administration of justice in Spain, focusing on the recent Instruction 2/2026 of the General Council of the Judiciary. The integration of these technologies into the judicial sphere not only responds to a need for modernization and procedural efficiency, but must also strictly align with constitutional guarantees and Regulation (EU) 2024/1689 of the European Union. Throughout the text, the principles of human oversight, the prohibition of replacing judges with algorithms, and the limits imposed on the processing of judicial data are examined. It is concluded that, while AI offers powerful tools for knowledge management and drafting, the core of the judicial function—the evaluation of evidence and legal interpretation—remains an inalienable human prerogative, safeguarded by algorithmic oversight mechanisms and professional accountability.
Keywords: Artificial Intelligence, Judiciary, Judicial Independence, Fundamental Rights, Algorithms, European Regulation.
1. Introducción
La irrupción de la IA en las estructuras del Estado de Derecho ha generado un debate sobre la redefinición de la eficiencia administrativa frente a la preservación de las garantías procesales. En el contexto de la Unión Europea, el Reglamento (UE) 2024/1689 ha sentado las bases de un modelo de gobernanza centrado en el ser humano, clasificando los sistemas de IA según su potencial de riesgo para los derechos fundamentales (DDFF). Dentro de esta taxonomía, las herramientas destinadas a la actividad jurisdiccional ocupan un lugar delicado, siendo consideradas de alto riesgo debido a su capacidad para influir en la interpretación de los hechos y la aplicación del Derecho.
En España, el Consejo General del Poder Judicial (CGPJ) ha respondido a este reto mediante la aprobación de la Instrucción 2/2026, una norma que busca armonizar el avance tecnológico con los principios clásicos de la jurisdicción. Este marco regulatorio se integra en un ecosistema normativo previo, como el Real Decreto-ley 6/2023, que ya establecía la orientación al dato y la interoperabilidad como contrafuertes de la transformación digital de la justicia. El objetivo de estas políticas es dotar a jueces y magistrados de herramientas de apoyo que, sin comprometer su independencia, posibiliten una tramitación más ágil y una gestión documental más robusta.
2. El Marco Normativo Europeo y la Clasificación de Riesgo
La regulación europea en materia de IA se apoya en la protección de la tutela judicial efectiva. El Reglamento de IA identifica específicamente como sistemas de alto riesgo aquéllos que utilizan las autoridades judiciales para investigar hechos, interpretar normas o garantizar el cumplimiento normativo en casos concretos. Esta clasificación es necesaria, pues impone obligaciones rigurosas de transparencia, calidad en los datos y supervisión humana efectiva. Se trata de herramientas de apoyo a la decisión, pero el anexo III del Reglamento también incluye sistemas que evalúan la fiabilidad de las pruebas, el riesgo de reincidencia o la elaboración de perfiles de personas físicas en el ámbito penal.
Para asegurar que estos despliegues tecnológicos no menoscaben la independencia judicial, el Estado español ha designado al CGPJ como la autoridad de vigilancia del mercado para los sistemas de IA utilizados en la administración de justicia. Esta función, ejercida a través de su Dirección de Supervisión y Control de Protección de Datos, garantiza que el control técnico y ético de los algoritmos permanezca bajo la órbita del propio Poder Judicial, evitando injerencias externas que puedan condicionar el criterio jurisdiccional. Esta autonomía es un requisito necesario para mantener la confianza ciudadana en un sistema de justicia que utiliza técnicas de biometría o análisis predictivo.
3. La Transformación Digital y la Orientación al Dato en España
A nivel interno, la arquitectura legal para la IA en el servicio público de justicia se ha consolidado mediante el Real Decreto-ley 6/2023. Esta norma introdujo el principio de interoperabilidad de los sistemas informáticos, permitiendo que la tramitación electrónica y el análisis de datos se conviertan en instrumentos auxiliares para fines organizativos y estadísticos. La aplicación de técnicas de IA se contempla para una pluralidad de fines: desde la anonimización y seudonimización de documentos hasta la producción de actuaciones procesales automatizadas y asistidas.
Un aspecto clave de esta normativa es la definición de las actuaciones asistidas. Según el marco legal vigente, un sistema de IA puede generar borradores totales o parciales que sirvan de fundamento para una resolución, pero tales documentos carecen de eficacia jurídica por sí mismos. La validez de cualquier actuación procesal asistida queda supeditada a la validación personal por parte de la autoridad competente, subrayando que la máquina actúa como un facilitador, nunca como un decisor. Este enfoque garantiza que la responsabilidad última de la resolución recaiga sobre el juez, manteniendo intacta la estructura de responsabilidad que define a la función jurisdiccional (CGPJ, 2026).
4. Gobernanza Institucional y Ética en el Uso de la IA
La gobernanza de la IA en España se apoya en instituciones transversales como la Agencia Española de Supervisión de IA (AESIA), que coordina las políticas nacionales con las directrices de la Comisión Europea. Sin embargo, dada la singularidad de la función judicial, se han establecido canales de coordinación específicos para asegurar que la supervisión técnica no interfiera con la potestad de juzgar. En este sentido, el Comité Técnico Estatal de la Administración Judicial Electrónica (CTEAJE) aprobó en 2024 una política integral de uso de la IA que establece que la auditoría de los sistemas que afectan a la independencia judicial es competencia exclusiva del CGPJ.
Desde una perspectiva ética, España se ha alineado con la Carta Europea de Ética sobre el uso de la IA en los sistemas judiciales, adoptada por la CEPEJ en 2018 y actualizada recientemente con directrices sobre IA generativa. Estos principios incluyen el respeto a los DDFF, la no discriminación y el control del usuario sobre la máquina. La Instrucción 2/2026 del CGPJ integra estos valores, exigiendo que cualquier herramienta de IA judicial pase por un control de calidad y auditoría previo, destinado a identificar sesgos algorítmicos que puedan derivar en decisiones discriminatorias o arbitrarias.
5. Principios Rectores de la Utilización de la IA Jurisdiccional
La Instrucción 2/2026 establece un decálogo de principios que jueces y magistrados deben observar rigurosamente. El primero y más relevante es el de control humano efectivo, que prohíbe explícitamente que los sistemas de IA operen de forma autónoma en la toma de decisiones judiciales o en la valoración de pruebas. Este principio se complementa con el de no sustitución, que refuerza la idea de que la labor intelectual y volitiva de subsunción de hechos en normas jurídicas es intransferible.
Asimismo, la responsabilidad judicial permanece inalterada ante el uso de estas tecnologías. El magistrado es el único responsable de la resolución, independientemente de que haya utilizado un borrador generado algorítmicamente como apoyo. Por otro lado, la utilización de IA debe ser compatible con el principio de independencia judicial, lo que implica que el resultado de un algoritmo no puede condicionar ni directa ni indirectamente la libertad de criterio del juzgador. Otros principios transversales incluyen la proporcionalidad, la seguridad de la información y la formación continua del personal judicial para un uso crítico de estas herramientas.
6. Usos Permitidos y Limitaciones Técnicas
La normativa actual delimita con claridad qué funciones pueden ser delegadas o apoyadas por la tecnología. Los jueces pueden emplear la IA para la búsqueda y localización de información jurídica, identificando jurisprudencia o doctrina relevante de manera más eficiente. También, es lícito el uso de algoritmos para analizar, clasificar y estructurar la vasta cantidad de información contenida en los expedientes judiciales, facilitando el estudio de casos complejos.
En lo que respecta a la elaboración de borradores de resoluciones, el CGPJ permite el uso de sistemas proporcionados oficialmente, siempre que el documento se genere únicamente por voluntad del juez y sea susceptible de ser modificado en su totalidad. Es imperativo que estos borradores no se consideren decisiones automatizadas. En contraste, existen prohibiciones estrictas: no se permite el uso de IA para el perfilado de personas o la predicción de comportamientos fuera de los casos autorizados por ley, ni la incorporación de contenidos generados por IA sin una revisión crítica y personal.
7. Gestión de la IA Generativa y Fuentes Abiertas
La IA generativa, caracterizada por su capacidad para crear contenidos a partir de instrucciones humanas, presenta riesgos específicos de opacidad y confidencialidad. La Instrucción 2/2026 prohíbe el uso de herramientas generativas externas (aquéllas no facilitadas por las Administraciones de Justicia) para el tratamiento de datos judiciales. Pero se permite a los jueces utilizar estos sistemas para tareas de preparación, como traducciones o resúmenes de doctrina, siempre que la información utilizada provenga exclusivamente de fuentes abiertas y no se introduzcan datos de carácter jurisdiccional en aplicaciones comerciales.
Esta distinción es necesaria para prevenir la fuga de información sensible. La incorporación de datos personales a modelos de lenguaje masivos podría vulnerar el secreto de las actuaciones o comprometer la privacidad de las partes involucradas en un proceso. Por ello, los sistemas autorizados deben incorporar medidas técnicas que aseguren la trazabilidad de las operaciones y la imposibilidad de que los datos sean reutilizados para fines distintos a la asistencia judicial.
8. Protección de Datos y Seguridad en el Entorno Algorítmico
El tratamiento de datos personales mediante IA en el ámbito judicial debe regirse por los principios de minimización, licitud y transparencia. La normativa prohíbe el tratamiento masivo o indiscriminado de datos, exigiendo que el uso de la IA sea proporcional a la finalidad de apoyo perseguida. El CGPJ actúa aquí como garante, supervisando que los sistemas integrados en la oficina judicial no comprometan la integridad de la información ni permitan accesos no autorizados.
Un aspecto innovador es la creación de entornos controlados de pruebas (sandboxes) para ensayar sistemas de IA de alto riesgo antes de su despliegue definitivo. Estos procesos de ensayo permiten evaluar el impacto potencial de la tecnología en los DDFF y asegurar que cumplen con los requisitos de la normativa europea antes de que lleguen a las manos de los juzgadores. La capacitación de los jueces en estas materias se vuelve, por tanto, una prioridad institucional para fomentar una cultura de uso responsable y seguro.
9. Entre la autonomía intelectual y la eficiencia algorítmica
La Instrucción 2/2026 del CGPJ representa un esfuerzo normativo loable y necesario para dotar de seguridad jurídica al despliegue de la IA en la justicia española. Pero un análisis previo de su contenido revela tensiones entre la aspiración de modernización y la realidad técnica y funcional de los órganos judiciales. A continuación, se presentan unas reflexiones estructuradas en cuatro ejes:
9.1. La paradoja de la responsabilidad judicial absoluta
La instrucción establece con firmeza el principio de responsabilidad judicial, dictaminando que el juez mantiene la responsabilidad «plena y exclusiva» de las resoluciones, incluso si utiliza sistemas de IA como apoyo. Si bien esto protege la esencia de la función jurisdiccional, genera una carga de vigilancia que puede resultar ilusoria en la práctica. Al exigir una «revisión y validación personal, completa y crítica» de borradores generados por IA, la norma presupone que el juez dispone del tiempo y la competencia técnica para detectar errores sutiles o alucinaciones algorítmicas. Si el sistema de IA es opaco —como reconoce la propia instrucción al hablar de la IA generativa—, el magistrado podría terminar asumiendo la responsabilidad por un error que es técnicamente incapaz de auditar en su totalidad.
9.2. El reto de la "vigilancia algorítmica" y el control de calidad
La norma atribuye al CGPJ la función de control de calidad y auditoría de los sistemas facilitados por las Administraciones. Pero existe un riesgo de autovigilancia insuficiente. Dado que el CGPJ es, al mismo tiempo, autoridad de vigilancia del mercado y promotor de algunos de estos sistemas (como los desarrollados a través del CENDOJ), la independencia de la supervisión técnica podría verse comprometida. Además, la instrucción exige identificar y evitar sesgos algorítmicos, pero no detalla los mecanismos técnicos ni los recursos humanos especializados que permitirán a los jueces cumplir con esta cautela en el día a día de un juzgado colapsado.
9.3. Rigidez frente a la innovación externa y "brecha tecnológica"
La instrucción prohíbe tajantemente el uso de cualquier herramienta de IA que no haya sido facilitada oficialmente cuando se trate de datos judiciales. Aunque esta medida es necesaria para la confidencialidad y la protección de datos personales, impone una rigidez que podría dejar a los jueces españoles por detrás de la evolución tecnológica si las Administraciones competentes no actualizan sus herramientas con la rapidez necesaria. Se permite el uso de herramientas externas para el estudio con fuentes abiertas, pero la línea divisoria entre «preparación del trabajo» y «ejercicio de la actividad jurisdiccional» puede ser difusa en la práctica diaria, generando inseguridad sobre qué usos pueden derivar en responsabilidades disciplinarias.
9.4. La eficacia del "Control Humano Efectivo" frente al sesgo de automatización
El principio de control humano efectivo es el eje sobre el que pivota toda la norma para evitar que la IA sustituya al juzgador. Pero la literatura técnica advierte sobre el "sesgo de automatización", donde el humano tiende a confiar excesivamente en la sugerencia de la máquina por ahorro cognitivo. La instrucción intenta mitigar esto exigiendo que los borradores no tengan consideración de decisiones automatizadas y que solamente se generen a voluntad del juez. No obstante, ante la presión por la eficiencia y la reducción de la pendencia, existe el peligro latente de que la IA pase de ser un instrumento de «apoyo o asistencia» a ser un decisor de facto cuyo borrador es validado de forma rutinaria, convirtiendo la garantía de no sustitución en una mera formalidad procedimental.
10. Hacia un Modelo de Supervisión Judicial Reforzada
Si bien la Instrucción 2/2026 establece un marco ético y jurídico robusto basado en el Reglamento (UE) 2024/1689, se identifican áreas de mejora para que la aplicación práctica de la IA no comprometa la integridad de la función jurisdiccional.
10.1. Institucionalización de la Auditoría Técnica Independiente
La normativa actual atribuye al CGPJ el control de calidad y la auditoría de los sistemas facilitados por las Administraciones. Pero dado que el propio Consejo, a través del CENDOJ, también promueve y desarrolla proyectos de IA, existe el riesgo de un conflicto de intereses en la autoevaluación.
• Mejora propuesta: Crear un Panel Técnico Consultivo Independiente, compuesto por expertos en ética algorítmica y auditoría de sistemas, que asista a la Dirección de Supervisión y Control de Protección de Datos. Este panel garantizaría que la identificación de sesgos algorítmicos sea realizada mediante estándares técnicos neutrales antes de la implantación de cualquier herramienta en los juzgados.
10.2. Protocolización del "Control Humano Efectivo" para Sistemas de Alto Riesgo
La Instrucción exige una "revisión y validación personal, completa y crítica" de los borradores generados por IA. Pero no define el procedimiento para realizar dicha validación, lo que podría derivar en una aceptación rutinaria de los resultados algorítmicos.
• Mejora propuesta: Incorporar un anexo de protocolos de validación específicos para los sistemas de alto riesgo mencionados en el Anexo III del Reglamento Europeo, como aquellos destinados a valorar la fiabilidad de las pruebas o el riesgo de reincidencia. Estos protocolos deberían incluir una "lista de verificación de integridad judicial" que el magistrado deba completar antes de validar una resolución asistida, asegurando que se ha verificado la trazabilidad de las operaciones y la ausencia de alucinaciones del sistema.
10.3. Obligatoriedad de la Formación Técnica Específica
Actualmente, la formación en IA se plantea como una posibilidad ("podrán recibir formación") y una oferta institucional. Dada la complejidad técnica de la IA generativa y sus riesgos de opacidad, la capacitación no debería ser meramente facultativa.
• Mejora propuesta: Establecer la obligatoriedad de una certificación técnica para aquellos jueces y magistrados que deseen utilizar sistemas de IA de alto riesgo o herramientas de IA generativa en la elaboración de borradores. Esta formación debe capacitar al juez en el manejo de la herramienta y en la comprensión de los modelos y procesos utilizados para poder cumplir con el deber de evitar sesgos.
10.4. Creación de un "Entorno Seguro Judicial" para la Experimentación (Sandboxing)
La instrucción prohíbe el uso de sistemas no oficiales con datos judiciales. Aunque es una medida prudente, limita la capacidad de los jueces para explorar herramientas que podrían ser útiles si se usaran en entornos controlados.
• Mejora propuesta: Desarrollar un entorno controlado de pruebas (sandbox) específico para la Judicatura, en línea con el Real Decreto 817/2023. Este entorno permitiría a los magistrados ensayar sistemas de IA innovadores con datos reales anonimizados o seudonimizados, bajo la supervisión directa del CGPJ, antes de su integración definitiva en la gestión procesal.
10.5. Clarificación de la Responsabilidad Disciplinaria
El ordinal undécimo advierte que el incumplimiento de la instrucción puede dar lugar a responsabilidades conforme a la Ley Orgánica del Poder Judicial. Pero la distinción entre un error judicial humano y un error derivado de una confianza excesiva en la máquina es ambigua.
• Mejora propuesta: Tipificar de manera clara las conductas que constituyen un uso negligente de la IA, distinguiendo expresamente la falta de supervisión crítica del error interpretativo protegido por la independencia judicial. Esto aportaría seguridad jurídica al juzgador, clarificando los límites de su responsabilidad plena y exclusiva.
11. Conclusiones
La integración de la IA en la actividad jurisdiccional representa una de las transformaciones más profundas del sistema de justicia contemporáneo. La Instrucción debe verse como un escudo necesario para preservar la esencia del Poder Judicial en la era digital (CGPJ, 2026). Con el establecimiento de principios claros de no sustitución y control humano, se garantiza que la tecnología sirva para aliviar la carga burocrática y mejorar el análisis de datos, sin que ello suponga una deshumanización del acto de juzgar.
El éxito de esta transición dependerá de la capacidad de las instituciones para mantener una vigilancia algorítmica constante, identificando y corrigiendo sesgos que puedan amenazar la igualdad ante la ley. Asimismo, la prohibición del uso de sistemas no autorizados con datos jurisdiccionales es una medida de prudencia necesaria para proteger la privacidad de la ciudadanía. La IA en la justicia española está configurada como una herramienta de apoyo que, bajo la supervisión estricta del ser humano, puede contribuir a una tutela judicial más rápida y precisa, siempre que el juez mantenga la última palabra y la plena responsabilidad sobre sus decisiones.
En definitiva, la Instrucción acierta solamente en parte, al blindar el núcleo de la potestad jurisdiccional —la valoración de la prueba y la interpretación de la ley— como una actividad exclusivamente humana. Pero su éxito real dependerá de la capacidad real del sistema para proporcionar herramientas que sean transparentes por diseño y de una oferta formativa estructural, para que el magistrado sea realmente un supervisor y no un mero validador de resultados algorítmicos.
Concluyendo, las mejoras propuestas permitirían que el principio de no sustitución pase de ser una declaración de intenciones a una realidad técnica verificable, asegurando que la IA sea siempre un instrumento de apoyo bajo el mandato firme del ser humano.
12. Recursos Generativos utilizados en la redacción de este artículo
Teniendo en cuenta que se ha seguido la estructura de un artículo científico, formato conocido por la IAG, para la elaboración de este contenido se ha utilizado IAG en la fase de búsqueda de información, así como en la mejora de la redacción y adaptación de ésta a un lenguaje coloquial. Asimismo, antes de editarlo se ha pasado el filtro de plagio (5% de coincidencias) y de lenguaje IAG (11% de coincidencias), considerando ambos ratios razonables y asumibles.
___________
Bibliografía
Agencia Española de Supervisión de Inteligencia Artificial (AESIA). (2023). Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial. Real Decreto 729/2023.
Comisión Europea por la Eficiencia de la Justicia (CEPEJ). (2018). Carta Europea de Ética sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno. Consejo de Europa.
Comisión Europea por la Eficiencia de la Justicia (CEPEJ). (2025). Directrices sobre el uso de la inteligencia artificial generativa para los tribunales. [CEPEJ (2025) 18 Final].
Comité Técnico Estatal de la Administración Judicial Electrónica (CTEAJE). (2024). Política de uso de la inteligencia artificial en la Administración de Justicia.
Consejo General del Poder Judicial (CGPJ). (2026). Instrucción 2/2026, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional. Boletín Oficial del Estado (BOE-A-2026-2205).
España. (2023). Real Decreto-ley 6/2023, de 19 de diciembre, por el que se aprueban medidas urgentes para la ejecución del Plan de Recuperación, Transformación y Resiliencia en materia de servicio público de justicia.
España. (2023). Real Decreto 817/2023, de 8 de noviembre, por el que se establece un entorno controlado de pruebas para el ensayo de sistemas de inteligencia artificial.
España. (2025). Anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial.
Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.
