viernes, 1 de agosto de 2025

IA en la Justicia de California: Un Nuevo Marco Normativo

Fuente de la imagen: Alianza Europea de Inteligencia Artificial
M. Velasco, 2025. Regulación del Uso de la Inteligencia Artificial Generativa en el Poder Judicial de California: Un Análisis del Marco Propuesto por el Grupo de Trabajo sobre Inteligencia Artificial - Regulating the Use of Generative Artificial Intelligence in the California Judiciary: An Analysis of the Framework Proposed by the Artificial Intelligence Working Group

Resumen: El presente artículo explora el marco normativo propuesto por el Grupo de Trabajo sobre Inteligencia Artificial del Consejo Judicial de California para la regulación del uso de la inteligencia artificial generativa (IAG) en el trabajo judicial. En respuesta al creciente interés y las preocupaciones públicas sobre el impacto de esta tecnología, el Consejo Judicial busca promover la innovación responsable al tiempo que salvaguarda la información confidencial, asegura una supervisión adecuada y mantiene la confianza pública. Se detallan las enmiendas propuestas a la Regla 10.430 de las Reglas de la Corte de California y al Estándar 10.80 de los Estándares de Administración Judicial, que abordan los riesgos de confidencialidad, privacidad, sesgo, seguridad y precisión. El análisis incluye la justificación de estas medidas, la flexibilidad otorgada a los tribunales y las respuestas a las diversas preocupaciones planteadas por los comentaristas públicos, especialmente en lo que respecta a la divulgación y las definiciones de la IAG. El informe subraya la importancia de un enfoque evolutivo para la gobernanza de la IAG en el poder judicial.

Palabras clave: Inteligencia Artificial Generativa, Poder Judicial, Regulación, Ética Judicial, Privacidad, California, Transparencia, Sesgo.

Abstract: This article explores the regulatory framework proposed by the California Judicial Council's Artificial Intelligence Working Group for regulating the use of generative artificial intelligence (GAI) in judicial work. In response to growing public interest and concerns about the impact of this technology, the Judicial Council seeks to promote responsible innovation while safeguarding confidential information, ensuring appropriate oversight, and maintaining public trust. Proposed amendments to Rule 10.430 of the California Rules of Court and Standard 10.80 of the Standards of Judicial Administration are detailed, addressing risks to confidentiality, privacy, bias, security, and accuracy. The analysis includes the rationale for these measures, the flexibility granted to courts, and responses to various concerns raised by public commenters, particularly regarding GAI disclosure and definitions. The report underscores the importance of an evolutionary approach to AI governance in the judiciary.

Keywords: Generative Artificial Intelligence, Judiciary, Regulation, Judicial Ethics, Privacy, California, Transparency, Bias.

1. Introducción

La emergencia de la inteligencia artificial generativa (IAG), una tecnología capaz de producir contenido en múltiples formas y lenguajes a solicitud del usuario ha impulsado una necesidad crítica de establecer marcos regulatorios dentro del poder judicial. En mayo de 2024, el Presidente de la Corte de California creó el Grupo de Trabajo sobre Inteligencia Artificial (en adelante, el Grupo de Trabajo) con el mandato de supervisar el desarrollo de recomendaciones de políticas sobre el uso de la IAG en la rama judicial. La finalidad de estas recomendaciones es promover la innovación responsable en las operaciones judiciales, al tiempo que se protege la información confidencial, se garantiza una supervisión adecuada y se mantiene la confianza del público en el poder judicial.

El presente artículo se centra en el informe del Grupo de Trabajo del 16 de junio de 2025, que recomienda la adopción de una nueva regla de la corte y un estándar de administración judicial: la Regla 10.430 de las Reglas de la Corte de California y el Estándar 10.80 de los Estándares de Administración Judicial de California[1]. Estas propuestas, que entrarán en vigor el 1 de septiembre de 2025, buscan abordar los beneficios y riesgos significativos que presenta la IAG en el trabajo relacionado con los tribunales.

2. Marco Normativo Propuesto

El Grupo de Trabajo ha propuesto dos instrumentos normativos clave para el uso de la IAG en el poder judicial de California: la Regla 10.430 y el Estándar 10.80.

2.1. Regla 10.430: Políticas de Uso de la Inteligencia Artificial Generativa La Regla 10.430 está dirigida a cualquier tribunal (tribunales superiores, tribunales de apelación y la Corte Suprema) que no prohíba el uso de la IAG por parte del personal del tribunal o los funcionarios judiciales. Dichos tribunales deben adoptar una política de uso de la IAG antes del 15 de diciembre de 2025. Esta política debe cubrir el uso de la IAG por parte del personal judicial para cualquier propósito y por parte de los funcionarios judiciales para cualquier tarea fuera de su función adjudicativa. Las políticas adoptadas bajo esta regla deben incluir las siguientes disposiciones clave:

• Prohibición de información no pública: Prohibir la entrada de información confidencial, de identificación personal o cualquier otra información no pública en un sistema público de IAG. Esto incluye datos sensibles como números de licencias de conducir, fechas de nacimiento, números de seguridad social, direcciones y números de teléfono de partes, víctimas, testigos y personal judicial, así como información médica, financiera o cuentas bancarias. Un "sistema público de IAG" se define como aquel que permite el acceso a los datos introducidos por los tribunales o su uso para entrenar sistemas de IA por parte de cualquier persona ajena al personal judicial o los funcionarios judiciales.

• No discriminación: Prohibir el uso de la IAG para discriminar ilegalmente o impactar de manera dispar a individuos o comunidades basadas en características protegidas por la ley federal o estatal, incluyendo edad, ascendencia, color, etnia, género, expresión de género, identidad de género, información genética, estado civil, condición médica, estatus militar o de veterano, origen nacional, discapacidad física o mental, afiliación política, raza, religión, sexo, orientación sexual o estatus socioeconómico.

• Verificación de la precisión: Requerir que el personal del tribunal y los funcionarios judiciales que creen o utilicen material de IAG tomen medidas razonables para verificar la exactitud del material y corregir cualquier resultado erróneo o "alucinado".

• Eliminación de contenido sesgado o dañino: Requerir que el personal del tribunal y los funcionarios judiciales tomen medidas razonables para eliminar cualquier contenido sesgado, ofensivo o dañino en el material utilizado.

• Divulgación: Requerir la divulgación del uso o la dependencia de la IAG si la versión final de un trabajo escrito, visual o de audio proporcionado al público consiste enteramente en resultados de la IAG. La divulgación debe realizarse mediante una etiqueta, marca de agua o declaración clara y comprensible que describa cómo se utilizó la IAG y qué sistema se empleó.

• Cumplimiento normativo: Requerir el cumplimiento de todas las leyes aplicables, políticas judiciales y reglas, códigos y políticas de conducta ética y profesional al usar la IAG.

Los tribunales pueden cumplir con la Regla 10.430 adoptando la política modelo proporcionada por el Grupo de Trabajo o una política sustancialmente similar.

2.2. Estándar 10.80: Uso de la Inteligencia Artificial Generativa por Funcionarios Judiciales El Estándar 10.80 se aplica al uso de la IAG por parte de los funcionarios judiciales para tareas dentro de su función adjudicativa. Sus disposiciones son similares a las de la Regla 10.430, pero con un lenguaje de orientación ("debería") en lugar de obligatorio ("debe"). Esto se debe a que el Grupo de Trabajo considera que la cuestión del uso de la IAG por parte de los funcionarios judiciales en sus funciones adjudicativas se aborda de manera más adecuada mediante el Código de Ética Judicial de California y la orientación ética relacionada.

Los funcionarios judiciales, en su función adjudicativa, deberían:

• No introducir información confidencial, de identificación personal u otra información no pública en un sistema público de IAG.

• No utilizar la IAG para discriminar ilegalmente o impactar de manera dispar a individuos o comunidades basándose en clasificaciones protegidas por la ley federal o estatal.

• Tomar medidas razonables para verificar la precisión del material de IAG (incluido el material preparado por otros en su nombre) y corregir cualquier resultado erróneo o "alucinado".

• Tomar medidas razonables para eliminar cualquier contenido sesgado, ofensivo o dañino en el material de IAG utilizado.

• Considerar la divulgación del uso de la IAG si se utiliza para crear contenido proporcionado al público.

Además, se recuerda a los funcionarios judiciales que deben cumplir con las leyes aplicables, las políticas judiciales y el Código de Ética Judicial de California al usar la IAG.

2.3. Definiciones importantes. El Grupo de Trabajo ha revisado y aclarado las definiciones en respuesta a los comentarios públicos. Las definiciones clave son:

• "Inteligencia Artificial Generativa" o "IAG": Un sistema basado en computadora que utiliza aprendizaje automático o técnicas similares para producir nuevo contenido (como texto, imágenes, audio, video, código o visualizaciones de datos) en respuesta a las entradas del usuario. Los sistemas de IAG crean contenido que no está pre-programado o recuperado explícitamente, sino que se sintetiza basándose en modelos subyacentes entrenados con grandes conjuntos de datos y puede incluir la integración con otras fuentes, como el acceso en tiempo real a bases de datos propietarias.

• "Sistema Público de IAG": Un sistema de IAG que permite a cualquier persona, que no sea personal judicial o funcionarios judiciales, acceder a los datos que los tribunales introducen o cargan en el sistema, o usar esos datos para entrenar sistemas de IA. No incluye ningún sistema que el tribunal cree o gestione para uso interno, ni sistemas operados por el tribunal para proporcionar acceso a datos judiciales al público (como un chatbot). Se ha eliminado la definición de "inteligencia artificial" del reglamento y estándar, ya que no es necesaria tras las revisiones de la definición de IAG.

3. Consideraciones y Retos

El proceso de elaboración de estas reglas y estándares involucró una cuidadosa consideración de alternativas y una amplia ronda de comentarios públicos, que revelaron diversas perspectivas y retos inherentes a la regulación de una tecnología tan dinámica.

3.1. Flexibilidad vs. Uniformidad El Grupo de Trabajo consideró varias alternativas, incluida la aplicación directa de la regla al uso de la IAG por parte de los tribunales o la exigencia de la adopción de la política modelo tal cual. Sin embargo, se decidió que la versión recomendada de la Regla 10.430 es preferible, ya que otorga a los tribunales la flexibilidad de redactar una política que satisfaga sus objetivos y requisitos operativos específicos, al tiempo que garantiza que todas las políticas aborden los principales riesgos de la IAG. La política modelo sirve como un recurso para ilustrar y ampliar los requisitos de la regla, pudiendo ser revisada más rápidamente para adaptarse a los cambios tecnológicos.

3.2. Uso Adjudicativo y Discrecionalidad Judicial Varios comentaristas sugirieron prohibir completamente el uso de la IAG para tareas adjudicativas o hacer que las disposiciones al respecto fueran obligatorias. Sin embargo, el Grupo de Trabajo concluyó que la cuestión de hasta qué punto los funcionarios judiciales pueden usar la IAG en sus deberes adjudicativos se aborda de manera más adecuada mediante el Código de Ética Judicial de California y la orientación ética relacionada. Se determinó que los cánones probablemente prohíben a los funcionarios judiciales que la IAG decida asuntos o redacte sus opiniones por ellos.

El Grupo de Trabajo también reconoció la dificultad de regular usos específicos de la IAG, ya que prohibir su uso para tareas que "puedan afectar la sustancia de una decisión adjudicativa" podría prohibir herramientas de investigación legal o incluso correctores gramaticales. Por lo tanto, se concluyó que los funcionarios judiciales deben tener la discreción para decidir si usos específicos de la IAG son apropiados para tareas adjudicativas, en consonancia con el Código de Ética Judicial y cualquier orientación ética aplicable. La regulación se centra en los riesgos generales (confidencialidad, sesgo, precisión, transparencia) en lugar de herramientas o usos específicos. Además, el término "función adjudicativa" se dejó sin definir para evitar conflictos con otras reglas o directrices y porque los funcionarios judiciales están en la mejor posición para determinarlo.

3.3. Requisitos de Divulgación Un área significativa de debate fue la divulgación del uso de la IAG. Los comentaristas expresaron opiniones diversas, desde la exigencia de una divulgación de cualquier uso hasta la consideración de hacer el requisito discrecional. Inicialmente, la regla propuesta requeriría la divulgación si las salidas de la IAG constituían una "porción sustancial" del contenido. Sin embargo, en respuesta a la preocupación por la ambigüedad de "porción sustancial" y el posible "impacto negativo" en la confianza pública, el Grupo de Trabajo revisó la Regla 10.430(d)(5) para exigir la divulgación solamente si la versión final de un trabajo escrito, visual o de audio proporcionado al público consiste enteramente en resultados de la IAG.

El Grupo de Trabajo argumentó que una divulgación demasiado amplia podría desalentar el uso de la IAG incluso para fines aceptables y que podría causar una desconfianza injustificada si la IAG se utiliza como una herramienta de asistencia similar a las herramientas no relacionadas con la IA ya en uso (como la investigación legal o la edición de documentos). Se seguirá recopilando información sobre cómo se utiliza la IAG para determinar si se necesita un requisito de divulgación diferente en el futuro. La disparidad en los requisitos de divulgación entre la regla (obligatoria para ciertos usos) y el estándar (discrecional para la función adjudicativa) se consideró aceptable para evitar que la regla se volviera completamente discrecional.

3.4. Otros Comentarios y Respuestas del Grupo de Trabajo

• Confidencialidad: La sugerencia de cambiar "no público" por "no divulgable" en la prohibición de entrada de información en sistemas públicos de IAG fue rechazada. El Grupo de Trabajo insistió en que la entrada de información no pública puede ser problemática incluso si no es confidencial, debido al potencial de entrenamiento de los sistemas de IAG con dicha información.

• Sesgo y Discriminación: Se mantuvo la palabra "ilegalmente" en la prohibición de discriminación, a pesar de la sugerencia de eliminarla por redundancia. El Grupo de Trabajo busca asegurar que los tribunales sean conscientes del riesgo de que los sistemas de IAG puedan producir resultados sesgados o discriminatorios. La sugerencia de requerir la revisión de las entradas (prompts) de IAG para detectar sesgos fue rechazada, ya que podría dificultar ciertas tareas (como la investigación legal para casos de discriminación) y se considera que se puede abordar mejor mediante educación y materiales de orientación.

• Revisión y Corrección: Se modificaron las reglas para dejar claro que los usuarios deben revisar el material de IAG y "tomar medidas razonables para verificar la precisión" y "corregir cualquier resultado erróneo o alucinado", así como "tomar medidas razonables para eliminar cualquier contenido sesgado, ofensivo o dañino".

• Temas Adicionales: Sugerencias para requisitos de educación y capacitación, documentación, revisiones anuales de políticas y adquisiciones fueron apreciadas, pero no incluidas en la recomendación actual por estar fuera del alcance de la invitación a comentarios. Estos temas se considerarán para futuras actualizaciones de la política modelo o documentos de orientación.

4. Implicaciones y Futuro

La adopción de la Regla 10.430 y el Estándar 10.80 creará un marco normativo para abordar los riesgos asociados con la IAG en el trabajo judicial, lo que es coherente con el Plan Estratégico para la Rama Judicial de California, específicamente en las metas de Independencia y Responsabilidad, y Modernización de la Gestión y Administración.

La implementación de la Regla 10.430 requerirá que los tribunales que permitan el uso de la IAG adopten una política, lo que a su vez podría requerir capacitación para los funcionarios judiciales y el personal. Aunque la fecha de entrada en vigor es el 1 de septiembre de 2025, se ha extendido el plazo para que los tribunales adopten sus políticas hasta el 15 de diciembre de 2025, en respuesta a las preocupaciones sobre el tiempo necesario para la implementación, especialmente para los tribunales más grandes.

El Grupo de Trabajo continuará evaluando cómo abordar los riesgos del uso de la IAG en el trabajo judicial. Además de las reglas y el estándar propuestos, se han desarrollado preguntas frecuentes y se está considerando si se necesitan documentos de orientación adicionales. Se trabajará con el Centro de Educación y Recursos Judiciales (CJER) para asegurar que los funcionarios judiciales y el personal reciban educación y capacitación sobre la IAG, incluidos sus usos y riesgos emergentes. El Grupo de Trabajo también ha estado monitoreando y seguirá monitoreando los desarrollos de políticas en jurisdicciones fuera de California.

5. Conclusión

El informe del Grupo de Trabajo sobre Inteligencia Artificial del Consejo Judicial de California representa un paso proactivo y fundamental en la integración de la inteligencia artificial generativa en el ámbito judicial. Las propuestas de la Regla 10.430 y el Estándar 10.80 demuestran un equilibrio entre la promoción de la innovación responsable y la mitigación de riesgos críticos como la confidencialidad, el sesgo, la inexactitud y la falta de transparencia. Al otorgar flexibilidad a los tribunales para adaptar sus políticas y al centrarse en los riesgos generales en lugar de en herramientas específicas, el marco busca ser adaptable a la rápida evolución de la tecnología.

Aunque persisten debates sobre el alcance exacto de la regulación, especialmente en lo que respecta al uso adjudicativo y la divulgación, el Grupo de Trabajo ha demostrado su compromiso con un enfoque evolutivo, reconociendo la necesidad de educación continua y adaptación normativa. La implementación de estas directrices busca optimizar las operaciones judiciales y, lo que es más importante, preservar la confianza pública en la integridad e imparcialidad del sistema judicial en la era de la inteligencia artificial.

6. Fuentes

informe del Grupo de Trabajo del 16 de junio de 2025, que recomienda la adopción de una nueva regla de la corte y un estándar de administración judicial: la Regla 10.430 de las Reglas de la Corte de California y el Estándar 10.80 de los Estándares de Administración Judicial de California.

7 Recursos Generativos utilizados en la redacción de este artículo

Teniendo en cuenta que se ha seguido la estructura de un artículo científico, formato conocido por la IAG, para la elaboración de este contenido se ha utilizado IAG en la fase de búsqueda de información, así como en la mejora de la redacción y adaptación de esta redacción a un lenguaje coloquial. Asimismo, antes de editarlo se ha pasado el filtro de plagio (12% de coincidencias) y de lenguaje IAG (16% de coincidencias), considerando ambos ratios razonables y asumibles.
________________
[1] REPORT TO THE JUDICIAL COUNCIL. Item No.: 25-109. For business meeting on July 18, 2025. Judicial Council Of california.