
Inteligencia artificial.
Crédito: Freepik.
Así se va usar la inteligencia artificial en la Rama Judicial
- Noticia relacionada:
- Inteligencia Artificial
- Justicia
El Consejo Superior de la Judicatura expidió una serie de lineamientos para usar la inteligencia artificial de parte de los operadores judiciales en el país que incluyen elementos como: informar de forma explícita su uso, anonimizar datos personales, verificación de información y evitar sesgos. Detalles.

En agosto de 2024 la Corte Constitucional emitió la primera sentencia sobre la inteligencia artificial y permitió que los jueces del país la usen teniendo en cuenta criterios básicos de transparencia, de autorregulación ética, responsabilidad y de verificación, dejando en claro que la máquina nunca reemplazará al juez. En esa sentencia se ordenó al Consejo Superior de la Judicatura que hiciera lineamientos para la implementación de la IA generativa en la Rama Judicial.
El pasado 18 de diciembre, el Consejo Superior cumplió esa orden y expidió el acuerdo PCSJA24-12243 que fija reglas para el "uso y aprovechamiento respetuoso, responsable, seguro y ético" de la IA que está pensado como un primer acercamiento al tema, centrado en el autocontrol y teniendo en cuenta que estas bases orientadoras deberán ir evolucionando conforme avance la tecnología, la ley y la jurisprudencia.
Los parámetros
El acuerdo hace definiciones generales teniendo como referencia las ya usadas por la Unesco, la Ocde y la Comisión Europea para la Eficacia de la Justicia, para dejar en claro, entre otros, que "la IA generativa, en lugar de conservar las páginas web existentes, genera nuevos contenidos de forma automática en respuesta a instrucciones en interfaces conversacionales de lenguaje natural (prompts)".
Además, hace definiciones concretas. Por ejemplo, habla de "alucinaciones y desinformación", entendida como los resultados imprecisos o inexactos que pueden generar los sistemas de IA generativa.
Y señala que la IA puede tener sesgos: "El sesgo de IA es una diferencia sistemática en el tratamiento de ciertos objetos, personas o grupos (por ejemplo, estereotipos, prejuicios o favoritismo) en comparación con otros mediante algoritmos de IA. Este tipo de sesgos resultan de los datos usados para entrenar el algoritmo, lo que puede reforzar prejuicios de raza, género, sexualidad, etnia o discapacidad".
En ese sentido, la IA se deberá aplicar con base en ciertos principios y garantías:
- El desarrollo, adopción y uso de sistemas de IA garantizarán el respeto, protección y promoción de los derechos fundamentales.
- Los funcionarios desarrollarán estándares de comportamiento individual que se adecuen a los mandatos constitucionales, legales, jurisprudenciales, así como del Código Iberoamericano de Ética y harán un uso razonable de los sistemas de IA.
- Para el uso de sistemas de IA se consultarán permanentemente los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.
- La Rama Judicial promoverá un esquema de gobernanza que cuente con la participación de las distintas dependencias y jurisdicciones, así como de otros grupos de interés.
- Los sistemas de IA no deben suplantar, en ningún caso, las actividades de motivación de las providencias y decisiones, valoración de los hechos, análisis de las pruebas, aplicación normativa, interpretación o toma de decisión. Por ende, toda decisión o actuación judicial en la que se haya hecho uso de la IA se atribuye al funcionario judicial.
- Los servidores judiciales deben tener una finalidad clara, especificada y justificada para el uso de herramientas basadas en IA.
- Los usuarios de herramientas de IA en la Rama Judicial deben estar capacitados y comprender los impactos del uso de estas tecnologías y son responsables de realizar un estricto escrutinio sobre sus actuaciones, en particular sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta.
- Se deberá evitar y proscribir cualquier forma de discriminación relacionada con la aplicación de sesgos derivados del uso de IA y, en general, cualquier impacto negativo en los derechos humanos.
- Los funcionarios son responsables del uso, custodia y protección de la reserva de los datos personales y sensibles de cada caso. La Rama Judicial aplicará estándares para asegurar la integridad, confidencialidad y disponibilidad de la información que sea gestionada a través de herramientas de IA.
- Los funcionarios y empleados de la Rama Judicial deben hacer explícito, de manera clara y precisa, el uso, alcance y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de las herramientas de IA.
Los usos
La Rama Judicial indicó que la inteligencia artificial generativa podrá usarse para redactar documentos administrativos como oficios, reportes, discursos y correos electrónicos, así como para mejorar la gramática, ortografía y la estructura de los textos y para organizar la agenda, hacer presentaciones, comparar datos, hacer actas, entre otros.
Igualmente, se podrá usar, con revisión, para resumir sentencias, transcribir audiencias con identificación de intervinientes, para extractar y clasificar información de expedientes y revisar la completitud de documentos aportados en el marco de los trámites y procesos. También se podrá usar para gestionar las cargas en los despachos, para las notificaciones y para apoyar la generación y estructuraciones de ideas o argumentos en procesos judiciales.
Así, el juez podrá usar la IA para crear versiones de documentos en lenguaje claro y apropiado para distintos públicos objetivo y proponer explicaciones claras o ejemplos, solo si son comprendidos por el servidor judicial.

Las prohibiciones
La idea que antes de usar la IA, los despachos definan claramente para qué la necesitan, si la tarea se puede hacer con otra herramienta y asegurarse de que la herramienta usada tiene las capacidades adecuadas para ello. Por eso, tienen que capacitarse sobre cómo funcionan estas IA generativas.
El Consejo Superior de la Judicatura dejó en claro que se debe "evitar el uso de chatbots generales o comerciales de IA en sus versiones gratuitas" y que se debe "prescindir de herramientas de IA que no permitan conocer el origen de los datos" usados.
Igualmente, el documento pide no IA para:
- No usar para la valoración de medios probatorios, escrutinio de hechos, realización de juicios de valor, ni la solución de problemas jurídicos.
- Prescindir de herramientas de IA para aplicar las normas que conforman el ordenamiento jurídico, motivar o adoptar las decisiones en un proceso, partiendo, exclusivamente, de las respuestas ofrecidas por la respectiva herramienta.
- No usarla si se advierte que generan daños potenciales a derechos humanos.
- Abstenerse de introducir, por cualquier medio, datos personales, información sensible o confidencial en herramientas de IA, cuando estas se apropien de los datos o información ingresada, permitan compartirlos o los empleen para reentrenar sus modelos.
- Abstenerse de hacer pasar como de autoría propia el texto elaborado con herramientas de IA generativa, o no citar en forma adecuada los materiales creados por estas.
En ese sentido, el Consejo Superior de la Judicatura enfatizó que los servidores judiciales deben informar expresamente sobre el uso de sistemas de IA generativa, en especial para actividades que terminan impactando y reflejándose en los procesos de adopción y emisión de decisiones sustanciales.
Y para ello se deberá explicar de forma explícita en el expediente, carpeta, actuación, documento o decisión lo siguiente: el nombre de la herramienta usada, modelo y empresa proveedora; la fecha en que fue usada; qué leyeron, entendieron y aceptaron los términos y condiciones de uso; la explicación de para qué fue empleada, el detalle sobre cómo fue usada y los prompts o instrucciones utilizadas.
Igualmente, el operador judicial deberá exponer "la ubicación específica de los productos o resultados reproducidos, transcritos o incorporados, con comillas, negrillas, letra cursiva o cualquier otro, para distinguir claramente los textos de la decisión que fueron producidos directamente por la herramienta".
