"La máquina no puede reemplazar al juez": magistrado Juan Carlos Cortés
17 Agosto 2024 07:08 am

"La máquina no puede reemplazar al juez": magistrado Juan Carlos Cortés

Juan Carlos Cortés.

Crédito: Corte Constitucional.

Tras la histórica decisión de la Corte Constitucional de Colombia que fija criterios para que los jueces utilicen inteligencia artificial, CAMBIO conversa con Juan Carlos Cortés, el magistrado ponente, sobre sus implicaciones, el deber de verificación de información, la protección de datos sensibles y los posibles sesgos de la herramienta.

Por: Alejandra Bonilla Mora

Entre aquí para recibir nuestras últimas noticias en su WhatsAppEntre aquí para recibir nuestras últimas noticias en su WhatsApp

El magistrado de la Corte Constitucional Juan Carlos Cortés habla con CAMBIO a propósito del fallo que fija criterios para que los jueces usen la inteligencia artificial (IA).

La sentencia, que es inédita y desde ya un referente global, deja claro que la máquina no puede reemplazar al juez y que se exige tanto transparencia como una autorregulación ética.

De hecho, en el proceso de construcción del fallo, la Corte consultó a ChatGPT y la misma plataforma respondió que sí puede tener sesgos.

CAMBIO: Magistrado, usted fue ponente de una decisión histórica sobre el uso de la IA por parte de los jueces del país. Explíquenos qué encontró la Corte y cuándo sí se puede usar inteligencia artificial generativa como Chat GPT u otras.

Juan Carlos Cortés: Es la primera decisión que aborda esta retadora materia en el país y con la que se abre un permanente análisis sobre el impacto de tales tecnologías en el ámbito del derecho. En este caso, la Sala de Revisión advirtió que el uso de la IA generativa en la rama judicial es admisible cuando el juez o el funcionario lo encuentre necesario y pertinente, siempre que se haga un uso razonable, con un enfoque de protección de derechos fundamentales y considerando criterios de autorregulación ética, códigos de conducta y de respeto a los mandatos constitucionales.

Es esencial que no se reemplace el juez con la inteligencia artificial y que, además, se use responsablemente la herramienta, es decir, que la sentencia exponga que se acudió a una de estas tecnologías, que se identifiquen los extractos o resultados obtenidos (transparencia), que se verifique que la información suministrada por la IA es correcta y veraz (responsabilidad), y que se proteja la intimidad de los usuarios del servicio público de administración de justicia (privacidad). La sentencia T-323 de 2024 (la que acaba de salir) propone un punto de partida en la materia, pues el uso de estas tecnologías en el sector justicia es un tema novedoso, sujeto a cambios vertiginosos, por lo cual el asunto deberá evaluarse de manera constante y según las particularidades del campo del derecho y del escenario judicial en el que se aplique.

CAMBIO: ¿Qué criterios se establecieron para usarla? ¿Todos los funcionarios judiciales podrán hacerlo?

J.C.C.: La sentencia no trae una restricción o habilitación especial para los funcionarios judiciales en cuanto al uso de la IA pues, en general, su correcta utilización puede contribuir a la mayor eficiencia y eficacia del funcionamiento de la justicia, en especial en ámbitos de gestión judicial o revisión de textos. Utilizar estas tecnologías en el ámbito jurisdiccional está sometido, principalmente, al criterio de no sustitución de la racionalidad humana, pues la máquina no puede reemplazar al juez. 

CAMBIO: ¿Se podrá usar IA para todos los trámites de un proceso judicial? 

J.C.C.: Aunque la sentencia se profirió en el trámite de revisión propio de la acción de tutela, sus consideraciones aplican a procesos judiciales de diferente naturaleza, pues usar correctamente la IA implica proteger el debido proceso, algo que debe garantizarse en todo tipo de procedimiento judicial. Por supuesto, es posible que en las diferentes jurisdicciones se presenten particularidades en la utilización de la IA que ameritarán análisis especializados y soluciones particulares.

¿Cuáles usos son admisibles y cuáles no? Las IA no pueden emplearse para sustituir el razonamiento lógico y humano del juez, por lo tanto la sentencia prohíbe su utilización con el fin de interpretar hechos, valorar pruebas, motivar y adoptar la decisión judicial: Cortés.

Por el contrario, se podrá utilizar en el sistema judicial para realizar labores de gestión administrativa y documental, como por ejemplo el reparto, digitalización y clasificación de expedientes o la agenda para la programación de diligencias. También se puede usar de apoyo a la función judicial en labores como la referenciación de jurisprudencia o el análisis de datos estadísticos; y para la corrección y síntesis de textos. Lo importante es que, en tales eventos, la utilización de estas tecnologías no remplace la labor esencial de racionalidad concretada en la motivación y decisión que le corresponde al funcionario judicial.

CAMBIO: Usted enfatiza en que la IA no puede reemplazar al juez. Existe la posibilidad de que la IA en efecto sea capaz de producir por sí misma toda una decisión. ¿Por qué fue necesario hacer esa precisión?

J.C.C.: En efecto, ya hay en el mundo sistemas judiciales que han delegado la toma de la decisión judicial a una plataforma de IA en ciertos casos relativamente sencillos y similares, como sucede por ejemplo en un tribunal en Hangzhou, China. En Perú se propone una reforma para habilitar expresamente el uso de esta herramienta en el ámbito judicial.

En Colombia el diseño institucional y normativo actual no prevé la posibilidad de un juez-máquina y tampoco se tienen las condiciones técnicas que garanticen esa posibilidad sin poner en riesgo la adecuada prestación del servicio público de administración de justicia y los derechos de sus usuarios: Cortés.

La Corte usó la plataforma Chat GPT y esta admitió que puede ser sesgada

ChatGPT
Chat GPT. Crédito: Freepik

CAMBIO: Uno de los temores de las organizaciones sociales que presentaron concepto en este debate en la Corte era que Chat GPT y otras IA pueden tener sesgos porque se alimentan de textos mayoritariamente en inglés, escritos por hombres y de otras latitudes. ¿Cómo evitar esos sesgos?

J.C.C.: Por supuesto, uno de los riesgos principales del uso de IA se refiere a los sesgos que pueden estar presentes en los datos de entrenamiento y que pueden reflejarse en respuestas basadas en estereotipos, en favorecer ciertos grupos o ideas, o que apliquen criterios discriminatorios en contra grupos históricamente excluidos, por ejemplo, por razones de raza, etnia, nacionalidad, orientaciones sexuales, entre otras. 

La misma plataforma ChatGPT consultada por la Corte en el trámite de tutela admitió que sus resultados pueden ser sesgados: Cortés.

Para evitar que la validez de la decisión judicial se afecte por usar información sesgada que genere la IA, es importante garantizar la transparencia y la explicabilidad sobre el uso de estas tecnologías. Es decir, que al emplearse se den a conocer de manera clara los datos utilizados, la forma en la que funcionan, los casos en los que se usan y el lugar que ocupan dentro de la decisión judicial.

CAMBIO: ¿Qué otros posibles riesgos o advertencias recibieron y cómo las evaluaron?

J.C.C.: Se evaluaron las llamadas 'alucinaciones', referidas a posible información inexacta o falsa generada por las IA, lo que puede comprometer la debida motivación de la decisión judicial. De allí la importancia de que los funcionarios verifiquen la información consultada en la IA.También se advirtió el riesgo de afectación del derecho a la intimidad y la privacidad de los usuarios del sistema judicial.

Se hizo un llamado para que se evite introducir data sensible que se vea reflejada en las las pruebas o en alguna otra actuación judicial: Cortés.

CAMBIO: Otro elemento clave del fallo es que estipulan que el juez debe avisar que usó IA, que la IA sea un apoyo y no el centro del trabajo judicial, ¿por qué esto es tan relevante?

J.C.C.: En efecto, se exige que el juez anuncie que usó IA y la ubicación de su contenido en la decisión porque esto promueve un sistema de justicia transparente y respetuoso del derecho al debido proceso, ya que cuando las partes interesadas conocen el uso dado a la herramienta pueden tomar las decisiones procesales que consideren adecuadas frente al ejercicio de su derecho de contradicción.

Ahora, la posibilidad de usar la IA como apoyo a la función judicial, excluyendo labores esenciales del juez como valoración de hechos, pruebas y toma de decisión, es importante y seguramente se fortalecerá en forma progresiva gracias a los esfuerzos institucionales al interior de la Rama Judicial y según los desarrollos del país en la materia. En todo caso, para la Corte hay un componente humano de racionalidad, emotividad, ética y solidaridad insustituible por cuenta de las tecnologías y las máquinas.

CAMBIO: Le pregunto porque podría haber sectores que consideren que estos lineamentos o eran obvios o no eran necesarios o pueden crear limitaciones a futuro. ¿Qué se sopesó para fijar esos criterios orientadores?

J.C.C.: Se trataba de un caso altamente novedoso y de innegable actualidad. Exigía un ejercicio de ponderación de todos los intereses en juego. Difícilmente es posible predicar que, en este escenario, nos enfrentáramos a circunstancias y decisiones obvias o innecesarias. Es preciso considerar y racionalizar sobre el uso de las nuevas tecnologías, lo que no puede pasar es que demos por obvio su funcionamiento y efectos, sin considerar sus impactos, posibilidades y contradicciones.

Por ejemplo, el juez de tutela que profirió la sentencia que revisamos expresó en el trámite ante la Corte Constitucional que el uso de ChatGPT no había sido abordado por la jurisprudencia del país. A pesar de lo anterior, precisó que usar las herramientas de IA requiere transparencia, corroboración de la información y tener claro que el juez sigue siendo el responsable de la decisión. Tampoco se establecieron limitaciones a futuro.

Como lo advertí previamente, esta sentencia es el punto de partida hacia la consolidación de condiciones mínimas para la prestación adecuada del servicio de administración de justicia y el respeto por los derechos fundamentales de sus usuarios cuando se usen estas tecnologías, pero no puede ser apreciada como un punto final o de cierre. Falta mucho camino por recorrer: Cortés.

'La rama judicial debería tener una IA propia'

Magistrado Juan Carlos Cortés-
Magistrado Juan Carlos Cortés. Crédito: Colprensa

CAMBIO: Con la IA hay varios problemas. Algunos quieren regulación, otros advierten que cualquier regulación quedaría obsoleta rápidamente. ¿Cómo evitar que las guías que haga la rama judicial no se conviertan después en una camisa de fuerza?

J.C.C.: Efectivamente, la obsolescencia de las regulaciones en esta materia es un fenómeno difícil de evitar. Es lo que los expertos llaman el “problema del ritmo”, que se refiere a cómo estas tecnologías emergentes suelen avanzar a un ritmo que sobrepasa la capacidad de reacción de las autoridades regulatorias. Por esa razón, algunos académicos señalan que el enfoque por defecto de la gobernanza de la IA debe estar en las normas de derecho blando, pues su lenguaje amplio y general favorece su capacidad de adaptación a los cambios.

La sentencia propone varios niveles de aproximación a la gobernanza de la IA en la administración de justicia colombiana. El primero y más amplio se refiere al autogobierno ético que hagan los funcionarios, luego están los códigos de conducta y protocolos adicionales como los que expida el Consejo Superior de la Judicatura, los instrumentos de soft law o derecho blando y el estrictamente normativo o derecho duro. En ese sentido, la orden al Consejo Superior de la Judicatura está dirigida a que expida una guía o manual que no tiene el objetivo de ser un reglamento minucioso y exhaustivo de reglas rígidas y lenguaje cerrado. Se busca, eso sí, garantizar que el uso de la IA en la justicia tenga un enfoque orientado a la protección de los derechos fundamentales.      

CAMBIO: El centro de todo esto, me parece, es un poco el sentido común. Pero, ¿podría una persona pelear porque su caso se resolvió con ayuda de la IA y no se enteró sino después? ¿Hay que llevar un registro de estos casos?

J.C.C.: El criterio de transparencia es una garantía esencial y se concreta en que quien tome la decisión sea un juez y se aplique la necesaria racionalidad en la motivación de las providencias judiciales. En cada caso deberá verificarse el cumplimiento de esta garantía procesal, por tal razón, no se previó la necesidad de llevar un registro de los casos en que se haga uso de la IA, pero sí en el ejercicio de adecuados controles para evitar el uso indebido de una herramienta de apoyo como esta.

CAMBIO: ¿Se necesita una IA propia de la Rama Judicial?

J.C.C.: Desarrollar una herramienta especializada podría resultar conveniente para el uso razonado y ponderado de estas tecnologías en el sistema judicial colombiano. Por esa razón, en este fallo se alentó a la rama judicial para continuar en sus esfuerzos progresivos para implementar una plataforma de IA propia, impulsando experiencias que ya vienen operando como en el caso del sistema Pretoria en la Corte Constitucional. Esto contribuiría a la eficiencia de los despachos judiciales y facilitaría el acceso a la información también para los usuarios, al tiempo que reduciría los riesgos en materia de transparencia, protección de datos, alucinaciones y sesgos.

CAMBIO: Magistrado, es posible que los servidores judiciales ya estén usando la IA, pero no lo dejen claro en los papeles. ¿Qué les diría a ellos? 

J.C.C.: El llamado a los jueces y juezas, así como a los servidores, es a valorar su rol esencial en el Estado y a aplicar criterios éticos y de buena gobernanza en el uso de herramientas tecnológicas. También se aprecia necesario avanzar en la capacitación sobre el uso de estas nuevas herramientas y asumir que aquellas se apliquen de manera razonable, con enfoque de protección de derechos fundamentales y en forma compatible con los mandatos de la Constitución.

Se exige que los funcionarios que hagan uso de ellas deben explicitar su utilización a los usuarios del sistema judicial y, de esta forma, asegurar que se respeten las garantías al debido proceso, defensa y contradicción: Cortés.

CAMBIO: ¿Por qué no hicieron exhorto al Congreso?

J.C.C.: Actualmente, el legislador tramita varias iniciativas normativas para regular el uso e implementación de la IA en general. El mecanismo que se consideró en la sentencia para el establecimiento de lineamientos en un ámbito tan especializado como la administración de justicia fue la orden al Consejo Superior de la Judicatura. Aquella, reitero, busca que se adopte una guía, protocolo o manual en el asunto, pues esta entidad ya impulsa la transformación digital de la Rama Judicial dentro del ámbito de la política pública de justicia digital.  

CAMBIO: Las discusiones sobre la IA y su regulación son nuevas en el mundo. Este es uno de los primeros, sino el primer fallo de este tipo. Más allá de la decisión, ¿era hora de que este debate llegara a la Corte?

J.C.C.: La IA hace parte de nuestra realidad. Como ha pasado en otros momentos históricos de transformación, ahora ante la cuarta revolución industrial, podemos (citar a) Klaus Schwab: “nunca ha habido un momento de mayor promesa, o mayor peligro”. El fenómeno tecnológico exige un continuo análisis y comprensión en su integralidad. Se requieren ética, buena gobernanza y regulaciones para encarar las enormes posibilidades y los retos de una humanidad mediada por los desarrollos de las TIC.

Como es lo esperado, a la Corte llegan los debates que surgen en la sociedad conforme su evolución. Se abre el camino para que también la justicia avance en la comprensión y precisión de pautas en cuanto al uso de la IA y, seguramente, de nuevas tecnologías, en lo que se aprecia por demás como un constitucionalismo digital o para lo digital. Lo esencial acá es comprender que se trata de aplicar los mandatos de la Carta Política y asegurar la dignidad y el respeto de los derechos fundamentales también frente a estas nuevas posibilidades.

Conozca más de Cambio aquíConozca más de Cambio aquí