Inteligencia artificial en la justicia: ¿qué dicen los expertos tras el fallo de la Corte?

Inteligencia artificial.

Crédito: Freepik.

22 Agosto 2024 06:08 pm

Inteligencia artificial en la justicia: ¿qué dicen los expertos tras el fallo de la Corte?

La sentencia de la Corte Constitucional fue bien recibida por organizaciones como El Veinte y Karisma, que vienen trabajando sobre las implicaciones en cuanto a derechos del uso de herramientas tecnológicas. Piden que la Judicatura haga una convocatoria abierta para el proceso que se viene ahora de fijar unas guías para el uso de la inteligencia artificial en la Rama Judicial.

Por: Alejandra Bonilla Mora

Entre aquí para recibir nuestras últimas noticias en su WhatsAppEntre aquí para recibir nuestras últimas noticias en su WhatsApp

La Corte Constitucional ya sentó bases para que los jueces del país usen inteligencia artificial en su día a día, siguiendo unos criterios básicos de transparencia, de autorregulación ética, responsabilidad y de verificación, entre otros. En esencia, ChatGPT y otras IA generativas sí podrán servir al juez, siempre que no lo reemplace.

La sentencia fue bien recibida por organizaciones como Karisma, que trabajan para que las tecnologías digitales vayan de la mano con la protección de los derechos humanos, en este caso, de las personas que acuden a la justicia a resolver sus problemas. Lea en este link una entrevista con el magistrado Juan Carlos Cortés, ponente de la decisión.

Catalina Moreno, de Karisma, le dijo a CAMBIO que es relevante que la Corte Constitucional haya consultado a ChatGPT, desde diferentes perfiles, para hacerle preguntas sobre un caso concreto (un menor con autismo y la posible exoneración de copagos), como un ejercicio que evidencia los posibles sesgos o limites que tiene la herramienta.

“Es una sentencia juiciosa que revisa los riesgos que nosotros planteamos de privacidad, transparencia y responsabilidad. Es algo que nos tiene que quedar claros, que el juez sigue siendo el responsable con independencia de qué herramienta use”, señaló Moreno.

A su juicio, hay un elemento que hace falta: como la Corte le ordenó al Consejo Superior de la Judicatura que emita una circular con lineamientos para el uso de la IA, en su criterio, debería haber también un espacio para que la academia o la sociedad civil participen en ese proceso.

“Muchas autoridades estatales están implementando este tipo de sistemas y luego no rinden cuentas. Pasó con la misma Corte Constitucional que sacó un sistema llamado Pretoria y nunca supimos (realmente) para qué se estaba usando. Hace falta una obligación de rendición de cuentas y de participación”, señaló.

De acuerdo con Moreno, la sociedad civil no llega a conocer las razones ni el proceso que le tomó al Consejo Superior de la Judicatura para llegar a las circulares que emiten y que son de obligatorio cumplimiento para los jueces. De otro lado, para Karisma esta sentencia también da pie para hablar sobre el uso de la inteligencia artificial en otras entidades del Estado, ya que los lineamientos que fijó la Corte podrían extrapolarse y usarse.

Piden que proceso en la Judicatura sea abierto

La sentencia de la Corte se dio a la hora de revisar una tutela en la que un juez de Cartagena le hizo varias preguntas a ChatGPT y las usó en la sentencia del caso particular. El caso llegó al alto tribunal por insistencia de Karisma y El Veinte, una organización que trabaja en defensa de la libertad de expresión.

Emmanuel Vargas, codirector de El Veinte, le dijo a CAMBIO que la sentencia es muy positiva por los lineamientos, pero también por la forma como se construyó, teniendo en cuenta las intervenciones de organizaciones sociales expertas en el asunto.

“Hacen un recorrido juicioso de todas las iniciativas regulatorias de inteligencia artificial a nivel global y la decisión es ponderada porque no se atreve a dar unas reglas en piedra. Ahora, creo que de todos modos sí existe un riesgo a un sesgo de automatización que consiste en que la persona que use la inteligencia artificial asuma que el contenido es correcto”, dijo.

Vargas aseguró que el proceso que ahora debe hacer la Judicatura debería ser abierto al público, con una posibilidad real de participación desde las primeras fases y no solo limitarse a pedir un concepto, como está sucediendo ahora con el Conpes de inteligencia artificial.

Vargas señaló que Colombia no va en el camino a convertirse en un país líder en materia de inteligencia artificial, sino más bien un receptor y un usuario, por lo cual van a ir llegando más y más herramientas. Ante ese desafío, es clave que el país aborde el tema de manera ponderada. Sobre si la Rama Judicial debería tener una inteligencia artificial propia, Vargas señaló que esto implicaría múltiples costos.

Además, advirtió que como hay ya disponibles plataformas de IA de acceso libre, los desarrolladores están usando esos códigos y acomodándolos para actividades específicas. “Hay firmas de abogados que han desarrollado sus propios modelos, basados en otros ya preexistentes. Eso es algo que sería factible en un sentido teórico, pero sería muy costoso”, señaló.

¿Qué pasa con otras herramientas que usan los jueces?

De otro lado, el profesor de derecho procesal Nattan Nisimblat aseguró que el problema de fondo en este caso era si el primer juez que estudió la tutela delegó o no la función de administrar justicia a la inteligencia artificial, y la conclusión de la Corte es que no lo hizo. “El tema central era si el juez había delegado su función o no. ChatGPT no puede dictar una sentencia, hoy eso no es posible. Hoy no hay el insumo para ello”, señaló.

Nisimblat indicó que, del fallo, se derivan otras implicaciones. Por ejemplo, si el juez debe hacer público que usó ChatGPT u otra IA generativa, eso se puede extender a cualquier herramienta que se use en el proceso de elaboración de una sentencia, lo cual podría ser problemático.

El experto dijo que hoy se está usando Copilot, una IA que viene integrada en algunos programas de Microsoft, y que es un sistema de inteligencia artificial que permite trabajar con aplicativos como Word, Excel y Teams, entre otros, pero no para tomar decisiones.

Copilot no puede trabajar con archivos de One Drive. Es decir, los insumos de un proceso judicial no se pueden cargar a esa IA todavía y así lo dicen los manuales y tutoriales de Microsoft en el sitio oficial de Copilot", dijo.

En ese sentido, para Nisimblat hay que permitir que el Consejo Superior de la Judicatura siga haciendo su trabajo, como hasta ahora lo ha venido realizando, poco a poco y de manera prudente, sobre las herramientas tecnológicas que sí se pueden utilizar en la Rama Judicial.

Por último, indicó que modelos de IA generativa, como ChatGPT, no deben ser utilizados como oráculos, es decir, como fuentes de conocimiento, ya que, al menos en este estado de su construcción, no tienen esa funcionalidad, ni la de un buscador como Google, el cual ya está integrando su modelo Gemini.

"Desde hace años se vienen automatizando procesos, como el de elaboración de escritos, mediante el uso de plantillas, hojas de cálculo, con el uso de macros en Excel, e incluso aplicativos para mejorar la transcripción de audiencias. Eso no indica que se reemplace la labor del juez en la toma de la decisión, únicamente que se facilita su labor de exteriorizarla o verterla sobre un documento, y para eso la IA puede ser de gran utilidad", agregó.

Conozca más de Cambio aquíConozca más de Cambio aquí