¿La inteligencia artificial puede tener sesgos?: Esta y otras preguntas que se hace la Corte para pronunciarse al respecto

Inteligencia artificial.

Crédito: Freepik.

31 Enero 2024

¿La inteligencia artificial puede tener sesgos?: Esta y otras preguntas que se hace la Corte para pronunciarse al respecto

El alto tribunal avanza en la discusión sobre el uso de inteligencias artificiales generativas como Chat GPT en la elaboración de decisiones judiciales. ¿Cuáles son las dudas?

Por: Alejandra Bonilla Mora

Entre aquí para recibir nuestras últimas noticias en su WhatsAppEntre aquí para recibir nuestras últimas noticias en su WhatsApp

La Corte Constitucional podría emitir uno de los primeros fallos a nivel mundial sobre el uso de la inteligencia artificial, especialmente en la toma de decisiones judiciales.

La razón de ello es que está estudiando una tutela contra un fallo de tutela que dictó el Juez Primero Laboral del Circuito de Cartagena en el caso de un menor autista que contó con el uso del Chat GPT.

El juez le preguntó a esa herramienta cosas concretas sobre la atención en salud a menores con espectro autista y usó las respuestas que le dio la IA. El caso está en el despacho del magistrado Juan Carlos Cortés, quien está buscando el apoyo de expertos para responder algunas preguntas claves que tiene para resolver el caso.

Primero, la Corte quiere que expertos de las universidades Javeriana, Los Andes y La Sabana le expliquen qué potencialidades tiene una herramienta de inteligencia artificial generativa, como lo es Chat GPT, para que sirva de apoyo a las labores judiciales.

¿A qué se refiere con herramienta generativa? Catalina Moreno, abogada de la Fundación Karisma, le explicó a CAMBIO que hay varios tipos de inteligencia artificial y Chat GPT es una generativa porque toma gran cantidad de bases de datos, los procesa y genera contenidos nuevos, respuestas nuevas sobre cualquier tema.

Por eso, la Corte quiere saber cuáles son las potencialidades y quiere saber si, en caso de que creara una IA entrenada para apoyar a la justicia, “qué tan probable es que tenga sesgos, incurra en discriminaciones o genere resultados inexactos”.

“¿Qué medidas pueden adoptarse para enfrentar el fenómeno del blackbox en los sistemas de inteligencia artificial? En otras palabras, ¿puede contrarrestarse la dificultad de entender la manera en que estas herramientas procesan datos y generan respuestas y decisiones?”, se preguntó la Corte.

“¿Considera que alguna herramienta de inteligencia artificial generativa de libre acceso cumple con estándares técnicos mínimos para que un juez la utilice como apoyo investigativo y como un medio para hacer más eficiente la administración de justicia? En otras palabras, ¿existe alguna herramienta que pueda servir de apoyo investigativo en el ámbito jurídico sin incurrir en respuestas erróneas, discriminatorias o sesgadas?”.

El alto tribunal quiere saber si se pueden medir errores o desviaciones en las respuestas que brinde una IA y le pidió a los expertos que hagan recomendaciones sobre cómo desarrollar una IA específicamente para apoyar la labor judicial.

De otro lado, la Corte le pidió ayuda a ciertos expertos, como el abogado experto en tecnología Andrés Felipe Umaña Chaux, a la experta mexicana y consultora de la Unesco Agneris Sampieri, y al profesor francés Christian Perrone.

También consultó a las expertas Lorena Flórez Rojas, Pilar Ibáñez, a Erick Rincón Cárdenas, al Grupo de Estudios en Internet, Comercio Electrónico, Telecomunicaciones e Informática de la Universidad de los Andes (GECTI), a la Fundación Karisma y a Dejusticia.

A estos expertos en específico se le pidió que den sus opiniones sobre qué tareas debería realizar una IA para apoyar el servicio de justicia, si consideran pertinente tomar como modelo el proyecto de legislación sobre inteligencia artificial que está desarrollando la Unión Europea para la Rama Judicial y si existen otro tipo de modelos y/o legislaciones que sirvan de ejemplo.

La Corte también quiere que los expertos opinen sobre qué debería tener en cuenta un juez a la hora de utilizar una herramienta de IA para desarrollar sus labores judiciales y qué tipo de controles debe tener en cuenta para un uso adecuado de la misma.

“En caso de acoger el uso de inteligencia artificial en la Rama Judicial, ¿qué principios deben tenerse en cuenta y cómo podrían aplicarse en el contexto colombiano? ¿Recomendaría la expedición de directrices para el uso adecuado de las herramientas de IA generativa en la Rama Judicial? En caso afirmativo, ¿qué tipo de directrices se deberían dictar?”, se preguntó la Corte.

El Ministerio de Tecnologías de la Información podrá igualmente dar su opinión sobre los aspectos jurídicos, económicos y técnicos que deberían tenerse en cuenta en caso de usar la IA en la Rama. Y el Consejo Superior de la Judicatura deberá informar si ya jueces han manifestado su deseo de que sea la Rama Judicial la que adopte una IA, si hay despachos que estén ya usando la IA y si hay estadísticas, entre otros asuntos.

La idea también es que los jueces den cuenta de su experiencia con la IA, si han adoptado protocolos al respecto, si ha sido útil y si están haciendo capacitaciones a los funcionarios judiciales, entre otros. Con esta información, la Corte empezará a debatir antes de dictar sentencia.

 

Conozca más de Cambio aquíConozca más de Cambio aquí