Chat GPT puede ser usado por jueces, con ciertos criterios, pero nunca reemplazarlos: Corte Constitucional

Inteligencia artificial.

Crédito: Freepik.

12 Agosto 2024 01:08 pm

Chat GPT puede ser usado por jueces, con ciertos criterios, pero nunca reemplazarlos: Corte Constitucional

Por primera vez, la Corte Constitucional se pronuncia sobre la inteligencia artificial. En histórica decisión, señaló que los jueces sí pueden usar la herramienta tecnológica ChatGPT y otras similares, pero con ciertos criterios éticos de transparencia, responsabilidad y publicidad, dejando en claro que se trata de una herramienta. Detalles.

Por: Alejandra Bonilla Mora

Entre aquí para recibir nuestras últimas noticias en su WhatsAppEntre aquí para recibir nuestras últimas noticias en su WhatsApp

Por primera vez en su historia, la Corte Constitucional se pronunció sobre el uso de la inteligencia artificial, un debate que apenas está empezando en el mundo sobre su regulación o la necesidad de fijar criterios orientadores para su uso.

En lo que puede ser uno de los primeros fallos de tribunales constitucionales en el mundo, la Corte se pronunció sobre la posibilidad de que los jueces de la República usen la herramienta Chat GPT y otras análogas y determinó que sí es posible hacerlo, pero bajo ciertos criterios y siempre como un apoyo, nunca con la vocación de que la inteligencia artificial reemplace al juez.

Con ponencia del magistrado Juan Carlos Cortés, la Sala Segunda de Revisión de la Corte Constitucional exhortó a todos los jueces del país para que evalúen el adecuado uso de la herramienta tecnológica Chat GPT y otras análogas, así como para que valoren y consideren las mejores prácticas, y apliquen criterios éticos y de respeto a la Ley y la Constitución. Esto, con el fin de que su uso no afecte derechos fundamentales y para asegurar la independencia y autonomía judiciales.

"En consecuencia, los funcionarios y empleados de la Rama Judicial aplicarán los principios de transparencia, responsabilidad, privacidad, no sustitución de la racionalidad humana, seriedad y verificación, prevención de riesgos, igualdad y equidad, control humano, regulación ética, adecuación a buenas prácticas y estándares colectivos, seguimiento continuo y adaptación e idoneidad", dice el fallo.

Además, la Corte ordenó al Consejo Superior de la Judicatura que en cuatro meses "divulgue una guía, manual o lineamiento en relación con la implementación de la IA generativa en la Rama Judicial, especialmente en cuanto al uso de la herramienta Chat GPT, regulación que deberá ser acorde con los aspectos establecidos en este fallo".

La decisión apunta que se debe respetar el derecho al juez natural y la condición de ser humano del juzgador, ya que el diseño institucional y normativo actual no contempla la posibilidad de un juez máquina. En ese sentido, resaltó que la IA no puede remplazar al juez en la toma de decisiones judiciales, sin importar la complejidad del asunto sometido a estudio de la jurisdicción. Por el contrario, consideró que es admisible emplear estas tecnologías con fines de gestión administrativa y documental; apoyo a la función judicial en actividades que no suponen una labor de creación de contenido, interpretación de hechos o textos, ni solución de casos; y corrección y síntesis de textos, siempre y cuando estos sean supervisados por el operador jurídico para determinar su precisión, coherencia y correcta aplicación.

La Corte agregó que la implementación de la IA también debe garantizar la independencia e imparcialidad judicial lo que, en este contexto, supone que ningún poder, ya sea estatal, particular o de cualquier otra índole, como por ejemplo una IA, pueda influir en la consideración del caso.

La Corte indicó que no es admisible que las decisiones judiciales estén determinadas por sesgos o prejuicios particulares que puedan estar presentes en la herramienta de IA, lo que produciría irregularidades por discriminaciones y decisiones parcializadas. En ese sentido, la Corte concluyó que "el uso ponderado y razonado de la IA en el sistema de administración de justicia es admisible (y que) la utilización de este tipo de herramientas debe atender, como presupuesto esencial, el criterio de no sustitución de la racionalidad humana y las cargas de transparencia, responsabilidad y privacidad que corresponde asumir al juez cuando recurra a este tipo de apoyos tecnológicos".

"La transparencia implica exponer claramente cuál fue el uso, el alcance y la ubicación en las decisiones de lo gestionado a través de la herramienta IA. La responsabilidad exige del servidor que esté capacitado en la materia, que pueda dar cuenta del origen, la idoneidad y la necesidad del uso de IA y, principalmente, que verifique las condiciones de esta y la información y resultados que aporta", agregó la Corte.

Los criterios

La Corte consideró esencial que se usen los siguientes criterios a la hora de apoyarse en herramientas de IA como Chat GPT por parte de los despachos judiciales en el país:

  • Transparencia: la obligación de evidenciar con claridad y precisión el uso, alcances y ubicación en las actuaciones o decisiones de los resultados obtenidos por la utilización de tales herramientas, que permita a los usuarios e interesados su pleno conocimiento y la posibilidad efectiva de contradicción.
  • Responsabilidad: aquella obligación que existe de que el usuario de la herramienta de IA se encuentre capacitado y comprenda los impactos del uso de estas tecnologías, para a su vez dar cuenta del origen, idoneidad y necesidad del uso de la IA y la información suministrada por la misma, la cual debe ser verificada.
  • Privacidad: aquel deber de custodiar y proteger la reserva de los datos personales y sensibles que se ponen en conocimiento de la administración de justicia para cumplir con los fines propios de la Rama Judicial.
  • No sustitución de la racionalidad humana: como expresión de la imposibilidad ética y jurídica de sustituir la acción y la responsabilidad del individuo de la especie humana en la gestión de las actuaciones y decisiones judiciales.
  • Seriedad y verificación: implica la obligación de realizar un estricto escrutinio sobre las fuentes, alcances, restricciones, posibilidades, falencias y riesgos que presente la herramienta de cara a la actuación en curso o a la solución del problema jurídico correspondiente.
  • Prevención de riesgos: aplicar los estándares adecuados de control sobre situaciones que generen riesgo por la aplicación de tecnologías tales, en aspectos como imprecisiones, desactualizaciones, alucinaciones, sesgos, inconsistencias y demás.
  • Igualdad y equidad: en cuanto se erradiquen todas las formas de discriminación relacionadas con la aplicación de sesgos derivada del uso de tales tecnologías y su impacto negativo en la eficacia de los derechos humanos. h. Control humano, en tanto considerando los anteriores criterios, siempre se permita la realización efectiva de escrutinios sobre las actuaciones y decisiones en que se usen herramientas de IA, mediante el acceso a la debida información y el uso de recursos que deban ser resueltos por autoridades humanas.
  • Regulación ética: implica el desarrollo de estándares de comportamiento individual que se adecúen a los mandatos superiores y legales y a las pautas razonables para el uso de tales tecnologías por parte de los funcionarios y servidores de la Rama Judicial.
  • Adecuación a buenas prácticas y estándares colectivos: en tanto se apliquen los esquemas razonables que se definan para el funcionamiento de la Rama Judicial, desde su autonomía e independencia, a partir de las definiciones que adopten sus autoridades, tanto en sede de administración como de orientación jurisprudencial.
  • Seguimiento continuo y adaptación: para que el uso de tales tecnologías consulte los avances jurídicos, sociológicos y tecnológicos que se vayan implementando, así como los esquemas de mejora y control que se construyan en forma progresiva.
  • Idoneidad: El uso de las tecnologías de la información y de las comunicaciones en la gestión y trámite de los procesos judiciales y asuntos en curso debe ser adecuado para facilitar y agilizar el acceso a la justicia.

La inteligencia artificial no puede reemplazar al juez

La Corte Constitucional dijo que la guía que haga el Consejo Superior de la Judicatura debe tener varios elementos.

El primero de todos y el más esencial es que la inteligencia artificial "no puede ser usada para sustituir el razonamiento lógico y humano que le compete realizar a cada juez a efectos de interpretar los hechos, valorar las pruebas, motivar y adoptar la decisión, pues ello conllevaría una violación de la garantía del juez natural y al debido proceso probatorio".

Así, en todas las instancias del trámite de una tutela, "se deberán aplicar controles que eviten la violación del derecho al debido proceso por uso indebido de IA, entre los que se destaca la autrorregulación ética".

La Corte dijo que la IA se podrá utilizar en el sistema judicial para los ámbitos de gestión administrativa y documental, así como el de apoyo a la gestión judicial y la corrección y síntesis de textos. "En tales eventos, la utilización de estas tecnologías no remplaza la labor esencial que se le ha atribuido al funcionario judicial, sin embargo, en estos casos, se deberán tener las cautelas necesarias para evitar la transgresión de derechos, tales como el habeas data o la intimidad, o que el funcionario judicial pierda la independencia o imparcialidad debido a los sesgos y alucinaciones de la IA", dice el fallo.

La guía para la Rama Judicial debe dejar en claro que debe haber "una persona individualizable e identificable a quien se le pueda plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las intervenciones realizadas por la IA". Además, debe haber un lenguaje claro y comprensible para los seres humanos, sobre las respuestas que genera la IA.

"Lo anterior implica que los jueces, magistrados y demás funcionarios y servidores de la Rama Judicial empleen la autorregulación ética y los autocontroles al momento de apoyarse en IA para la gestión judicial", explicó la Corte.

"En cualquier caso, es necesario resaltar que el proceso de digitalización de la justicia en Colombia, sean cuales sean los lineamientos que se adopten por el Consejo Superior de la Judicatura, debe hacerse dentro del marco de respeto por los derechos fundamentales y con las garantías para el acceso efectivo y la no vulneración de tales, especialmente el debido proceso, los cuales se sopesen con los riesgos potenciales de cada nueva tecnología en este ámbito y los nuevos usos que se les pueda dar a estas", señaló la Corte.

El fallo señala que si Colombia tuviera su propio sistema de IA generativa especializado en jurisprudencia y normativa colombiana e internacional, "este podría tener implicaciones positivas para la eficiencia de la labor de los jueces y ayudaría, especialmente, en la materialización del derecho de acceso a la administración de justicia".

Esto permitiría, dice la Corte, asuntos como tener acceso a líneas jurisprudenciales actualizadas, compararse casos similares, solicitarse un resumen fácil y comprensible de la normativa que interesa al caso concreto y hacerse análisis de problemas jurídicos y afectaciones a derechos. "Todo ello dentro del ámbito propio de estas herramientas, como mecanismos que apoyan y que nunca pueden sustituir la labor humana en el servicio de justicia. Adicionalmente, la transparencia, la protección de datos, el conocimiento de los sesgos por conocer el origen de los datos con los cuales sea entrenada la IA, entre otros conceptos, no se verían afectados o, por lo menos, se reducirían en una gran parte los riesgos, puesto que se trataría de una IA controlada y en funcionamiento por y para la Rama Judicial".

El caso que revisó la Corte

La Corte Constitucional dictó este fallo al revisar la actuación del juez primero laboral del circuito de Cartagena, Manuel Padilla, que al dictar sentencia a favor de un niño con trastorno del espectro autista, le preguntó a ChatGPT si este menor podía ser eximido de los pagos de la cuota moderadora de su EPS. La IA no solo respondió que sí, sino que elaboró una respuesta que el juez utilizó en su argumentación, dándole el crédito respectivo a la aplicación.

Al revisar el caso concreto, la Corte dijo que no hubo violación al debido proceso de parte del juez que usó la herramienta porque no hubo un reemplazo del ejercicio de la función del juez: "el funcionario judicial primero identificó la tesis que sostendría, luego las normas constitucionales aplicables al caso, el referente jurisprudencial que se debía atender por guardar identidad fáctica con el asunto analizado, para posteriormente solucionar el caso concreto al indicar que el cobro de copagos y cuotas moderadoras constituía una barrera de acceso al servicio de salud del niño y, solo entonces, anunció y procedió a efectuar preguntas en el referido sistema de IA, para así transcribir las respuestas arrojadas en la consulta".

En el caso concreto, la Corte dijo que se cumplieron los requisitos para exonerar al menor de edad del cobro de copagos y cuotas moderadoras con ocasión de los servicios y medicamentos que requiera.

Conozca más de Cambio aquíConozca más de Cambio aquí