Joaquín Vélez Navarro
3 Julio 2024 03:07 pm

Joaquín Vélez Navarro

Hacia un uso responsable de ChatGPT y otras herramientas de IA

Entre aquí para recibir nuestras últimas noticias en su WhatsAppEntre aquí para recibir nuestras últimas noticias en su WhatsApp

El uso de inteligencia artificial en el trabajo se ha popularizado en los últimos años. Especialmente después del lanzamiento de ChatGPT por Open AI en noviembre 30 de 2022. A partir de ese momento, muchas personas han empezado a utilizar distintas herramientas de inteligencia artificial generativa para, entre otros, ser más eficientes y simplificar y disminuir el tiempo que invierten en la realización de sus tareas profesionales. El asombro con el contenido generado por esos sistemas ha hecho que muchos piensen que son la gran maravilla, y que pueden ser útiles para realizar cualquier labor que consideren compleja, rutinaria o aburridora. Aunque resulta impresionante ver los resultados que los chatbots producen, es importante preguntarse si se están utilizando de forma correcta y adecuada. La respuesta es que en una gran cantidad de casos no se está haciendo. De hecho, la fascinación por ChatGPT y otros bots ha hecho que se abuse esas herramientas y que su uso pueda resultar muy peligroso. Veamos un ejemplo.  

La Unesco publicó recientemente una encuesta que realizó Juan David Gutiérrez, profesor de la Escuela de Gobierno de la Universidad de los Andes, sobre el uso de inteligencia artificial por parte de actores judiciales a nivel global. La encuesta fue respondida por 563 personas de 96 países que trabajan en el sector justicia, dentro de los que se encuentran jueces y fiscales. De los encuestados, el 44% señaló que utiliza herramientas de inteligencia artificial para su trabajo y el 41% afirmó haber hecho uso de chatbots como ChatGPT para el desarrollo de sus labores. La frecuencia en la que utilizan estas herramientas varía: el 20% lo hace solo en ciertas ocasiones, el 13% una vez a la semana o mensualmente y el 11% diariamente. 

De ese 41% que utiliza chatbots de inteligencia artificial para su trabajo, el 43% admitió que lo hace para buscar legislación, precedentes judiciales, información sobre hechos, definiciones, doctrina o literatura en Derecho, e información técnica no jurídica. En segundo lugar, un 28% señaló que las utiliza para redactar documentos, resumir, escribir correos electrónicos, traducir textos, corregir estilo, entre otras tareas de escritura. Otro 14%, por su parte, dice que lo hace con el propósito de realizar una lluvia de ideas para inspirarse, explorar nuevas ideas o para evaluar sus ideas. Finalmente, un 5% lo hace para simplificar conceptos complejos, un 4% para analizar datos, un 3% para verificar la veracidad y confianza de la información, y un 2% para programación informática.   

Aunque estos resultados podrían pasar desapercibidos para algunos, son sumamente preocupantes. Demuestran que, en un sector tan importante como lo es la administración de justicia, hay un profundo desconocimiento sobre cómo funcionan los chatbots y para qué sirven. Que una porción importante de los actores del sistema de justicia a nivel global usen ChatGPT y otros sistemas similares para buscar información es alarmante. Esas herramientas se entrenan utilizando cantidades masivas de datos, para así predecir la probabilidad de la siguiente mejor palabra de una frase dado el contexto. Por ende, la información que producen puede ser imprecisa o falsa. En efecto, y como lo han documentado expertos en el tema como Juan David Gutiérrez, los chatbots han inventado jurisprudencia inexistente que ha sido citada por jueces en sus decisiones. 

Este es solo un caso que ocurre en la práctica del derecho. Pero en otras profesiones pasa lo mismo. Muchos profesionales usan herramientas de inteligencia artificial sin saber qué hay detrás y cómo funcionan. Urge, por tanto, que como sociedad tomemos medidas al respecto. La respuesta no puede ser la prohibición, pues la tecnología llegó para quedarse y prohibirla es simplemente postergar una discusión que tenemos que tener.

Hay varias cosas que se pueden hacer al respecto. Primero, es importante que antes de usar estas herramientas nos informarnos sobre para qué sirven y de dónde proviene la información con la que son entrenadas. Así mismo, el Estado debe regular el asunto lo más pronto posible. Los avances tecnológicos son rápidos y cualquier demora en la regulación puede aumentar los riesgos de un mal uso. No en vano varios expertos han pedido que se detenga el desarrollo de inteligencia artificial hasta tanto no esté regulado. Las empresas que desarrollan estas tecnologías también tienen que ser responsables, y advertir claramente sobre los límites que tienen estas herramientas. Por último, urge que el sector educativo empiece a capacitar sobre el uso ético y responsable de la inteligencia artificial que se ha popularizado y masificado. Tanto colegios como universidades en el país tienen la responsabilidad de preparar a los profesionales del futuro para que entiendan, primero, cómo funcionan las herramientas más populares de inteligencia artificial; y, segundo, cómo hacer un uso responsable de las mismas. Algunos ya han empezado, pero es importante que todos se unan. 

El desarrollo profesional y el éxito laboral de quienes hacen parte de las próximas generaciones se verá marcado sin duda por qué tan hábiles sean en el uso de estas herramientas. Ese uso, no obstante, tiene que ser ético y responsable. 
 

Conozca más de Cambio aquíConozca más de Cambio aquí

Más Columnas