12 Diciembre 2022

Cómo funciona la inteligencia de ChatGPT

¿Realmente puede el programa de OpenAl pensar por sí mismo para dar una respuesta acertada a toda clase de preguntas?

Por: Eduardo Sánchez

El 30 de noviembre de este año, la empresa californiana OpenAI puso a disposición del público el programa ChatGPT, presentándolo como un programa de “inteligencia artificial” (IA, o AI en inglés) capaz de generar textos como respuestas a preguntas de todo tipo, formuladas a través del sitio web chat.openai.com. Desde ese momento, el éxito ha sido enorme, no solo público sino mediático: CAMBIO, por ejemplo, le ha consagrado dos artículos, el primero de ellos con un titular donde se anuncia que este “robot” va a cambiar el mundo. 

¿Son reales tantas expectativas de cambio o, parafraseando lo dicho por Mark Twain como respuesta a su obituario publicado en vida por el New York Times, es una noticia exagerada? Es lo que esperamos dilucidar en este artículo.

Primero que todo, ChatGPT no es un robot, en el sentido que lo entendemos corrientemente, es decir, una máquina con una realidad física, capaz de realizar alguna función mecánica, con o sin forma humana (por ejemplo, con brazos capaces de coger y desplazar objetos). Es en realidad, como la primera parte de su nombre lo indica, un chatbot (contracción de las palabras inglesas chat y robot): un programa informático capaz de establecer una conversación (oral o textual) con sus usuarios humanos, un agente conversacional, que pretende dar la impresión de que el diálogo se establece con otro humano, no con un computador. La segunda parte del nombre son las iniciales de la expresión en inglés Generative Pre-trained Transformer (algo así como transformador generativo pre-entrenado).

Los chatbots no son nuevos, existen desde hace varias décadas y, en algunos casos, tienen aplicaciones comerciales. Es relativamente corriente dialogar por teléfono con un chatbot cuando se llama un help desk para consultar un problema técnico o una reservación de viaje, por ejemplo. El primer chatbot fue el programa ELIZA, creado en 1966 en la famosa universidad tecnológica MIT.

¿Por qué razón entonces tanta expectativa con ChatGPT? ¿Por qué razón son tan importantes los chatbots en la IA? Una respuesta simple a la primera pregunta es que los chatbots comerciales se especializan en un tema preciso, para el cual disponen de una gran base de datos con las respuestas posibles. Una respuesta más completa aparecerá a lo largo del artículo. La respuesta a la segunda pregunta necesita de un pequeño paréntesis histórico, alrededor de Alan Turing.

El test de Turing

Alan Turing (1912-1954) fue un matemático inglés considerado uno de los padres de la informática y de la inteligencia artificial. En 1936, presentó una herramienta matemática considerada como un computador universal, mucho antes de la realización física del primer computador digital, en los años 1940: la máquina de Turing. Su nombre es engañoso puesto que describe una máquina imaginaria, muy simple conceptualmente pero capaz de resolver cualquier problema que tenga solución computacional (algorítmica), a condición de tener el tiempo y la memoria necesarios. Por extraño que parezca, hay problemas que no pueden ser resueltos en un computador y el propósito de Turing era detectar ese tipo de problemas, ayudado con su máquina. Y, repito, antes de que los computadores fueran creados.

Durante la Segunda Guerra Mundial, Turing hizo parte del grupo secreto de Bletchley Park, encargado de descifrar los mensajes encriptados del ejército alemán. Su grupo construyó un dispositivo capaz de descifrar automáticamente los mensajes creados por la máquina Enigma alemán. Esta labor jugó un rol no despreciable en el éxito de los aliados, pero no fue revelado al público hasta los años setentas.

Estos trabajos pioneros de Turing lo llevaron a pensar en la automatización de la inteligencia, la inteligencia artificial, que él creyó posible. Para detectar si un computador alcanza la inteligencia humana, él propuso en 1950 una experiencia que se ha llamado el test de Turing: si en una conversación entre un computador y un humano, sobre cualquier tema, no hay manera de distinguir las respuestas del computador, se puede decir de él que es inteligente. Turing predijo que en 50 años se llegaría a esta situación. El test alcanzó rápidamente una gran popularidad y en 1990, Hugh Loebner, un inventor millonario estadounidense, creó un concurso premiando con varios miles de dólares al programa que apruebe el test. Sin embargo, la proliferación de chatbots y el carácter completamente subjetivo del test lo ha llevado a un cierto descrédito y al abandono del Concurso Loebner en 2020. Este verano, Google despidió a uno de sus ingenieros por haber anunciado en un tweet que uno de sus chatbots tenía conciencia. El test de Turing tiene seguramente una importancia en el diseño de ChatGPT.

El final de Turing fue dramático: homosexual declarado, fue arrestado por esta razón y juzgado. La sentencia lo deja escoger entre la cárcel o la castración química. Turing recibe un tratamiento durante un año, terminado en abril 1953. El 8 de junio 1954, Turing es encontrado muerto en su cama, con una manzana mordida a su lado. La autopsia dictaminó un suicidio con cianuro, untado en la manzana. Las causas del suicidio no son claras y la manzana nunca fue examinada. Una leyenda urbana dice que el logo de Apple es una evocación de la manzana de Turing, aunque la compañía nunca lo ha confirmado.

La vida de Turing es el objeto de la película Imitation Game, donde Turing es interpretado por Benedict Cumberbatch.

El aprendizaje automático (machine learning)

Con el nacimiento de la disciplina científica de la inteligencia artificial, una de las metodologías que se desarrolló más rápidamente fue la del aprendizaje automático (machine learning): hacer que el computador aprenda a solucionar problemas. Los informáticos se inspiraron entonces de los mecanismos del aprendizaje humano, realizado en el cerebro por los millones de neuronas que lo componen, y diseñaron redes de neuronas artificiales, pálidas copias de las naturales, tanto en cantidad como en complejidad, pero que dieron resultados esperanzadores.

Las neuronas, descubiertas por el científico español Santiago Ramón y Cajal hace más de 100 años, son células que reciben señales eléctricas en sus dendritas y que las transmiten a otras neuronas con sus axones (ver la figura, tomada de Wikipedia). El número de neuronas en el córtex humano es 1 seguido de 11 ceros, mayor que el de estrellas en la Vía Láctea, y cada neurona está conectada a 1000-10000 otras neuronas, lo cual es un índice de la complejidad de la red neuronal natural. La información se transmite en la forma de pulsos eléctricos, a través de estas conexiones, que se inhiben o se excitan químicamente.

ia

 

Los modelos informáticos de las neuronas, mucho más simples, existen desde 1943, inventados por Warren McCulloch y Walter Pitts. Una red de neuronas artificiales posee un gran número de entradas y de salidas, y el aprendizaje es el proceso que permite inhibir o activar ciertas interconexiones hasta que la salida activada sea la correcta. En un sistema de identificación de animales, por ejemplo, las entradas pueden representar los pixeles de una foto y cada salida puede representar un tipo de animal (gato, perro, águila, etc.). Si le presentamos la foto de un animal, las interconexiones cambian, por aprendizaje, hasta que la salida excitada sea la correspondiente.

Las metodologías matemáticas empleadas para modificar las interconexiones, es decir realizar el aprendizaje o entrenamiento, son básicamente de tres tipos:

  • Aprendizaje supervisado: la red neuronal recibe las entradas de una base de datos de entrenamiento y un “profesor” externo supervisa la salida generada, proporcionando una corrección del error.
  • Aprendizaje no supervisado: el sistema aprende por sí mismo a agrupar las entradas en categorías.
  • Aprendizaje por refuerzo: durante la fase de aprendizaje, el sistema recibe automáticamente recompensas en función de la salida seleccionada.

En todos los casos, el resultado del aprendizaje depende del tamaño de la base de datos utilizada y del tiempo dedicado al entrenamiento. El progreso espectacular encontrado actualmente por las tecnologías de “inteligencia artificial” (reconocimiento de imágenes, de voz, de escritura, chatbots, etc.) tiene dos razones principales: el acceso a bases de datos gigantescas para usar durante el entrenamiento, posibles por las informaciones gigantescas que circulan por internet y que son capturadas con o sin nuestra autorización; los progresos tecnológicos en el tamaño de las memorias utilizadas para almacenar las bases de datos y en la velocidad de tratamiento de los computadores, que doblan en promedio cada año y medio. Hoy en día, es corriente que el teléfono que utilizamos cotidianamente posea un procesador para los cálculos normales y otro, separado, para las operaciones de redes neuronales artificiales que le sirven, por ejemplo, para identificar nuestra cara.

En ChatGPT, el aprendizaje consiste en construir frases correctas, es decir, seleccionar la mejor palabra que se escribirá a continuación de la presente, basados en estadísticas probabilísticas construidas durante su entrenamiento con bases de datos que contienen miles de millones de ejemplos de textos, extraídos principalmente de internet y sus redes sociales.

Presente y futuro de ChatGPT

Los resultados de ChatGPT son impresionantes, especialmente por el ancho espectro de sus competencias, aunque esta diversidad hace que la excelencia de las respuestas varíe según el tema de la pregunta. Ustedes pueden juzgar por sí mismos, inscribiéndose (es gratuito) en el sitio web chat.openai.com y haciendo sus propias preguntas o leyendo la entrevista que hicimos para CAMBIO.

Aunque ChatGPT puede dialogar en varios idiomas, reconociendo automáticamente la lengua de la pregunta, puede ser normal que la calidad de las respuestas sea mejor en inglés, puesto que es la lengua de sus diseñadores y que las bases de datos de entrenamiento deben ser mayores en ese idioma.

Aunque ChatGPT puede responder a preguntas de todo tipo, escribiendo inclusive programas de computador o resolviendo problemas de física o matemáticas, hay que entender que el principal objetivo de sus creadores no es entrar en competencia con Google como fuente de información: las respuestas se dan sin tener acceso a internet, únicamente en función de sus bases de datos de entrenamiento, y estas se cerraron en 2021.

¿Se podría decir que ChatGPT pasa el test de Turing? Como ya lo dijimos, la respuesta a esta pregunta es muy subjetiva y depende del diálogo de prueba. Por supuesto, algunas respuestas son menos “humanas” y, en muchos casos, la repetición de frases para casos diferentes deja intuir su modo de funcionamiento, la “inspiración” que toma de sus bases de datos de entrenamiento. Esta “formación” es el origen de las dos principales críticas que recibe esta tecnología: ¿Cuáles son las fuentes de los datos? ¿Cuáles son los sesgos incluidos, consciente o inconscientemente, en esos datos? Por ejemplo, el 15 de noviembre, Meta, la sociedad madre de Facebook, presentó un programa similar, Galactica, capaz de generar publicaciones científicas. Y aunque sus primeros resultados fueron bastante buenos, su duración de vida fue muy corta: tres días después, fue retirado de circulación a causa de los sesgos que podían detectarse en varios de sus textos. Problemas de racismo han sido detectados igualmente en varios programas de reconocimiento de imágenes, por las mismas causas. Los diseñadores de ChatGPT son conscientes de estos riesgos y advierten que, a pesar de las precauciones tomadas, es posible que pueda responder algunas veces a “preguntas malintencionadas o mostrar comportamientos tendenciosos” (ver la pregunta sobre los nadadores negros, formulada en la entrevista de CAMBIO). 

Es necesario ser conscientes de estas limitaciones cuando se utiliza una herramienta como ChatGPT y se la considera como única fuente de información, correcta y verídica: sus respuestas no son las de una mente inteligente y son basadas únicamente en modelos estadísticos aplicados a bases de datos que pueden contener múltiples sesgos. En ese sentido podría ser preferible Google, que presenta múltiples respuestas posibles, que la respuesta única de ChatGPT, del cual se ignoran los sesgos y las censuras eventuales utilizadas en las bases de datos de entrenamiento.

Otro riesgo, que ha sido señalado más corrientemente y con cierto temor por el público en general, es la posibilidad de que este tipo de programas “inteligentes” conduzca a una gran supresión de empleos. En efecto, toda aparición de una nueva tecnología tiene este tipo de consecuencia, compensada en la mayor parte de los casos por la creación de nuevos empleos. Pero en este caso hay una gran diferencia, que se presenta por la primera vez: los empleos suprimidos podrían ser igualmente de tipo intelectual y no únicamente manuales. Paul Krugman, premio Nobel de economía, escribió esta semana en The New York Times que falta aún mucho tiempo para que los computadores muestren una real creatividad y sus programas puedan ser llamados realmente inteligentes. Pero que, al mismo tiempo, son raras las actividades humanas realmente creativas. “Por tanto, no cabe duda de que muchos empleos del conocimiento pueden ser sustituibles”.

OpenAI es conocida igualmente por otros productos de punta, como Dall-E (pronunciar Dali), un programa capaz de generar una ilustración a partir de una descripción dada en lenguaje corriente. Fundada en 2015, inicialmente sin fines lucrativos, OpenAI se definía como una organización con dos objetivos principales: “la promoción y el desarrollo de inteligencia artificial de manera responsable, con el fin de beneficiar a toda la humanidad”. Entre sus fundadores aparece Elon Musk, el hombre más rico del mundo, propietario de Tesla, SpaceX y Twitter, quien se retiró en 2018 del consejo de administración. A partir de 2019 pasó a tener fines lucrativos, recibiendo una inversión de mil millones de dólares de Microsoft, lo que hizo pasar su valor a más de 20 mil millones de dólares. Este gran poder financiero y la atracción que tiene OpenAI sobre los grandes cerebros del campo de la inteligencia artificial hacen muy probable que sean ciertos los rumores de que en 2023 se presente una nueva herramienta aún más revolucionaria. Como lo dice Sam Altman, CEO de OpenAI, en un tweet de este domingo 11 de diciembre: “ChatGPT es increíblemente limitado, pero lo suficientemente bueno en algunas cosas como para crear una impresión engañosa de grandeza. Es un error confiar en él para cualquier cosa importante en este momento. Es una vista del progreso; tenemos mucho trabajo por hacer en robustez y veracidad”.
 

ia1

Ya estamos prevenidos: esperemos que nos coja confesados.