¿Terminarán la inteligencia artificial y el chatGPT al hombre? Hablan dos expertos
9 Febrero 2023

¿Terminarán la inteligencia artificial y el chatGPT al hombre? Hablan dos expertos

Dos especialistas en la materia, residentes en suiza, hablan con CAMBIO sobre las nuevas realidades que ofrecen la inteligencia artificial y los chatbots. Por encima de la utilidad de este tipo de herramientas, ambos están de acuerdo en que, en todo caso, las decisiones siempre deberán ser tomadas por los hombres... competentes.

Por: Eduardo Sánchez

Entre aquí para recibir nuestras últimas noticias en su WhatsAppEntre aquí para recibir nuestras últimas noticias en su WhatsApp

El 30 de noviembre de este año, OpenAI, empresa californiana casi desconocida para el gran público, puso a disposición de todo el mundo –gratis, con la única condición de una inscripción– una herramienta de inteligencia artificial: ChatGPT. De funcionamiento muy simple, el programa acepta preguntas textuales de todo tipo, en varias lenguas detectadas automáticamente, y responde con textos que parecen a primera vista escritos por un humano.

Aunque las aplicaciones de este tipo, llamadas chatbot (contracción de las palabras inglesas chat y robot), existen desde hace varias décadas, era la primera vez que se veía tal comprensión de las preguntas, tal complejidad de las respuestas y tal extensión de los campos tratados en los diálogos. Desde el primer día, el éxito fue inmediato: millones de personas lo han utilizado, haciendo preguntas inteligentes o descabelladas; Microsoft anunció una inversión de 10.000 millones de dólares en OpenAI; los otros gigantes tecnológicos anunciaron productos equivalentes para muy pronto; los medios de todo el mundo consagraron sus primeras páginas (ver los artículos Cómo funciona la inteligencia de ChatGPT y CAMBIO entrevista al robot); muchas personas ven el anuncio de una nueva era, donde la IA va a dominar la economía y nuestras vidas cotidianas, etcétera. En Colombia, nunca en retraso de una novedad, un juez fue noticia mundial después de anunciar que utilizó ChatGPT para redactar una sentencia.

Con el fin de clarificar la parte real y la parte moda (o mito) de estos anuncios, CAMBIO decidió organizar un encuentro entre dos expertos de IA y chatbots, residentes en Suiza: uno, Andrés Pérez-Uribe, es un colombiano profesor universitario; el otro, Nicolas Jones, es un doctor en informática que trabaja en una start-up que tiene los chatbots como su producto principal.

El texto siguiente es una transcripción de esta conversación, moderada por Eduardo Sánchez, profesor emérito de informática en dos universidades suizas y colaborador de CAMBIO.

Imagen de la entrevista

Eduardo Sánchez (ES): Antes que todo, quisiera que se presente cada uno, en unas pocas palabras.

Andrés Pérez-Uribe (APU): Soy profesor e investigador en la HEIG-VD, universidad suiza de ciencias aplicadas. Después de un doctorado sobre redes neuronales artificiales (tecnología a la base de la mayor parte de aplicaciones en IA, incluida ChatGPT), en la Ecole Polytechnique Fédérale de Lausanne (EPFL), tuve varias experiencias industriales antes de ser nombrado profesor. He participado en proyectos de investigación aplicada, europeos o nacionales, y coordino varios grupos. Desde hace poco soy director de un nuevo bachelor en data science (tratamiento de enormes bases de datos, utilizadas por ejemplo en ChatGPT).

Nicolas Jones (NJ): Hice mis estudios de informática igualmente en la EPFL, donde terminé un doctorado sobre las interacciones hombre-máquina. Después de varios años en una gran empresa suiza de servicios informáticos, estoy desde hace poco en una start-up suiza, Deeplink.ai, especializada en chatbots, donde ejerzo el doble rol de UX designer y product manager. Nuestro objetivo es popularizar y volver útil todo lo que los chatbots pueden hacer en numerosos dominios.

ES: Empecemos por la definición del campo que nos interesa: ¿qué es la IA?

APU: Es un campo de la informática donde se pretende dotar a las máquinas (computadores) de un comportamiento que se podría asimilar a la inteligencia humana. La primera dificultad viene por supuesto de poder determinar, de manera irrefutable, que un cierto comportamiento humano es inteligente. Alan Turing, inglés pionero de la informática, definió en 1950 el test de Turing: una máquina es inteligente cuando un humano que converse con ella de manera textual es incapaz de determinar si se trata de una máquina o de otro humano. Aunque este test tuvo sus horas de gloria, su carácter subjetivo le ha disminuido su valor. Pero explica en parte la importancia de los chatbots en campo de la IA.

Aunque no hay entonces un acuerdo general sobre la inteligencia, ni en los humanos ni en las máquinas, yo podría decir que no se han construido todavía máquinas inteligentes, lo cual no quiere decir que no exista esa posibilidad, y que, en todo caso, ChatGPT no es inteligente.

ES: Es decir que, hasta ahora, lo que se busca es una imitación del hombre, con la esperanza de que el resultado sea mejor (en conversación, jugando ajedrez, por ejemplo). Estas investigaciones no son recientes y nacieron casi al mismo tiempo que la informática moderna, con la analogía que se ha hecho siempre entre el cerebro y el computador. ¿Por qué razón ha habido recientemente una tal aceleración de resultados? ¿Cuál ha sido el punto de inflexión?

APU: Los algoritmos, las metodologías empleadas actualmente son en muchos casos viejos de varias decenas de años (una eternidad en informática). Lo que ha cambiado, de manera radical, es la potencia de cálculo de los computadores, la disponibilidad de bases de datos gigantescas, necesarias para el entrenamiento, el aprendizaje, de las máquinas, y la capacidad de almacenamiento de dichos datos. Esto ha permitido importantes progresos, por ejemplo, en el tratamiento y la generación de imágenes, la traducción automática, el tratamiento de la palabra, aplicaciones que están al alcance, de manera cotidiana, de todo utilizador de teléfonos dichos inteligentes.

ES: ¿Por qué razón la IA necesita grandes cantidades de datos? Otro nombre de la IA, que personalmente yo prefiero, es machine learning o aprendizaje automático. ¿Cómo aprenden las máquinas?

APU: Hay diferentes paradigmas. En el llamado aprendizaje supervisado, por ejemplo, se entrena la máquina dándole ejemplos: es así como una máquina puede aprender a reconocer un tipo de animal. Y, cuanto mayor número de imágenes sean presentadas durante el entrenamiento, menor será el número de errores durante la fase de funcionamiento.

Otro tipo de aprendizaje es el no supervisado, utilizado por ChatGPT. En este caso, la máquina recibe cantidades gigantescas de textos; luego, se suprime una palabra y la máquina debe tratar de encontrar la más probable. De esa manera, poco a poco, la máquina construye frases correctas de punto de vista gramatical y lexical.

ES: Se trata, entonces, más de fuerza bruta que de inteligencia. Yann Le Cun, francés Premio Turing (equivalente del Premio Nobel en informática) y jefe de IA para Meta (la casa madre de Facebook, Instagram y WhatsApp) escribió recientemente en un tuit que, sin querer disminuir el valor de ChatGPT, no había nada innovador en él, que es simplemente el resultado de los inmensos recursos puestos a disposición. Este comentario, que puede ser por supuesto el resultado de los celos o el despecho, es bastante impresionante y relativiza todos los calificativos de revolucionario que se han asociado a ChatGPT. Pasemos entonces a esta aplicación: ¿qué es ChatGPT? ¿Qué hace y qué no puede hacer ChatGPT? ¿Cuál es la inteligencia de ChatGPT?

APU: Efectivamente, las bases de ChatGPT son antiguas, pero personalmente considero que la imbricación de esas diferentes partes es una novedad y el resultado puede ayudar a generar un gran número de aplicaciones interesantes.

La principal funcionalidad de ChatGPT, como ya lo hemos dicho antes, es generar textos correctos desde el punto de vista gramatical y lexical. Su otro punto fuerte es ser capaz de entender una pregunta y generar un texto de respuesta. En cambio, nada garantiza que la respuesta tenga sentido, sea correcta del punto de vista de su verdad.

Hay otra aplicación de la misma familia de ChatGPT, basada en los mismos principios,  que ha sido entrenada para resolver problemas matemáticos. Un artículo publicado en junio del año pasado dice que dicho programa puede resolver el 80 por ciento de los problemas matemáticos usuales en las universidades MIT y Columbia (ecuaciones diferenciales, álgebra, probabilidades, etc). Más precisamente, la máquina genera un programa de computador capaz de resolver el problema, lo cual permite igualmente explicar la solución. Para mí, estos resultados son aún más sorprendentes y valiosos que los de ChatGPT.

NJ: Lo que es paradójico es que, jugando esta mañana con ChatGPT, me dio resultados falsos para cálculos muy simples.

ES: Lo cual muestra muy fácilmente los límites de ChatGPT. Yo vi también un ejemplo de un cálculo muy simple con resultado falso porque no fue dado en forma de ecuación sino explicado en lengua natural. Para resumir, ¿podemos decir que ChatGPT es un generador de frases correctas gramaticalmente pero sin ninguna garantía de su veracidad?

APU y NJ: De acuerdo.

ES: Además, los chatbots no son recientes.

NJ: En efecto, en los años 50 hubo uno muy famoso, Eliza, usado en medios psiquiátricos, por ejemplo. Pero ChatGPT va mucho más lejos, dando respuestas que parecen plausibles, dando la ilusión de inteligencia que buscaba Turing, en un ancho espectro de dominios, cuando los chatbots estaban especializados en un solo campo.

Las limitaciones aparecen tan pronto como se hacen preguntas más sutiles, más complejas, y aparecen respuestas falsas. Pero, de todos modos, es un gran cambio con relación a los chatbots a los cuales estábamos acostumbrados.

ES: ¿Cuáles son esos tipos de chatbots con los que trabaja tu empresa, Nicolas? ¿Cuáles son las transformaciones que ChatGPT aporta a tu trabajo actual?

NJ: Los más simples y usuales son los utilizados en help desks, los servicios de ayuda al cliente, donde se tiene un conjunto de respuestas a las preguntas más corrientes en caso de problema con un producto. En esos casos, la temática está muy bien delimitada y el entrenamiento es relativamente rápido. Las dificultades aparecen tan pronto como una pregunta se aleja del campo de entrenamiento y ninguna respuesta ha sido prevista. La gran riqueza de ChatGPT es su ausencia de especialización y la capacidad de guardar la ilusión de una respuesta correcta en múltiples dominios.

Además, el punto más interesante para nosotros, que no aparece en la utilización de ChatGPT, es que existe una interface que permite adaptar, incrustar, ChatGPT en una de nuestras aplicaciones especializadas. Previo pago de un derecho de empleo a OpenAI, por supuesto. Nosotros estamos ya experimentando en ese sentido y hemos desarrollado unos primeros demostradores.

Para profundizar

ES: A propósito, OpenAI acaba de fijar el precio para la utilización de ChatGPT como herramienta de preguntas-respuestas: 20 dólares por mes. La utilización gratuita sigue siendo posible pero con limitaciones del tiempo de respuesta. Y todo el mundo espera una próxima versión de Bing, el motor de búsqueda de Microsoft, completamente superado por Google, con una interface con el utilizador brindada por ChatGPT: la veracidad de la respuesta estará ahora garantizada por Bing. Lo cual hará que Google responda muy rápidamente con su propia herramienta equivalente, que debe estar ya en desarrollo: duelo de titanes en perspectiva. Y una verdadera revolución en camino.

NJ: En realidad, ChatGPT está ya superado, atrasado. Los datos de entrenamiento se pararon de capturar en 2021, su clasificación se hizo empleando trabajadores mal pagados en Kenya, el gasto energético de funcionamiento es enorme: la puesta al día del modelo va a necesitar grandes recursos y la colaboración de Microsoft con OpenAI va a ser preciosa (en todos los sentidos del término). Veo difícil, en la situación actual, que las ilusiones creadas por ChatGPT puedan ser utilizadas a corto plazo, a gran escala.

ES: Se habla de costos de mantenimiento diario de 100.000 dólares, lo cual deja esta tecnología por fuera de otras compañías diferentes a las de siempre: GAFAM (Google, Apple, Facebook, Amazon y Microsoft).

A ese propósito, algunos dicen que los problemas éticos que pueden presentar este tipo de herramientas (sesgos racistas, por ejemplo) es lo que ha impedido que las grandes tecnológicas presenten sus resultados antes que OpenAI. ¿Qué piensan ustedes? ¿Cómo podría darse una especie de transparencia a estas herramientas?

APU: Creo que OpenAI tuvo un especial cuidado, durante el entrenamiento, a evitar los temas y las respuestas sensibles. El algoritmo de aprendizaje utilizado, reinforcement learning, les permitía este tipo de interacción con los humanos que lo entrenaban.
Con mis estudiantes realizamos una experiencia muy interesante, que ilustra muy bien el tipo de comportamientos que pueden surgir de ChatGPT, sin que hayan sido previstos. El pedido inicial fue inventar un lenguaje criptado; luego, se le dijo a ChatGPT de comunicarse únicamente utilizando ese lenguaje, para las preguntas y las respuestas; a partir de ese momento, la comunicación se estableció, en efecto, en ese nuevo lenguaje. Esa especie de emergencia de un comportamiento es realmente sorprendente. Para ser honestos, el resultado no fue siempre perfecto: ChatGPT tiende a explicar siempre sus respuestas, y para ello pasaba al inglés.

ES: Volviendo a los problemas éticos. Uno de los grandes problemas de la inteligencia artificial es su característica de caja negra: es muy difícil, por no decir imposible, explicar cómo se llega a un cierto resultado. Y, para el caso preciso de ChatGPT, aunque se haya puesto cuidado en el entrenamiento a evitar temas políticamente incorrectos, es fácil saltar el escollo. Por ejemplo, si se le pide directamente dar la manera de fabricar cocteles molotov, ChatGPT responde que no puede contestar. Pero si el pedido se desliza sutilmente en el interior de otro pedido, aparentemente inocuo (redactar un poema, por ejemplo), ChatGPT es incapaz de detectar la trampa y da las indicaciones. Las grandes empresas tecnológicas estadounidenses parecen preocuparse muy poco de estos problemas y el Gobierno no lo hace mejor. Acabo de enterarme, por ejemplo, de que Eric Schmid, antiguo patrón de Google, es actualmente responsable de seguridad para el gobierno estadounidense: el equivalente a introducir el zorro en el gallinero. Hace poco Schmid dijo que la única limitación que se le puede dar a la innovación viene de las inversiones: si se invierte mucho, la innovación es más grande, y viceversa. En cambio, la Unión Europea parece preocuparse mucho más de estos temas y ha anunciado un proyecto de ley para controlar las aplicaciones de IA, exigiendo que los algoritmos sean transparentes y una protección de los derechos individuales. Las tres preguntas son: ¿esa transparencia es posible técnicamente? ¿Es posible obligar a las empresas tecnológicas a respetar esas limitaciones? ¿Hay un real peligro en la utilización de la IA?

APU: Creo que un real peligro, sí, es el caso. Pero no tengo suficientes elementos de respuesta para todas las preguntas.

NJ: La transparencia de la IA será función de los avances de la investigación en ese campo. Efectivamente, hoy en día son auténticas cajas negras. Sin embargo, de un punto de vista práctico, la IA es sólo uno de los componentes de los ecosistemas utilizados por las empresas y lo demás se puede controlar. El verdadero riesgo reside en la forma en que se utiliza la IA y con qué fines.

ES: Lo paradójico es que OpenAI nació de la inquietud de varios grandes empresarios tecnológicos (Elon Musk entre ellos) sobre los peligros de la IA. Y decidieron invertir varios millones en una empresa que se preocupara de los problemas éticos y que pusiera a disposición del público sus resultados, sin interés comercial. Estos principios parecen olvidados y Microsoft ha invertido ahora miles de millones, buscando seguramente beneficios.

ES: Otro riesgo que se ha señalado es económico: la pérdida de empleos. En el caso preciso de las herramientas que ustedes producen, Nicolas, ¿están hechas para remplazar personas?

NJ: En aplicaciones de tipo call center es el caso, por supuesto. Sin embargo, el remplazo no será nunca total y yo quiero creer más bien en la creación en paralelo de nuevas oportunidades (actualmente, en Suiza, hay una enorme penuria de informáticos). Un caso similar se vivió en Suiza hace poco cuando los grandes supermercados remplazaron cajeros manuales por automáticos donde el cliente registra él mismo sus compras: los humanos siguen siendo necesarios para ayudar los clientes y, en realidad, el tiempo de contacto ha aumentado. El resultado global será seguramente la desaparición de ciertas labores repetitivas, la transformación y la creación de otras. Esta evolución/revolución será inevitable, pero tomará un cierto tiempo y estamos ya advertidos.

APU: Hoy se ve claramente la aparición de ayudantes IA: traductores, redactores, etc. Pero estoy convencido de que tendremos también muchas sorpresas en un futuro próximo. Participación de máquinas a sesiones de brainstorming, por ejemplo, donde la IA puede proponer vías de exploración excluidas por el sentido común humano, sentido común que la máquinas desconocen. El espacio de soluciones de un problema podrá aumentar considerablemente. Y, como decía Edison, resolver un problema es 10 por ciento de inspiración y 90 por ciento de exploración. Dicho de otra manera, ChatGPT, o herramientas equivalentes, no darán la respuesta pero le darán pistas a los humanos para encontrarla.

ES: Para terminar, ¿qué piensan ustedes del caso de un juez colombiano que utilizó ChatGPT para redactar la sentencia de un caso que tenía a su cargo? Ante el escándalo generado, el juez aclaró que la utilización de ChatGPT fue limitada a la redacción, no a la decisión de la sentencia.

NJ: La prensa suiza habló de este caso y tuve la ocasión de discutirlo con mi jefe en una pausa reciente. Estuvimos de acuerdo en que es un ejemplo típico de la mala comprensión de lo que puede y no puede hacer esta herramienta, de las ilusiones que una utilización rápida puede generar. Ayudarse para conocer la jurisprudencia, por ejemplo, sería totalmente válido. Dejar en “sus manos” la decisión, sería absurdo. Cada que ChatGPT debe escoger una palabra, lo hace de manera probabilística y, una vez que una vía ha sido tomada, continúa en ella, sin importar, sin saber, si es correcta o no.

APU: De manera general, ChatGPT debe ser utilizado como un asistente, pero la decisión última debe ser tomada en todos los casos, no únicamente jurídicos, por un humano competente. Es lo que pasa igualmente con una herramienta que yo utilizo a menudo, DeepL, que me ayuda de manera cotidiana en traducciones de texto. La traducción automática es un dominio muy maduro pero es todavía imposible aceptar ciegamente la totalidad de las traducciones propuestas.

 

Esta entrevista tuvo lugar la noche del lunes 6 de febrero de 2023. Hoy, dos días después, ya se cumplieron dos de los avances previstos en la entrevista: i) Microsoft anunció una nueva versión de su buscador Bing, asociado con ChatGPT para hacer la interface con el usuario. Llamada Prometheus, esta nueva herramienta será accesible después de inscripción a una lista de espera; ii) en una conferencia de prensa en París, Google anunció la realización de tests masivos de una nueva versión de su buscador, enriquecido con nuevas funcionalidades  basadas en IA; la versión pública estará disponible “en algunas semanas”. "La batalla entre los gigantes tecnológicos alrededor de la IA está apenas comenzando. Esperemos que no seamos las víctimas colaterales…

Conozca más de Cambio aquíConozca más de Cambio aquí