Carta abierta pide pausa en la inteligencia artificial (IA)
31 Marzo 2023

Carta abierta pide pausa en la inteligencia artificial (IA)

Crédito: Ilustración: Midjourney

Entre los firmantes están Elon Musk, Steve Wozniak y el escritor Yuval Noah Harari.

Por: Eduardo Sánchez

Entre aquí para recibir nuestras últimas noticias en su WhatsAppEntre aquí para recibir nuestras últimas noticias en su WhatsApp

Al mismo tiempo que comienzan a aparecer múltiples aplicaciones de ChatGPT, el popular programa de inteligencia artificial (IA) publicado por OpenAI, varias centenas de expertos, académicos e industriales, han publicado este miércoles una carta abierta pidiendo una moratoria de por lo menos seis meses en el entrenamiento (“enseñanza”) de sistemas más poderosos que GPT-4, la última maravilla de OpenAI, hasta asegurarse que los riesgos inherentes de esta tecnología son controlados.

Para entender la importancia y la competencia de los firmantes, basta con ver los cinco primeros: Yoshua Bengio (profesor de IA en la Universidad de Montreal, reciente ganador del Premio Turing, especie de Nobel de la informática, y que ha resistido a los cantos de sirena de grandes compañías de high tech para guardar la independencia de su investigación académica), Stuart Russell (profesor de informática en Berkeley y autor del libro más utilizado para la enseñanza de la IA en las universidades), Elon Musk (propietario, entre otras empresas, de Tesla y Twitter, y cofundador, ahora retirado, de OpenAI), Steve Wozniak (cofundador de Apple con Steve Jobs), Yuval Noah Harari (famoso autor de obras de divulgación).

El éxito público de ChatGPT y su gran difusión mediática han lanzado una carrera entre las grandes empresas de high tech para desarrollar su propia aplicación de IA y tomar una parte en el gran mercado previsto. Y todo esto con una tecnología, el machine learning o aprendizaje automático, donde nadie, ni siquiera los creadores de los programas, son capaces de explicar completamente el camino seguido para generar un resultado. Sin que se pueda impedir que el programa genere respuestas falsas (alucinaciones), englobadas en un lenguaje formal perfecto, dando una enorme impresión de comportamiento humano y con un aura de infalibilidad que los usuarios aceptan con gran ilusión. Como dicen los autores de la carta abierta, estas herramientas presentan “profundos riesgos para la sociedad y la humanidad”.

Por supuesto, pensar que la IA va destruir o remplazar la humanidad es, en el estado actual, una ficción en la que creen pocos científicos serios. Pero, al mismo tiempo que herramientas como ChatGPT pueden cumplir una función de super asistente en múltiples actividades cotidianas, personales o industriales, facilitándonos la vida a un bajo costo, no pueden ignorarse sus riesgos: respuestas sesgadas o, simplemente, falsas; la difusión de informaciones falsas; la facilidad para manipular los usuarios, de manera imperceptible, entre otros.

La moratoria pedida debería ser utilizada para introducir protocolos de seguridad en los sistemas de IA, en ausencia de los cuales debería ser el rol de los gobiernos de intervenir. Por supuesto, la gran pregunta es cuáles podrían ser esos nuevos protocolos, de los que la carta abierta no da ninguna pista. Y, suponiendo que se encuentren, cómo obligar que las high tech los adopten o que los gobiernos los impongan. Ante el poco éxito obtenido controlando las redes sociales, es lícito dudar de la eficacidad, por no decir de la existencia, de estas eventuales medidas.

Como es ya una costumbre, la Unión Europea tiene un avance legislativo sobre Estados Unidos: desde 2021 hay una reglamentación en estudio, que debería entrar en función muy pronto (pero no antes de 2024…). Entre sus medidas más importantes están: toda empresa que utilice una herramienta de IA debe indicarles a sus clientes cuando están servidos por ella o por un humano; los servicios de la IA deben estar clasificados en función de los riesgos eventuales y esos riesgos deben ser evaluados en permanencia; una atención particular debe ser dada a las tecnologías que pueden causar perjuicios, como las de reconocimiento facial.

Siguiendo los pasos de la carta abierta de Future of Life, este jueves fue el turno de la Unesco, que hizo un llamado a todos los países para aprobar y ejecutar una recomendación sobre la ética de la IA.

Cuando estos intentos de reglamentación se pondrán en marcha, estaremos ya invadidos por centenas de aplicaciones, que aceptaremos gustosos del mismo modo que aceptamos que las redes sociales invadan nuestra privacidad en intercambio de sus servicios. A cada uno nos corresponde hacer el esfuerzo de informarnos de los riesgos, de hacer el balance con las ventajas, y adaptarnos a la revolución que llega.

Conozca más de Cambio aquíConozca más de Cambio aquí