
Crédito: Freepik
Cumbre para tratar de regular la IA
- Noticia relacionada:
- Inteligencia Artificial
- Tecnología
- Internacional
En artículo para CAMBIO, Eduardo Sánchez, profesor de tecnología en Suiza, cuenta los desarrollos de la Cumbre de Bletchley (Inglaterra), reunida con el propósito de regular la inteligencia artificial, la cual si bien le traerá grandes beneficios a la humanidad, también le acarreará grandes riesgos.
Por: Eduardo Sánchez

Pocas tecnologías como la inteligencia artificial (IA) han logrado colocarse en el centro de nuestras actividades económicas y sociales, despertando expectativas de progreso, pero igualmente de riesgos de todo tipo: pérdidas de empleo, manipulación de nuestro comportamiento, divulgación de informaciones falsas, despliegue de ciberataques, entre muchos otros.
A pocos días de conmemorar el primer año de existencia de ChatGPT, la aplicación que puso la IA en el centro de la actualidad, 28 países se reunieron en Bletchley (Inglaterra) para tratar de lograr un acuerdo de regulación de esta tecnología. En el encuentro, organizado por el gobierno británico bajo el nombre de Cumbre de seguridad en IA, participaron más de 100 personas, desde importantes representantes de las grandes potencias económicas mundiales (la vicepresidenta Kamala Harris por los Estados Unidos; el viceministro de tecnología chino Wu Zhaohui, etc.), hasta grandes lideres industriales como Elon Musk. El lugar de la reunión fue escogido por su valor simbólico: en Bletchley trabajó, durante la Segunda guerra mundial, Alan Turing, pionero inglés de la informática y de la IA.
Le puede interesar: Elon Musk dice que con la inteligencia artificial "ningún empleo será necesario"
Los 28 países representados firmaron este miércoles 1 de noviembre la Declaración de Bletchley, en la que se comprometen a coordinarse en la evaluación de riesgos que puedan presentar los nuevos desarrollos en IA, aunque sin definir acciones concretas. Luego de reconocer que “existe la posibilidad de que se produzcan daños graves, incluso catastróficos, ya sean deliberados o involuntarios, derivados de las capacidades más significativas de estos modelos de IA”, el texto advierte que “para 2030, los impactos más extremos de la IA seguirán confinados a sectores muy concretos, pero pueden ser capaces de provocar una reacción violenta de la ciudadanía, empezando por aquellos cuyo trabajo se vea alterado. Todo ello puede alentar un fiero debate público en torno al futuro de la educación y del empleo (…) Reconocemos, de este modo, que nos hallamos ante un momento único para actuar, y para reafirmar la necesidad de un desarrollo con seguridad de la IA. Para que sus posibilidades transformadoras sean usadas en beneficio de todos, de manera inclusiva, en cada uno de nuestros países y de manera global”.
Un segundo encuentro ha sido programado para tener lugar en Corea del Sur, en seis meses, y un tercero en Francia, dentro de un año.
Esta iniciativa tuvo lugar en la misma semana en que el presidente Biden aprovechó una antigua ley de tiempos de la guerra de Corea para firmar un decreto que busca controlar el desarrollo de la IA. En su discurso de presentación del decreto, Biden afirmó que “la tecnología debe ser gobernada, “no puede haber discusión” y que “vamos a asistir a cambios tecnológicos más profundos en los próximos cinco años que en los últimos 50. Y en esa revolución la tecnología más importante de nuestro tiempo es la IA, que está acelerando los cambios. En gran parte está mejorando nuestras vidas, nos ayudará a explorar el universo, a predecir el tiempo, a acabar con el cáncer, pero también las está empeorando: por ejemplo, permite emplear los datos personales de los adolescentes para descubrir qué los mantendrá pegados a sus teléfonos o cómo hacer que las redes sociales sean más adictivas". El decreto anuncia la creación de una Junta de Seguridad de IA, encargada, entre otras cosas, de vigilar que las empresas que desarrollen IA estén obligadas a anunciar todo desarrollo que suponga un “riesgo grave para la seguridad nacional, económica o para la salud y seguridad públicas”. Entre las preocupaciones señaladas, y que serán vigiladas, están la manipulación de la información y la protección de la privacidad.
Para profundizar: Joe Biden revela plan para regular la inteligencia artificial
La Unión Europea, de su lado, está preparando igualmente una ley sobre la protección de sus ciudadanos ante los peligros de la IA, que debería estar lista en unos pocos meses. Y dos reglamentos ya en vigor, el de la protección de datos (RGPD) y el de los mercados numéricos (DMA), comienzan ya a tener efectos sobre las grandes empresas tecnológicas: Meta, la casa matriz de Facebook e Instagram, acaba de anunciar la posibilidad de utilización de sus aplicaciones sin publicidad en Europa, a condición de que se pague una suscripción mensual (9,99 euros si se hace directamente o 12,99 euros si se hace a través de las tiendas de Apple o Android). Esto es un cambio radical del modelo de negocios de Meta, que ha vivido hasta ahora de publicidades personalizadas, seleccionadas por algoritmos de IA en función de los gustos personales de cada utilizador. Meta ha anulado igualmente el lanzamiento de su aplicación Threads en Europa (rival de X o Twitter), por el temor que el intercambio de datos entre sus otras aplicaciones y Threads sea castigado por las autoridades europeas.
