Unesco busca marco ético para el uso de neurotecnología
- Noticia relacionada:
- Tecnología
- Inteligencia Artificial
Según la Unesco, la neurotecnología combinada con la inteligencia artificial puede convertirse fácilmente en una amenaza para la libertad de pensamiento, la autonomía, la privacidad y el bienestar.
Por: María Amparo Gaitán
La Unesco organizó una conferencia internacional sobre la ética de la neurotecnología. El tema principal fue cómo encaminarse hacia un marco ético para la protección y el fomento de los derechos humanos y las libertades.
La conferencia exploró el inmenso potencial de la neurotecnología y abordó los desafíos éticos que plantea a los derechos humanos y las libertades fundamentales. Reunió a responsables políticos y personas expertas, representantes de la sociedad civil y organizaciones de las Naciones Unidas, academia, medios de comunicación y empresas del sector privado, para preparar una base sólida para un marco ético sobre la gobernanza de la neurotecnología.
Actualmente, la neurotecnología es considerada como una de las tecnologías más prometedoras de nuestro tiempo. Está proporcionando nuevos tratamientos y mejorando las opciones preventivas y terapéuticas para millones de personas que sufren enfermedades neurológicas y mentales. También está transformando otros aspectos de la vida cotidiana, desde el aprendizaje y la cognición de los estudiantes hasta los sistemas de realidad virtual y aumentada y el entretenimiento.
“Mientras celebramos estas oportunidades sin precedentes, debemos estar atentos y atentas a los nuevos desafíos que surgen del rápido y no regulado desarrollo y despliegue de esta tecnología innovadora, incluyendo entre otros los riesgos para la integridad mental, la dignidad humana, la identidad personal, la autonomía, la justicia, la equidad y la privacidad mental”, señala Unesco.
Entre los principales retos, se destaca el potencial que tiene la neurotecnología para revolucionar la forma en que interactuamos con el mundo, un poder que plantea importantes consideraciones éticas. Por ejemplo, ¿cómo se podría utilizar la neurotecnología para manipular o controlar a las personas? ¿Cómo se podría proteger la privacidad de las personas ante la neurotecnología? Esto es precisamente lo que se busca con este marco ético internacional para intervenciones médicas: evitar el mal uso de la información cerebral de la población.
Estudios sobre el tema
Marcello Ienca, profesor de Ética de Inteligencia Artificial y la Neurociencia del la Universidad Tecnológica de Munich, destacado por ser un experto en el tema y quien estará presente en Cartagena en la edición 38 del Congreso de Tecnología Andicom 2023, ha hablado en diversas ocasiones sobre un dilema metodológico habitual en los estudios de evaluación de la tecnología, conocido como el “dilema del control de Collingridge”.
Este dilema plantea, por un lado, que las consecuencias sociales de una nueva tecnología no pueden anticiparse de manera precisa cuando la tecnología está aún implantándose. Es el problema de la información. Sin embargo, cuando llega el momento en que se tienen evidencias palpables de sus impactos negativos, a menudo la tecnología está ya tan arraigada en la sociedad que su control resulta extremadamente difícil. Es el problema del poder.
Ienca destaca en sus textos que el dilema hoy está presente en diversas tecnologías en ciernes, entre ellas las relativas al campo de la neurotecnología. De manera muy general, esta describe un amplio y diverso catálogo de prácticas, sistemas e instrumentos que establecen una vía de conexión con el cerebro humano y que pueden registrar o alterar la actividad neuronal.
Asimismo, Ienca divide dichas neurotecnologías en dos grandes grupos: las invasivas y las no invasivas. Las neurotecnologías invasivas, basadas en implantes neurales, registran y/o alteran la actividad cerebral desde el interior del cráneo y, por consiguiente, han de ser quirúrgicamente implantadas en el cerebro. Las no invasivas registran y/o alteran la actividad cerebral desde el exterior del cráneo, por lo que pueden utilizarse de manera similar a la maquinaria biomédica de obtención de imágenes del cerebro. En este campo, son las Interfaces Cerebro Máquina, ICM, las que cobran una relevancia especial desde el punto de vista ético y social. Las ICM pueden establecer una vía de comunicación directa entre el cerebro humano y un sistema de computación externo. Por ejemplo, un ordenador personal, un brazo robótico o una silla de ruedas eléctrica. Esta vía de conexión eléctrica y mediada por la inteligencia artificial entre el cerebro y el mundo digital, supone un salto cualitativo importante y es capaz de plantear problemas éticos únicos y sin precedentes.
frase-destacada
Actualmente, la neurotecnología es considerada como una de las tecnologías más prometedoras de nuestro tiempo. Está proporcionando nuevos tratamientos y mejorando las opciones preventivas y terapéuticas para millones de personas que sufren enfermedades neurológicas y mentales.
“El reto ético planteado por las ICM y otras neurotecnologías, nos obliga a abordar una cuestión ético-socio-legal y política fundamental: determinar si, o en qué condiciones, es legítimo acceder o intervenir en la actividad cerebral de una persona. Esta cuestión invita al debate en los diversos niveles de gobernanza”, aseguró Ienca.
Por su parte, la Unesco ha estado a la vanguardia de la promoción de un enfoque ético de la neurotecnología. El Comité Internacional de Bioética, CIB, de la Unesco ha examinado los beneficios y desventajas desde una perspectiva ética en un informe publicado en diciembre de 2021.
La entidad también ha liderado esfuerzos a nivel de la Organización de las Naciones Unidas sobre este tema, colaborando con otras agencias e instituciones académicas para organizar mesas redondas de personas expertas, aumentar la conciencia pública y producir publicaciones. Con un mandato mundial sobre bioética y ética de la ciencia y la tecnología, el CIB, como órgano consultivo de expertos, ha pedido a la Unesco que considere la posibilidad de elaborar una norma mundial sobre este tema.