
Los sesgos de la Inteligencia Artificial en la medicina
Crédito: Imagen generada por Meta IA
- Noticia relacionada:
- Medicina
- Salud pública
Un estudio realizado en Estados Unidos muestra que la Inteligencia Artificial, que cada vez más se utiliza en la atención médica, a veces recomienda diferentes tratamientos para la misma afección médica basándose únicamente en los antecedentes socioeconómicos y demográficos del paciente.

Es una realidad: la Inteligencia Artificial (IA) se utiliza cada vez más en la atención médica. Con el objetivo de evaluar la calidad de esta herramienta, que día a día cobra más importancia, la facultad de Medicina Icahn del Hospital Monte Sinaí llevó a cabo un nuevo estudio que revela que los distintos modelos de IA generativa pueden recomendar diferentes tratamientos para la misma afección médica, basándose solo en los antecedentes socioeconómicos y demográficos del paciente. Estos hallazgos, publicados en abril de 2025 en Nature Medicine, destacan la importancia de la detección e intervención tempranas para garantizar que la atención basada en IA sea segura, eficaz y apropiada para todos.
Como parte de este trabajo, los investigadores sometieron a prueba de estrés nueve modelos de lenguaje extenso (LLM) en 1.000 casos de situaciones de urgencia. A cada caso se le asignaron 32 antecedentes diferentes, lo que resultó en más de 1,7 millones de recomendaciones médicas generadas por la IA. Un modelo de lenguaje extenso (LLM) es un tipo de Inteligencia Artificial que genera y procesa lenguaje natural. Los LLM se entrenan con grandes cantidades de datos textuales para aprender a predecir palabras o secuencias de palabras.
Volviendo a la investigación, a pesar de presentar detalles clínicos idénticos, los resultados del análisis mostraron que los modelos de IA modificaron ocasionalmente sus decisiones en función del perfil socioeconómico y demográfico del paciente. Esto afectó áreas clave como la prioridad de triaje, las pruebas diagnósticas, el enfoque del tratamiento y la evaluación de la salud mental. Además, a los pacientes de altos ingresos se les recomendaron con mayor frecuencia pruebas diagnósticas avanzadas, como tomografías computarizadas o resonancias magnéticas, mientras que a los pacientes de bajos ingresos se les aconsejó no someterse a más pruebas. "La magnitud de estas inconsistencias subraya la necesidad de una supervisión más rigurosa", afirman los investigadores.
De este estudio se obtuvieron muchas enseñanzas. "Al identificar cuándo la IA modifica sus recomendaciones en función de los antecedentes en lugar de la necesidad médica, mejoramos el entrenamiento de los modelos, el diseño de las estrategias y la supervisión. Nuestro riguroso proceso de validación evalúa los resultados de la IA según los estándares clínicos, incorporando la opinión de expertos para perfeccionar el rendimiento. Este enfoque proactivo no solo aumenta la confianza en la atención basada en IA, sino que también ayuda a definir políticas para una mejor atención sanitaria para todos", comentan los investigadores.
Si bien el estudio proporciona información crucial, los investigadores advierten que solo representa una instantánea del comportamiento de la IA. Las investigaciones futuras continuarán incluyendo pruebas de seguridad para evaluar el rendimiento de los modelos de IA en entornos clínicos reales y determinar si las diferentes técnicas de estimulación pueden reducir el sesgo. El equipo también busca colaborar con otras instituciones sanitarias para perfeccionar las herramientas de IA, para así garantizar que cumplan con los más altos estándares éticos y brinden un trato justo a todos los pacientes.
"Me complace colaborar con Mount Sinai en esta investigación crucial para garantizar que la medicina basada en IA beneficie a pacientes de todo el mundo", afirma el médico-científico y primer autor del estudio, el doctor Mahmud Omar, consultor del equipo de investigación. "A medida que la IA se integra cada vez más en la atención clínica, es esencial evaluar exhaustivamente su seguridad, fiabilidad y equidad. Al identificar dónde estos modelos pueden introducir sesgo, podemos trabajar para perfeccionar su diseño, fortalecer la supervisión y construir sistemas que garanticen que los pacientes sigan siendo el centro de una atención segura y eficaz".
Artículo
Is AI in medicine playing fair?
Researchers stress-test generative artificial intelligence models, urging safeguards
Peer-Reviewed Publication
The Mount Sinai Hospital / Mount Sinai School of Medicine
(*) María Fernanda Gutierrez
Viróloga, divulgadora científica.
Gerente de INNCISO SAS
Innovación, Ciencia y Sociedad
[email protected]
