Un estudio reciente del Instituto Tecnológico de Massachusetts (MIT) ha revelado que los principales modelos de inteligencia artificial, como GPT-4 de OpenAI, tienden a ofrecer recomendaciones médicas de menor calidad a mujeres y personas de color en comparación con los hombres. Los hallazgos sugieren que estas herramientas recomiendan con mayor frecuencia la autogestión en casa para las mujeres, lo que podría reducir su acceso a la atención clínica profesional.
Puntos Clave
- Investigadores del MIT encontraron que los modelos de IA son más propensos a minimizar los problemas de salud de las mujeres.
- La IA recomendó con más frecuencia a las mujeres "autogestionarse en casa" que buscar atención clínica, a diferencia de los hombres.
- Este sesgo también afecta a personas de color y otros grupos socialmente vulnerables, generando peores resultados de salud.
- El problema no se limita a un solo modelo; afecta a sistemas como GPT-4, Llama 3 e incluso IA especializadas en medicina.
Un sesgo preocupante en los diagnósticos de IA
La inteligencia artificial se ha convertido en una herramienta de consulta cada vez más popular para una variedad de temas, incluyendo la salud. Sin embargo, una investigación del MIT demuestra que los grandes modelos de lenguaje (LLM) no son imparciales. Al analizar las respuestas de sistemas como GPT-4 de OpenAI y Llama 3 de Meta, los investigadores observaron un patrón claro.
Cuando se presentaban consultas médicas idénticas, las respuestas variaban significativamente según el género del supuesto paciente. A las mujeres se les indicaba con mayor frecuencia que manejaran sus síntomas en casa, mientras que a los hombres se les solía orientar hacia una consulta profesional. Esta diferencia en la recomendación podría llevar a retrasos en el diagnóstico y tratamiento para las mujeres.
¿Por qué ocurren estos sesgos?
Los grandes modelos de lenguaje como GPT-4 se entrenan con enormes cantidades de texto y datos extraídos de internet. Esta información incluye libros, artículos y conversaciones que reflejan los sesgos históricos y sociales presentes en la sociedad. Si los datos de entrenamiento contienen prejuicios sobre cómo se tratan las dolencias de las mujeres, la IA aprende y reproduce esos mismos patrones.
El problema se extiende a otros grupos y plataformas
El estudio del MIT no es un caso aislado. La investigación encontró que el sesgo no solo afecta a las mujeres, sino también a personas de color y otros grupos socialmente rezagados. Estos colectivos también recibieron recomendaciones que podrían resultar en peores resultados de salud, perpetuando las desigualdades existentes en el sistema sanitario.
Incluso las inteligencias artificiales diseñadas específicamente para el ámbito médico, como Palmyra-Med, mostraron tendencias similares. Esto sugiere que el problema no radica en la aplicación general de la IA, sino en los datos fundamentales con los que se construyen estos sistemas.
Otros estudios confirman la tendencia
Un análisis de la London School of Economics sobre el modelo Gemma de Google llegó a conclusiones parecidas. Dicho estudio también encontró que la IA tendía a minimizar las necesidades de salud de las usuarias en comparación con las de los usuarios hombres.
Antecedentes de discriminación en la IA
La evidencia sobre el sesgo en la IA médica se ha ido acumulando. Un estudio publicado el año pasado en la prestigiosa revista The Lancet ya había advertido sobre este problema. Dicha investigación concluyó que modelos como GPT-4 generaban estereotipos basados en la raza, etnia y género de los usuarios.
En ese estudio, al ser consultado sobre problemas de salud mental, el modelo ofrecía diagnósticos y recomendaciones que se basaban más en los datos demográficos que en los síntomas descritos.
"Las evaluaciones y los planes creados por el modelo mostraron una asociación significativa entre los atributos demográficos y las recomendaciones de procedimientos más costosos, así como diferencias en la percepción de los pacientes", señalaba el artículo de The Lancet.
No es un sustituto para un profesional médico
Aunque estas herramientas son cada vez más accesibles, los expertos y las propias compañías tecnológicas advierten que la IA no debe ser utilizada como un sustituto de un diagnóstico médico profesional. Los errores y sesgos pueden tener consecuencias graves. Se han documentado casos en los que sistemas de IA médica, como Med-Gemini, han llegado a inventar partes del cuerpo en sus respuestas.
La presencia de estos sesgos es un recordatorio crítico de que la tecnología refleja los prejuicios de la sociedad. Abordar estas fallas es fundamental para garantizar que la inteligencia artificial se convierta en una herramienta equitativa y beneficiosa para todos en el campo de la salud, en lugar de una que amplifique las desigualdades existentes.



