Los modelos de IA para imágenes médicas no son imparciales

By Juan Diego Polo

ilustración moderna y minimalista sobre el tema de la equidad en la IA para imágenes médicas

Los modelos de inteligencia artificial (IA) se han convertido en herramientas cruciales en el diagnóstico médico, especialmente en el análisis de imágenes como radiografías. Sin embargo, recientes investigaciones del MIT han revelado que estos modelos no siempre son equitativos en su desempeño, mostrando brechas de precisión en diferentes grupos demográficos. Aquí exploramos los hallazgos de este estudio y sus implicaciones.

La Capacidad Predictiva y Sus Limitaciones

Investigadores del MIT descubrieron en 2022 que los modelos de IA pueden predecir con precisión la raza de un paciente a partir de radiografías de tórax, algo que ni los radiólogos más experimentados pueden hacer. Sin embargo, este estudio reciente revela que los modelos más precisos en hacer predicciones demográficas son también los que presentan las mayores “brechas de equidad» en el diagnóstico.

Marzyeh Ghassemi, profesora asociada del MIT y autora principal del estudio, explica que estos modelos pueden estar utilizando “atajos demográficos» para realizar sus evaluaciones diagnósticas. Esto significa que los modelos pueden depender de atributos demográficos en lugar de otras características relevantes de las imágenes, lo que lleva a resultados incorrectos para mujeres, personas negras y otros grupos.

Estrategias para Reducir la Parcialidad

Los investigadores probaron dos enfoques para mejorar la equidad de los modelos:

  • Robustez de Subgrupos: Este método recompensa a los modelos por mejorar su desempeño en el subgrupo con peor rendimiento y los penaliza si la tasa de error es mayor para un grupo en particular.
  • Enfoques Adversariales de Grupo: Aquí, los modelos se entrenan para eliminar cualquier información demográfica de las imágenes.

Ambas estrategias funcionaron relativamente bien cuando los modelos se probaron con datos similares a los de su entrenamiento. Sin embargo, cuando se aplicaron a pacientes de otros hospitales, las brechas de equidad reaparecieron, lo que sugiere que la “desparcialización» no siempre es efectiva en nuevos conjuntos de datos.

Implicaciones para el Uso de Modelos de IA en Hospitales

Haoran Zhang, coautor del estudio, destaca la importancia de evaluar los modelos de IA en los propios datos del hospital antes de utilizarlos. Esto es crucial porque las garantías de equidad en los datos de entrenamiento no siempre se transfieren a otras poblaciones.

El estudio subraya que los hospitales deben ser cautelosos al adoptar modelos de IA desarrollados en otras instituciones y enfatiza la necesidad de entrenar estos modelos con datos propios siempre que sea posible.

Financiación y Futuras Investigaciones

Esta investigación fue financiada por diversos organismos, incluidos Google Research Scholar Award, Robert Wood Johnson Foundation, y otros. Los investigadores planean seguir desarrollando y probando métodos adicionales para crear modelos que puedan hacer predicciones justas en diferentes conjuntos de datos.

Los hallazgos del MIT ponen de relieve un desafío crítico en el uso de IA en la medicina: la necesidad de garantizar que los modelos sean equitativos y precisos para todos los grupos demográficos. A medida que avanzamos en la adopción de tecnologías de IA, es esencial abordar estas brechas de equidad para proporcionar diagnósticos justos y precisos a todos los pacientes.


La noticia Los modelos de IA para imágenes médicas no son imparciales fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.

Source:: Wwwath’s new

Add a Comment

You must be logged in to post a comment