Moda de estudio profundo basada principalmente en inteligencia sintética puede establecer la raza de alguien simplemente a partir de sus radiografías, según ha revelado un nuevo estudio, algo que no sería posible para un médico humano que busca las mismas imágenes.

Los hallazgos plantean algunas preguntas preocupantes con respecto a la posición de la IA en el pronóstico médico, la evaluación y el tratamiento: ¿puede el software de computadora portátil utilizar involuntariamente el sesgo racial al leer imágenes como estas?

Después de haber experimentado su IA utilizando cientos de miles de imágenes de rayos X actuales etiquetadas con detalles de la raza del paciente, un equipo mundial de investigadores de salud de los EE. UU., Canadá y Taiwán examinaron su sistema en imágenes de rayos X que la computadora software no había visto antes (y no tenía más detalles al respecto).

La IA puede predecir la identificación racial informada de la persona afectada en estas fotos con una precisión sorprendente, incluso si los escaneos se han tomado de personas de la misma edad y las mismas relaciones sexuales. El sistema alcanzó rangos de 90 pc con algunos equipos de fotos.

“Nuestro objetivo era realizar un análisis completo del poder de la IA para reconocer la identificación racial de una persona afectada a partir de fotografías médicas”, escriben los investigadores de su papel impreso.

“Presentamos que los modelos tradicionales de investigación profunda de la IA pueden ser capaces de predecir carreras a partir de imágenes médicas con alta eficiencia en varias modalidades de imágenes, que se sustentaron en situaciones de validación externa”.

El análisis se hace eco de los resultados de un examinar antes que descubrió que los escaneos de inteligencia artificial de las imágenes de rayos X eran más propensos a perder signos de enfermedad en las personas negras. Para evitar que eso suceda, los científicos quieren comprender por qué está sucediendo en primer lugar.

Por su propia naturaleza, la IA imita la reflexión humana para detectar rápidamente patrones en los datos. Pero esto también significa que puede sucumbir involuntariamente al mismo tipo de sesgos. Peor aún, su complejidad hace que sea arduo desenredar los prejuicios que hemos tejido en ellos.

En este momento, los científicos no están seguros de por qué el sistema de IA es tan bueno para determinar la raza a partir de imágenes que no incluyen dicha información, al menos en el suelo. Incluso cuando se ofrecen datos restringidos, eliminando pistas sobre la densidad ósea, por ejemplo, o centrándose en una pequeña parte del cuerpo, los modelos aún funcionaron sorprendentemente bien al adivinar la raza informada en el archivo.

Es posible que el sistema esté encontrando indicadores de melanina, el pigmento que le da a la piel su color, que es casi desconocido para la ciencia.

“Nuestro descubrimiento de que la IA puede predecir con precisión la carrera autoinformada, incluso a partir de fotografías médicas corruptas, recortadas y ruidosas, generalmente cuando los especialistas científicos no pueden hacerlo, crea un peligro ilimitado para todos los despliegues de maniquíes en imágenes médicas”. escriben los investigadores.

El análisis proporciona a una creciente pila de pruebas que los métodos de IA generalmente pueden replicar los sesgos y prejuicios de los seres humanos, ya sea racismo, sexismo u otra cosa. La información de entrenamiento sesgada puede generar resultados sesgados, lo que los hace mucho menos útiles.

Eso debe equilibrarse con el potencial altamente efectivo de la inteligencia artificial para obtener mucha más información mucho más rápido de lo que la gente puede hacerlo, en todos los lugares desde métodos de detección de enfermedades para cambio de clima local modas

Quedan muchas preguntas sin respuesta del estudio, pero por ahora es importante centrarse en la posibilidad de que surjan prejuicios raciales en los sistemas de inteligencia sintética, especialmente si les cederemos más responsabilidad en el futuro.

“Tenemos que hacer una pausa”, dijo el científico de investigación y médico Leo Anthony Celi del Instituto de Tecnología de Massachusetts. globo de boston.

“No podemos apresurarnos a llevar los algoritmos a hospitales y clínicas hasta que estemos seguros de que no parecen estar haciendo selecciones racistas o sexistas”.

El análisis ha sido impreso en The Lancet Bienestar digital.

Por Lucia

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *