Política de Cookies
Utilizamos cookies propias y de terceros para mejorar tu accesibilidad, personalizar y analizar tu navegación. Al continuar navegando consideramos que aceptas su instalación. Puedes cambiar la configuración u obtener más información en nuestra
(+ info)

Aceptar

PQC

Los algoritmos, la sanidad y el racismo

POSTED BY Garcerán Rojas 11 de March de 2020

Los algoritmos se están convirtiendo en un tema ya recurrente en nuestras publicaciones y, hasta ahora, siempre habíamos tratado el tema con un acentuado toque de humor. Sin embargo, en esta ocasión, analizaremos un suceso mucho más serio, relatando un reciente caso del uso de algoritmos con un sesgo racista.

Las conclusiones del análisis fueron publicadas en la revista Science a finales del pasado año.

El caso es que cuando, en el sector de Sanidad en USA. se obtuvieron los primeros resultados de un nuevo programa de identificación de pacientes que podrían necesitar cuidados extraordinarios, se pudo observar cómo presentaban un evidente sesgo racial.

Se trataba de un proyecto de monitorización de pacientes para su integración en un programa de cuidados y asistencia especiales, siendo el objetivo encontrar a aquellos que mejor podrían beneficiarse del programa. La sorpresa saltó cuando se pudo comprobar cómo el grupo de pacientes blancos, identificados para ser incorporados al programa, tenía apreciablemente menos problemas crónicos que el grupo de pacientes de color o, dicho de otra forma, los pacientes negros necesitaban alcanzar un mayor grado de enfermedad que los blancos para ser considerados como candidatos a entrar en el grupo de elegidos lo que suponía que los cuidados no estaban yendo a aquellas personas que más lo necesitaban.

Las publicadas conclusiones del estudio determinaban la existencia de un problema que era compartido por múltiples aplicaciones de unos algoritmos que estaban tomando decisiones que podían afectar anualmente a más de 200 millones de personas en USA.

Sin embargo, el algoritmo en cuestión estaba funcionando correctamente y era muy preciso en la predicción de los costes. Es decir, hacía exactamente lo que se suponía que debía hacer, y lo hacía de idéntica manera para negros y blancos. El problema radicaba en la forma en la que se había definido.

El caso supuso un claro ejemplo de cómo un sesgo puede cocinarse dentro del propio sistema. En esta ocasión, apareció desde el propio diseño del algoritmo, cuando para realizar la estimación sobre quiénes podían ser objeto de atención especial, se tomó como referencia la predicción sobre los costes médicos del año siguiente, basando estas predicciones en datos históricos.

De esta forma, las personas con mayores costes de salud no son necesariamente las más enfermas y fue, precisamente, ese detalle el que alteró los resultados, por la existencia de unos factores socio económicos que afectaban desproporcionadamente a los pacientes negros.

Referencias. Revista Science & Eliza Strickland - IEEE

 

Artículos relacionados:

Garcerán Rojas