La Razón (1ª Edición)

¿Puede un algoritmo decidir a quién se vacuna primero?

- POR PEDRO DEL CORRAL

En un momento en el que se debate sobre qué grupos de población deben recibir la dosis antes que otros, ya se ha planteado esta disyuntiva

Suena a ciencia ficción, pero es totalmente cierto. En un momento en el que se debate sobre qué grupos de población deben vacunarse antes que otros contra la Covid-19, ya se ha planteado esta disyuntiva: ¿existe un algoritmo encargado de determinar quién es merecedor de una dosis y quién no? La respuesta es sí, aunque hay que matizarla. El pasado 12 de diciembre, la Administra­ción de Medicament­os y Alimentos de Estados Unidos (FDA, por sus siglas en inglés) aprobó de emergencia el uso de la fórmula de Pfizer-biontech. El número de casos estaba disparado en el país, por lo que no se podía perder más tiempo. Así que, al día siguiente, se puso en marcha el proceso. Lo curioso (y polémico) es que fue la inteligenc­ia artificial la encargada de determinar sus destinatar­ios en el hospital Stanford Medicine (California).

El problema apareció cuando ésta excluyó de las primeras vacunas a los médicos residentes que se encuentran en contacto directo con afectados por el coronaviru­s para dar prioridad a aquellos profesiona­les que realizan otro tipo de tareas. ¿Por qué se determinó de esta forma? De las primeras 5.000 personas a las que se inoculó la sustancia, tan solo siete tenían este rango. Una cifra que representa el 0,5% de la plantilla. A todo ello hay que sumarle que los jefes de área les pidieron que se ofrecieran como voluntario­s para cubrir la Unidad de Cuidados Intensivos

en previsión de un posible aumento masivo de contagios durante las fiestas navideñas. Por lo que las protestas no tardaron en producirse. Según los facultativ­os denunciant­es, deberían ser ellos los primeros en inmunizars­e por ser los encargados de tratar a los enfermos. Sin embargo, la explicació­n que les dieron echó más leña al fuego que otra cosa: al tratarse de gente más joven, con menos riesgo a padecer complicaci­ones severas y al no contar con una plaza fija en los centros

«Al ser creaciones humanas, pueden trasladar los sesgos ideológico­s o políticos de quienes los idearon», dice el analista Carlos Ramírez

En el ámbito sanitario se suelen utilizar para clasificar a los pacientes que llegan a urgencias según el nivel de riesgo

de salud, el algoritmo no les dio prioridad.

«Vivimos rodeados de ellos: desde los que nos recomienda­n qué video ver en Youtube hasta los que juegan con nosotros en la Playstatio­n 5», señala Carlos Ramírez, programado­r y analista. «Hay que tener en cuenta que son creaciones humanas y que, como tal, pueden trasladar los sesgos ideológico­s, políticos, culturales o históricos de quienes los idearon». Aunque también se da el supuesto de sistemas justos que se vuelven injustos por el tratamient­o que hacen de los datos que reciben. Ese sería el caso, por ejemplo, del chatbot de Microsoft que aprendió a escribir comentario­s racistas. «En el ámbito sanitario, se suelen utilizar para clasificar a los pacientes que llegan a urgencias según su nivel de riesgo para evitar la saturación y conseguir una distribuci­ón equitativa de los recursos», continúa Ramírez. “El gran hándicap que localizamo­s surge cuando se les introducen demasiadas variables: cuántas más tengan, más posibilida­des de error existen».

Así lo reflejó, en 2019, un estudio publicado en la revista «Science»: demostró cómo 10 algoritmos ampliament­e utilizados en Estados Unidos para brindar asistencia terminaron favorecien­do a personas blancas sobre negras. ¿Qué sucedió? Que sus diseñadore­s asumieron que quienes gastaban más en estos servicios eran los que se encontraba­n más enfermos y los que necesitaba­n más ayuda. Y, por ende, los que gastan más también son más ricos y tienen más probabilid­ades de ser blancos. Como resultado, se asignó menos tratamient­o a los sujetos negros con las mismas condicione­s médicas que los blancos. «El objetivo es evitar este tipo de sesgos para que no se produzcan situacione­s como la de Stanford», concluye Ramírez.

Un proceso «ético»

«Los residentes estamos con los pacientes. A nosotros nos piden intubarlos in situ, pero algunos jefes que se comunican por videollama­das desde casa están siendo vacunados antes que nosotros», declaró Sarah Johnson, obstetra de tercer año, al diario «Propublica». La profesiona­l, que asistió partos en los que la madre era positiva en Covid-19, no fue selecciona­da por el programa informátic­o. Pero sí una de sus compañeras que realiza labores de administra­ción y que, por tanto, presenta un riesgo de contagio menor. La experienci­a de Nurial Moghavem, un sanitario de Neurología, no resulta menos llamativa. Este joven fue el primero en dar la voz de alarma sobre lo que estaba ocurriendo en este hospital. A los pocos días de conocerse la noticia, tuiteó que finalmente había recibido su dosis, aunque no en Stanford. Se la administra­ron en un hospital de Santa Clara. «Este centro sí cree que los residentes somos profesiona­les esenciales en la primera línea».

Al respecto, la portavoz de Stanford Medicine, Lisa Kim, asumió la «responsabi­lidad total» de los errores que se habían cometido. «Nuestra intención era desarrolla­r un proceso ético y equitativo. Pedimos disculpas a toda nuestra comunidad, incluidos nuestros becarios y otros proveedore­s que han desempeñad­o su labor heroicamen­te durante la pandemia», explicó a «Propublica», donde también anunció su intención de revisar el plan «de inmediato». Este hecho ha abierto de nuevo el debate sobre los denominado­s algoritmos injustos. Ahora bien, ¿cómo se pueden controlar? Mientras que en Estados Unidos reina la opacidad sobre su uso y sus consecuenc­ias, en España apenas se ha planteado una regulación al respecto. De hecho, en el caso concreto de nuestro país, aún se desconoce por qué se eligió a Araceli como la primera persona en recibir la vacuna.

 ?? AP ILLUSTRATI­ON/PETER HAMLIN ??
AP ILLUSTRATI­ON/PETER HAMLIN
 ??  ??

Newspapers in Spanish

Newspapers from Spain