¿Hacia dónde vamos?
● El potencial desarrollo y aplicación de la Inteligencia Artificial en el ámbito sanitario obliga a defender modelos basados en la equidad, 5 la seguridad y la privacidad
HACE El pasado jueves presentábamos el último ejemplar de la Colección Bioética y Derecho sanitario que promueve la Fundación Merck titulado Inteligencia artificial en el campo de la Salud. Un nuevo paradigma: aspectos clínicos, éticos y legales. Mi colaboración en el mismo trata sobre la Salud Digital Conducida por valor, como marco inspirador en la forma en que las tecnologías de ubicuidad deben primar la utilidad real para las personas antes que cualquier otra alternativa. No son pocas las incertidumbres que en este momento se presentan. En 2019, la revista BMJ Quality and Safety publicaba un artículo en el que, sin cuestionar los beneficios de la IA, se plantean dudas sobre el nivel de madurez alcanzado para su “aplicación responsable”.
La IA no es nueva, pero la velocidad y potencial alcanzado para aplicar algoritmos de decisión sofisticados, sobre grandes bases de datos interconectadas a través de internet, la dotan hoy de una capacidad inusitada. Su habilidad radica en la capacidad de identificar patrones que podrían no ser accesibles a los humanos, ya sea por ser demasiado sutiles o porque solo emergen a partir de un determinado volumen de información. En consecuencia, su aplicación será inmensa tanto en la medicina como en sus ciencias afines. Mejorará la captación de las personas más adecuadas para ensayos clínicos de precisión, disminuyendo los fracasos. Surgirán terapias digitales, como ya ocurre con el tratamiento de fobias mediante realidad virtual. Avanzaremos en el uso de microcirugía semi automatizada e incluso usando microbots circulantes supervisados por 5G a distancia. También seguiremos desarrollando modelos de aprendizaje automático basado en imágenes, como ya ocurre en su uso para mamografías o en la detección de la tuberculosis. También analizaremos millones de historias electrónicas interconectadas para determinar riesgos futuros antes de que estos se materialicen.
No obstante, antes de echar las campanas a volar, se debe tener presente las amenazas, riesgos y exigencias éticas. De un lado tenemos las que podríamos llamar problemáticas duras, y que son bien conocidas por el gran público. Hace unos meses, la Universidad de Chicago recibió una demanda colectiva por compartir con Google datos de pacientes atendidos en sus hospitales académicos. A pesar de haber eliminado determinadas variables identificativas, existe la posibilidad de desvelar la personalidad primaria, aunque los datos pudieran parecer anonimizados.
De otro lado, nos encontramos las que consideramos problemáticas blandas. En 2017, un grupo de científicos desarrolló un algoritmos con la finalidad de determinar precozmente qué personas en el momento de una hospitalización, tenían más probabilidad de tener cortas estancias. De esta manera, priorizando su atención sobre el resto, aumentarían la eficiencia por una mayor rotación de camas, al poder dar altas de forma más rápida. Inicialmente sólo utilizaron variables clínicas para alimentar las predicciones, pero entusiasmados por los resultados, quisieron profundizar en su estudio, añadiendo parámetros no clínicos, para identificar qué factores tenían más peso en la decisión final. Pues bien quedaron atónitos al descubrir que la variable que mejor predecía la duración de la estancia era el código postal. Desconcertados por el hallazgo, intentaron descubrir en qué se diferenciaban los pacientes relegados de los favorecidos, resultando que aquellos procedían de zonas deprimidas habitadas especialmente por personas de color. Podría ser que estas personas tuvieran un peor estado de salud basal, por peor alimentación o menor acceso a las medicinas. Así, si es la “tecnología” la que marca la agenda sin supervisión, correremos el riesgo de consolidar los sesgos heredados y que han ido nutriendo los sistemas de información en el pasado.
Por todo ello, debemos comenzar a trabajar en un modelo de inteligencia artificial que considere los criterios de equidad ex – ante , junto con los de seguridad o privacidad. En la salud que viene, veremos emerger una forma de salud digital conducida por valor, que anteponga la equidad y la efectividad definida desde los intereses últimos de las personas, antes de responder prioritariamente a razones de eficacia, eficiencia o productividad.