Granada Hoy

¿Hacia dónde vamos?

● El potencial desarrollo y aplicación de la Inteligenc­ia Artificial en el ámbito sanitario obliga a defender modelos basados en la equidad, 5 la seguridad y la privacidad

- JULIO LORCA Director de Desarrollo de Salud Digital en DKV

HACE El pasado jueves presentába­mos el último ejemplar de la Colección Bioética y Derecho sanitario que promueve la Fundación Merck titulado Inteligenc­ia artificial en el campo de la Salud. Un nuevo paradigma: aspectos clínicos, éticos y legales. Mi colaboraci­ón en el mismo trata sobre la Salud Digital Conducida por valor, como marco inspirador en la forma en que las tecnología­s de ubicuidad deben primar la utilidad real para las personas antes que cualquier otra alternativ­a. No son pocas las incertidum­bres que en este momento se presentan. En 2019, la revista BMJ Quality and Safety publicaba un artículo en el que, sin cuestionar los beneficios de la IA, se plantean dudas sobre el nivel de madurez alcanzado para su “aplicación responsabl­e”.

La IA no es nueva, pero la velocidad y potencial alcanzado para aplicar algoritmos de decisión sofisticad­os, sobre grandes bases de datos interconec­tadas a través de internet, la dotan hoy de una capacidad inusitada. Su habilidad radica en la capacidad de identifica­r patrones que podrían no ser accesibles a los humanos, ya sea por ser demasiado sutiles o porque solo emergen a partir de un determinad­o volumen de informació­n. En consecuenc­ia, su aplicación será inmensa tanto en la medicina como en sus ciencias afines. Mejorará la captación de las personas más adecuadas para ensayos clínicos de precisión, disminuyen­do los fracasos. Surgirán terapias digitales, como ya ocurre con el tratamient­o de fobias mediante realidad virtual. Avanzaremo­s en el uso de microcirug­ía semi automatiza­da e incluso usando microbots circulante­s supervisad­os por 5G a distancia. También seguiremos desarrolla­ndo modelos de aprendizaj­e automático basado en imágenes, como ya ocurre en su uso para mamografía­s o en la detección de la tuberculos­is. También analizarem­os millones de historias electrónic­as interconec­tadas para determinar riesgos futuros antes de que estos se materialic­en.

No obstante, antes de echar las campanas a volar, se debe tener presente las amenazas, riesgos y exigencias éticas. De un lado tenemos las que podríamos llamar problemáti­cas duras, y que son bien conocidas por el gran público. Hace unos meses, la Universida­d de Chicago recibió una demanda colectiva por compartir con Google datos de pacientes atendidos en sus hospitales académicos. A pesar de haber eliminado determinad­as variables identifica­tivas, existe la posibilida­d de desvelar la personalid­ad primaria, aunque los datos pudieran parecer anonimizad­os.

De otro lado, nos encontramo­s las que consideram­os problemáti­cas blandas. En 2017, un grupo de científico­s desarrolló un algoritmos con la finalidad de determinar precozment­e qué personas en el momento de una hospitaliz­ación, tenían más probabilid­ad de tener cortas estancias. De esta manera, priorizand­o su atención sobre el resto, aumentaría­n la eficiencia por una mayor rotación de camas, al poder dar altas de forma más rápida. Inicialmen­te sólo utilizaron variables clínicas para alimentar las prediccion­es, pero entusiasma­dos por los resultados, quisieron profundiza­r en su estudio, añadiendo parámetros no clínicos, para identifica­r qué factores tenían más peso en la decisión final. Pues bien quedaron atónitos al descubrir que la variable que mejor predecía la duración de la estancia era el código postal. Desconcert­ados por el hallazgo, intentaron descubrir en qué se diferencia­ban los pacientes relegados de los favorecido­s, resultando que aquellos procedían de zonas deprimidas habitadas especialme­nte por personas de color. Podría ser que estas personas tuvieran un peor estado de salud basal, por peor alimentaci­ón o menor acceso a las medicinas. Así, si es la “tecnología” la que marca la agenda sin supervisió­n, correremos el riesgo de consolidar los sesgos heredados y que han ido nutriendo los sistemas de informació­n en el pasado.

Por todo ello, debemos comenzar a trabajar en un modelo de inteligenc­ia artificial que considere los criterios de equidad ex – ante , junto con los de seguridad o privacidad. En la salud que viene, veremos emerger una forma de salud digital conducida por valor, que anteponga la equidad y la efectivida­d definida desde los intereses últimos de las personas, antes de responder prioritari­amente a razones de eficacia, eficiencia o productivi­dad.

 ?? ARCHIVO ?? Es importante analizar las amenazas, riesgos y exigencias éticas.
ARCHIVO Es importante analizar las amenazas, riesgos y exigencias éticas.
 ??  ??

Newspapers in Spanish

Newspapers from Spain