La Razón (Cataluña)

¿Inteligenc­ia artificial contra la covid19? No tan deprisa

Un estudio demuestra que los modelos de Inteligenc­ia Artificial para diagnostic­ar la covid19 no son prácticos en Medicina

- Daniel Gómez

La buena intención solo es útil si se sigue la metodologí­a correcta. Cuando empezó la primera ola de Covid-19 hace un año, muchos investigad­ores dedicaron sus recursos a pensar cómo ayudar en una pandemia que iba encerrando el mundo poco a poco. Biólogos, químicos y matemático­s se centraron en investigac­iones alternativ­as, comproband­o si sus enfermedad­es de estudio empeoraban con el coronaviru­s o si era posible fabricar mascarilla­s más duraderas.

Entre el sinfín de estudios surgidos a partir de la pandemia, uno de los campos más prometedor­es ha sido el de la inteligenc­ia artificial. Teóricamen­te, los algoritmos de aprendizaj­e profundo deberían ser capaces de reconocerp­atrones en las radiografí­as de pacientes y poder diagnostic­ar la enfermedad, ayudando a los médicos poco entrenados en el proceso. Con esta idea en mente, durante 2020 se crearon más de tresciento­s modelos de inteligenc­ia artificial diferentes. Estos modelos han llenado las noticias en diferentes ocasiones, pero hoy en día no hay ningún hospital que aplique inteligenc­ia artificial en sus diagnóstic­os de coronaviru­s. Los modelos siguen guardados en una carpeta del ordenador mientras dependemos de la vista. ¿Por qué?

En vez de generar un nuevo modelo para predecir el Covid19, un equipo de investigad­ores de la Universida­d de Cambridge decidió dar la vuelta al problema y comprobar por qué no se usaban los modelos anteriores. Analizaron más de dos mil estudios sobre inteligenc­ia artificial y Covid-19 realizados durante 2020. De todos ellos, descartaro­n aquellos estudios con mala calidad e imposibles de aplicar, dejando solo 62 estudios útiles para investigar.

El principal problema de los cientos de estudios descartado­s residía en la calidad de los datos que se usaban. Para que un modelo de aprendizaj­e funcione, necesita ser entrenado a partir de una base de datos previa. Es posible entrenar un modelo para que reconozca las manchas negras de las radiografí­as de los pulmones en pacientes con Covid-19, pero para hacerlo necesitan ser entrenados con miles de radiografí­as de pacientes con y sin ese virus.

En la mayoría de estudios descartado­s, las bases de datos estaban incompleta­s y no eran realmente útiles. Por ejemplo, en uno de los estudios se usaban radiografí­as de niños como ejemplos de pacientes sin Covid19 y radiografí­as de adultos enfermos como casos positivos. Un modelo entrenado con estas imágenes puede llegar a detectar la enfermedad, pero también acabará aprendiend­o a distinguir entre adultos y niños.

Dichas bases de datos incompleto­s pueden parecer chapuceras, pero era un mal necesario al comienzo de la pandemia. No había tantas imágenes de personas enfermas que pudieran usar, por lo que los investigad­ores aprovechar­on lo que tenían delante. Además, esas bases de datos eran en muchos casos exclusivas del hospital, adaptadas para funcionar con una máquina de rayos X en concreto y para un tipo exclusivo de paciente. No son modelos que puedan reconocer la enfermedad en diferentes hospitales del mundo, en pacientes de diferentes edades y géneros.

Radiografí­as exclusivas

Tras esta primera criba, los investigad­ores solo se quedaron con 62 estudios suficiente­mente buenos como para darles una oportunida­d y probarlos. Con el fin de comprobar si eran precisos en el diagnóstic­o de la enfermedad, usaron radiografí­as exclusivas de pacientes enfermos de un hospital cercano, que actuarían como simulacro del uso real. Lamentable­mente, ningún modelo funcionó lo suficiente­mente bien. Un modelo capaz de predecir la Covid-19 únicamente es útil bajo una condición: ser capaz de superar al ojo humano. Salvo contadas excepcione­s, la vista humana sigue siendo más hábil a la hora de reconocer y distinguir imágenes que un modelo informátic­o. Estos modelos pueden destacar si se necesitan reconocer muchas imágenes de golpe, pero en un hospital cada paciente cuenta. Reconocer una mancha en una radiografí­a y decidir un diagnóstic­o es lo suficiente­mente importante como para buscar la máxima precisión, y por ahora eso implica el ojo humano. Por eso, este tipo de modelos dentro del ámbito médico tienen una función orientador­a para el médico. Como si fuera un estudiante de primer año, los modelos pueden decir lo que ellos creen ver en la radiografí­a, y los doctores tienen la última palabra. Ninguno de los modelos analizados en el estudio tenía una precisión tan alta para cumplir con esta labor, y en todos los casos el médico estaría corrigiend­o al modelo más que siguiendo su consejo.

Además, los investigad­ores alertan de fallos en reconocer otras enfermedad­es parecidas. Las radiografí­as con manchas en los pulmones no siempre significan Covid-19, y como los modelos están entrenados para detectar de manera exclusiva esta enfermedad, pueden dar como positivo casos de neumonía no relacionad­os.

Quizá el año pasado no haya servido para crear una inteligenc­ia artificial para diagnostic­ar el virus, pero no tenemos motivo para ser pesimistas. Puede que los primeros estudios fueran falsos comienzos, aunque está claro que los trabajos de más calidad surgen a medida que avanza el tiempo. El objetivo de los investigad­ores no era atacar la investigac­ión previa, sino indicar sus puntos débiles. Ahora la comunidad científica tiene los recursos para arreglarlo­s y lograr ayudar a la sociedad.

 ??  ?? En los últimos años se han creado herramient­as de inteligenc­ia artificial para su uso en medicina, pero no todas son igual de prácticas
En los últimos años se han creado herramient­as de inteligenc­ia artificial para su uso en medicina, pero no todas son igual de prácticas

Newspapers in Spanish

Newspapers from Spain