La inteligencia artificial predijo la pandemia y ahora ayuda a frenarla

Toronto, 30 de diciembre de 2019: el algoritmo de inteligencia artificial de la startup BlueDot hizo saltar todas las alarmas. Una vez contrastada la información, BlueDot advertía el día de fin de año a todas las agencias mundiales sobre un posible brote en Wuhan que luego se convertiría en la pandemia COVID-19.

El primer fallecimiento por el nuevo coronavirus sucedió el 9 de enero de 2020. El 15 de enero se confirmó la transmisión del virus entre humanos y su presencia en otros países. La OMS no dio la voz de alarma hasta el 30 de enero.

Desde el comienzo del brote la comunidad científica se ha volcado compartiendo datos y conocimiento. La inteligencia artificial y el análisis de datos masivos (big data) han jugado un papel fundamental.

IA y big data para predecir y gestionar epidemias

El algoritmo de BlueDot se basa en el procesamiento del lenguaje natural. Analiza noticias de actualidad en tiempo real y en 65 idiomas diferentes, combinadas con información sobre rutas de vuelos comerciales y brotes de enfermedades. De esta forma, BlueDot fue capaz de predecir no solo el epicentro de Wuhan, sino también su posterior salto a Bangkok, Seúl, Taipei y Tokio.

Los modelos epidemiológicos se llevan empleando desde la pandemia de gripe española de 1918. Con la revolución del big data, dichos modelos ahora integran datos genómicos, de redes sociales, de geolocalización y de mortalidad y morbilidad para lograr predicciones realmente sofisticadas.

Las técnicas de inteligencia artificial, sin embargo, han mostrado de nuevo su superioridad a la hora de predecir la incidencia de un brote. Por ejemplo, la aplicación de redes neuronales permitió predecir el numero de incidencias de una epidemia de dengue (un virus transmitido por mosquitos) en 790 ciudades de Brasil, una información fundamental para poder controlar el brote.

Deep learning para buscar vacunas y tratamientos

El acceso libre a los datos de genomas de coronavirus secuenciados permitió el desarrollo de un test diagnóstico en Berlín basado en la reacción en cadena de la polimerasa (PCR).

Luego, un estudio genómico comparativo mostró máxima similitud entre las cepas humanas del SARS-CoV-2 (el actual coronavirus) con el virus del SARS de la pandemia de 2002-2004 y el coronavirus que afecta a los murciélagos (probablemente la especie transmisora).

A día de hoy no existe ninguna vacuna que nos proteja contra el COVID-19. Una estrategia muy potente para desarrollarla se fundamenta en la biología sintética, que requiere conocer las proteínas del virus. La secuencia del genoma del SARS-CoV-2 contiene esta información de forma lineal, pero también es preciso conocer sus estructuras tridimensionales.

Un potentísimo método de deep learning llamado AlphaFold y desarrollado por DeepMind (la unidad de inteligencia artificial de Google) se utilizó para predecir las estructuras de las proteínas virales.

Actualmente, hay más de 30 empresas intentando desarrollar una vacuna contra el reciente coronavirus. No es probable que esté disponible antes de verano de 2021. Los ensayos clínicos llevan mucho tiempo y son imprescindibles para entender la eficacia y efectos secundarios de una vacuna en una población heterogénea.

De momento, tampoco existe ningún tratamiento específico contra la enfermedad. Una estrategia recurrente para encontrarlo es probar otros fármacos considerados clínicamente seguros por haber sido administrados previamente.

En este contexto, la inteligencia artificial está acelerando a tiempos récord el proceso de identificación de fármacos antivirales. Por ejemplo, el uso de un algoritmo de deep learning para predecir el nivel de afinidad molecular entre fármacos existentes y proteínas específicas del virus sugirió que el atazanavir (usado en el tratamiento del VIH) es potencialmente capaz de bloquear toda la maquinaria de replicación del ARN del virus.

Deep learning para combatir los bulos en internet

La respuesta a esta crisis sanitaria está condicionada por presiones económicas y estrategias políticas en un clima de desconfianza global y de tensiones comerciales, por teorías de la conspiración, por información imprecisa y por bulos sanitarios que amplifican miedos.

Los bulos puede llevar a la gente a tomar decisiones equivocadas que ponen en peligro tanto su salud como la de las personas de su entorno. Por eso Google, Facebook, Twitter e Instagram están coordinando esfuerzos con las autoridades sanitarias para identificarlos y eliminarlos.

Una dificultad a la hora de detectar la información falsa es que no solo es muy dependiente del idioma, sino también del contexto social y político. Por lo tanto, escapa a la capacidad de las técnicas de procesamiento de lenguaje natural.

Un novedoso método de deep learning recién desarrollado analiza los diferentes patrones de propagación en redes sociales de las noticias reales y de los bulos. Además, es capaz de combinar datos heterogéneos y es independiente del idioma. Puede detectar bulos de forma efectiva tan solo unas horas después de empezar a propagarse.

Nunca antes habíamos tenido tantos métodos computacionales tan sofisticados. Nos permiten anticipar una epidemia y su evolución, secuenciar genomas rápidamente y analizarlos acto seguido para diseñar test diagnósticos y vacunas y para descubrir potencialmente nuevos fármacos antivirales. Contribuyen a contener los brotes e, incluso, nos ayudan a perseguir las fake news que intentan echar por tierra los esfuerzos de profesionales brillantes y comprometidos.

Sin embargo, aún queda mucho por hacer. Necesitamos establecer estrategias globales para detectar y seguir la evolución de un brote, para compartir información libremente, para coordinar los esfuerzos terapéuticos a nivel global y para integrar métodos de big data y de inteligencia artificial.

Want to write?

Write an article and join a growing community of more than 106,200 academics and researchers from 3,408 institutions.

Register now