Menu Close
Nombre de cas Covid-19 confirmés, par pays au 14 décembre 2020 (du noir au rouge puis rose et gris: : plus de 10 000 000; 1 000 000–9 999 999; 100 000–999 999; 10 000–99 999; 1 000–9 999; 100–999; 1–99; 0 ou pas de données). Pharexia (original author); Ratherous, AKS471883 (contributors), Wikipédia, CC BY-SA

Comment la Covid-19 fait évoluer les modèles mathématiques des épidémies

En pleine pandémie mondiale de la Covid-19, après que le grand public s’est initié au nombre de reproduction et aux courbes exponentielles, certains médias ont pu critiquer les modèles mathématiques et leurs prédictions catastrophistes, auxquelles les politiques auraient tort de croire.

Et pourtant, les décideurs politiques ont besoin de prévisions pour prendre de graves décisions, et seuls les modèles mathématiques proposent de telles prédictions. Cela ne doit pas faire oublier que les prédictions chiffrées des modèles des épidémies sont à prendre avec beaucoup de précautions : nous tentons d’expliquer ce qui limite la fiabilité de celles-ci et comment elle progresse au fur et à mesure que l’on apprend à connaître la Covid-19.

Depuis quand la seconde vague était-elle prévisible ?

Si l’on regarde les données de l’épidémie depuis début mars en France, on se rend compte que l’épidémie a connu quatre phases jusqu’au début du second confinement, schématisées sur la figure ci-dessous.

Décès quotidiens à l’hôpital en France, en échelle logarithmique, du mois de mars au 8 décembre 2020. Une croissance linéaire sur le graphique correspond donc en réalité à une croissance exponentielle, et de même pour une décroissance linéaire ; avec des temps de doublement t₂ et de division par deux t½ donnés pour les différentes phases. On remarque en particulier que le temps de doublement associé à la seconde vague pouvait être estimé dès le mois de septembre 2020. On voit également que la décrue engagée à la suite du second confinement n’a pas encore eu le temps de ramener le nombre quotidien de décès au niveau observé au mois de juin dernier. Raphaël Forien, Author provided

Il était clair depuis le mois de septembre environ que la croissance du nombre de cas nous conduirait vers une nouvelle crise sanitaire si elle n’était pas freinée. Si, comme nous l’expliquons plus bas, l’ampleur exacte de cette crise était difficile à prédire, elle aurait vraisemblablement été plus sévère que celle que nous avons connue au printemps.


Read more: Comprendre les bases des modèles mathématiques des épidémies


Au printemps, le nombre de reproduction de l’épidémie a été ramené en dessous de 1 grâce au confinement. Aussi appelé « R effectif », le nombre de reproduction est une estimation, sur les 7 derniers jours, du nombre moyen d’individus contaminés par une personne infectée. La relative lenteur de la croissance du nombre d’hospitalisations et de décès liés au Covid-19 observée depuis le premier confinement résulte sans doute des mesures comme le port du masque, la distanciation sociale, le fait qu’en été, les gens passent davantage de temps en extérieur qu’en lieu clos, etc.

Cet automne, l’objectif est de ramener le nombre de reproduction de 1,4 environ à moins de 1 – alors qu’au printemps il fallait le ramener de plus de 3 à moins de 1. Cet objectif est a priori plus facile à atteindre et explique que ce second confinement ait été efficace alors qu’il est moins strict que le premier.

Une troisième vague épidémique est-elle à craindre ?

Pour éviter une reprise de l’épidémie et donc une nouvelle vague, il faut un moyen efficace et durable de réduction de la transmission de la maladie. Tant qu’une proportion significative de la population n’est pas immunisée (ce qu’on appelle l’immunité de groupe), cela passe par une diminution des contacts et l’application des gestes qui limitent la transmission de la maladie. D’après plusieurs travaux publiés, au 1er septembre 2020, seulement à peu près 5 % des Français avaient été touchés par le Covid-19, ce qui est trop peu pour pouvoir significativement freiner l’épidémie. En effet dans ces conditions, pour que l’épidémie régresse, le R0 doit se maintenir en dessous de 1,05, contre 1 si la population n’est pas immunisée. En outre, même si les vaccins bientôt disponibles s’avèrent capables d’offrir une protection durable et d’empêcher la propagation de la maladie – ce qui n’est pas encore certain puisqu’ils n’ont été testés que sur une période courte, il faudra de longs mois pour vacciner une fraction importante de la population.

En l’absence d’une politique stricte de test des cas contacts et d’isolation des personnes infectieuses, il est à craindre qu’à partir de janvier 2021, le nombre de reproduction remonte au-dessus de 1. Les autorités devront réagir rapidement en cas de signes de reprise de l’épidémie si elles veulent éviter une troisième vague et un troisième confinement : plus les mesures seront prises tardivement, plus elles devront rester en place longtemps afin de faire revenir le nombre quotidien de nouveaux cas en dessous d’un niveau fixé.


Read more: Covid-19 : Pour éviter d’autres confinements, les personnes contagieuses doivent s’isoler plus rapidement


Qu’est-ce qui limite la fiabilité des prévisions des modèles mathématiques ?

Combien y aurait-il eu de morts en France si la population n’avait pas été confinée au printemps ? Plusieurs épidémiologistes ont proposé de répondre à cette question à l’aide de modèles mathématiques, mais aucun consensus ne semble émerger dans la communauté scientifique. Les prédictions de N. Fergusson, de l’Imperial College de Londres, ont parfois été vertement critiquées comme trop alarmistes, car fondées sur des hypothèses trop simplistes ou irréalistes. Quel crédit apporter aux chiffres avancés ? Qu’est-ce qui limite réellement leur fiabilité ?

La première source d’incertitude vient d’un certain nombre de paramètres que le modélisateur a besoin de connaître pour faire ses prédictions. À cet égard, l’une des principales inconnues au début de l’épidémie est le taux de létalité de la maladie, c’est-à-dire la proportion des individus infectés qui décèdent des suites de l’infection. C’est ce paramètre qui permet de déduire le nombre d’infectés à partir du nombre de décès, et donc d’en déduire la fraction de la population immunisée. La figure ci-dessous montre comment la valeur de ce paramètre affecte les prévisions des modèles concernant ce qui aurait pu se produire sans le second confinement. L’incertitude sur le taux de létalité de la maladie est un donc une source importante de variabilité dans les prédictions.

Projection de l’évolution des décès dans les hôpitaux dans quatre régions à l’aide d’un modèle homogène sans le second confinement. Chaque courbe est calculée en supposant une valeur différente du taux de létalité, prise dans l’intervalle de confiance déterminé par de précédents travaux. Comme expliqué dans le texte, ces prédictions sont à lire avec précaution, mais on observe bien l’effet de l’incertitude concernant le taux de létalité. Raphaël Forien, Author provided

De plus, les modèles mathématiques les plus simplistes font une hypothèse d’homogénéité, qui veut que chaque individu contagieux infecte n’importe quel individu susceptible avec la même probabilité. Lorsqu’une proportion suffisamment importante de la population est immunisée, l’épidémie commence à décroître, car une bonne partie des gens rencontrés par un individu infectieux sont déjà immunisés, ce qui limite la propagation de la maladie.

Des modèles plus réalistes prennent en compte la répartition spatiale des individus, le comportement différencié des diverses classes d’âge par rapport à la maladie ou le réseau des relations sociales. Mais les individus ne sont pas tous égaux en ce qui concerne la propagation de l’épidémie. Une certaine fraction de la population a plus d’échanges sociaux que les autres. Ceux-ci auront tendance à propager l’épidémie plus rapidement que les autres, mais ils seront également infectés plus tôt en moyenne. L’épidémie croît donc plus rapidement au début, et ralentit lorsqu’une fraction importante de ces individus « super actifs » a été touchée et immunisée. Ce ralentissement est alors supérieur à celui que l’on observerait si le même nombre d’individus choisis au hasard dans la population étaient immunisés.

En somme, la fraction de la population qui doit être immunisée pour atteindre l’immunité collective est en fait inférieure à celle que prédit le modèle homogène. Les mathématiciens qui étudient les épidémies s’efforcent donc de modéliser au mieux l’hétérogénéité des individus au sein de la population, mais beaucoup de chemin reste à parcourir.

Bien que l’on ne connaisse pas les détails du modèle utilisé par Neil Ferguson, on peut donc se douter que ses prédictions étaient pessimistes. Mais de combien exactement, impossible de le dire. Sans le premier confinement en France, nos hôpitaux auraient dans tous les cas été débordés. Les mesures prises étaient-elles correctement calibrées, et adaptées à la dangerosité de cette maladie ? C’est une autre question.

Depuis le début de la crise sanitaire, de nombreux scientifiques se sont investis pour tenter de comprendre et de lutter contre cette épidémie, ce qui a permis de grandes avancées dans plusieurs domaines. C’est aussi le cas de la modélisation mathématique des épidémies. Même si la science avance lentement, les travaux en cours permettront à l’avenir de mieux comprendre la fiabilité des modèles mathématiques et de leurs prédictions.

Want to write?

Write an article and join a growing community of more than 182,300 academics and researchers from 4,942 institutions.

Register now