tag:theconversation.com,2011:/us/topics/modelisation-26666/articles
modélisation – The Conversation
2024-02-29T16:22:31Z
tag:theconversation.com,2011:article/223023
2024-02-29T16:22:31Z
2024-02-29T16:22:31Z
Une brève histoire de la prévision du temps
<figure><img src="https://images.theconversation.com/files/577993/original/file-20240226-24-fmdjvg.jpeg?ixlib=rb-1.1.0&rect=36%2C32%2C2987%2C2412&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Vilhem Bjerknes est le père des équations primitives, qui modèlisent l'évolution de l'atmosphère et ont fondé les prédictions météorologiques et climatologiques.</span> <span class="attribution"><a class="source" href="https://groven.no/rolf/bilder/vilhem_bjerknes/">Rolf Groven</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">CC BY-NC-SA</a></span></figcaption></figure><p>En 1904, le scientifique norvégien <a href="https://fr.wikipedia.org/wiki/Wilhelm_Bjerknes">Wilhelm Bjerknes</a> proposa un <a href="https://theconversation.com/fr/topics/modelisation-26666">modèle mathématique</a> destiné à prévoir l’évolution des océans et de l’atmosphère. Il posa ainsi les bases à la fois de la <a href="https://theconversation.com/fr/topics/meteorologie-65555">météorologie</a> (prévisions à court terme) et de la <a href="https://theconversation.com/fr/topics/climat-20577">climatologie</a> (prévisions à long terme).</p>
<p>Ce modèle a cependant longtemps attendu son heure de gloire. En cause : sa complexité mathématique et le challenge que représente le calcul effectif de ses solutions. Au sortir de la Seconde Guerre mondiale, le développement de l’informatique permit enfin de calculer les premières prévisions météorologiques convaincantes. Les théorèmes se feront cependant encore attendre, car c’est seulement entre 1992 et 2007 que fut montré que ce modèle a bien une et une seule solution. Un résultat rassurant pour un modèle prédictif dont on ne sait que calculer des solutions approchées, faute de formule explicite pour la solution exacte. C’est l’histoire de ce modèle mathématique, de son origine physique, de son utilisation numérique et de sa justification mathématique en tant que modèle prédictif que nous allons raconter.</p>
<figure class="align-right ">
<img alt="Photographie de Vilhem Bjerknes" src="https://images.theconversation.com/files/578009/original/file-20240226-20-9mr63n.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/578009/original/file-20240226-20-9mr63n.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=845&fit=crop&dpr=1 600w, https://images.theconversation.com/files/578009/original/file-20240226-20-9mr63n.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=845&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/578009/original/file-20240226-20-9mr63n.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=845&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/578009/original/file-20240226-20-9mr63n.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1061&fit=crop&dpr=1 754w, https://images.theconversation.com/files/578009/original/file-20240226-20-9mr63n.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1061&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/578009/original/file-20240226-20-9mr63n.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1061&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Vilhem Bjerknes, professeur de météorologie dynamique à l’université de Bergen.</span>
<span class="attribution"><a class="source" href="https://marcus.uib.no/instance/photograph/ubb-bs-q-00364.html">Bibliothèque universitaire de Bergen</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<h2>Mettre l’atmosphère en équations</h2>
<p>Au début du vingtième siècle, Wilhelm Bjerknes, alors professeur de mécanique appliquée et de mathématiques à l’université de Stockholm, conçoit un plan d’attaque pour prévoir l’évolution du temps. D’abord, obtenir une connaissance suffisamment précise de l’état de l’atmosphère. Ensuite, utiliser les lois les plus pertinentes de l’hydrodynamique et de la thermodynamique pour déterminer la dynamique de sept quantités cruciales : la pression, la température, la densité, l’humidité et la vitesse de l’air dans les trois directions de l’espace. Comme s’il avait eu l’intuition que notre environnement était à soigner, Bjerknes utilisa les termes « diagnostique » et « pronostique » pour désigner ces deux étapes.</p>
<figure class="align-center ">
<img alt="Cinq lignes d’équations reliant vitesse du fluide, pression, densité, température et salinité" src="https://images.theconversation.com/files/578230/original/file-20240227-30-80pzvu.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/578230/original/file-20240227-30-80pzvu.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=172&fit=crop&dpr=1 600w, https://images.theconversation.com/files/578230/original/file-20240227-30-80pzvu.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=172&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/578230/original/file-20240227-30-80pzvu.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=172&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/578230/original/file-20240227-30-80pzvu.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=216&fit=crop&dpr=1 754w, https://images.theconversation.com/files/578230/original/file-20240227-30-80pzvu.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=216&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/578230/original/file-20240227-30-80pzvu.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=216&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les cinq équations primitives décrivant les mouvements océaniques.</span>
<span class="attribution"><span class="source">Franck Sueur/Université de Bordeaux</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Les équations en jeu, appelées équations primitives, sont des équations aux dérivées partielles. Cela signifie qu’elles font intervenir l’évolution dans le temps et dans l’espace des sept grandeurs physiques clés. Ces équations sont déterministes, ce qui signifie qu’elles ne contiennent pas d’aléatoire. Elles sont de plus non linéaires. Ainsi, une petite imprécision anodine à un instant donné dans les mesures peut s’amplifier terriblement par la suite et fausser complètement les prévisions. C’est là que réside la difficulté de faire des prévisions pertinentes à long terme.</p>
<p>Bjerknes, qui fonda ensuite l’Institut de géophysique de Bergen, fit de nombreux émules et fut sollicité par l’armée norvégienne pour fournir des prévisions météorologiques stratégiques lors de la Première Guerre mondiale.</p>
<h2>Comment réussir à faire des prédictions ? L’arrivée de l’informatique</h2>
<p>Mais à cette époque, l’informatique n’était pas suffisamment développée pour permettre des prévisions météorologiques efficaces. Ce n’est qu’en 1947 que, sous l’impulsion du mathématicien <a href="https://fr.wikipedia.org/wiki/John_von_Neumann">John von Neumann</a>, le premier superordinateur développé aux États-Unis nommé ENIAC, réalisa les premières prévisions météorologiques convaincantes.</p>
<figure class="align-center ">
<img alt="Deux personnes travaillent debout dans une grande pièce hébergeant les nombreux composants de l’ordinateur" src="https://images.theconversation.com/files/574470/original/file-20240208-26-keojz6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/574470/original/file-20240208-26-keojz6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=459&fit=crop&dpr=1 600w, https://images.theconversation.com/files/574470/original/file-20240208-26-keojz6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=459&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/574470/original/file-20240208-26-keojz6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=459&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/574470/original/file-20240208-26-keojz6.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=576&fit=crop&dpr=1 754w, https://images.theconversation.com/files/574470/original/file-20240208-26-keojz6.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=576&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/574470/original/file-20240208-26-keojz6.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=576&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Glen Beck et Betty Snyder programment l’ENIAC dans le bâtiment du Laboratoire de recherche balistique.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Glen_Beck_and_Betty_Snyder_program_the_ENIAC_in_building_328_at_the_Ballistic_Research_Laboratory.jpg">U.S. Army Photo/Wikimedia</a></span>
</figcaption>
</figure>
<p>Mathématiquement, l’étude de ce problème a débuté au début des années 1990, grâce à une série d’articles des mathématiciens <a href="https://fr.wikipedia.org/wiki/Jacques-Louis_Lions">Jacques-Louis Lions</a>, <a href="https://fr.wikipedia.org/wiki/Roger_Temam">Roger Temam</a> et <a href="https://math.indiana.edu/about/faculty/wang-shouhong.html">Schouhong Wang</a>. L’enjeu est simple : prouver que ces équations d’évolution ont bien une et une seule solution, définie pour un temps que l’on souhaite le plus long possible, pour le plus grand nombre de données initiales possibles. Dans le cas contraire, cela signifierait qu’un calcul numérique pourrait fournir aussi bien une approximation de la solution pertinente physiquement qu’une solution qui n’aurait rien à voir avec la réalité des faits ! Les simulations informatiques ne seraient alors pas toujours fiables, quelle que soit la puissance de la machine utilisée.</p>
<p>La rotation de la Terre, les aspects thermodynamiques, le transport et la diffusion de la salinité dans les océans sont autant de phénomènes à prendre en compte dans l’analyse mathématique. En revanche, la faible profondeur des océans ainsi que la faible hauteur de l’atmosphère par rapport au rayon de la Terre conduisent à négliger le mouvement vertical de l’eau ou de l’air, ce qui permet de simplifier le modèle mathématique.</p>
<h2>S’assurer de la pertinence du modèle</h2>
<p>Les équations primitives se situent ainsi en quelque sorte entre les dimensions deux et trois ! Cette observation permit en 2007 à deux mathématiciens, <a href="https://faculty.fiu.edu/%7Ecaoc/">Chongsheng Cao</a> et <a href="https://en.wikipedia.org/wiki/Edriss_Titi">Edriss Titi</a>, de <a href="https://annals.math.princeton.edu/2007/166-1/p07">prouver</a> qu’à une donnée initiale régulière, c’est-à-dire sans variation brutale, est associée une unique solution régulière, bien définie pour tous les instants. De plus, le résultat montre aussi que la sensibilité au moindre changement des conditions initiales, si elle est bien réelle, ne conduit pas, par la suite, à des sauts brutaux, de température ou d’humidité par exemple, au cours du temps. Ce dernier point est particulièrement appréciable compte tenu de ce que l’on ne peut bien sûr pas espérer connaître exactement l’état du système à un instant précis. La viabilité du modèle comme outil prédictif est ainsi, théoriquement, bien assurée.</p>
<p>Depuis, de nombreux travaux ont été réalisés pour étendre ce résultat marquant à des modèles plus sophistiqués, de plus en plus proche de la réalité. Une autre problématique d’actualité est la comparaison des différents modèles, en fonction des paramètres physiques qu’il modélise. Le but est pour le chercheur de pouvoir choisir en conscience à quel modèle se fier, arbitrant, en fonction de sa puissance de calcul, entre complexité et pertinence.</p>
<p>Enfin, un doux rêve est d’explorer, au moins théoriquement, la possibilité d’agir sur de tels systèmes. D’ailleurs, on attribue, lors d’une de ses conférences, les propos suivants à John von Neumann : « Le climat est peut-être plus facile à contrôler qu’à prédire ». La théorie mathématique de la contrôlabilité, qui explore justement les possibilités de modifier les systèmes d’évolution par une action ciblée, est pourtant encore loin, aujourd’hui, de couvrir le cas des équations primitives.</p>
<p>Bien qu’âgées de 120 ans, et amplement utilisées dans des simulations informatiques depuis quatre-vingts ans, les équations primitives sont ainsi encore dans leur adolescence du point de vue de leur compréhension mathématique.</p><img src="https://counter.theconversation.com/content/223023/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Franck Sueur a reçu des financements de l'Agence nationale de la recherche Project BOURGEONS ANR-23-CE40-0014-01.</span></em></p>
Si la climatologie et la météorologie reposent aujourd’hui sur la simulation informatique de modèles complexes, la mise en équation de l’atmosphère est vieille de plus d’un siècle.
Franck Sueur, Professeur en Mathématiques, Université de Bordeaux
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/221156
2024-02-15T14:09:15Z
2024-02-15T14:09:15Z
Un petit ver pour décrypter les mystères de notre cerveau
<figure><img src="https://images.theconversation.com/files/575901/original/file-20240215-18-nwzm0a.jpeg?ixlib=rb-1.1.0&rect=0%2C0%2C3075%2C2020&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Avec ses 302 neurones (ici rendus fluorescents en vert), Caenorhabditis elegans constitue un modèle particulièrement simple mais éclairant pour comprendre les mécanismes neurobiologiques.</span> <span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Varbuss.jpg">Heiti Paves/Wikimedia Commons</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>La compréhension des mécanismes cérébraux qui sous-tendent notre interaction au monde est l’un des grands objectifs de la communauté scientifique actuelle. Mais celle-ci se heurte naturellement à la complexité du cerveau humain, poussant de nombreux chercheurs à faire un pas de côté en étudiant d’abord ces mécanismes sur des organismes plus simples. Comme l’affirmait Claude Bernard dans son <em>Introduction à l’étude de la médecine expérimentale</em> (1865) :</p>
<blockquote>
<p>« Le choix heureux d’un animal […] suffit souvent pour résoudre les questions générales les plus élevées. »</p>
</blockquote>
<p>Et il est des organismes qui se révèlent particulièrement intéressants de ce point de vue : le ver <em>Caenorhabditis elegans</em> (<em>C. elegans</em>). Étudier et modéliser son système nerveux constitue en effet une fenêtre sur le système nerveux des vertébrés, et à terme de l’être humain.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Schéma du ver C. elegans" src="https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=197&fit=crop&dpr=1 600w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=197&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=197&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=247&fit=crop&dpr=1 754w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=247&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/575886/original/file-20240215-22-devbnl.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=247&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">D’environ 1 mm de longueur, le ver C. elegans est un des organismes pluricellulaires les plus simples, en faisant un animal modèle privilégié en biologie.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Caenorhabditis_elegans_(C._elegans)_clip_art.png">MA Hanson/Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>C. elegans : un ver déjà nobélisé</h2>
<p><em>C. elegans</em> est un nématode devenu star des laboratoires depuis son introduction dans les années 1970 par l’éminent biologiste Sydney Brenner, pionnier de la biologie moléculaire. Ce petit ver, d’une taille de 1,3 mm pour un diamètre de 0,08 mm, vit dans des sols humides, de fines pellicules d’eau, ou encore dans les végétaux en décomposition et se nourrit de micro-organismes. Il n’existe pas de femelle de cette espèce, et la forme hermaphrodite prédomine largement sur le sexe mâle.</p>
<p>Sydney Brenner, visionnaire, voyait en <em>C. elegans</em> un organisme idéal pour l’étude d’importants et divers processus biologiques ayant lieu dans l’ensemble des organismes vivants, même les plus complexes comme l’être humain. L’attribution de deux prix Nobel de médecine ou physiologie (2002 et 2006) et un prix Nobel de chimie (2008) pour des travaux menés sur le ver lui donneront raison. Cependant, aucun de ces prix n’a été obtenu pour des études sur son système nerveux, pourtant très riche, combinant simplicité et complexité.</p>
<h2>Un ver petit, mais costaud</h2>
<p>La simplicité apparente de son système nerveux a également rapidement fait de lui un organisme idéal pour l’étude des mécanismes physiologiques liés à la génération de comportement. En effet, son système nerveux se compose précisément de 302 neurones, et environ 7000 connexions synaptiques pour sa version hermaphrodite. En comparaison, l’être humain possède environ 100 milliards de neurones, pour une estimation de 10 000 connexions par neurone. Le connectome de <em>C. elegans</em> – l’ensemble des connexions qui s’établissent entre tous les neurones – a été complètement décrit en 1986, et maintes fois actualisé depuis. C’est actuellement le seul organisme au monde pour lequel nous avons de telles informations, complètes et précises.</p>
<p>Pendant ses trois jours de vie, son système nerveux lui permet de se déplacer, manger, dormir, déféquer, se reproduire, etc. Mais il lui permet également la génération d’une grande variété de comportements et de capacités plus riches et complexes : la chimiotaxie (comportement d’attraction ou de répulsion vis-à-vis de substances chimiques), l’apprentissage, le développement de stratégies pour fuir ses prédateurs, ou encore des capacités sociales. Autant de comportements rendus possibles par un cerveau si simple… Simple, mais peut-être qu’en apparence.</p>
<p>En effet, l’étude des composantes microscopiques de son système nerveux révèle une machinerie bien plus complexe et étendue que ce qu’on imaginait initialement. En particulier, on observe de grandes similarités, à différentes échelles, dans le fonctionnement de son cerveau et celui de vertébrés plus complexes dont nous, humains, faisons partie. Cette dernière propriété en fait une petite fenêtre idéale sur l’étude du système nerveux des vertébrés. Si les outils classiques de la biologie permettent l’exploration de ces caractéristiques, la modélisation et les simulations informatiques peuvent aussi jouer un rôle crucial dans leur compréhension.</p>
<h2>Un défi de modélisation pas aussi simple qu’il n’y paraît</h2>
<p>La modélisation à laquelle nous nous intéressons consiste à construire des équations pour reproduire le comportement des neurones du ver. La modélisation consiste toujours en un jeu de compromis entre réalisme et simplicité. Le modèle se doit d’être réaliste vis-à-vis du phénomène, ou d’un ensemble de ses caractéristiques jugées pertinentes, que nous essayons de décrire. Cette correspondance du modèle à la réalité dépend notamment de l’échelle à laquelle on se place. Plus l’échelle est fine, et plus cela nécessite des données précises, parfois techniquement difficiles à obtenir. Mais il se doit aussi d’être assez simple pour permettre son étude et sa simulation informatique afin de pouvoir dégager des prédictions, sans quoi le modèle serait inutile.</p>
<p>Dans le cas qui nous intéresse, l’idée est de construire des modèles fidèles à la physiologie des neurones. Les neurones étant des cellules, le milieu intracellulaire est séparé du milieu extracellulaire par une membrane imperméable. Imperméable ? Pas tout à fait. En effet, de petits canaux situés tout le long du neurone permettent à certaines particules chargées (des ions) de circuler entre l’intérieur et l’extérieur du neurone. C’est le mouvement de ces ions qui est à l’origine de l’activité électrique d’un neurone. Traduire cette activité en langage mathématique passe donc par la description des déplacements de ces ions de part et d’autre de la membrane.</p>
<p>Dans le cas des neurones de <em>C. elegans</em>, l’une des difficultés vient du manque de connaissance des ions impliqués, les particules chargées qui circulent entre l’intérieur et l’extérieur du neurone et responsables du signal électrique. Ce problème vient en grande partie de la petite taille des neurones et de la difficulté à disséquer un ver d’un millimètre de long sans le tuer. Sans informations précises sur les composantes responsables du comportement d’un neurone, la tâche de modélisation de son comportement en devient ainsi immédiatement plus ardue. Une façon d’outrepasser ces difficultés est de développer des algorithmes informatiques et des méthodologies mathématiques permettant de déterminer hypothétiquement certains ions impliqués, rendant ainsi possible la construction du modèle. Ces développements ont fait l’objet d’une <a href="https://theses.hal.science/tel-03580037v1/document">thèse</a> au laboratoire de mathématiques appliquées du Havre (LMAH).</p>
<p>Construire des modèles de ce type nécessite de passer par différentes étapes, depuis les laboratoires de <a href="https://theconversation.com/fr/topics/neurosciences-20430">neurophysiologie</a> jusqu’à ceux de mathématiques qui peuvent demander des mesures spécifiques. Il faut donc concevoir les manipulations sur les vers permettant de déterminer un minimum de paramètres nécessaires pour la construction des modèles. Ainsi, un travail de modélisation de ce type nécessite fondamentalement un travail interdisciplinaire dans lequel sont impliqués des chercheurs de différentes disciplines (neurophysiologie, mathématiques, informatique). Comme l’écrit si bien Alexandre Grothendieck, considéré comme l’un des plus grands mathématiciens du XX<sup>e</sup> siècle, dans son journal intime <em>Récoltes et Semailles</em>,</p>
<blockquote>
<p>« C’est dans la mesure où se conjuguent les points de vue complémentaires d’une même réalité, où se multiplient nos “yeux”, que le regard pénètre plus avant dans la connaissance des choses. »</p>
</blockquote>
<h2>Aujourd’hui, où en est-on ?</h2>
<p>Malgré les difficultés à disséquer les neurones de ce petit ver, il nous a été possible de recueillir certaines données précises sur le fonctionnement de ses neurones grâce à des mesures réalisées par des neurophysiologistes de l’université Rockefeller.</p>
<p>Une partie des neurones du ver <em>C. elegans</em> est maintenant <a href="https://hal.science/hal-03351604/document">modélisée assez précisément</a>. Cette étape de modélisation des neurones est nécessaire pour avancer dans la compréhension du fonctionnement du système nerveux. Elle n’est cependant pas suffisante, car c’est finalement l’interaction entre ses différents neurones et l’environnement qui détermine les comportements macroscopiques du ver et auquel s’intéresse la communauté scientifique.</p>
<p>Ainsi, d’autres chercheurs travaillent sur la modélisation du comportement du ver, mais sans tenir compte des éléments biologiques à l’échelle des neurones. Il reste donc à construire un modèle intégrant ces différentes échelles : partir des comportements des neurones à l’échelle microscopique pour reproduire les comportements observables du ver à l’échelle macroscopique.</p><img src="https://counter.theconversation.com/content/221156/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
C. elegans a beau être minuscule, c’est une star des laboratoires. En modélisant son système nerveux, les scientifiques veulent en apprendre plus sur les mécanismes qui fondent nos comportements.
Nathalie Corson, Maîtresse de conférences en mathématiques appliquées, Université Le Havre Normandie
Loïs Naudin, post doctorant en neurosciences computationnelles, Sorbonne Université
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/208141
2023-07-16T15:29:40Z
2023-07-16T15:29:40Z
Pourquoi la route de la plage « gondole »
<p>Lorsqu’une route de sable, de terre ou de gravier est soumise aux passages répétés de véhicules, un motif régulier de rides peut apparaître – il est connu sous le nom de « route de tôle ondulée » ou « washboard road ». Si la vitesse est suffisante, la moindre irrégularité dans la route dégénère, et l’ensemble de la route ressemble rapidement à un champ de bosses.</p>
<p>Ces rides gênent la conduite et usent prématurément les véhicules, mais elles sont surtout dangereuses. En effet, les véhicules circulant à des vitesses de quelques dizaines de kilomètres par heure volent littéralement de ride en ride, ce qui diminue leur adhérence et affecte le contrôle des trajectoires et les longueurs de freinage.</p>
<p>Le phénomène de « washboard road » est très répandu dans de nombreux pays en voie de développement, mais également aux États-Unis et en Australie, où des routes non goudronnées (pour des raisons de coût d’installation et de maintenance) traversent les étendues désertiques sur plusieurs milliers de kilomètres.</p>
<p>Si l’on peut bétonner ou goudronner les routes, on peut aussi les raboter à l’aide d’un bulldozer, mais ceci s’avère aussi coûteux qu’inefficace, le motif réapparaissant très rapidement après le passage de l’engin. Incorporer à la route des <a href="https://theses.hal.science/tel-01902750/document">additifs, tels que des résines végétales ou des hydrocarbures lourds, pourrait rendre le matériau plus résistant aux déformations</a>, mais poserait de sérieux problèmes environnementaux et est difficilement envisageable à grande échelle : comment incorporer de tels volumes d’additifs sur des milliers de kilomètres ?</p>
<h2>Comment se forment ces motifs qui rappellent les dunes ?</h2>
<p>L’amplitude et la longueur d’onde du motif dépendent des masses et vitesses des véhicules qui y roulent mais aussi de la pression des pneumatiques ou encore des conditions climatiques. Les observations de terrain rapportent que le motif est plus marqué dans les virages, ainsi que sur les fortes pentes et autour des carrefours, car les contraintes mécaniques exercées sur la route par les véhicules sont plus importantes dans ces trois situations.</p>
<p>Mais au-delà des implications pratiques, le phénomène constitue un <a href="https://link.springer.com/book/10.1007/BFb0110577">problème fascinant pour les physiciens : la « morphogenèse », l’étude de la formation de motifs répétés, et plus généralement des instabilités</a>.</p>
<p>Ici, les similitudes sont grandes avec la formation des dunes (qui sont des motifs d’une hauteur de quelques centaines de mètres) ou des rides sur une surface de sable soumis à un vent constant. Ces phénomènes ont fait l’<a href="https://www.annualreviews.org/doi/abs/10.1146/annurev-fluid-011212-140806">objet de nombreuses études</a>, par exemple via l’analyse de modèles expérimentaux dans lesquels un lit de sable sec est soumis à un vent constant grâce à une soufflerie.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="dispositif experimental avec levier et roue" src="https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=454&fit=crop&dpr=1 600w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=454&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=454&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=571&fit=crop&dpr=1 754w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=571&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=571&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Le dispositif expérimental pour étudier la formation des rides de sable.</span>
<span class="attribution"><span class="source">Nicolat Taberlet/ENS Lyon</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Dans nos travaux, nous avons choisi de simplifier au maximum le système et d’étudier une situation contenant les <a href="https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.99.068003">ingrédients physiques fondamentaux nécessaires à l’apparition de l’instabilité « washboard road »</a>.</p>
<h2>Un phénomène très robuste</h2>
<p>Certes, sur le terrain, les différents véhicules possèdent des masses et vitesses variables, et soient équipés de plusieurs roues munies d’une suspension et de pneus déformables sur lesquels s’applique parfois un couple moteur. Au contraire, dans nos études en laboratoire, nous avons travaillé avec une roue en gomme rigide, placée à l’extrémité d’un bras articulé, et tirée à vitesse constante sur un lit de sable : notre montage ne comporte ainsi aucune suspension et l’unique roue n’avance pas sous l’effet d’un couple moteur. La roue est contrainte dans son mouvement horizontal le long de la piste circulaire, mais est libre de monter et descendre ainsi que de rouler.</p>
<p>Mais malgré ces simplifications à l’extrême, ce système permet de reproduire fidèlement le phénomène de « washboard road » : après plusieurs passages, la route initialement plane se transforme en profil ondulé et régulier. En poussant cette démarche à l’extrême, il est même possible de former une « washboard road » en tirant un simple patin incliné (à l’image d’un chasse-neige) avec le bras articulé. </p>
<p>La robustesse du phénomène de formation de rides est un des résultats importants de l’étude : ce phénomène existe sous une large gamme de conditions, et une modification des paramètres des véhicules ne suffirait probablement pas à éradiquer le motif ondulé.</p>
<p>Ce résultat est malheureusement fort contrariant pour toute tentative de mitigation des rides : il semble que l’ajout d’une suspension ou d’un pneu déformable pourrait modifier les dimensions du motif de rides, mais ces caractéristiques ne sont pas des ingrédients indispensables à l’apparition du motif de rides.</p>
<h2>Une vitesse « seuil » au-delà de laquelle les rides se forment</h2>
<p>Par contre, notre système nous a également permis de mettre en évidence l’existence d’une vitesse « critique » (ou seuil) pour le phénomène : en dessous de cette vitesse, toute perturbation dans la piste comme un creux ou une bosse est lentement érodée et le profil redevient plan après quelques passages. À l’inverse, <a href="https://journals.aps.org/pre/abstract/10.1103/PhysRevE.84.051302">au-delà de cette vitesse, la moindre irrégularité dans la route dégénère rapidement et provoque l’apparition de rides</a>.</p>
<p>Nous avons compris comment cette vitesse critique dépend des paramètres du système (masse du véhicule et masse volumique du sable), ce qui nous a permis d’estimer la vitesse critique d’environ 10 km/h pour des voitures légères et de 20 km/h pour les véhicules les plus lourds. Ainsi, si les véhicules circulaient à faible vitesse, les routes resteraient planes, mais cette valeur est tellement faible qu’elle parait difficilement réaliste comme limitation de vitesse… surtout pour traverser l’Australie !</p><img src="https://counter.theconversation.com/content/208141/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Nicolas Taberlet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Pour que ça ne gondole pas, une seule solution : rouler très lentement… difficile de traverser le désert en véhicule sans créer de rides dans ces conditions.
Nicolas Taberlet, Maître de conférences en physique, ENS de Lyon
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/209150
2023-07-11T19:20:56Z
2023-07-11T19:20:56Z
Dix ans après le drame de Brétigny-sur-Orge, la maintenance ferroviaire reste en crise
<p>Il y a 10 ans, le 12 juillet 2013, le train reliant Paris à Limoges déraillait en gare de Brétigny-sur-Orge, dans l’Essonne. L’accident a causé 7 morts et 70 blessés. En octobre 2022, le tribunal d’Évry a condamné la SNCF à 300 000 euros dans cette affaire. Après plusieurs semaines de débats techniques, la présidente du tribunal a notamment souligné une <a href="https://www.lemonde.fr/societe/article/2022/10/26/catastrophe-de-bretigny-la-sncf-reconnue-coupable-d-homicides-et-blessures-involontaires_6147388_3224.html">« négligence »</a> dans le suivi d’une avarie détectée cinq ans plus tôt.</p>
<p>Trois articles (consultables <a href="https://www.annales.org/gc/2023/gc152/2023-06-03.pdf">ici</a>, <a href="https://www.annales.org/gc/2023/gc152/2023-06-04.pdf">ici</a> ou <a href="https://www.annales.org/gc/2023/gc152/2023-06-05.pdf">là</a>) publiés simultanément dans la série <em>Gérer et comprendre des annales des Mines</em> par Léna Masson, Anne Dietrich, Pierre Messulam, Michel Villette et Christophe Deshayes, proposent un diagnostic plus complet et plus global des problèmes de maintenance rencontrés actuellement en France par de grandes organisations industrielles publiques et, en particulier, celles qui sont en charge du transport ferroviaire et de la fourniture d’électricité.</p>
<p>La maintenance est une activité plus complexe qu’il n’y parait. Elle vise à maintenir dans le temps ou à remettre en état des matériels variés afin « qu’ils continuent à fonctionner comme avant ». Elle comporte des opérations préventives (entretien, réglage, remplacement des pièces usées) et des opérations curatives d’analyse et de résolution des pannes.</p>
<figure class="align-center ">
<img alt="Un technicien devant le train qui a déraillé à Brétigny-sur-Orge (Essonne), en juillet 2013" src="https://images.theconversation.com/files/535795/original/file-20230705-23-5wff87.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/535795/original/file-20230705-23-5wff87.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/535795/original/file-20230705-23-5wff87.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/535795/original/file-20230705-23-5wff87.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/535795/original/file-20230705-23-5wff87.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/535795/original/file-20230705-23-5wff87.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/535795/original/file-20230705-23-5wff87.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Le 12 juillet 2013, le déraillement d’un train en gare de Brétigny-sur-Orge (Essonne) faisait 7 morts et 70 blessés.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Gare-de-Br%C3%A9tigny-sur-Orge_-_2013-07-13_A_-_IMG_9920.jpg">Poudou99/Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Dans les organisations à risque comme le <a href="https://theconversation.com/fr/topics/energie-nucleaire-115966">nucléaire</a>, l’<a href="https://theconversation.com/fr/topics/aeronautique-30518">aéronautique</a> ou le <a href="https://theconversation.com/fr/topics/transport-ferroviaire-51912">transport ferroviaire</a>, le maintien de la fiabilité des installations reste crucial. La littérature internationale en sociologie du travail, en gestion et en ergonomie souligne le <a href="https://www.cairn.info/revue-le-travail-humain-2003-2-page-161.htm">rôle bénéfique du collectif de travail</a>, ainsi que le <a href="https://www.cairn.info/revue-travailler-2003-2-page-129.htm">rôle primordial de l’expérience pratique</a> des agents de maintenance, en particulier pour le repérage et le signalement des anomalies.</p>
<p>La transmission de connaissances tacites aux nouveaux embauchés et l’entraide entre les plus expérimentés et les débutants constituent un facteur clef d’une bonne maintenance, de même qu’un équilibre entre les contrôles et prescriptions imposées par la hiérarchie et la part d’initiative laissée aux gens de métier qui sont au contact direct des installations.</p>
<h2>Les sept facteurs de la crise</h2>
<p>Les trois articles publiés dans les <em>Annales des Mines</em> convergent vers un diagnostic inquiétant : en 2023, en France, la maintenance des installations industrielles à risque traverse une crise que l’on espère temporaire, ce qui suppose un important effort d’autocritique des organisations concernées, un changement de conception de la maintenance, et des investissements dans le matériel, l’organisation du travail et la formation du personnel.</p>
<p>Cette crise s’est développée depuis plus de 20 ans sous l’effet combiné de sept facteurs :</p>
<ul>
<li>La lutte contre les déficits publics ainsi que des processus plus ou moins avortés de privatisation ont entrainé des coupes budgétaires en vue d’attirer de nouveaux actionnaires.</li>
</ul>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/535796/original/file-20230705-16248-7xl4ca.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/535796/original/file-20230705-16248-7xl4ca.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/535796/original/file-20230705-16248-7xl4ca.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=245&fit=crop&dpr=1 600w, https://images.theconversation.com/files/535796/original/file-20230705-16248-7xl4ca.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=245&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/535796/original/file-20230705-16248-7xl4ca.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=245&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/535796/original/file-20230705-16248-7xl4ca.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=308&fit=crop&dpr=1 754w, https://images.theconversation.com/files/535796/original/file-20230705-16248-7xl4ca.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=308&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/535796/original/file-20230705-16248-7xl4ca.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=308&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Âge des caténaires 1500V (réseaux Sud-Est et Sud-Ouest de la SNCF). LGV : ligne à grande vitesse ; UIC 2 à 4 : grandes lignes nationales ; 5 et 6 : lignes intercités régionales ; 7 à 9 : petites lignes.</span>
<span class="attribution"><a class="source" href="https://www.annales.org/gc/2023/gc152/2023-06-04.pdf">Auteur</a>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<ul>
<li><p>Les entreprises en voie de privatisation ont cessé d’investir et les équipements sont devenus peu à peu vétustes. Les installations sont maintenant utilisées bien au-delà de la date initialement prévue pour leur remplacement. C’est le cas des centrales nucléaires, mais aussi des installations du chemin de fer. Par exemple, une majorité des caténaires 1500V sur les réseaux Sud-Ouest et Sud-Est ont plus de 80 ans !</p></li>
<li><p>Des tentatives répétées pour réduire les coûts de maintenance ont entrainé une réduction des effectifs et le recours massif à la <a href="https://theconversation.com/fr/topics/sous-traitance-70429">sous-traitance</a>. On a souvent réduit la fréquence des inspections, alors même que la vétusté des installations demanderait au contraire une surveillance renforcée.</p></li>
<li><p>Les anciennes générations de techniciens et de contremaitres familiers des installations et capables de détecter les moindres anomalies sont parties à la retraite prématurément, sans pouvoir transmettre leur savoir aux jeunes générations.</p></li>
<li><p>Les nouveaux embauchés sont plus habiles devant un écran d’ordinateur que dans la confrontation directe avec les installations industrielles. Leur formation scolaire ne les a pas toujours bien préparés à comprendre le comportement des systèmes techniques, à observer et à se poser les questions pertinentes.</p></li>
<li><p>On accorde une confiance immodérée aux dispositifs de contrôle digitalisés et à distance, qui malheureusement n’enregistrent et ne mesurent que les pannes et les usures que l’on sait modéliser. Les détériorations insidieuses de systèmes techniques vieillissants passent inaperçues, car seuls des professionnels expérimentés et présents sur le terrain, au contact direct des installations, auraient pu les déceler.</p></li>
<li><p>Ce sont les services achats qui établissent les cahiers de charges que devront respecter les sous-traitants chargés de la maintenance. Or, ces services n’ont souvent plus une connaissance technique suffisante des installations à maintenir. Le cahier des charges qu’ils rédigent peu donc être incomplet, ou inadapté. Pourtant, le sous-traitant doit le respecter à la lettre sous peine de pénalités financières et autres sanctions. Dans la peur de perdre son client, le sous-traitant fait ce qu’on lui a demandé et rien que ce qu’on lui a demandé, même si ce n’est pas la maintenance qu’il faudrait ! Faute d’interlocuteurs techniquement compétents et disponibles du côté du donneur d’ordre, il ne parvient plus à établir le nécessaire dialogue et la nécessaire coopération autour d’objets techniques fragiles, qu’il s’agit de bien connaitre, d’entretenir, de préserver et même « d’aimer » comme le disaient les cheminots d’autrefois, parlant de leurs locomotives.</p></li>
</ul>
<p>La combinaison de ces sept facteurs se traduit par une multiplication des incidents, des pannes, et des arrêts de production. En France, le nombre d’accidents recensés par Eurostat est ainsi reparti à la hausse en 2021 dans le secteur ferroviaire, tranchant avec la décrue observée chez certains de nos voisins.</p>
<p><iframe id="nipP7" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/nipP7/2/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<h2>« Toujours moins d’interventions humaines »</h2>
<p>Comme le souligne Pierre Messulam, ancien directeur délégué pour la gestion des risques et la sécurité à la <a href="https://theconversation.com/fr/topics/sncf-37898">SNCF</a>, il est a craindre que les directions des entreprises concernées placent une confiance excessive dans le recours aux experts en système d’information et dans la digitalisation, comme solution à tous les problèmes de la maintenance.</p>
<p>Interrogé dans le cadre de nos recherches, il affirme :</p>
<blockquote>
<p>« Les solutions actuellement préconisées sont largement l’expression du point de vue des financiers et des experts en systèmes d’information. Toujours plus de capteurs pour mesurer l’état des installations, toujours plus de données quantifiées, toujours moins d’interventions humaines. Le traitement statistique des big data est supposé fournir une solution à la fois plus précise, plus efficace, et moins coûteuse que la maintenance classique à base de <a href="https://theconversation.com/fr/topics/savoir-faire-79473">savoir-faire</a> humain. Non seulement on met des capteurs partout, mais l’on croit n’avoir plus besoin de faire autant d’observations directes ni de s’interroger sur ce qu’il convient de mesurer. Le big data et <a href="https://theconversation.com/fr/topics/intelligence-artificielle-ia-22176">l’intelligence artificielle</a> seraient la solution. Les corrélations calculées sont censées fournir automatiquement la liste des mesures à prendre, en enjambant l’étape de l’observation et de la modélisation. »</p>
</blockquote>
<p>Or, les outils de métrologie et de modélisation saisissent imparfaitement le réel. Les écrans d’ordinateur ne montrent que des corrélations entre des données. Et un cahier des charges, même très précis, ne peut pas dire tout ce qu’il faut faire pour que ça marche. Seule l’intelligence collective d’équipes de professionnels stables et bien formés est, et restera le secret d’une maintenance réussie.</p>
<p>Au bilan, la conjonction de transitions économiques, démographiques et techniques mal anticipées et mal gérées, aussi bien par le système éducatif que par les services publics de transport et d’énergie, ont conduit à une perte de savoir-faire. En même temps, un nouveau type d’éducation des jeunes générations apparaît, qui ne les prédisposerait guère à comprendre des réalités industrielles qui supposent un engagement sur le terrain et un contact direct avec la matière.</p>
<p>Les vieux agents de maitrise et techniciens partis à la retraite, il existerait une <a href="https://www.cairn.info/revue-de-gestion-des-ressources-humaines-2016-4-page-74.htm">rupture entre générations aux lourdes conséquences</a> sur l’efficacité du travail comme a pu le constaté la chercheuse Nathalie Jeannerod-Dumouchel en 2016 dans sa thèse sur les changements de générations à ERDF, structure en charge du réseau électrique.</p><img src="https://counter.theconversation.com/content/209150/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Michel Villette ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Le recours de plus en plus important à la sous-traitance, l’automatisation, les coupes budgétaires ou encore le vieillissement du matériel multiplie aujourd’hui le risque d’accident ferroviaire.
Michel Villette, Professeur de Sociologie, Chercheur au Centre Maurice Halbwachs ENS/EHESS/CNRS
, professeur de sociologie, AgroParisTech – Université Paris-Saclay
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/208543
2023-07-09T15:28:28Z
2023-07-09T15:28:28Z
L’IA pourrait-elle avoir des crises d’épilepsie ?
<figure><img src="https://images.theconversation.com/files/534394/original/file-20230627-19-bpm2lk.jpg?ixlib=rb-1.1.0&rect=0%2C11%2C2576%2C1837&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les neurones artificiels peuvent-ils servir de modèle pour comprendre les vrais neurones ?</span> <span class="attribution"><span class="source">GDJ/Pixabay</span></span></figcaption></figure><p>Depuis quelques années, intelligence artificielle (IA, ou AI en anglais), apprentissage machine (<em>machine learning</em>), « réseaux de neurones artificiels » (<em>artificial neural network</em>) et <a href="https://theconversation.com/y-a-t-il-de-lintelligence-dans-lintelligence-artificielle-157447">« apprentissage profond » (<em>deep learning</em>, ou DL)</a> sont de plus en plus présents dans nos quotidiens. Ces termes recouvrent des méthodes, des techniques, des processus qui nous permettent de faire effectuer à des machines des tâches dites complexes comme reconnaître des images, conduire une voiture, ou mener une conversation avec un humain.</p>
<p>Des tâches au cours desquelles il serait facile a priori de comparer intelligence artificielle et « naturelle » – humaine.</p>
<p>Or, à force de rapprochement, nous avons tendance à considérer certains de ces outils, les réseaux de neurones artificiels en particulier, comme des modèles de notre propre cerveau – et les capacités du <em>deep learning</em> comme des modèles de ses fonctions… Mais est-ce que, parce qu’une machine est capable de réaliser des tâches similaires à celles effectuées par notre cerveau, elle peut en être un modèle ?</p>
<p>Prenons une analogie pour une tâche simple : trier des pièces de monnaie. Il existe des machines purement mécaniques qui en sont parfaitement capables. Nous sommes, nous, humains, tout aussi capables de trier des pièces de monnaie… Va-t-on apprendre quelque chose de nous sur notre capacité à trier des pièces en observant de telles machines ?</p>
<p>La question se pose à un autre niveau avec l’IA. Les <a href="https://theconversation.com/dans-le-cerveau-cache-de-lintelligence-artificielle-151887">réseaux de neurones artificiels</a> sont, comme leur nom l’indique, inspirés par des connaissances acquises en neurosciences. Et ils partagent quelques caractéristiques avec nos cellules nerveuses. Notre question est donc plutôt : jusqu’où peut aller la comparaison ?</p>
<p>Quelles sont les limites de ces « modèles » ? Sont-ils suffisamment proches pour être utilisable en neurologie ou en santé mentale ?</p>
<h2>Ce qu’est un neurone artificiel</h2>
<p>Le modèle de neurone (ou « nœud » en apprentissage automatique) utilisé dans le <em>deep learning</em> n’a rien de physique : il s’agit d’un ensemble d’étapes mathématiques effectuées dans un ordinateur. Un nœud reçoit des données, externes ou provenant de nœuds précédents, qui sont pondérées (multipliées) par leur « poids synaptique », une valeur quantifiant l’importance accordée à chaque donnée.</p>
<p>De façon similaire, dans notre cerveau, un neurone reçoit des données par ses « synapses », ses points de contact avec les neurones voisins. Selon son « poids », chaque synapse aura plus ou moins d’effet sur le neurone en question. Toutes les entrées que ce dernier reçoit sont ainsi pondérées, et il va s’activer, ou non, en fonction du résultat global.</p>
<p>Il y a un mécanisme similaire dans les réseaux de neurones artificiels. La valeur obtenue en sortie d’un nœud peut être utilisée comme valeur d’entrée pour le nœud suivant. Au cours de leur apprentissage, certains neurones vont peu à peu se spécialiser dans certains types d’entrées quand d’autres seront plus sensibles à d’autres. Cette description suffit à reproduire un aspect « fonctionnel » du traitement des informations entrantes par un neurone. Ce modèle de neurone dit « formel » <a href="https://doi.org/10.1007/BF02478259">a été décrit pour la première fois en 1943</a>.</p>
<p>Une fois constituées en réseau pour une application particulière, les règles d’apprentissage d’un modèle déterminent l’évolution des poids synaptiques. <a href="https://ieeexplore.ieee.org/abstract/document/9383028">Plusieurs méthodes permettent de conduire l’apprentissage</a> pour une tâche donnée, comme la rétropropagation de l’erreur (méthode historique datant des années 1980) ou le calcul évolutionnaire (qui repose sur les mêmes principes que l’évolution biologique par mutation/sélection).</p>
<p>Ces modèles sont capables « d’apprendre », de résoudre des problèmes ou d’effectuer des tâches dont nous sommes capables, parfois même mieux que nous en termes de rapidité – pour des tâches simples comme complexes (reconnaissance de formes, visages, prédiction de conformation de protéines ou <a href="https://theconversation.com/comment-fonctionne-chatgpt-decrypter-son-nom-pour-comprendre-les-modeles-de-langage-206788">interprétation du langage et de textes avec ChatGPT, etc.</a>).</p>
<h2>Du modèle de neurone au modèle du cerveau ?</h2>
<p>Si ces modèles partagent certains modes de fonctionnement avec notre cerveau, en partagent-ils aussi d’autres aspects, notamment pathologiques ?</p>
<p>L’<a href="https://link.springer.com/article/10.1007/s12559-023-10113-y">épilepsie, très étudiée, est un exemple intéressant</a> sur lequel nous nous sommes penchés dans une étude récente.</p>
<p>Physiquement, elle affecte l’activité du cerveau qui, durant les crises, est à son paroxysme de façon incontrôlée : les neurones sont proches de leur activité maximale et de manière assez synchronisée. Si ces crises envahissent tout le cerveau (crise généralisée), celui-ci devient incapable de traiter de l’information. La personne touchée est inconsciente durant la crise, ne répond plus aux stimuli extérieurs, et n’aura pas de souvenir de l’événement.</p>
<figure class="align-center ">
<img alt="EEG montrant une crise d’épilepsie avec des ondes très chaotiques" src="https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=389&fit=crop&dpr=1 600w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=389&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=389&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=488&fit=crop&dpr=1 754w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=488&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/534395/original/file-20230627-29982-evdjnn.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=488&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’épilepsie, une activité anormalement intense et synchronisée du cerveau, se caractérise par la décharge simultanée de nombreux neurones (au centre). Ce qui pourrait paraître facile à modéliser dans des réseaux de neurones artificiels.</span>
<span class="attribution"><span class="source">Bromfield EB, Cavazos JE, Sirven JI</span>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Il serait tentant de penser que, dans les réseaux de neurones artificiels, en apprentissage profond, un état équivalent à une telle crise correspondrait à avoir tous les nœuds à un niveau d’activation poussé à leur maximum en même temps. Une telle implémentation physique pourrait-elle représenter l’épilepsie, correspondant au fait que le système électrique sature ?</p>
<p>Ce n’est pas si simple.</p>
<p>Si l’on veut pousser loin la comparaison entre ces deux systèmes complètement différents (crises cérébrales et « crises numériques »), il faut rappeler leurs spécificités réciproques :</p>
<ul>
<li><p>Dans le cerveau, les crises sont un phénomène dynamique et peuvent se propager et la communication synaptique peut ne plus être en mesure de fonctionner. Dans un réseau artificiel, un tel phénomène n’est pas concevable.</p></li>
<li><p>Dans un réseau, un tel niveau d’activation n’est qu’un état possible parmi d’autres et il ne présente aucun aspect « pathologique ». Cette suractivation générale n’est pas problématique, car il ne s’agit que de valeurs numériques et elle n’affecte pas le fonctionnement de l’ordinateur : il y a toujours échange d’informations – il y a juste un risque d’erreur possiblement accru pour une tâche donnée. Le modèle ne peut pas avoir de « convulsions » comme un humain, il ne peut pas être dépassé par un flot d’informations.</p></li>
</ul>
<p>Ces deux éléments semblent ainsi empêcher toute comparaison entre un réseau de neurones et un cerveau biologique. Les réseaux de neurones artificiels utilisés dans l’intelligence artificielle sont capables de reproduire des fonctions du cerveau (capacité à réaliser une tâche particulière), mais pas l’activité (électrophysiologique) sous-jacente à ces fonctions.</p>
<p>La différenciation entre normale et pathologique dans les crises d’épilepsie humaines n’est donc pas transposable à la question du normal et du pathologique dans les réseaux de neurones artificiels implémentés dans ces algorithmes.</p>
<p>Il existe cependant des modèles de la dynamique de crise <a href="https://www.sciencedirect.com/science/article/pii/S0969996123001456">basés sur d’autres types d’approches</a>, notamment des systèmes dynamiques. Ils sont cette fois construits dans le but d’étudier l’activité cérébrale associée à ces crises.</p>
<h2>« Être » ou « faire » : c’est l’un ou l’autre</h2>
<p>On distingue donc différents niveaux de description selon les types de modèles considérés… Certains reproduisent une fonction ou une activité ; d’autres sont capables d’expliquer la dynamique des crises, mais ils ne sont généralement pas adaptés pour réaliser des tâches spécifiques comme ceux utilisés dans l’IA. C’est l’un… ou l’autre ! (Pour le moment.)</p>
<p>Les modèles peuvent soit essayer d’être au plus proche du phénomène considéré (par exemple l’apprentissage, la mémoire ou les crises d’épilepsie) sans se préoccuper des mécanismes biophysiques permettant son émergence… Ou, au contraire, ils peuvent être conçus pour essayer de fournir une description de la physiologie la plus détaillée possible à l’échelle considérée (ions, molécules, cellules, etc.).</p>
<p>Suivant les objectifs que l’on a (enseigner, expliquer, découvrir de nouveaux aspects, comprendre, prédire ou autre), on choisira ou construira un type de modèle adapté. Pour cela, il est intéressant d’étudier plus profondément ce que nous apporte chaque modèle en termes de connaissance ou d’application.</p>
<p>Mais, pour l’heure, il n’existe pas de modèle capable de reproduire l’ensemble des aspects du cerveau… à part le cerveau lui-même.</p><img src="https://counter.theconversation.com/content/208543/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
L’IA permet-elle de modéliser certaines pathologies neurologiques ? La question peut se poser pour l’épilepsie, où le cerveau a une activité excessive… Quelles sont les limites aux comparaisons ?
Damien Depannemaecker, Chercheur post-doctorat, Institut de Neuroscience des Systèmes, INSERM, Aix-Marseille Université (AMU)
Léo Pio-Lopez, Postoctoral researcher in AI and ALife, Allen Discovery Center, Tufts University
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/207951
2023-06-22T18:59:35Z
2023-06-22T18:59:35Z
Covid : une nouvelle méthode de modélisation pour mieux évaluer les risques épidémiques
<figure><img src="https://images.theconversation.com/files/532440/original/file-20230616-27-30orlh.jpg?ixlib=rb-1.1.0&rect=35%2C98%2C5955%2C3862&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Disposer de bonne faculté de modélisation des épidémies permettra de mieux anticiper (France, mars 2020).</span> <span class="attribution"><span class="source">Shocky/Shutterstock</span></span></figcaption></figure><p>L’humanité est, depuis des millénaires, frappée par des épidémies… Elle a, à chaque fois, pris des mesures de protection qui <a href="https://royalsocietypublishing.org/doi/10.1098/rsfs.2021.0049">s’inscrivaient dans le contexte des connaissances voire des opinions de l’époque sur les modes de contamination</a>. Prenons les pestes qui ravagèrent l’Europe il y a quelques siècles. À l’époque, on croit fermement que ce mal ravageur est causé par l’inhalation de miasmes et le déséquilibre des humeurs corporelles qui s’ensuit. Fleurissent alors les masques fourrés d’herbes médicinales logées dans un bec pointu : c’est l’image d’Épinal des masques à bec d’oiseau…</p>
<p>Au début du XX<sup>e</sup> siècle, on assiste à un virage majeur en faveur du rôle prédominant des contacts proches dans la transmission. Les recommandations changent et les mesures de prévention promues au début de la pandémie de Covid-19 découlent de ce revirement : lavage des mains, éventuellement avec du gel hydroalcoolique, mouchoir à usage unique, éternuement dans le coude, etc. Le tout pour parer au risque d’infections manuportées directes ou par le biais d’objets contaminés (dits fomites) par une personne contagieuse.</p>
<p>En trois ans de pandémie, bien des <a href="https://hal-pasteur.archives-ouvertes.fr/pasteur-03155847/document">cartes ont été rebattues dans la compréhension académique de la transmission des maladies respiratoires</a>. Que sait-on actuellement de ses mécanismes ? Comment évaluer les risques en fonction des situations – entre une terrasse de café, une file d’attente respectant une certaine distanciation sociale et une rue passante ? Nous avons cherché à répondre à ces questions en développant une méthode de modélisation simple et rapide.</p>
<h2>Éclairer le mécanisme de transmission par aérosols</h2>
<p>À l’heure actuelle, il y a lieu de penser que la <a href="https://theconversation.com/Covid-comment-se-proteger-simplement-de-la-transmission-aerienne-du-virus-167222">transmission par aérosols est le mécanisme dominant de propagation du Covid</a>.</p>
<p>Sur cette voie aéroportée, la collecte de données expérimentales avait démarré bien avant la pandémie : les images du groupe de Lydia Bourouiba sur la <a href="https://www.cambridge.org/core/journals/journal-of-fluid-mechanics/article/violent-expiratory-events-on-coughing-and-sneezing/475FCFCBD32C7DB6C1E49476DB7A7446">projection de micropostillons émise lors d’un éternuement</a> (ci-dessous), comme celles des équipes de Lidia Morawska et de William D. Ristenpart, entre autres, sur la taille des gouttelettes et aérosols émis lors de diverses activités expiratoires, remontent en effet à plusieurs années.</p>
<p>De ces études, il ressort que toux et éternuements projettent des aérosols sur des distances potentiellement supérieures à 2 m, et que le simple fait de parler pendant une minute peut générer autant de gouttelettes qu’une quinte de toux.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/9qqHOKUXY5U?wmode=transparent&start=3" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Postillons et micropostillons émis lors d’un éternuement (tiré de L. Bourouiba, E. Dehandschoewercker et J. Bush).</span></figcaption>
</figure>
<p>Malgré ces résultats, des désaccords persistent sur des données de base comme la distribution des tailles des gouttelettes et aérosols produits, élément pourtant critique pour déterminer leur temps de chute et leur chance de rester suspendus dans l’air, en milieu intérieur. Qui plus est, difficultés expérimentales et soucis éthiques empêchent d’étudier toutes les conditions d’émission, d’inhalation et d’environnement possibles.</p>
<h2>La simulation numérique : le remède ?</h2>
<p>Comment faire, alors, pour multiplier les possibilités de tests ? Une réponse est le recours à l’outil numérique, en tirant parti de la puissance de calcul des ordinateurs.</p>
<p>Reste à faire le choix du système à simuler : la transmission aéroportée s’opérant par le transport de virus au sein de gouttelettes et aérosols formés dans les voies respiratoires (tapissées de mucus) et la bouche (remplie de salive), tout l’enjeu est de <a href="https://www.nature.com/articles/s41586-020-2923-3">simuler la propagation de ces micropostillons-cargos</a> depuis leur émission jusqu’à leur inhalation – voire jusqu’à leur pénétration et dépôt dans les voies respiratoires.</p>
<p>De telles simulations de dynamique des fluides ont fait florès depuis les débuts de la pandémie et ont mis le doigt sur la complexité du processus, l’importance de bien décrire les structures turbulentes de l’écoulement, la variabilité du jet d’air exhalé selon la phonation, la sensibilité de l’évaporation des gouttelettes à l’environnement d’haleine, et ainsi de suite.</p>
<p>Si l’on se contente de modèles grossiers, la description des risques peut en être fortement affectée et on a vu apparaître, dans les premiers temps de l’épidémie, de nombreuses études aux hypothèses contestables. À l’inverse, des modèles très fins, simulant de manière sophistiquée la propagation des gouttelettes de fluide respiratoire, offrent davantage de réalisme… Mais ils butent sur la complexité de l’analyse des données produites (que faire avec ces éventails de trajectoires variant à chaque microchangement ?) et sur leur coût en temps de calcul – le nerf de la guerre pour les simulations numériques.</p>
<h2>La solution des « cartes dynamiques de risques »</h2>
<p>Pour tirer le meilleur des deux mondes, une idée consiste à utiliser des simulations très fines de dynamique des fluides, avec une résolution de l’ordre du millimètre, et y estimer la dynamique des risques autour d’un émetteur de manière plus agrégée, c’est-à-dire sans se soucier de la localisation précise de chacun des micropostillons.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/532435/original/file-20230616-29-w8i7nv.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Vue aérienne des passants avec particules projetées par un émetteur" src="https://images.theconversation.com/files/532435/original/file-20230616-29-w8i7nv.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/532435/original/file-20230616-29-w8i7nv.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=512&fit=crop&dpr=1 600w, https://images.theconversation.com/files/532435/original/file-20230616-29-w8i7nv.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=512&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/532435/original/file-20230616-29-w8i7nv.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=512&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/532435/original/file-20230616-29-w8i7nv.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=643&fit=crop&dpr=1 754w, https://images.theconversation.com/files/532435/original/file-20230616-29-w8i7nv.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=643&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/532435/original/file-20230616-29-w8i7nv.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=643&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Figure 1 : Une modélisation multi-échelles des risques de transmission virale est rendue possible par la création de cartes dynamiques des concentrations virales autour d’un émetteur.</span>
<span class="attribution"><span class="source">A. Nicolas, S. Mendez</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Sauf qu’une carte unique n’est pas suffisante : en réalité, la « carte des risques » ainsi obtenue varie selon que la personne est en train de parler, de marcher, selon le vent ou les courants d’air, etc. Il faut donc constituer toute une bibliothèque de situations de référence et, dans les intervalles entre elles, inférer celles qui manquent. C’est <a href="https://onlinelibrary.wiley.com/doi/10.1002/advs.202205255">ce à quoi nous nous sommes attelés</a>.</p>
<p>Avec pour résultats des enseignements clairs et simples. Ainsi, il ressort que le moindre vent qui s’invite dans la scène diminue drastiquement les risques de transmission virale. Cela vient clore un débat entamé au début de la pandémie, où l’on se demandait s’il ne pouvait pas favoriser les contaminations en portant plus loin les gouttelettes et aérosols. En fait, dans tous les scénarios étudiés, il les disperse.</p>
<p>Plus généralement, l’importante réduction du coût numérique grâce à l’usage des « cartes dynamiques de risques » a rendu possible l’étude de situations concrètes impliquant des dizaines, voire des centaines de personnes.</p>
<h2>Des résultats concrets</h2>
<p>Concrètement, nous avons pu arpenter les rues de Lyon au cœur de la pandémie et poser notre dispositif caméra (filmant les gens de dessus dans le respect de leur anonymat) en divers lieux, à l’extérieur ou en milieu intérieur peu confiné (vaste et bien aéré). Parmi ceux-ci figurent une gare SNCF, une station de métro, des rues passantes, un marché de plein air, des terrasses de café et une berge aménagée du Rhône.</p>
<figure class="align-center ">
<img alt="Exemples indiqués : gare, rue passante, marché en plein air, berges" src="https://images.theconversation.com/files/532437/original/file-20230616-24-u12fte.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/532437/original/file-20230616-24-u12fte.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=160&fit=crop&dpr=1 600w, https://images.theconversation.com/files/532437/original/file-20230616-24-u12fte.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=160&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/532437/original/file-20230616-24-u12fte.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=160&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/532437/original/file-20230616-24-u12fte.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=201&fit=crop&dpr=1 754w, https://images.theconversation.com/files/532437/original/file-20230616-24-u12fte.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=201&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/532437/original/file-20230616-24-u12fte.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=201&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Figure 2 : Quelques exemples des situations étudiées pour les risques de transmission qu’elles peuvent, ou non, présenter. Les données ont été recueillies en période pandémique.</span>
<span class="attribution"><span class="source">A. Nicolas, S. Mendez</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>De ces vidéos, nous avons extrait les trajectoires et orientations des têtes des piétons et avons couplé ces données aux cartes de risques susmentionnées (Figure 1). Bilan :</p>
<ul>
<li><p>Les rues passantes (non bondées) présentent un risque très faible en comparaison du marché en plein air, où les passants étaient beaucoup plus nombreux et serrés. Comme on pouvait s’y attendre, <strong>la densité joue un rôle majeur</strong>.</p></li>
<li><p>Toutes ces situations présentaient moins de risques de nouvelles contaminations que les terrasses de café (Figure 3), où les gens partagent des <strong>contacts proches et prolongés</strong>, quand bien même la densité globale y est plus faible.</p></li>
<li><p><strong>L’activité expiratoire a un rôle majeur</strong>, dans la mesure où les émissions de gouttelettes par une personne en train de parler sont bien plus élevées que si elle est en train de respirer par la bouche (et, a fortiori, par le nez).</p></li>
</ul>
<p>Cette hiérarchisation de scénarios concrets à partir de modèles théorico-numériques illustre comment l’on peut exploiter des simulations de haute fidélité pour examiner des situations de la vie courante. Ce qui peut servir d’aide à la décision en politique de santé publique.</p>
<p>L’outil de modélisation joue alors le rôle précieux de passerelle entre les connaissances fondamentales sur la propagation virale aéroportée et les mesures sanitaires à mettre en place.</p>
<h2>Atouts et limites d’une approche prometteuse</h2>
<p>Comparée aux approches fines, où la destinée de chaque gouttelette respiratoire est prédite et influencée par de nombreux phénomènes (recirculations d’air autour de mobiliers urbains, influence du sillage de chaque piéton…), la nôtre permet d’estimer les risques en situation réelle en à peine quelques minutes, les simulations les plus coûteuses ayant été réalisées en amont, une fois pour toutes.</p>
<p>Certes, cela a un prix : l’impact des piétons autres que l’émetteur n’est pas pris en compte, ce qui s’avère limitant en cas de foules extrêmement denses. D’autres effets, comme l’influence de la température sur la dispersion des aérosols exhalés, pourraient par contre être intégrés dans des améliorations à venir.</p>
<p>Malgré ces limitations, les possibilités d’utilisation sont multiples, car le modèle de transmission peut aussi bien être combiné à des mesures de terrain pour de la hiérarchisation de risques, que couplé à des trajectoires simulées de piétons. On pourra ainsi, par exemple, quantifier à l’avance l’influence des choix architecturaux sur les risques de transmission dans un bâtiment ou organiser la circulation d’une foule en période d’épidémie.</p>
<figure class="align-center ">
<img alt="Graphes pour un malade en train de parler ou respirant par la bouche. Le risque de transmission est maximal à une terrasse de café puis au marché. Il est par contre limité sur un quai de métro" src="https://images.theconversation.com/files/532439/original/file-20230616-17-novafc.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/532439/original/file-20230616-17-novafc.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=316&fit=crop&dpr=1 600w, https://images.theconversation.com/files/532439/original/file-20230616-17-novafc.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=316&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/532439/original/file-20230616-17-novafc.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=316&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/532439/original/file-20230616-17-novafc.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=397&fit=crop&dpr=1 754w, https://images.theconversation.com/files/532439/original/file-20230616-17-novafc.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=397&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/532439/original/file-20230616-17-novafc.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=397&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Figure 3 : Estimation des risques de nouvelles contaminations (en un quart d’heure) dans diverses situations, sans port de masque, selon l’activité de la personne contagieuse (« malade »). Attention : le contexte des scénarios est celui qui prévalait au cœur de la pandémie et les valeurs utilisées sont des chiffres moyens, ce qui masque la forte variabilité entre les cas et les individus.</span>
<span class="attribution"><span class="source">A. Nicolas, S. Mendez</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure><img src="https://counter.theconversation.com/content/207951/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Simon Mendez a reçu des financements de l'Agence Nationale de la Recherche (ANR-21-CO15-0002) et a reçu le soutien de GENCI pour réaliser les simulations numériques sur TGCC-IRENE (Projets AP010312425, A0100312498, et A0120312498).</span></em></p><p class="fine-print"><em><span>Alexandre Nicolas a reçu des financements de l'Agence Nationale de la Recherche (ANR-20-COV1-0003), de l'Institut Rhônalpin des Systèmes Complexes et du CNRS dans le cadre de ses recherches . </span></em></p>
La modélisation de la diffusion des virus est un outil majeur lors d'une épidémie. Elle est souvent, malheureusement, trop grossière ou trop complexe pour être utile. Voici la solution intermédiaire…
Simon Mendez, Chargé de recherche au CNRS, laboratoire de Mathématiques et de Modélisation, Université de Montpellier
Alexandre Nicolas, Chargé de recherche au CNRS; physicien, Université Claude Bernard Lyon 1
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/204161
2023-05-16T18:41:25Z
2023-05-16T18:41:25Z
Les tourbillons océaniques, ces acteurs méconnus du système climatique
<figure><img src="https://images.theconversation.com/files/521900/original/file-20230419-14-ijctq6.jpg?ixlib=rb-1.1.0&rect=35%2C53%2C5880%2C4408&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Une efflorescence de phytoplancton, dont la chlorophylle tinte l’océan, permet ici de détecter les tourbillons océaniques depuis l’espace.</span> <span class="attribution"><a class="source" href="https://www.esa.int/ESA_Multimedia/Images/2019/12/Baltic_blooms#.ZD_37qvwCrJ.link">© Copernicus Sentinel data (2019) traitées par l'ESA</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Sur cette image, une <a href="https://theconversation.com/climat-des-microalgues-virtuelles-pour-mieux-comprendre-le-role-de-locean-202076">« floraison » de phytoplancton</a> permet d’illustrer la complexité de la circulation océanique jusqu’à de fines échelles spatiales. Ces tourbillons et ces traînées ont été imagés en deux dimensions par la flotte de satellites Sentinel grâce à des capteurs optiques (comme une caméra de téléphone). Ces observations sont cependant soumises au passage des nuages et ne donnent pas d’information sur la dynamique des tourbillons océaniques — une information pourtant indispensable pour comprendre les interactions entre l’océan et l’atmosphère, notamment dans leurs réactions aux changements climatiques. Cette dynamique est intrinsèquement liée à la <a href="https://ggos.org/item/sea-surface-heights/">hauteur du niveau mer</a> (les reliefs des océans) mesurée par les <a href="https://cnes.fr/fr/un-peu-de-vulgarisation-laltimetrie">altimètres</a> embarqués sur les satellites. </p>
<p>Grâce au <a href="https://theconversation.com/estimer-pour-la-premiere-fois-le-debit-des-rivieres-a-lechelle-planetaire-avec-le-satellite-swot-180640">nouveau satellite SWOT</a>, on va pouvoir observer à partir de l’automne 2023 la hauteur du niveau de la mer sur des carrées de 2 kilomètres de côté. Ceci permettra de quantifier la circulation océanique au sein des tourbillons océaniques partout dans le monde et jusqu’à des échelles très fines, à partir de <a href="https://www.frontiersin.org/articles/10.3389/fmars.2019.00232/full">15 kilomètres</a> de large.</p>
<h2>Les tourbillons océaniques contribuent à réguler la température et la teneur en carbone de l’atmosphère</h2>
<p>Les tourbillons océaniques sont présents sur toute la planète, et ils sont désormais reconnus comme les structures qui transportent la majorité de l’<a href="https://www.researchgate.net/publication/234151193_Ocean_Circulation_Kinetic_Energy_Reservoirs_Sources_and_Sinks">énergie cinétique</a> dans nos océans. </p>
<p>Le système de courants qui compose ces structures, entre quelques kilomètres à des centaines de kilomètres de large, fonctionne de manière similaire au système atmosphérique qu’on a l’habitude de voir sur les cartes météo. Tout comme les vents qui ont tendance à tourner autour de zones de haute et basse pression, les courants océaniques circulent autour d’anomalies de haute et de basse pression de l’eau.</p>
<p>À l’heure actuelle, les tourbillons océaniques à grande échelle (au moins <a href="https://os.copernicus.org/articles/15/1091/2019/os-15-1091-2019.pdf">100 kilomètres</a> de diamètre) sont observés avec des instruments dans les océans (<em>in-situ</em>), comme les <a href="https://theconversation.com/des-petits-robots-autonomes-qui-revolutionnent-lobservation-de-locean-163524">flotteurs autonomes du programme Argo</a>, et avec les altimètres embarqués sur les satellites, qui sont capables de mesurer la hauteur du niveau de la mer. </p>
<p>Les données ont révélé le rôle fondamental des grands tourbillons dans le <a href="https://www.nature.com/articles/ncomms4294">transport <em>horizontal</em></a> de chaleur et de carbone.</p>
<h2>Les tourbillons océaniques sont importants pour le climat, mais les observations sont lacunaires</h2>
<p>Mais ces dernières années, des études ont montré que les plus petits de ces tourbillons, de moins de 100 kilomètres de diamètre, entraînent des <a href="https://www.researchgate.net/publication/338495889_Energetic_Submesoscale_Dynamics_in_the_Ocean_Interior">mouvements verticaux d’eau</a> qui affectent la circulation de la <a href="https://www.nature.com/articles/s41467-019-10883-w">chaleur, du carbone et des nutriments</a> entre la surface et les eaux profondes. Ceci est un mécanisme clé de régulation du climat terrestre, car il permet de relier la surface des océans à leur intérieur via ces mouvements <em>verticaux</em> introduits par la dynamique tourbillonnaire. Ainsi le stockage des excès de chaleur et du carbone atmosphériques devient possible. Ces petits tourbillons dominent la circulation océanique dans les zones côtières, dans les mers régionales et dans les régions polaires.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Cependant, la plupart des modèles climatiques n’incluent toujours pas ces phénomènes de fine échelle à cause du manque d’observations. Par exemple, les images des satellites altimétriques actuels montrent un cycle de vie incomplet des gros tourbillons, parce que nous n’observons pas correctement leurs processus clés de génération et de dissipation à petite échelle. Une des questions clés reste de découvrir quand et où les structures de petite et grande dimensions interagissent.</p>
<p>En effet, les techniques permettant d’étudier ces petits tourbillons — des campagnes océanographiques fournissant des données ponctuelles — sont assez limitées. Il nous <a href="https://www.frontiersin.org/articles/10.3389/fmars.2019.00168/full">manque des observations</a> globales et répétées dans le temps à des petites échelles spatiales — ce manque de connaissances pourrait conduire à de mauvaises interprétations ou à la perte de mécanismes physiques ou biophysiques réels dans les modèles. </p>
<h2>SWOT vient combler un manque d’observation à petite échelle</h2>
<p>Le nouveau satellite d’observation de la Terre de NASA/CNES, <a href="https://theconversation.com/swot-le-satellite-qui-va-revolutionner-letude-de-leau-sur-terre-196592">SWOT</a>, pour <a href="https://swot.cnes.fr/fr"><em>Surface Water and Ocean Topography</em></a>, nous permettra d’avoir une vision globale des océans, à une échelle fine et une bonne résolution temporelle. </p>
<p>Ainsi, outre sa résolution spatiale, SWOT repassera sur le même point sur terre chaque jour pendant six mois, et puis avec les mesures globales tous les 21 jours pendant trois ans. Sa technologie d’<a href="https://www.researchgate.net/publication/324672897_Wide-Swath_Altimetry_A_Review">altimétrie à large fauchée</a> permet d’imager une bande de plus de 100 kilomètres de large à chaque instant, couvrant au total plus de 90 % de la surface terrestre. </p>
<p>La connaissance globale des dynamiques à différentes échelles et la compréhension de leurs interactions nous permettront de valider et d’améliorer les modèles de climat pour la protection des océans et de la biodiversité.</p><img src="https://counter.theconversation.com/content/204161/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Elisa reçoit dans le cadre de sa thèse un co-financement par le Centre National d'Etudes Spatiales (CNES) et Collecte Localisation Satellites (CLS). </span></em></p>
Les petits tourbillons dans l’océan transportent chaleur et carbone entre l’atmosphère et les profondeurs de l’océan. Le satellite SWOT permettra de mieux les observer.
Elisa Carli, Doctorante en Océanographie Physique au Laboratoire d'Etudes Géospatiales de l'Océan et des surfaces (LEGOS) - CNRS, IRD, Toulouse III, Centre national d’études spatiales (CNES)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/203347
2023-04-27T17:58:04Z
2023-04-27T17:58:04Z
Boxe : comment mieux comprendre les combats pour aider les athlètes grâce à l’analyse vidéo
<figure><img src="https://images.theconversation.com/files/523223/original/file-20230427-801-b00y1l.jpg?ixlib=rb-1.1.0&rect=8%2C0%2C5734%2C3828&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Pour augmenter les performances, l'analyse vidéo peut être très utile.</span> <span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/bZeIqHOOxYA">Chris Kendall </a></span></figcaption></figure><p>Du 15 au 26 mars 2023 se sont déroulés les <a href="https://www.ffboxe.com/les-mondiaux-feminins-2023-en-direct/">championnats du monde féminin</a> de boxe anglaise à New Delhi en Inde, et les <a href="https://www.ffboxe.com/les-bleus-aux-championnats-du-monde-amateurs-masculins-2023/">championnats masculins</a> se dérouleront du 1<sup>er</sup> au 14 mai 2023 à Tashkent en Ouzbékistan.</p>
<p>Un combat de boxe amateur se déroule sur un ring carré pendant 3 rounds de 3 minutes chacun avec 1 minute de récupération entre chaque round. Le vainqueur du combat est désigné par le vote de 3 à 5 juges situés autour du ring qui évaluent le nombre de coups de qualité sur la cible, la domination par supériorité technico-tactique et la compétitivité (exprimée par l’activité et l’engagement).</p>
<p>Dès lors, les athlètes doivent être capables de contrôler l’espace sur le ring, gérer le temps, imposer un rythme à leur adversaire, proposer un style de boxe varié, offensif et agressif, créer de l’incertitude, et proposer des moyens de défense.</p>
<p>A la fin de chaque round, les juges évaluent les deux boxeurs avec une note allant de 7 à 10 en se basant sur les critères de jugement évoqués. Avec le projet <a href="https://perfanalytics.fr/">PerfAnalytics</a>, nous accompagnons la Fédération Française de Boxe qui souhaite objectiver l’évaluation de la production des boxeurs au cours des combats. La démarche consiste à collecter des données en entraînement et en compétition pour numériser et analyser les déterminants de la performance, identifier des caractéristiques individuelles afin de proposer des clefs d’adaptations spécifiques à la concurrence, aux différentes catégories de poids, aux forces et faiblesses révélées des athlètes français.</p>
<p>C’est dans ce contexte que la Fédération nous a invités à déployer un système de captation inédit sur le <a href="https://olympics.com/fr/infos/boxe-tournoi-pre-selection-equipe-de-france-2024-programme-ou-regarder">tournoi de présélection équipe de France 2024</a> en février dernier. Ce système, composé de caméras synchronisées avec des accéléromètres fixés aux poignets des athlètes, a permis de quantifier le nombre de percussions produites et subies, et les positions et déplacements des deux athlètes au cours des combats.</p>
<h2>Détecter automatiquement les coups portés</h2>
<p>Enregistrer des vidéos de combats pendant les entraînements ou lors des compétitions permet de les traiter ultérieurement et de les utiliser comme support afin de discuter d’aspects techniques avec les athlètes. Cela permet de revenir sur des moments précis du combat, d’analyser les techniques employées et d’identifier les points à améliorer pour renforcer les performances des athlètes.</p>
<p>Par extension, visualiser avec précaution ces vidéos et compter manuellement l’ensemble des percussions permet de fournir une première objectivation de la performance, mais reste une tâche ardue et longue quand elle est faite par les analystes vidéo. Lors du tournoi de présélection, nous avons observé pour des catégories de poids différentes en moyenne 489 coups échangés par combat, avec 55 coups par minute.</p>
<p>Des méthodes automatiques issues d’algorithmes de vision par ordinateur peuvent être envisagées pour alléger la tâche des analystes afin d’identifier les coups par la reconnaissance de la posture et des mains des athlètes. Cependant, utilisées seules, ces méthodes amènent très souvent à la production de faux-positifs et faux-négatifs, qui correspondent soit à des actions mal identifiées comme étant des coups, ou au contraire à un manque de détection des véritables coups.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/523217/original/file-20230427-22-lxy6ss.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/523217/original/file-20230427-22-lxy6ss.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/523217/original/file-20230427-22-lxy6ss.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=300&fit=crop&dpr=1 600w, https://images.theconversation.com/files/523217/original/file-20230427-22-lxy6ss.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=300&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/523217/original/file-20230427-22-lxy6ss.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=300&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/523217/original/file-20230427-22-lxy6ss.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=376&fit=crop&dpr=1 754w, https://images.theconversation.com/files/523217/original/file-20230427-22-lxy6ss.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=376&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/523217/original/file-20230427-22-lxy6ss.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=376&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Estimation automatique des centres articulaires à partir de la vidéo par un réseau neuronal de reconnaissance de la posture humaine (OpenPose, CMU). Au total 25 points articulaires sont disponibles par sujet détecté dans l’image (arbitre inclus).</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Aussi, pour garantir la précision d’une détection automatique et rapide des coups durant la compétition officielle, les membres de la fédération ont installé des capteurs par centrale inertielle aux poignets des combattants pour toutes les rencontres. Les centrales inertielles permettent de mesurer en 3D l’accélération linéaire et angulaire à des cadences atteignant le centième de seconde.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/523218/original/file-20230427-14-wmx252.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/523218/original/file-20230427-14-wmx252.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/523218/original/file-20230427-14-wmx252.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=842&fit=crop&dpr=1 600w, https://images.theconversation.com/files/523218/original/file-20230427-14-wmx252.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=842&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/523218/original/file-20230427-14-wmx252.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=842&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/523218/original/file-20230427-14-wmx252.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1058&fit=crop&dpr=1 754w, https://images.theconversation.com/files/523218/original/file-20230427-14-wmx252.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1058&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/523218/original/file-20230427-14-wmx252.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1058&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Centrale inertielle positionnée sous les gants des boxeurs. Ces capteurs autonomes, miniatures et sans-fils permettent d’enregistrer en temps réel les accélérations linéaires et angulaires selon les trois axes x, y, et z.</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Ces capteurs ont été synchronisés à l’image près avec des caméras vidéo qui filmaient le ring sous différents angles pour identifier les moments précis correspondant aux coups portés.</p>
<p>Au total, sur plus de 3 millions d’images captées, 21 474 séquences ont pu ainsi être isolées automatiquement sur 31 matchs.</p>
<h2>Caractériser les coups manuellement nécessite des ressources humaines importantes</h2>
<p>Isoler automatiquement tous les coups d’une compétition permet de quantifier les performances des athlètes et de calculer la cadence des coups portés, ce qui donne une mesure générale de la dynamique de chaque round. En revanche, il arrive que des erreurs d’identification apparaissent, l’accélération et l’orientation mesurées de l’avant-bras ne discriminant pas totalement les coups réels des mouvements de garde ou de décontraction musculaire.</p>
<p>De plus, isoler les coups ne permet pas de caractériser quel type de coup est effectué (crochet ou direct par exemple), et de savoir, par exemple, quels enchaînements ont été efficaces face à certains·e·s adversaires.</p>
<p>Caractériser ces coups demande de visualiser chacun d’entre eux pour les analyser précisément et les classer dans des catégories décidées à l’avance. Dans ce but, nous avons développé un outil optimisé de visualisation et annotation permettant de rejouer une courte séquence animée indiquant si le coup détecté est valide, et, si c’est le cas, quelle était la cible de celui-ci ainsi que le résultat : touché, manqué ou bloqué. Grâce à cet outil, des analystes de la Fédaration Française de Boxe ont pu caractériser au total 16086 coups en excluant environ un quart des coups totaux (mauvaises détections) cela leur a pris environ 37h.</p>
<h2>Estimer automatiquement la position des boxeurs sur le ring</h2>
<p>Les méthodes issues de l’analyse vidéo automatique continuent d’offrir des perspectives intéressantes d’extraction d’information sur le déroulement du combat et la performance des boxeurs.</p>
<p>En combinant les vues de plusieurs caméras fixes, il est possible de calculer la localisation 3D des centres articulaires (genoux ou chevilles) détectés dans l’image. Mais, comme évoquée, la fiabilité des systèmes de reconnaissance automatique de la posture humaine n’est pas encore adaptée aux conditions réelles de la compétition. Plus simplement, il est aussi possible de n’utiliser qu’une seule caméra dès lors qu’un objet plan est identifié dans la scène comme le carré du ring par exemple. Dans ce cas, l’information extractible est alors réduite à ce plan, mais continue de permettre d’envisager des métriques utiles comme la position relative des boxeurs ou la distance parcourue par chacun d’eux. Cette approche “monoculaire” permet d’aborder des méthodes plus robustes et fournir des résultats plus rapidement. On peut alors se satisfaire du flux vidéo lié à la diffusion des matchs en direct bien que les changements de caméras et mouvements du cadrage (zooms et déplacements) continuent de rendre la tâche d’analyse automatique complexe.</p>
<p>Il existe donc un compromis à observer entre analyse fine, fiabilité et disponibilité des données traitées. Nous avons donc dans un premier temps effectué les analyses dans un cadre monoculaire afin de respecter les délais restreints attendus par la fédération et garantir un niveau de fiabilité.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/523224/original/file-20230427-645-shm795.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/523224/original/file-20230427-645-shm795.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/523224/original/file-20230427-645-shm795.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=147&fit=crop&dpr=1 600w, https://images.theconversation.com/files/523224/original/file-20230427-645-shm795.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=147&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/523224/original/file-20230427-645-shm795.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=147&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/523224/original/file-20230427-645-shm795.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=185&fit=crop&dpr=1 754w, https://images.theconversation.com/files/523224/original/file-20230427-645-shm795.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=185&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/523224/original/file-20230427-645-shm795.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=185&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Représentation des positions des boxeurs en 2D vue du dessus du ring. Exemple de heatmap (à gauche) et du temps passé en pourcentage dans des zones du ring 4b lors d’un round de 3 minutes (à droite).</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>À partir des centres articulaires approximatifs estimés pour chaque boxeur par la méthode choisie de reconnaissance automatique de la posture humaine (OpenPose, CMU), nous ne retenons que les chevilles. En les assimilant à leur projection sur le sol, le centre des deux chevilles est calculé à chaque image, délivrant une position unique pour chaque boxeur sur le ring.</p>
<p>On remarque sur cette figure, que le boxeur bleu est resté majoritairement au centre du ring et que son adversaire coin rouge lui s’est déplacé dans une zone plus large autour de lui. Sur ce round le combat s’est déroulé majoritairement au centre et très peu dans les cordes.</p>
<h2>Utilité des données capturées : analyse en profondeur pour l’identification de nouveaux indices de la performance</h2>
<p>C’est la première fois que la Fédération Française de Boxe a entrepris une expérimentation de cette ampleur durant une compétition de niveau élite, hors d’un environnement limité en laboratoire. Au-delà des premiers résultats et rapports fournis aux staffs techniques, la constitution d’un jeu de données vidéos annotées est une contribution précieuse.</p>
<p>La richesse des informations collectées in situ permet de mieux caractériser la réalisation des performances et d’évaluer les mécanismes de concurrence.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/523225/original/file-20230427-24-34at4r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/523225/original/file-20230427-24-34at4r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/523225/original/file-20230427-24-34at4r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=252&fit=crop&dpr=1 600w, https://images.theconversation.com/files/523225/original/file-20230427-24-34at4r.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=252&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/523225/original/file-20230427-24-34at4r.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=252&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/523225/original/file-20230427-24-34at4r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=317&fit=crop&dpr=1 754w, https://images.theconversation.com/files/523225/original/file-20230427-24-34at4r.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=317&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/523225/original/file-20230427-24-34at4r.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=317&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Exemple de rapport produit sur un round à partir des caractérisations des coups.</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Il est par exemple possible de produire des rapports de combat (Figure 5) qui peuvent aider à analyser une performance. Le but est d’identifier le rapport de force qui oscille sous l’effet des actions simultanées des adversaires. La question est d’identifier les facteurs et événements qui se conjuguent en phénomènes ou mécanismes associés à l’issue finale (victoire ou défaite). Une meilleure compréhension des contextes de charge compétitive permettra aussi de mieux adapter les charges d’entraînement et de préciser l’importance des temps de récupération. En combinant différentes sources (biomécanique, contraintes, milieux, etc.), nous établirons de nouveaux déterminants, physiques et physiologiques, du risque et de la performance.</p>
<p>Une des prochaines perspectives à terme est l’utilisation de ces informations collectées pour l’entraînement d’algorithmes de détection et caractérisation automatique des coups à partir de flux vidéos uniquement afin d’aboutir à une solution sans aucun capteur qui soit robuste et fiable même en compétition.</p>
<hr>
<p><em>Les auteurs souhaitent remercier la Fédération Française de Boxe et particulièrement les membres de sa Cellule Performance : Lionel Brézéphin, Chloé Lesenne, Gauthier Rispal, ainsi que Pierre Leroy (Inria) et Alexandre Schortgen (Irmes/Inria).</em></p>
<hr>
<p><em>Le projet <a href="https://anr.fr/ProjetIA-20-STHP-0003">Analyse in situ de la performance</a> est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’<a href="https://anr.fr/">ANR</a>.</em></p><img src="https://counter.theconversation.com/content/203347/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ont reçu des financements du Programme Prioritaire de Recherche ANR (<a href="https://anr.fr/ProjetIA-20-STHP-0003">https://anr.fr/ProjetIA-20-STHP-0003</a>). Le projet PerfAnalytics est financé par l'ANR.</span></em></p><p class="fine-print"><em><span>Bruno Fruchard, Lionel Reveret et Thibault Goyallon ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.</span></em></p>
Les scientifiques mettent en place de nouvelles techniques d’analyse de combats pour aider les boxeurs et les entraîneurs à améliorer leurs performances.
Guillaume Saulière, Biostatisticien , Institut national du sport de l'expertise et de la performance (INSEP)
Bruno Fruchard, Chercheur spécialisé en Interaction Humain-Machine (ISFP), Inria
Lionel Reveret, Chercheur INRIA, spécialisé dans l'analyse du mouvement, Inria
Thibault Goyallon, Computer vision research engineer, PhD in biomechanics, Inria
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/202076
2023-04-03T17:52:11Z
2023-04-03T17:52:11Z
Climat : des microalgues virtuelles pour mieux comprendre le rôle de l’océan
<figure><img src="https://images.theconversation.com/files/516094/original/file-20230317-3576-w20ftn.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C3024%2C2008&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Efflorescence de diazotrophes (_Trichodesmium_) dans la mer de Corail, capturée le 1<sup>er</sup> septembre 2019 par le satellite Landsat 8. L’interaction entre la physique et la biologie de l’océan se manifeste dans ces filaments verts qui serpentent au grès des courants.</span> <span class="attribution"><a class="source" href="https://earthobservatory.nasa.gov/images/145610/a-bloom-of-nitrogen-fixing-bacteria">Joshua Stevens/NASA</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>L’océan absorbe un <a href="https://www.nature.com/articles/s43017-022-00381-x">quart du CO₂</a> émis par les activités humaines, jouant un rôle majeur dans l’atténuation du changement climatique. Mieux connaître les processus impliqués est crucial pour comprendre le rôle de l’océan dans le système climatique global et mieux appréhender les bouleversements induits par le changement climatique.</p>
<p>Pour cela, les <a href="https://theconversation.com/les-oceans-bientot-dotes-de-jumeaux-virtuels-pour-quoi-faire-160425">modèles numériques</a> sont parmi les outils les plus utilisés. Ils représentent le climat sur une Terre virtuelle et sont essentiels pour explorer les climats passés, prédire les climats futurs ou comprendre comment fonctionne notre climat actuel.</p>
<h2>Modéliser les océans, un exercice difficile</h2>
<p>Ces modèles reposent sur une série d’équations qui gouvernent les principaux phénomènes physiques, chimiques et biologiques influençant le climat terrestre.</p>
<p>La difficulté de représenter ces phénomènes repose sur la complexité des processus physiques et biologiques à simuler et leurs interactions.</p>
<p>Du côté de la physique de l’océan, les équations sont assez bien connues et définies. L’amélioration des modèles se cantonne surtout à une plus grande résolution, pour l’instant limitée par la capacité de calcul et de stockage de données de nos ordinateurs.</p>
<p>Pour les aspects biologiques, cependant, de nombreuses questions persistent sur la façon de formaliser et simplifier au mieux des processus d’une grande complexité. Schématiquement, la captation du CO<sub>2</sub> est notamment médiée par le phytoplancton. Ces algues microscopiques vivent à la surface de l’océan et absorbent le CO<sub>2</sub> via la photosynthèse ; à leur mort, une partie d’entre elles coulent au fond des océans, stockant le carbone pour des centaines voire des milliers d’années.</p>
<p>Pour représenter le phytoplancton, l’une des approches les plus répandues est de le diviser en « types fonctionnels », c’est-à-dire différents groupes de phytoplancton qui ont des traits majeurs en commun comme la taille ou la stratégie trophique. Cette approche part du principe que chacun de ces types peut avoir un impact différent sur le cycle du carbone et un rôle différent dans l’écosystème.</p>
<h2>Les diazotrophes, alliés du climat</h2>
<p>Un type en particulier focalise actuellement l’attention : les <a href="https://theconversation.com/ces-petites-creatures-marines-sont-essentielles-pour-combattre-le-changement-climatique-149566">diazotrophes</a>. Comme leur nom l’indique, ces microalgues peuvent utiliser le diazote (N<sub>2</sub>) pour leur croissance – étymologiquement pour leur alimentation (« trophos » en grec). En transformant ce diazote, les diazotrophes fournissent des nutriments qui sont essentiels au reste du phytoplancton et lui permettent de fixer le CO<sub>2</sub>. Ils ont donc un rôle fondamental de fertiliseurs naturels des océans.</p>
<p>Des études récentes, sur le terrain et en laboratoire, ont révélé la grande diversité des diazotrophes et leur <a href="https://www.science.org/doi/10.1126/science.aay9514">adaptation à des environnements différents</a>. Par exemple, alors qu’on les pensait confinés aux eaux chaudes et transparentes des tropiques, certains types de diazotrophes unicellulaires ont été découverts dans les <a href="https://www.pnas.org/doi/10.1073/pnas.1813658115">eaux arctiques</a> ou dans l’obscurité des <a href="https://ami-journals.onlinelibrary.wiley.com/doi/full/10.1111/1462-2920.15645">profondeurs</a>.</p>
<hr>
<figure class="align-left zoomable">
<a href="https://images.theconversation.com/files/505718/original/file-20230122-28471-kntkja.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/505718/original/file-20230122-28471-kntkja.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/505718/original/file-20230122-28471-kntkja.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/505718/original/file-20230122-28471-kntkja.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/505718/original/file-20230122-28471-kntkja.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/505718/original/file-20230122-28471-kntkja.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/505718/original/file-20230122-28471-kntkja.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/505718/original/file-20230122-28471-kntkja.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p><em>Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ». Au programme, un mini-dossier, une sélection de nos articles les plus récents, des extraits d’ouvrages et des contenus en provenance de notre réseau international. <a href="https://theconversation.com/fr/newsletters/la-newsletter-environnement-150/">Abonnez-vous dès aujourd’hui</a>.</em></p>
<hr>
<p>Par ailleurs, les chercheurs sont longtemps partis du principe que les diazotrophes contribuaient peu à la séquestration du carbone, car le <em>Trichodesmium</em> (le diazotrophe historiquement le plus étudié) a tendance à rester en surface et à être peu soumis à la prédation. Or, les preuves s’accumulent et prouvent que d’autres types de diazotrophes (tels que les assemblages symbiotiques de diatomées-diazotrophes) sont responsables <a href="https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2012GL053356">d’importants flux de carbone</a> vers les profondeurs.</p>
<p>Malgré leur importance, les diazotrophes sont souvent représentés de façon très sommaire dans les modèles numériques. C’est le résultat à la fois de notre compréhension encore limitée de leur physiologie et des contraintes en termes de capacité de calcul : quand on ajoute de la complexité dans les modèles, les simulations prennent plus de temps et/ou nécessitent des ordinateurs plus puissants.</p>
<p>De nombreux modèles globaux, comme ceux utilisés dans le cadre du GIEC (Groupe d’Experts Intergouvernemental sur l’Évolution du Climat), les représentent encore de manière implicite : de l’azote est ajouté artificiellement à la surface de l’océan lorsque certaines conditions environnementales, supposées favorables aux diazotrophes, sont présentes.</p>
<p>D’autres modèles les représentent de manière explicite, mais se contentent de reproduire un seul type de diazotrophe, reprenant les caractéristiques du <em>Trichodesmium</em>. Cette approche est pourtant très réductrice au vu des avancées, et limite d’autant nos capacités à capturer la distribution globale de ces microalgues, à évaluer leur impact sur le reste de l’écosystème et à prédire les conséquences du changement climatique sur l’ensemble du phytoplancton et la séquestration du carbone.</p>
<h2>Mieux représenter les diazotrophes dans les modèles numériques</h2>
<p>Pour répondre à ces lacunes, nous avons développé, dans le cadre du projet <a href="https://twitter.com/notion_project?lang=fr">NOTION</a>, une toute nouvelle représentation des diazotrophes, qui en inclut cette fois trois types différents.</p>
<figure class="align-center ">
<img alt="Représentation schématique de l’océan pacifique, avec des bandes de couleurs différentes s’étendant entre l’Amérique centrale et l’Afrique centrale, avec une autre bande moins étendue à la hauteur de l’espagne" src="https://images.theconversation.com/files/517767/original/file-20230327-1352-kegjgq.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/517767/original/file-20230327-1352-kegjgq.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=559&fit=crop&dpr=1 600w, https://images.theconversation.com/files/517767/original/file-20230327-1352-kegjgq.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=559&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/517767/original/file-20230327-1352-kegjgq.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=559&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/517767/original/file-20230327-1352-kegjgq.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=702&fit=crop&dpr=1 754w, https://images.theconversation.com/files/517767/original/file-20230327-1352-kegjgq.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=702&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/517767/original/file-20230327-1352-kegjgq.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=702&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Exemple de taux de fixation d’azote simulé pour une journée en Novembre (conditions moyennes). Chaque couleur correspond à un type de diazotophe différent. Parfois, les couleurs se superposent, indiquant une communauté de diazotrophe mélangée. Simulation réalisée par Domitille Louchard à ETH Zurich.</span>
<span class="attribution"><span class="source">Domitille Louchard, Mar Benavides</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Si les équations qui décrivent leur croissance et leur mortalité sont les mêmes, chaque type se différencie des autres par des paramètres distincts. Ces paramètres représentent la façon dont chaque diazotrophe réagit à différentes conditions de température, luminosité ou concentration en nutriment.</p>
<p>Cette représentation novatrice des diazotrophes a été intégrée à un modèle numérique régional à haute résolution appliqué à l’Océan Atlantique, hotspot de la diazotrophie marine.</p>
<p>Cette prise en compte de la diversité des diazotrophes a débouché sur une expansion de la fixation du diazote dans les simulations et une meilleure concordance avec les observations. Les flux verticaux de carbone ont aussi été accrus, notamment dans des régions comme l’Atlantique tropical ouest, où les assemblages symbiotiques de diatomées-diazotrophes prospèrent.</p>
<figure class="align-center ">
<img alt="Représentation schématique de l’océan pacifique identique à la figure 2 ; la présence d’azote fixé augmente fortement àpartir d’avril, puis rediminue à partir de novembre" src="https://images.theconversation.com/files/517428/original/file-20230324-22-ibaffr.gif?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/517428/original/file-20230324-22-ibaffr.gif?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=560&fit=crop&dpr=1 600w, https://images.theconversation.com/files/517428/original/file-20230324-22-ibaffr.gif?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=560&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/517428/original/file-20230324-22-ibaffr.gif?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=560&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/517428/original/file-20230324-22-ibaffr.gif?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=703&fit=crop&dpr=1 754w, https://images.theconversation.com/files/517428/original/file-20230324-22-ibaffr.gif?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=703&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/517428/original/file-20230324-22-ibaffr.gif?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=703&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Un an de fixation d’azote en surface dans le nouveau système numérique développé dans le cadre du projet NOTION. Simulation réalisée par Domitille Louchard à ETH Zurich.</span>
<span class="attribution"><span class="source">Domitille Louchard, Mar Benavides</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Ce nouveau modèle nous permet par ailleurs de défricher de nouvelles questions, comme la compétition entre les diazotrophes, mais aussi de mieux appréhender le rôle que ces microalgues joueront dans un contexte de changement global. Quelle sera leur importance comme source d’azote pour le reste des producteurs primaires ? Les diazotrophes peuvent-ils aider à atténuer les effets du changement climatique ? Vastes sont les possibilités de recherche offertes par cette représentation plus réaliste.</p>
<hr>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/213123/original/file-20180404-189798-1dksj9k.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/213123/original/file-20180404-189798-1dksj9k.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=129&fit=crop&dpr=1 600w, https://images.theconversation.com/files/213123/original/file-20180404-189798-1dksj9k.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=129&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/213123/original/file-20180404-189798-1dksj9k.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=129&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/213123/original/file-20180404-189798-1dksj9k.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=163&fit=crop&dpr=1 754w, https://images.theconversation.com/files/213123/original/file-20180404-189798-1dksj9k.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=163&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/213123/original/file-20180404-189798-1dksj9k.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=163&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p><em>Le projet de recherche « Notion » dans lequel s’inscrit cette publication a bénéficié du soutien de la <a href="https://group.bnpparibas/decouvrez-le-groupe/fondation-bnp-paribas/environnement">Fondation BNP Paribas</a> dans le cadre du <a href="https://group.bnpparibas/tempsforts/climate-biodiversity-initiative">programme Climate and Biodiversity Initiative</a></em>.</p><img src="https://counter.theconversation.com/content/202076/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Domitille Louchard a reçu des financements de la Fondation BNP Paribas (Climate & Biodiversity initiative). </span></em></p><p class="fine-print"><em><span>Mar Benavides a reçu des financements de Climate & Biodiversity Initiative Fondation BNP Paribas, projet NOTION.</span></em></p>
L’océan absorbe un quart du CO₂ émis par l’homme, notamment grâce au phytoplancton, dont les diazotrophes. Savoir modéliser ces microalgues est crucial pour comprendre le rôle de l’océan dans le climat.
Domitille Louchard, Assistant researcher, Swiss Federal Institute of Technology Zurich
Mar Benavides, Research scientist, Institut de recherche pour le développement (IRD)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/199906
2023-03-21T00:08:09Z
2023-03-21T00:08:09Z
D’où vient le pouvoir rafraîchissant des arbres en ville ?
<figure><img src="https://images.theconversation.com/files/510293/original/file-20230215-28-zv8fmr.png?ixlib=rb-1.1.0&rect=7%2C0%2C1300%2C980&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La température en ville peut monter très haut. Image thermique d'une rue en ville: la chaussée, les toitures et les voitures au soleil sont des surfaces très chaudes, les arbres et les parties à l'ombre, beaucoup moins.</span> <span class="attribution"><span class="source">P. Verchere</span>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>L’été, en particulier par ciel clair et vent faible, caractéristique des situations anticycloniques, la température en ville peut augmenter bien plus que dans les campagnes alentour. C’est l’effet d’« îlot de chaleur urbain ». En cause, la très faible proportion de surfaces végétalisées, la présence de bâtiments et la nature des matériaux urbains, comme le bitume noir par exemple, qui augmentent le stockage de la chaleur dans les bâtiments et le sol.</p>
<p>Qui n’a jamais ressenti le besoin de se réfugier dans un parc arboré en période de fortes chaleurs ? C’est parce que l’augmentation de chaleur peut être en partie contrebalancée par la végétation. Les arbres rafraîchissent l’environnement grâce aux ombres portées sur les passants et les façades, et leur capacité à maintenir une température de feuillage raisonnable, car ils régulent leur propre chaleur… en transpirant.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/510190/original/file-20230214-24-vww4ia.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="deux arbres en 3D" src="https://images.theconversation.com/files/510190/original/file-20230214-24-vww4ia.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/510190/original/file-20230214-24-vww4ia.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=302&fit=crop&dpr=1 600w, https://images.theconversation.com/files/510190/original/file-20230214-24-vww4ia.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=302&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/510190/original/file-20230214-24-vww4ia.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=302&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/510190/original/file-20230214-24-vww4ia.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=380&fit=crop&dpr=1 754w, https://images.theconversation.com/files/510190/original/file-20230214-24-vww4ia.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=380&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/510190/original/file-20230214-24-vww4ia.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=380&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Modèles 3D d’un arbre, en couleurs réelles à gauche et avec la température de surface à droite.</span>
<span class="attribution"><span class="source">INSA Strasbourg</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>L’arbre ne rafraîchit pas directement l’air : il empêche l’air de s’échauffer !</h2>
<p>La transpiration est un phénomène physiologique par lequel un arbre émet de l’eau dans l’air, sous forme gazeuse, par l’intermédiaire de ses feuilles, afin de réguler sa température quand il fait chaud et pour assurer la circulation de la sève brute et minéralisée qui provient des racines en direction de tous les organes de la plante.</p>
<p>Ce processus demande à l’arbre un apport en eau constant et suffisant, en puisant l’eau du sol. C’est important car la photosynthèse, qui fabrique une partie des nutriments de l’arbre, ne peut avoir lieu qu’à condition que la « cavité stomatique », qui se trouve à la surface des feuilles et qui assure les échanges gazeux avec l’atmosphère, reste humide ; et c’est la transpiration qui assure cette humidité.</p>
<p>Toutefois, l’effet de l’environnement de l’arbre sur la transpiration des feuilles, par exemple, reste mal connu et notamment en milieu urbain.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/510191/original/file-20230214-26-o127s.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/510191/original/file-20230214-26-o127s.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=380&fit=crop&dpr=1 600w, https://images.theconversation.com/files/510191/original/file-20230214-26-o127s.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=380&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/510191/original/file-20230214-26-o127s.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=380&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/510191/original/file-20230214-26-o127s.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=478&fit=crop&dpr=1 754w, https://images.theconversation.com/files/510191/original/file-20230214-26-o127s.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=478&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/510191/original/file-20230214-26-o127s.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=478&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Effet d’un arbre sur son environnement immédiat : 1. Absorption d’une partie du rayonnement solaire (infrarouge) ; 2. Évapotranspiration ; 3. Protection du vent ; 4. Ombre.</span>
<span class="attribution"><span class="source">Plante & Cité (VegDUD)</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Le bénéfice rafraîchissant de l’arbre est essentiellement diurne : d’une part il fournit de l’ombre, d’autre part il transpire. Dans le cas de la transpiration, c’est l’énergie que l’évaporation de l’eau exige qui permet de réduire l’échauffement des feuilles et les maintient à une température proche de celle de l’air, ce qui réduit l’échauffement de la rue et augmente très légèrement l’humidité de l’air autour de l’arbre.</p>
<p>Si l’effet rafraîchissant des arbres n’est bien évidemment plus à prouver, il varie au fil de la journée (notamment la nuit) et il reste à être quantifié. Par exemple, la nuit, le feuillage forme un « écran » qui empêche la chaleur stockée dans le sol de s’échapper vers le ciel sous forme de rayonnement infrarouge, ce qui limite le refroidissement de la zone qui est directement recouverte par le feuillage.</p>
<p>L’étude des interactions entre les arbres et leur environnement devrait nous permettre d’identifier des méthodes de plantations pour améliorer les conditions de vie et de confort des citadins lors des épisodes de fortes chaleurs, et contribuera à répondre à une question qui commence déjà à se poser : quelle(s) espèce(s) d’arbre planter, en quelle quantité et dans quelles configurations par rapport aux bâtiments ou aux chaussées ? L’heureuse élue – ou, plus probablement, les <a href="https://www.mdpi.com/1999-4907/11/10/1064">heureuses élues</a> – devront être capables de résister aux fortes chaleurs sans exiger trop d’eau, mais aussi de procurer de l’ombre et de la fraîcheur grâce à l’évapotranspiration.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/IJoj7Knm-uA?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Climatologie urbaine : suivi des arbres en ville à Strasbourg. Source : INSA Strasbourg.</span></figcaption>
</figure>
<h2>Des arbres dans les parcs</h2>
<p>Entre 2017 à 2021, nous avons étudié le rôle des tilleuls argentés ou <em>Tilia tomentosa</em> dans un parc urbain, celui de l’université à Strasbourg, pour évaluer et modéliser l’évapotranspiration et l’ombrage d’une espèce d’arbre particulière en tenant compte de l’environnement du parc, par exemple l’implantation des arbres, l’emplacement des pelouses, la géométrie des bâtiments et des rues alentour. </p>
<p>Nous avons mesuré précisément la forme des arbres en 3D et d’autres paramètres éco-physiologiques et météorologiques. Ainsi, nous avons pu vérifier que nos modèles de microclimat urbain à l’échelle d’un quartier (<a href="https://sites.google.com/view/laserf">LASER/F</a>) d’une part et d’évapotranspiration à l’échelle de l’arbre individuel (<a href="https://www6.clermont.inrae.fr/piaf_eng/Methods-and-Models/RATP">RATP</a>) d’autre part étaient adéquats. La <a href="https://tel.archives-ouvertes.fr/tel-02166160">fusion de ces deux modèles</a>, baptisée LASER·T, nous permet de <a href="https://hal.science/hal-03754282/">calculer les flux de chaleur et d’énergie</a> entre les différents éléments (arbres et bâtiments par exemple), l’évapotranspiration des végétaux, les températures de surface des bâtiments et le confort thermique.</p>
<h2>Des arbres dans les rues</h2>
<p>Nous nous tournons aujourd’hui vers le rôle des « arbres d’alignement », ces arbres qui se suivent dans la rue et qui sont souvent de la même espèce. Ceux-ci impactent le microclimat de la rue – ombre, humidité, vent. Et vice versa, la physiologie des arbres est affectée par la géométrie des rues – largeur de la rue, hauteur des immeubles, les couleurs des murs et la qualité du sol notamment.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/510291/original/file-20230215-24-wocncw.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="deux photos de la même façade" src="https://images.theconversation.com/files/510291/original/file-20230215-24-wocncw.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/510291/original/file-20230215-24-wocncw.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=230&fit=crop&dpr=1 600w, https://images.theconversation.com/files/510291/original/file-20230215-24-wocncw.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=230&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/510291/original/file-20230215-24-wocncw.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=230&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/510291/original/file-20230215-24-wocncw.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=288&fit=crop&dpr=1 754w, https://images.theconversation.com/files/510291/original/file-20230215-24-wocncw.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=288&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/510291/original/file-20230215-24-wocncw.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=288&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Une façade en couleurs réelles à gauche, et son image thermique à droite, indiquant la température en fonction de l’ombrage.</span>
<span class="attribution"><span class="source">INSA Strasbourg/ICube</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Par exemple, en été, lorsque le soleil se lève, il va d’abord chauffer les toits et les arbres. Les arbres profitent de cette chaleur pour leur photosynthèse et en même temps, ils font bouclier pour les façades, en les gardant à l’ombre des rayons grâce à leur houppier. Ainsi, un arbre feuillu à proximité d’une façade procurera un confort thermique plus important aux résidents du bâtiment. Il rafraîchira également le sol par son ombre portée. En début de soirée, le bâtiment restituera à l’ensemble de la rue et donc également à l’arbre, la chaleur qu’il a emmagasinée durant toute la journée sous forme de rayonnement infrarouge, comme évoqué ci-dessus. Ceci illustre le rôle ambivalent joué par l’arbre.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/510289/original/file-20230215-24-m1no5d.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="différents types de mesures des arbres et de l’environnement" src="https://images.theconversation.com/files/510289/original/file-20230215-24-m1no5d.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/510289/original/file-20230215-24-m1no5d.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=1413&fit=crop&dpr=1 600w, https://images.theconversation.com/files/510289/original/file-20230215-24-m1no5d.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=1413&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/510289/original/file-20230215-24-m1no5d.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=1413&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/510289/original/file-20230215-24-m1no5d.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1776&fit=crop&dpr=1 754w, https://images.theconversation.com/files/510289/original/file-20230215-24-m1no5d.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1776&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/510289/original/file-20230215-24-m1no5d.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1776&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Mesures climatiques et écophysiologiques.</span>
<span class="attribution"><span class="source">ICube/INRAE/Urbasense</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Plus il y aura d’arbres dans l’alignement, plus l’effet rafraîchissant sera remarquable en journée – la température ressentie peut être réduite de 2 °C au minimum.</p>
<p>Ainsi, dans le projet TIR4sTREEt (<em>Thermal InfraRed for Street Trees</em>) qui rassemble plus de 15 scientifiques de divers horizons, nous cherchons à reproduire l’impact physique des bâtiments et des arbres de rue sur le microclimat urbain, grâce à des mesures et des modélisations 3D du site.</p>
<p>Pour cela, nous avons sélectionné six arbres dans trois rues d’un quartier résidentiel de Strasbourg : des micocouliers, des platanes et des tilleuls. Nous les avons équipés de nombreux capteurs afin de suivre au fil des saisons pendant deux ans au moins leur état de santé, leur croissance, l’humidité et la température alentour, le rayonnement, leur température de surface ainsi que celle des bâtiments et voirie, etc.</p>
<h2>Des capteurs pour mieux comprendre les arbres en ville</h2>
<p>Comme on l’a vu, les arbres ont un effet rafraîchissant du fait de la transpiration, dont le comportement en ville est encore peu connu, et du fait de l’ombre portée au sol ou sur les façades.</p>
<p>En mesurant régulièrement la température de surface des arbres et des façades environnantes avec des capteurs dans l’infrarouge « thermique », nous pouvons en déduire les variations spatiales et temporelles. Des capteurs météorologiques nous donnent les variables classiques comme la température de l’air, la vitesse du vent le rayonnement solaire (etc.) qui nous permettent d’établir le microclimat qui règne dans nos sites.</p>
<p>Grâce à des capteurs de flux de sève, nous pouvons mesurer la vitesse de montée de la sève dans l’arbre, qui est directement corrélée à la transpiration de l’arbre. Des capteurs installés dans le sol nous fournissent l’état hydrique et la température des différents horizons jusqu’à un mètre de profondeur.</p>
<p>Tous ces dispositifs nous donnent une vision assez complète du continuum plante-atmosphère et ils alimentent une base de données qui servira à étayer nos analyses. A moyen terme, ce projet permettra de guider les décideurs dans le choix des espèces d’arbres et des scénarios de plantation les plus adaptés.</p>
<hr>
<p><em>Le projet <a href="https://anr.fr/Projet-ANR-21-CE22-0021">Modélisation des arbres de rue pour la micro-climatologie urbaine – TIR4sTREEt</a> est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’<a href="https://anr.fr/">ANR</a>.</em></p><img src="https://counter.theconversation.com/content/199906/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Tania Landes (INSA Strasbourg) est porteuse du projet TIR4sTREEt, financé par l'Agence Nationale de la Recherche (ANR-21 CE 22 0021). Le projet TIR4sTREEt implique des chercheurs de ICUBE, de l'INRAE Nancy, de l'INRAE Clermont-Ferrand, l'Eurométropole Strasbourg et l'association Plante et Cité.
Tania Landes est aussi membre de l'Association Francophone de Topographie et de l'Association Femmes et Sciences.</span></em></p>
Pas seulement de leurs ombres, mais aussi du fait qu’ils transpirent – et toutes les espèces ne sont pas égales.
Tania Landes, Professeure des universités en topographie, INSA Strasbourg
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/201635
2023-03-19T16:24:15Z
2023-03-19T16:24:15Z
Comment mieux modéliser la croissance des variants du SARS-CoV-2 permet de mieux les combattre
<p>Qu’ont en commun le virus SARS-CoV-2, les libellules, et les hommes ? Tous se reproduisent… et meurent. Pour comprendre ces cycles de vie particulièrement diversifiés, différents modèles mathématiques ont été développés depuis le XVIII<sup>e</sup> siècle : comment les populations croissent et décroissent selon les conditions environnementales, parviennent à subsister malgré les fluctuations de leurs conditions de vie, etc.</p>
<p>Ces modèles d’étude des populations peuvent aussi être utilisés par les épidémiologistes pour comprendre comment les virus émergent et se propagent. Jusque-là largement méconnus du grand public, ils se sont retrouvés sur le devant de la scène médiatique lors des premiers mois de l’épidémie de Covid-19 début 2020, du fait de leur rôle crucial pour guider les politiques de santé publique. Car ils peuvent être appliqués au SARS-CoV-2, tant à ses premières versions qu’à <a href="https://theconversation.com/de-delta-a-omicron-pourquoi-un-variant-chasse-lautre-173532">ses variants préoccupants successifs Alpha, Delta ou Omicron</a>…</p>
<p>Une particularité des variants est qu’ils se comportent différemment – entre eux et par rapport à la souche virale originelle. Suite à des modifications accumulées dans leur ADN, ils peuvent se propager plus facilement, voir la gravité de la maladie qu’il provoque modifiée, etc. Grâce à leur propagation plus rapide, ils ont rapidement envahi le monde entier. Ce faisant, ils ont entraîné des augmentations fortes du nombre d’infections, appelées vagues épidémiques.</p>
<p>Si les modèles classiques sont incontournables, ils ont toutefois une limite : s’ils pouvaient prédire à quelle vitesse un nouveau variant allait remplacer une forme préexistante, ils n’avaient pas de moyen d’estimer l’amélioration de laquelle de ses capacités était en cause… Car en mutant, un virus peut devenir plus efficace de plusieurs façons différentes, liées à son mode de multiplication comme à son hôte – nous.</p>
<p>C’est là que le <a href="https://elifesciences.org/articles/75791">développement d’un nouveau type de modèle, comme celui que nous venons de publier</a>, est précieux.</p>
<h2>Force et vitesse : les deux capacités qui distinguent les variants</h2>
<p>Le cycle de vie du SARS-CoV-2 peut être résumé ainsi : le virus infecte une personne et se réplique dans les cellules de son nasopharynx (nez et gorge). Au bout d’un ou deux jours, la personne infectée excrète des virus qui peuvent infecter ses contacts. Le pic de transmission se produit autour du cinquième jour après l’infection (pour les formes initiales du virus).</p>
<p>Au bout d’une dizaine de jours, la personne infectée ne libère plus de virus infectieux. C’est la fin de la « vie » du virus au sein de cet hôte… mais qu’en est-il de ses « descendants », tous les virus excrétés par l’ex-infecté ? S’ils ont atteint de nouveaux hôtes, ils vont provoquer des infections secondaires. Le nombre moyen de nouveaux cas provoqués par ces « descendants » constitue le <strong>nombre de reproduction effectif (R<sub>e</sub>, ou R<sub>t</sub>)</strong> – parfois appelé <strong>« force » du virus</strong>.</p>
<p>Ce nombre était d’environ 3 au début de l’épidémie : chaque malade infectait à son tour trois contacts en moyenne. Ce chiffre a ensuite évolué au fil de l’épidémie, du fait des mesures de contrôle, le développement de l’immunité dans la population… et l’évolution des variants.</p>
<p>Mais la croissance d’une population virale est aussi déterminée par un second facteur : le <strong>temps de génération</strong>, en quelque sorte la <strong>« vitesse » du cycle viral</strong>, qui correspond à l’intervalle de temps entre l’infection initiale et une infection secondaire. Plus il est court, plus la propagation est rapide. Un virus qui infecte trois personnes en moyenne après deux jours se propagera beaucoup plus rapidement qu’un autre qui a besoin de cinq jours.</p>
<figure class="align-center ">
<img alt="Un variant plus fort se transmet davantage, mais un variant plus rapide commence à se diffuser plus tôt" src="https://images.theconversation.com/files/514775/original/file-20230311-28-r5l13t.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/514775/original/file-20230311-28-r5l13t.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=602&fit=crop&dpr=1 600w, https://images.theconversation.com/files/514775/original/file-20230311-28-r5l13t.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=602&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/514775/original/file-20230311-28-r5l13t.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=602&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/514775/original/file-20230311-28-r5l13t.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=756&fit=crop&dpr=1 754w, https://images.theconversation.com/files/514775/original/file-20230311-28-r5l13t.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=756&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/514775/original/file-20230311-28-r5l13t.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=756&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Vitesse (temps de génération ou intervalle entre l’infection et une infection secondaire) et force d’un variant influent sur la transmission, ou croissance, des variants. Le profil de transmission est le taux de transmission d’un individu infecté en fonction du temps depuis son infection.</span>
<span class="attribution"><span class="source">François Blanquart</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Les épidémiologistes ont soupçonné que ce temps de génération pouvait être raccourci pour les variants Alpha puis Delta par rapport aux 5 jours (en moyenne) des formes initiales, ce qui pourrait expliquer en partie leur succès. Mais les mesures du temps de génération sont délicates à mener, difficiles à comparer entre elles et ont donné des résultats contradictoires.</p>
<h2>Des concepts bien connus en démographie… humaine</h2>
<p>Les concepts de nombre de reproduction effectif et de temps de génération permettent de longue date de décrire la croissance de nombreuses espèces.</p>
<p>De la même façon que l’on peut prédire la croissance de la population virale en modélisant que chaque hôte infecté par le SARS-CoV-2 infecte environ trois personnes, entre deux et dix jours après l’infection (avec une moyenne à cinq jours), on peut décrire la croissance de la population humaine en supposant que chaque être humain laisse en moyenne deux descendants, entre 20 et 40 ans après sa naissance (avec une moyenne à 30 ans).</p>
<p>Ce type de modèles a été introduit en écologie dans les années 1950-1960 par LaMont Cole, alors professeur d’écologie à la Cornell University (États-Unis). Il s’intéressait à la diversité de cycles de vie des insectes, et se demandait pourquoi certains, comme la libellule, se reproduisaient une fois avant de mourir, tandis que d’autres, comme le moustique, se reproduisaient en continu. Ce qui l’amena à modéliser le nombre de descendants que pouvait avoir chaque espèce au cours de sa vie, et les avantages respectifs des stratégies adoptées.</p>
<p>Ces travaux précurseurs ont été généralisés dès 1965 par Richard Lewontin, un des biologistes des populations les plus importants du XX<sup>e</sup> siècle. En découlèrent des modèles très proches de ceux utilisés aujourd’hui pour décrire la propagation du SARS-CoV-2.</p>
<h2>Les limites des modèles classiques</h2>
<p>Mais revenons à nos variants… Leur croissance dépend, on l’a dit, de la vitesse de leur cycle de vie, ou temps de génération, et de leur force, soit le nombre moyen d’infections secondaires produites (nombre de reproduction effectif).</p>
<p>Le problème est que, avec les modèles classiques, les épidémiologistes suivent seulement la croissance de la population du variant, qui résulte à la fois de la vitesse et de la force du virus – et sans pouvoir distinguer ces deux composantes de façon simple.</p>
<p>Pourtant, pour comprendre et maîtriser les vagues épidémiques générées par des variants toujours différents, cette distinction est cruciale car les implications ne sont pas les mêmes.</p>
<p>La taille totale d’une vague dépend ainsi uniquement de la force du virus, et non de sa vitesse. En effet, la vague commence à refluer lorsqu’en moyenne le nombre de reproduction effectif passe sous le seuil de 1, c’est-à-dire que chaque individu infecté génère en moyenne moins d’une nouvelle infection – peu importe la vitesse du cycle de vie.</p>
<p>À cause de ce point aveugle, la <a href="https://pubmed.ncbi.nlm.nih.gov/33767447/">plupart des études de modélisation supposaient que l’avantage de croissance des variants (par rapport aux souches circulant au préalable) était uniquement lié à une plus grande force du virus</a>. Que <a href="https://theconversation.com/omicron-les-problemes-que-pose-un-variant-trois-fois-moins-severe-mais-deux-fois-plus-transmissible-174587">chaque infection par un variant générait un plus grand nombre d’infections secondaires</a> que ses prédécesseurs. Mais la communauté scientifique était bien consciente que cet avantage pouvait aussi être lié à une plus grande vitesse, donc un temps de génération plus court.</p>
<h2>Un nouveau modèle distinguant force et vitesse des variants</h2>
<p>Pour remédier à ce problème, nous avons construit un modèle mathématique capable pour la première fois d’inférer comment vitesse et force d’un variant donné se combinent pour déterminer le taux de croissance de nouvelles souches virales.</p>
<p>La clé était de remarquer que, selon le nombre de contacts entre individus, l’avantage en termes de croissance du variant ne sera pas affecté de la même façon par sa vitesse et sa force :</p>
<ul>
<li><p>Lorsqu’il y a de nombreux contacts entre individus, un « variant à grande vitesse », qui engendre rapidement de nouvelles infections, sera très avantagé.</p></li>
<li><p>Lorsqu’il y a moins de contacts, par exemple en cas de confinement, un variant à grande vitesse aura un avantage moindre.</p></li>
<li><p>Dans une situation où l’épidémie décroit (notamment du fait d’une diminution du nombre de contacts), il devient désavantageux d’avoir une grande vitesse, car cela ne fera qu’accélérer sa décroissance !</p></li>
</ul>
<p>Ces résultats étaient déjà anticipés par Lewontin en 1965. Ils résultent d’une propriété mathématique intéressante des modèles démographiques, où la structure en âge d’une population reflète sa croissance. C’est un phénomène bien connu en démographie humaine, où les populations en croissance sont très jeunes, tandis que les populations en déclin comptent beaucoup de personnes âgées. Ainsi, dans une population en croissance, il est d’autant plus intéressant de se reproduire tôt (à grande vitesse) que les individus jeunes sont nombreux – créant comme une espèce d’emballement.</p>
<p>Dans le cas des virus et des hôtes infectés, l’« âge » est le temps depuis lequel un individu est infecté.</p>
<figure class="align-center ">
<img alt="Sans gestes barrières, un « variant à grande vitesse », qui engendre rapidement de nouvelles infections, sera avantagé. Lorsque l’épidémie décroit, il est par contre désavantagé" src="https://images.theconversation.com/files/514777/original/file-20230311-2686-rozpfn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/514777/original/file-20230311-2686-rozpfn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=560&fit=crop&dpr=1 600w, https://images.theconversation.com/files/514777/original/file-20230311-2686-rozpfn.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=560&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/514777/original/file-20230311-2686-rozpfn.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=560&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/514777/original/file-20230311-2686-rozpfn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=704&fit=crop&dpr=1 754w, https://images.theconversation.com/files/514777/original/file-20230311-2686-rozpfn.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=704&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/514777/original/file-20230311-2686-rozpfn.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=704&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Distributions des jours depuis leur infection chez des individus pour une épidémie rapide, intermédiaire ou lente. Une épidémie rapide se traduit par la présence d’une majorité d’individus infectés rapidement – et donc par une plus forte sélection sur la transmission précoce. L’« âge » est le temps depuis lequel un individu est infecté.</span>
<span class="attribution"><span class="source">François Blanquart</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>Quelles interprétations pour les différentes vagues de Covid ?</h2>
<p>Pour le SARS-CoV-2, nos résultats impliquent que, si nous observons un variant quand des mesures de contrôle sont instaurées (port de masque, distanciation), il est possible d’examiner comment elles vont modifier son avantage de croissance par rapport aux lignées préexistantes. Et l’on peut déduire s'il a une plus grande vitesse ou une plus grande force.</p>
<p>C’est ce que nous avons fait, notamment dans le cadre de <a href="https://theconversation.com/nouveau-variant-du-coronavirus-sars-cov-2-detecte-en-angleterre-que-faut-il-savoir-152398">l’émergence et de la propagation du variant Alpha au Royaume-Uni en fin 2020-début 2021</a> – alors que des mesures de contrôle fortes avaient été mises en place. Nous avons inféré que son avantage de croissance ne diminuait que faiblement suite à ces mesures, et donc que son avantage était probablement lié à une plus grande force (un variant qui produit plus d’infections secondaires), plutôt qu’à une plus grande vitesse.</p>
<p>Plus précisément, nous avons estimé que le variant Alpha produisait +54 % d’infections secondaires par rapport aux souches précédentes. Et dans une seconde analyse, que Delta produisait lui-même +140 % d’infections secondaires par rapport à Alpha, <a href="https://www.sciencedirect.com/science/article/pii/S1473309922000019">avec des temps de génération comparables, ce qui renforce le résultat d’études épidémiologiques qui n’avaient trouvé que peu de différence</a>.</p>
<p>Ces résultats établissent que temps de génération des infections secondaires et taux de transmission jouent tous deux un rôle important sur la croissance d’un virus et de ses variants.</p>
<h2>Des perspectives importantes</h2>
<p>Ce nouveau modèle mathématique pourra aider les épidémiologistes à mieux prédire la trajectoire des nouveaux variants de SARS-CoV-2 et à déterminer comment contrôler au mieux leur propagation.</p>
<p>Par exemple, une équipe britannique a inféré indépendamment, en utilisant une méthode analogue à la nôtre, que le <a href="https://epiforecasts.io/omicron-sgtf-forecast/generation-time">variant Omicron avait une plus grande vitesse que son prédécesseur le variant Delta</a>, ce qui semble confirmer les résultats d’études épidémiologiques sur la transmission intrafoyer.</p>
<p>Mais pour Omicron, ce n’est pas là toute l’histoire… Il est établi que ce variant a également tiré son avantage de sa très grande capacité à échapper au système immunitaire des hôtes vaccinés ou préalablement infectés. Il a ainsi la capacité de réinfecter des hôtes déjà immunisés par les vaccins et les vagues précédentes de SARS-CoV-2.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Nous pouvons spéculer que les variants touchent leurs limites en termes de vitesse et de force intrinsèques. Par exemple, si les variants Alpha et Delta ont augmenté leur force de +50 % et +140 % respectivement par rapport à la souche initiale, alors le nombre de reproduction de base de Delta serait de 11 – du même ordre de grandeur que pour le virus de la rougeole (entre 10 et 20), connu pour être très élevé. Pour faire encore « mieux », les nouveaux variants pourraient dériver l’essentiel de leur avantage de leur échappement au système immunitaire.</p>
<p>Nous travaillons d’ailleurs en ce moment à quantifier l’<a href="https://www.science.org/doi/full/10.1126/scitranslmed.abo5395">échappement au système immunitaire d’Omicron</a>, en utilisant le « retard » de propagation du variant chez les non-vaccinés par rapport aux vaccinés. En effet, lorsque des mutations permettent à un variant de contourner le système immunitaire d’un hôte, il se propage déjà chez les vaccinés ou ceux qui ont été infectés précédemment… puis chez les autres.</p>
<p>Nous aurons ainsi des modèles et méthodes pour mieux comprendre les trois différentes stratégies qui avantagent les variants émergents – plus grande vitesse, plus grande force et échappement à l’immunité.</p><img src="https://counter.theconversation.com/content/201635/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>François Blanquart a reçu des financements du conseil Européen de la recherche.</span></em></p>
Les modélisations jusque-là utilisées pour prédire l’évolution des vagues de variants du SARS-CoV-2 avaient des limites. Comment un nouveau modèle issu de la démographie permet d’y remédier.
François Blanquart, Chargé de recherche au CNRS, maitre de conférence associé à l’ENS/PSL, École normale supérieure (ENS) – PSL
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/194656
2023-01-05T19:24:18Z
2023-01-05T19:24:18Z
Comprendre la réplication virale de SARS-CoV-2 pour tenter de la stopper
<figure><img src="https://images.theconversation.com/files/500196/original/file-20221211-77355-4pofku.jpeg?ixlib=rb-1.1.0&rect=33%2C0%2C4524%2C2532&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Représentation de la polymérase de SARS-CoV-2 dupliquant l’ARN du virus. </span> <span class="attribution"><span class="source">Antonio Monari</span>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>Depuis 2020, les termes d’infection, propagation et réplication virales ont brusquement fait irruption dans notre quotidien. Ces concepts scientifiques, parfois complexes à appréhender, ont été à la base de choix politiques difficiles, imposant des contraintes et limitations sévères à la vie sociale, afin d’enrayer la diffusion de la pandémie de Covid-19.</p>
<p>Bien que les virus soient des entités biologiques plus simples que les cellules eucaryotes (comme celles de notre corps) ou bactériennes, leur mode de fonctionnement reste néanmoins très complexe. Notamment la réplication virale cache un vaste ensemble de phénomènes biochimiques, faisant intervenir à la fois des protéines de la cellule infectée et virales. Ainsi, la compréhension de ces mécanismes, à de très petites échelles (moléculaires, voire atomiques), est indispensable pour contrer efficacement la reproduction des virus. Pour les combattre, il est donc nécessaire de bien répondre à une question fondamentale : comment est-ce que les virus se répliquent, et plus précisément, dans notre cas, comment SARS-CoV-2 se réplique-t-il ?</p>
<p>Tout d’abord, il existe différentes classes de virus qui se différencient, notamment, par la molécule qui stocke et transmet leur information génétique. Certains virus, comme celui de la variole du singe, utilisent pour cela l’acide désoxyribonucléique (ADN), tout comme les cellules humaines, animales ou végétales. Mais dans d’autres cas, comme notamment dans ceux de SARS-CoV-2, Zika, Dengue, ou encore le virus du Nil occidental, c’est un brin d’acide ribonucléique (ARN) qui contient l’information génétique virale.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/500118/original/file-20221209-45249-4pofku.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/500118/original/file-20221209-45249-4pofku.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=395&fit=crop&dpr=1 600w, https://images.theconversation.com/files/500118/original/file-20221209-45249-4pofku.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=395&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/500118/original/file-20221209-45249-4pofku.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=395&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/500118/original/file-20221209-45249-4pofku.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=496&fit=crop&dpr=1 754w, https://images.theconversation.com/files/500118/original/file-20221209-45249-4pofku.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=496&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/500118/original/file-20221209-45249-4pofku.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=496&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Différences entre ADN et ARN et rôle dans la production des protéines.</span>
</figcaption>
</figure>
<p>L’ARN, se différencie de l’ADN par la composition chimique de son squelette, qui est composé de molécules de sucre <em>ribose</em> et non pas <em>désoxyribose</em>, et par la présence d’uracile dans ses briques élémentaires (nucléotides) au lieu de la thymine. Au sein des cellules, l’ARN a un rôle de messager intermédiaire permettant la production des protéines. En effet, il est synthétisé dans le noyau cellulaire à partir d’un brin d’ADN modèle (c’est la transcription), et est ensuite envoyé dans le compartiment cellulaire spécifique à la production des protéines, où il servira de guide aux ribosomes c’est-à-dire des agrégats de plusieurs enzymes qui produisent les nouvelles protéines (c’est la traduction).</p>
<h2>La polymérase, enzyme fondamentale de SARS-CoV-2</h2>
<p>SARS-CoV-2 et les autres virus à ARN, viennent directement exploiter les ribosomes des cellules infectées de manière à produire les protéines virales nécessaires à leur réplication, en utilisant comme modèle le brin d’ARN qui constitue leur génome. Par la suite, afin de pouvoir se reproduire et infecter d’autres cellules, ils se trouvent dans la nécessité de produire des copies identiques de leur brin d’ARN. C’est une tâche fondamentale qui est réalisée par une protéine virale bien spécifique appelée polymérase, ou plus scientifiquement, ARN polymérase ARN-dépendante. Son nom découle de son action, induire la polymérisation, et de l’utilisation du brin d’ARN viral original comme modèle pour produire un brin d’ARN <em>fils</em>. La polymérase de SARS-CoV-2 est d’ailleurs aussi produite par les ribosomes des cellules qui sont exploités pour traduire les informations contenues dans l’ARN virale et donc produire les protéines nécessaires au virus.</p>
<p>La polymérase virale est de fait, indispensable pour assurer la reproduction des virus, et permettre d’infecter d’autres cellules ou d’autres organismes, propageant ainsi l’infection. Tout naturellement, elle représente une cible de choix pour le développement de potentiels médicaments, qui en la bloquant, seraient capables d’arrêter la réplication du virus et donc de stopper l’infection.</p>
<p>Même si la réplication de l’ARN peut paraître très simple, elle nécessite en réalité une régulation précise faisant intervenir des mécanismes chimiques complexes. Notamment, elle nécessite l’interaction de la polymérase avec le brin d’ARN modèle, la possibilité pour la polymérase de glisser au long de ce brin, et la capacité d’induire la réaction chimique permettant de lier sans erreur de code une nouvelle brique élémentaire au brin d’ARN <em>fils</em>.</p>
<h2>Modéliser pour mieux comprendre</h2>
<p>C’est pour éclaircir ces différents aspects que la modélisation et la simulation moléculaire <a href="https://theconversation.com/simuler-laction-du-virus-contre-les-cellules-un-outil-supplementaire-de-lutte-contre-le-Covid-19-143848">jouent un rôle fondamental</a>. Ces techniques, basées sur l’application des équations de la physique classique et/ou quantique, permettent de simuler les comportements des agrégats moléculaires complexes et d’en reproduire les changements structurels, comme le glissement le long du brin d’ARN modèle, ainsi que la réactivité chimique, comme l’inclusion d’un nouveau nucléotide dans le brin <em>fils</em>. </p>
<p>À l’aide de calculs très complexes, réalisés sur des supercalculateurs et ayant des durées de plusieurs mois, la <a href="https://www.dovepress.com/molecular-dynamics-simulations-advances-and-applications-peer-reviewed-fulltext-article-AABC">simulation moléculaire</a> agit comme un microscope virtuel et très puissant qui permet de visualiser les comportements de <a href="https://pubs.rsc.org/en/content/chapter/9781839165580-00105/978-1-83916-558-0">chaque atome, voire de chaque électron, et leur évolution dans le temps</a>. Plus précisément les équations de la physique classique seront utilisées pour simuler les changements de structure, comme le déplacement du ribosome ou de la polymérase le long du brin d’ARN, alors que la physique quantique sera nécessaire pour décrire la réactivité chimique, par exemple la formation d’une liaison entre deux atomes.</p>
<p>De ce fait, en utilisant des techniques de simulation moléculaire multiéchelle, c’est-à-dire combinant les lois de la physique classique et quantique, nous avons pu mettre en lumière les <a href="https://pubs.acs.org/doi/full/10.1021/acs.jcim.2c00802">mécanismes d’action de la polymérase à ARN de SARS-CoV-2</a>. Nous avons en effet étudié le comportement de cette enzyme en présence d’un brin d’ARN modèle et du brin <em>fils</em> naissant.</p>
<p>Nous avons inclus dans notre modèle, le réactif qui est utilisé par les virus pour prolonger le brin <em>fils</em> : un nucléotide. Il apparaît clairement que le bon nucléotide est acheminé jusqu’au site actif de la protéine seulement s’il peut s’apparier avec son complémentaire du brin modèle. Mais une fois le nucléotide acheminé vers le site actif où la réaction chimique a lieu, le processus n’en est qu’à ses balbutiements. En effet, il reste encore à accomplir la tâche la plus difficile, qui est la plus coûteuse en termes d’énergie : la formation d’une liaison chimique entre le réactif et le sucre terminal du brin <em>fils</em>, qui induira l’incorporation du nouveau nucléotide et l’allongement du brin.</p>
<p>Hors du site actif de la polymérase, cette réaction chimique nécessiterait de passer une très haute barrière énergétique, et serait donc tellement lente qu’elle ne serait pas exploitable. Le rôle d’une enzyme (une protéine qui catalyse une réaction chimique) est justement de baisser ces barrières et donc de permettre que la réaction ait lieu.</p>
<h2>Une polymérase hautement efficace</h2>
<p>Nous avons montré que la polymérase de SARS-CoV-2 réalise cet exploit grâce à différents mécanismes chimiques. Tout d’abord, le sucre et le phosphate du nucléotide sont activés par l’interaction avec un agrégat métallique (des ions magnésium) présent au sein du site actif. Ensuite, une série complexe de transferts de protons se met en place, avec l’assistance clé d’une lysine, un des acides aminés de la polymérase proches du site actif, qui agit comme un relai pour stabiliser les états intermédiaires qui se forment. </p>
<p>Cette dernière caractéristique représente une vraie particularité de SARS-CoV-2, étant donné que dans d’autres enzymes similaires, elle est réalisée par d’autres acides aminés (généralement une histidine). Nous avons aussi pu montrer que la polymérase favorise l’incorporation rapide de nouveaux nucléotides qui formeront le brin d’ARN <em>fils</em>, en requérant une énergie d’activation très faible, d’où son efficacité, comparable à celle de la polymérase humaine.</p>
<p>Ces résultats ouvrent de nouvelles pistes pour le design de médicament à propriétés antivirales. En effet, on pourrait imaginer d’utiliser les acides aminés clés identifiés par nos calculs pour développer des molécules similaires aux nucléotides naturels, appelées analogues de nucléotides, qui seraient capables de s’insérer dans le site actif, mais qui bloqueraient la réaction. Les connaissances que nous avons pu accumuler sur cet aspect seront donc des atouts pour le design de ces nouveaux médicaments.</p>
<p>Par ailleurs, une fois la réaction terminée, la polymérase doit glisser le long du brin d’ARN pour libérer le site actif et permettre l’inclusion d’un nouveau nucléotide pour continuer la formation du brin d’ARN <em>fils</em>. Ce processus, appelé translocation, est fondamental et l’empêcher bloquerait également la reproduction du virus. Il est d’ailleurs supposé que l’action contre SARS-CoV-2 du Remdesivir, analogue nucléotidique originalement développé pour contrer le sida, se baserait sur ce mécanisme de blocage de translocation. </p>
<p>En revanche, dans le cas du virus VIH, responsable du sida, le Remdesivir bloque la réactivité de la polymérase virale. En effet, au cours de la réplication de SARS-CoV-2, le Remdesivir pourrait être inclus dans le brin <em>fils</em> d’ARN et bloquerait son glissement par la suite. Néanmoins, les mécanismes d’action de ce médicament vis-à-vis de SARS-CoV-2 n’étant pas bien éclaircis, il est difficile de comprendre la raison pour laquelle le Remdesivir n’a qu’une efficacité moindre contre le Covid-19 et pourquoi la prise de ce traitement s’accompagne d’effets secondaires lourds.</p>
<p>C’est pourquoi nous avons utilisé nos techniques de simulation pour comprendre ce processus, en particulier en comparant le coût énergétique du glissement de la polymérase en présence d’un brin <em>fils</em> d’ARN normal ou d’un brin comportant le Remdesivir.</p>
<p>Nous avons mis en évidence que le Remdesivir bloque effectivement la translocation en induisant une barrière énergétique infranchissable. Plus important encore, nous avons montré que cette barrière est due à la formation d’interactions spécifiques entre le Remdesivir et certains acides aminés de la polymérase, notamment une serine et une lysine, qui pourront donc être particulièrement ciblées par des nouveaux médicaments. Encore une fois, donc, ceci nous permet de comprendre quels seront les enjeux qu’il faudra considérer pour guider la recherche de potentiels médicaments antiviraux de façon rationnelle.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/500120/original/file-20221209-44404-3bblu5.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/500120/original/file-20221209-44404-3bblu5.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/500120/original/file-20221209-44404-3bblu5.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=203&fit=crop&dpr=1 600w, https://images.theconversation.com/files/500120/original/file-20221209-44404-3bblu5.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=203&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/500120/original/file-20221209-44404-3bblu5.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=203&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/500120/original/file-20221209-44404-3bblu5.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=255&fit=crop&dpr=1 754w, https://images.theconversation.com/files/500120/original/file-20221209-44404-3bblu5.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=255&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/500120/original/file-20221209-44404-3bblu5.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=255&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Structure de la polymérase de SARS-CoV-2 en train de répliquer un brin d’ARN. Détails du site actifs de l’enzyme.</span>
</figcaption>
</figure>
<p>Tous ces résultats s’insèrent dans le cadre du <a href="https://lejournal.cnrs.fr/articles/les-chimistes-du-projet-gavo-sattaquent-aux-virus">projet GAVO</a>, qui a été financé par l’institut de chimie du CNRS et par le ministère de l’Enseignement supérieur et de la Recherche. L’idée de base est de développer, avec une synergie forte entre modélisation et chimie expérimentale, une batterie de potentiels antiviraux basés sur des analogues de nucléotides, visant tout particulièrement la polymérase virale. Le projet ambitionne également à produire des composés qui seraient spécifiquement créés pour avoir un spectre d’action large contre de nombreux virus émergents, et ceci grâce aussi aux informations fondamentales recueillies par la modélisation moléculaire. </p>
<p>Ce projet met aussi en lumière le rôle crucial que la chimie peut jouer face aux menaces constantes constituées par les différents virus émergents. En particulier, elle offre l’opportunité de disposer de potentiels médicaments qui pourront être déployés rapidement dans le cas d’une nouvelle crise sanitaire, et qui auront été rationnellement développés et testés pour leur activité antivirale. Il s’agit d’un projet ambitieux, certes, mais c’est aussi un projet qui découle des leçons apprises pendant la récente pandémie.</p>
<p>Il est en tout cas certain que la chimie et la simulation moléculaire se révéleront être des acteurs clés en virologie. Leur déploiement permettra aussi de proposer des médicaments qui pourront efficacement compléter l’action des vaccins et qui auront été produits et proposés suivant les règles de la méthode scientifique. Et donc sans tomber dans les dérives et l’irrationnel auquel nous avons assisté ces deux dernières années.</p><img src="https://counter.theconversation.com/content/194656/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Antonio Monari a reçu des financements de CNRS. </span></em></p><p class="fine-print"><em><span>Cécilia Hognon a reçu des financements de l'UE et des ressources de calcul RES. </span></em></p><p class="fine-print"><em><span>Emmanuelle Bignon a reçu des financements de CNRS et des ressources de calcul de GENCI. </span></em></p>
En appliquant les lois de la physique classique et quantique, on peut comprendre comment les virus exploitent les cellules pour se reproduire et donc concevoir des nouveaux antiviraux.
Antonio Monari, Professeur en Chimie Théorique, Université Paris Cité
Cécilia Hognon, Chercheuse en biochimie computationnelle, Universidad de Alcalá
Emmanuelle Bignon, Chercheuse en biochimie computationnelle, Université de Lorraine
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/195266
2022-12-28T18:10:13Z
2022-12-28T18:10:13Z
À quoi servent les ordinateurs les plus puissants au monde ? Un exemple en cardiologie
<figure><img src="https://images.theconversation.com/files/502107/original/file-20221220-22-rnsxiy.png?ixlib=rb-1.1.0&rect=0%2C3%2C2345%2C1310&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Pour comprendre le fonctionnement du cœur de l’échelle de la cellule à celui de l’organe, et mieux affronter certaines pathologies comme les arythmies, de puissantes simulations sont nécessaires.</span> <span class="attribution"><a class="source" href="https://www.frontiersin.org/articles/10.3389/fphys.2018.00370/full">Mark Potse, Frontiers in Physiology, modifié</a>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>Les arythmies cardiaques touchent des millions de personnes et provoquent 300 000 morts chaque année en Europe. Leurs mécanismes sont étudiés par simulation numérique mais nécessitent des calculs à une échelle encore jamais atteinte. En effet, le cœur humain comporte 10 milliards de cellules, chacune équipée d’un million de canaux ioniques capables de changer leur comportement en moins d’une nanoseconde. Faire des calculs au niveau de ces canaux représente une force de calculs dépassant de loin les capacités de calculs des ordinateurs actuels.</p>
<p>Comme l’arythmie cardiaque, de nombreux autres phénomènes sont difficiles à comprendre à cause de l’énorme complexité des systèmes qui les portent. Citons par exemple l’évolution du climat, l’étude des atomes ou du fonctionnement des systèmes microbiens.</p>
<p>Alors, les scientifiques transforment les phénomènes en « modèles » (des ensembles d’équations) qui seront par la suite transcrits sous forme de programme informatique appelé « simulation ». Les résultats de ces simulations peuvent ensuite être comparés avec des observations, afin de vérifier ou améliorer les modèles, et avec eux notre compréhension des phénomènes.</p>
<p>Pour obtenir des résultats en temps raisonnables, les simulations sont effectuées sur des ordinateurs surpuissants : des supercalculateurs.</p>
<h2>Qu’est-ce qu’un supercalculateur ?</h2>
<p>Les supercalculateurs sont des machines ayant la capacité d’effectuer des calculs complexes beaucoup plus rapidement qu’un ordinateur personnel. Par exemple, le <a href="https://www.usine-digitale.fr/article/le-premier-supercalculateur-exaflopique-au-monde-est-americain.N2010367">supercalculateur Frontier, le plus rapide du monde actuellement</a>, peut calculer jusqu’à un milliard de milliards d’opérations par seconde ! Une performance appelée « exascale » en référence à l’exaflop qui correspond à un milliard de milliards de calculs numériques.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/calcul-haute-performance-et-ordinateurs-superpuissants-la-course-a-l-exascale-194084">Calcul haute performance et ordinateurs superpuissants : la course à l’« exascale »</a>
</strong>
</em>
</p>
<hr>
<p>Depuis les années 1990, les ordinateurs sont devenus un milliard de fois plus puissant, et avec ce supercalculateur dépassant pour la première fois la barrière mythique de l’exaflop, de nouvelles opportunités s’ouvrent notamment aux scientifiques, principaux utilisateurs de ces machines.</p>
<p>Cependant, ces supercalculateurs représentent d’énormes investissements (le <a href="https://lejournal.cnrs.fr/billets/comment-calculer-le-prix-du-calcul">supercalculateur Jean-Zay installé à l’Idris a par exemple coûté environ 25 millions d’euros</a>) et des dépenses énergétiques avec des factures qui peuvent atteindre des millions d’euros par an : alors, pourquoi toujours chercher à en augmenter la puissance ?</p>
<h2>Des modèles mathématiques à la simulation de ce qui nous entoure</h2>
<p>Certaines simulations nécessitent une grande puissance de calcul. C’est le cas par exemple des <a href="https://www.ecologie.gouv.fr/meteo-france-se-dote-dun-nouveau-supercalculateur-affiner-previsions-meteorologiques-et-lanalyse-du">simulations qui tentent de comprendre l’évolution du climat</a>, les maladies, anticiper les séismes ou plus généralement les catastrophes naturelles ou encore l’écoulement de l’air autour des ailes d’un avion. Ces phénomènes complexes engendrent plusieurs heures ou jours de calculs sur de grosses machines dites « de production » (des « mini-supercalculateurs » qui servent à tester les applications avant de les lancer sur de vrais supercalculateurs), avec énormément de données. Seul un supercalculateur va pouvoir effectuer de tels calculs en un temps raisonnable, traiter de gros volumes de données et augmenter la précision des simulations.</p>
<p>Pour comprendre comment c’est possible, imaginons qu’on ait un mur de dix kilomètres de long à construire et deux maçons à disposition pour faire ce travail. Pour construire efficacement le mur, le travail sera réparti entre les deux maçons de manière équitable et de manière à ce que les maçons puissent poser des briques du mur sans se gêner. Si nous avons maintenant deux-cents maçons à notre disposition, répartir le travail peut devenir complexe. Le mur sera construit beaucoup plus vite mais sa construction demandera de la logistique en amont pour que tous les maçons travaillent efficacement.</p>
<p>C’est la même chose avec les simulations. Le mur représente ici une simulation et les maçons des processeurs à notre disposition dans un supercalculateur. Plus on a de processeurs, plus la simulation devrait aller vite. Par contre, il y a un gros travail de planification nécessaire pour que ces processeurs se partagent les ressources et communiquent efficacement entre eux. Il faut éviter le plus possible que les processeurs s’attendent entre eux, ce qui ralentit l’application.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<h2>La cardiologie : un domaine de choix pour l’utilisation des supercalculateurs</h2>
<p>Même si aujourd’hui, la puissance de calcul nécessaire pour simuler le fonctionnement d’un cœur humain depuis l’échelle de ses cellules n’existe pas encore, l’augmentation de la puissance des supercalculateurs permet aux modèles déjà existants de gagner en précision.</p>
<p>Par exemple, le <a href="https://www.microcard.eu/index-en.html">projet européen MICROCARD</a> dans lequel est impliqué le centre Inria de l’université de Bordeaux utilise les nouvelles architectures des supercalculateurs pour comprendre comment les cellules du cœur génèrent des arythmies <a href="https://doi.org/10.1161/CIRCRESAHA.109.202267">lorsqu’elles sont malades</a> ou <a href="https://doi.org/10.1016/S0008-6363(95)00071-2">mal couplées entre elles</a> et comment on peut détecter une situation dangereuse en observant les <a href="https://doi.org/10.1016/j.hrthm.2009.10.007">signaux électriques mesurés sur un patient</a>.</p>
<p>Dans un cœur sain, les connexions entre cellules sont <a href="https://pubmed.ncbi.nlm.nih.gov/24759278/">si fortes que les cellules semblent agir comme une seule grande cellule</a>. On appelle ce phénomène un <a href="https://en.wikipedia.org/wiki/Syncytium">« syncytium »</a>. Les modèles numériques utilisés aujourd’hui considèrent le tissu cardiaque comme un syncytium. Ils sont ainsi composés de millions d’éléments, chaque élément représentant quelques centaines de cellules.</p>
<p>Dans un cœur endommagé, il manque des cellules et des connexions. Si une cellule musculaire cardiaque meurt, elle n’est pas remplacée par une autre. De ce fait, le muscle <a href="https://doi.org/10.1161/01.RES.48.1.39">ne se comporte plus comme un syncytium</a> à certains endroits.</p>
<p>Pour comprendre cette situation, il est important de modéliser le cœur cellule par cellule. On n’aura plus plusieurs cellules par élément mais des milliers d’éléments par cellule, permettant de représenter la forme des cellules individuelles et leurs connexions avec les cellules voisines. Un tel modèle cellule par cellule sera cent mille fois plus complexe que les modèles actuels, qui nécessitent déjà l’utilisation de supercalculateurs.</p>
<p>Les calculs qui sont associés à la simulation de ce problème ne peuvent se faire que sur des supercalculateurs exascalaires. Avec un supercalculateur comme Frontier, la compréhension de l’électrophysiologie cardiaque est maintenant possible. Certains supercalculateurs sont accessibles aux chercheurs et chercheuses, d’autres sont réservés à des instituts et projets collaboratifs.</p><img src="https://counter.theconversation.com/content/195266/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Emmanuelle Saillard fait partie du projet Microcard cité dans l'article.</span></em></p><p class="fine-print"><em><span>Mark Potse a reçu des financements de European High Performance Computing Joint Undertaking (EuroHPC JU), de l'Agence nationale de la recherche (ANR), et de la Région Nouvelle-Aquitaine.</span></em></p>
Les ordinateurs les plus puissants du monde permettent de s’attaquer à des problèmes très complexes, comme le fonctionnement du cœur… et ses dysfonctionnements.
Emmanuelle Saillard, Chargée de recherche dans le domaine du calcul haute performance, Inria
Mark Potse, Chercheur en modélisation cardiaque, Université de Bordeaux
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/183243
2022-05-18T08:39:50Z
2022-05-18T08:39:50Z
À quoi ressemblaient les chiens à la préhistoire ?
<p>Du chihuahua au Saint-Bernard, en passant par les lévriers barzoïs au crâne incroyablement allongé, les chiens présentent aujourd’hui une variété exceptionnelle de formes, alors que tous descendent du même ancêtre, le loup gris. Cette forte variabilité n’est que très récente, puisqu’elle est liée aux sélections intensives menées ces 200 dernières années pour la création des <a href="http://www.fci.be/fr/Presentation-de-notre-organisation-4.html">355 races aujourd’hui reconnues par la Fédération Cynologique Internationale</a>. Mais que sait-on de l’aspect des premiers chiens, à la Préhistoire ? C’est la question sur laquelle nous nous sommes penchés dans notre article publié aujourd’hui <a href="https://doi.org/10.1098/rspb.2022.0147">18 mai dans la revue scientifique <em>Proceedings of the Royal Society B</em></a>.</p>
<p>Nos recherches ont montré, pour la première fois, qu’à cette période très ancienne les chiens présentaient déjà une grande variété de tailles et de formes de têtes.</p>
<h2>Tous les chiens actuels proviennent d’un même ancêtre</h2>
<p>Tous les chiens proviennent d’un même ancêtre : le loup gris. Il y a <a href="https://www.science.org/doi/10.1126/science.aaf3161">au moins 15 000 ans</a> au Paléolithique supérieur (la date et le lieu exacts de la domestication restent sujets à débat), des loups peu craintifs et agressifs appartenant à une lignée aujourd’hui éteinte auraient été attirés par les campements humains, probablement pour profiter des restes de nourriture. Les hommes préhistoriques se seraient ensuite rapprochés de ces loups, ceux-ci leur apportant une aide pour chasser ou pour protéger leurs campements contre les attaques d’autres prédateurs. Nous aurions apprivoisé les moins sauvages d’entre eux, les faisant se reproduire et les domestiquant ainsi au fil du temps.</p>
<p>Cette domestication s’est accompagnée de nombreuses modifications génétiques, physiologiques, comportementales et même physiques, la plupart étant involontaires. Parmi les changements morphologiques, les archéozoologues (les experts des relations homme-animal dans le passé) et paléogénéticiens ont relevé des variations dans la couleur du pelage, une diminution de la taille, des différences entre mâles et femelles moins marquées et la conservation de traits plutôt juvéniles, ce qui se traduit par des modifications dans les dimensions du crâne avec un museau fortement marqué et raccourci et des anomalies dentaires (absence ou rotation de certaines dents) plus fréquentes par manque de place.</p>
<p>D’ailleurs, une <a href="https://evolution-outreach.biomedcentral.com/articles/10.1186/s12052-018-0090-x">étude</a> conduite depuis les années 60 en Sibérie a montré qu’en sélectionnant les renards les plus curieux et les moins agressifs au fil des générations (recréant par la même les hypothétiques conditions des premiers rapprochements entre hommes et loups), les animaux devenaient de plus en plus dociles, leur taux de stress (apprécié par la sécrétion de cortisol) diminuant, et qu’ils présentaient les mêmes différences morphologiques que celles constatées par les archéozoologues lors du passage du loup au chien. La domestication aurait aussi <a href="https://www.pnas.org/doi/10.1073/pnas.1820653116">modifié l’anatomie des muscles de la face</a>, de façon à permettre le haussement des sourcils.</p>
<h2>Une diversification des chiens dès le Néolithique ?</h2>
<p>Plus tard au cours du Néolithique en Eurasie occidentale, les humains ont progressivement opté pour une vie sédentaire et tournée vers l’agriculture. Ces changements dans notre mode de vie ont très probablement affecté nos acolytes canins, les rendant encore plus différents de leur ancêtre sauvage. Les hommes préhistoriques ont notamment pu sélectionner des morphologies adaptées à la réalisation de certaines tâches, comme la chasse au grand gibier ou la défense des campements et des villages.</p>
<p>Toutefois, seules quelques études ont tenté de décrire la morphologie des chiens à partir de restes osseux. Par exemple, une étude écossaise a tenté une <a href="https://www.theguardian.com/uk-news/2019/apr/13/neolithic-dog-reveals-tales-behind-orkney-monuments">reconstitution faciale à partir du crâne d’un chien daté d’il y a environ 4 500 ans</a> et trouvé dans une nécropole de la région de Cuween Hill sur l’archipel écossais des Orcades. Sur les ossements reconstitués, dont la taille évoque notre border collie moderne, du silicone et de l’argile ont été utilisés pour reconstruire le volume des muscles. Une peau a ensuite été ajoutée, la fourrure ayant été choisie de façon à rappeler le loup gris européen. Une reconstruction similaire a été faite récemment pour un chien <a href="https://www.mdpi.com/2076-3417/12/10/4867">encore plus vieux, daté d’il y a environ 7 600 ans</a>.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/fB9mljiIhrA?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Reconstruction faciale d’un chien néolithique d’environ 4 500 ans.</span></figcaption>
</figure>
<p>D’autres études, malheureusement éparses, se sont basées sur des mesures réalisées sur les ossements pour décrire la forme de ces chiens préhistoriques. Ces recherches se heurtent au problème de la conservation des restes osseux (les restes crâniens sont rares et souvent très fragmentés), se réfèrent à de petits échantillons et se limitent à l’étude de certaines régions ou périodes, sans chercher à avoir une approche plus globale de la variabilité des chiens en Europe à l’échelle de la Préhistoire. De plus, la méthode utilisée est de manière générale très rudimentaire et ne permet pas de décrire précisément la forme des os (on dispose au mieux d’estimations de robustesse ou de la hauteur au garrot à partir de mesures faites sur les os longs, et d’indications de taille à partir de mesures faites sur les éléments du crâne). Ainsi, jusqu’à ce jour, aucune étude ne documentait précisément et de manière fiable la variabilité morphologique des chiens à l’échelle de la Préhistoire et de l’Europe.</p>
<p><a href="https://doi.org/10.1098/rspb.2022.0147">Dans notre étude</a>, nous avons étudié un échantillon de plus de 500 mâchoires inférieures (mandibules) de chiens européens datés de 11 100 à 5 000 ans avant nos jours, soit du Mésolithique au tout début de l’Âge du Bronze, quand les chiens étaient déjà bien différenciés des loups. Nous nous sommes basés sur la mandibule car c’est l’ossement le plus fréquent et le mieux conservé en contexte archéologique. De plus, la <a href="https://link.springer.com/article/10.1007/s11692-020-09515-9">mandibule reste un bon indicateur de la forme générale de la tête</a> et elle peut être utilisée pour <a href="https://journals.biologists.com/jeb/article/223/16/jeb224352/223640/Bite-force-and-its-relationship-to-jaw-shape-in">donner un sens fonctionnel aux variations de formes observées</a>. On peut donc estimer si les muscles masticateurs étaient plus ou moins développés, et lesquels agissaient le plus lors de la morsure.</p>
<p>Nous avons utilisé des méthodes 3D pour décrire précisément la forme de ces mandibules, c’est-à-dire la taille et les proportions au sein de l’os. Pour quantifier cette variabilité et la comparer à celle de nos chiens actuels, nous avons utilisé un référentiel constitué d’une centaine de chiens modernes de races variées ou retournées à l’état sauvage (dingos australiens), ainsi que de quelques loups (modernes et anciens).</p>
<h2>Les résultats de notre étude</h2>
<p>Notre étude a montré, pour la première fois, qu’à cette période très ancienne les chiens présentaient déjà une grande variété de tailles et de formes de têtes. Les chiens préhistoriques européens avaient soit des mandibules de taille équivalente à certains chiens de taille moyenne actuels comme le husky ou le golden retriever, soit de taille équivalente à nos beagles actuels, voire même de petits chiens comme le loulou de Poméranie (aussi appelé spitz nain) ou le teckel. Dans tous les cas, ils avaient tous des mâchoires nettement plus petites que le plus petit des loups modernes ou archéologiques de notre échantillon. Nous n’avons pas trouvé de taille extrêmement grande (comme les rottweilers modernes ou les lévriers barzoïs par exemple) ou extrêmement petite (comme le yorkshire ou le chihuahua). </p>
<p>En termes de forme non plus, nous n’avons pas identifié de forme très extrême, donc pas d’équivalent aux races très modifiées comme le rottweiler, le lévrier barzoï, le bouledogue français, le teckel ou encore le chihuahua. La plupart des chiens avaient une conformation moyenne, semblable aux beagles actuels ou à d’autres races comme le husky, mais il existait cependant une certaine variabilité avec des têtes plus allongées (mandibules ressemblant à celles des lévriers sloughis ou whippet, ou des loulous de Poméranie).</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/463726/original/file-20220517-17-uayd01.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/463726/original/file-20220517-17-uayd01.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/463726/original/file-20220517-17-uayd01.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=440&fit=crop&dpr=1 600w, https://images.theconversation.com/files/463726/original/file-20220517-17-uayd01.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=440&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/463726/original/file-20220517-17-uayd01.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=440&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/463726/original/file-20220517-17-uayd01.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=552&fit=crop&dpr=1 754w, https://images.theconversation.com/files/463726/original/file-20220517-17-uayd01.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=552&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/463726/original/file-20220517-17-uayd01.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=552&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Variabilité morphologique des chiens préhistoriques européens, à partir de l’étude de la mâchoire inférieure. Les chiens préhistoriques présentent une grande variabilité de taille (à gauche) et de forme (à droite) de la mandibule, avec des formes sans équivalent parmi les chiens modernes. Nous avons modélisé la forme théorique du crâne correspondant à ces formes uniques de mandibule, ce qui permet de reconstituer le profil facial de ces chiens à la morphologie « disparue ». Les loups et dingos ne sont pas représentés ici.</span>
<span class="attribution"><span class="source">Colline Brassard</span></span>
</figcaption>
</figure>
<p>Si nous nous attendions à ce résultat et à cette moindre variabilité des chiens préhistoriques par rapport aux chiens modernes, nous ne nous attendions pas à ce que nous avons démontré ensuite. Nous avons mis en évidence qu’une partie de la variabilité des chiens préhistoriques ne semblait pas avoir d’équivalent parmi nos chiens actuels ni parmi les loups. Ce qui est surprenant, étant donné que nous avons fait en sorte d’inclure tous les types de morphologie possibles en intégrant les extrêmes (des petits ou grands chiens au museau court ou long, des chiens avec une morphologie crânienne peu modifiée comme les beagles ou les dingos). On aurait donc pu s’attendre à ce que les chiens préhistoriques se positionnent quelque part dans cette variabilité. </p>
<p>Il est vrai que notre échantillon moderne n’était pas exhaustif au moment de l’étude, mais nous avons depuis réalisé des analyses complémentaires en ajoutant des chiens errants (sans morphologie particulièrement sélectionnée), et il s’avère qu’ils ne suffisent pas à expliquer ces formes uniques observées chez les chiens préhistoriques européens. Il est plus que probable qu’en ajoutant des chiens au corpus moderne, on fasse toujours ce constat. Cela nous pousse à nous demander si certaines formes n’auraient pas disparu.</p>
<p>De plus, nous avons identifié des particularités anatomiques chez les chiens préhistoriques par rapport aux chiens modernes, ce qui permet à coup sûr de les reconnaître. Ces traits discriminants peuvent, entre autres, illustrer l’adaptation des chiens à des pressions de sélection liées à leur milieu et à leur mode de vie. En effet, les chiens préhistoriques européens ont des mâchoires robustes et arquées, suggérant qu’ils utilisaient davantage leur muscle temporal. Une explication possible est qu’ils se nourrissaient d’aliments plus durs et plus difficiles à mâcher que nos chiens nourris aux croquettes. Une autre hypothèse est que cela leur aurait été utile pour défendre les campements et villages ou pour aider à attraper le grand gibier lors de la chasse.</p>
<p>Enfin, nous avons montré une plus grande flexibilité au sein de la mandibule des chiens archéologiques : chez les chiens modernes, la forme de l’avant de la mâchoire est fortement liée à celle de l’arrière de la mâchoire, du fait de contraintes développementales, alors que c’est moins le cas chez les chiens préhistoriques. Cette plus grande flexibilité aurait pu permettre aux chiens de s’adapter plus facilement à des changements brusques dans le régime alimentaire par exemple.</p>
<p>Dans cette étude, nous avions pour objectif de décrire très globalement la variabilité morphologique des chiens européens à la préhistoire, en les comparant à des chiens actuels, sans chercher à expliquer cette variabilité ni à suivre l’évolution morphologique des chiens au cours de la préhistoire. De futurs travaux seront nécessaires pour décrypter, avec rigueur, comment les différences géographiques et culturelles (affectant la place accordée au chien dans les sociétés ou leur régime alimentaire) ont pu impacter la morphologie de nos alliés canins à cette période.</p><img src="https://counter.theconversation.com/content/183243/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Colline Brassard a reçu des financements du Ministère français de lʼEnseignement supérieur, de la Recherche et de lʼInnovation, du Muséum national d'Histoire naturelle et de la Fondation Fyssen. </span></em></p><p class="fine-print"><em><span>Anthony Herrel et Stéphanie Bréhard ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.</span></em></p>
Les chiens préhistoriques présentaient déjà une grande variété de taille et de forme de têtes, d’après une étude publiée aujourd’hui.
Colline Brassard, Docteur vétérinaire, Docteur en anatomie fonctionnelle et en archéozoologie, Muséum national d’histoire naturelle (MNHN)
Anthony Herrel, Muséum national d’histoire naturelle (MNHN)
Stéphanie Bréhard, Archéozoologue, maîtresse de conférences, Muséum national d’histoire naturelle (MNHN)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/181396
2022-04-26T13:33:37Z
2022-04-26T13:33:37Z
Des cellules humaines pour remplacer les rats de laboratoire
<figure><img src="https://images.theconversation.com/files/459797/original/file-20220426-22-qa3ni3.png?ixlib=rb-1.1.0&rect=12%2C79%2C1008%2C787&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">En prélevant un petit morceau de peau, il est possible de laisser pousser les cellules qui s’y trouvent dans une boîte pétri et de les transformer en neurones en environ un mois.</span> <span class="attribution"><span class="source">(Camille Pernegre)</span>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>Pour évaluer si un composé est prometteur pour traiter une maladie, il est usuel de l’étudier d’abord chez l’animal. Cela permet de voir si le composé a des chances de guérir la maladie. Cependant, les modèles animaux récapitulent rarement tous les aspects d’une maladie. L’alternative est de représenter cette maladie à partir de cultures cellulaires. Si au premier abord, la boîte de Petri semble bien différente d’une personne atteinte d’une maladie, la réalité pourrait être bien différente lorsqu’on les regarde de plus près.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/quels-types-doublis-sont-les-plus-lies-a-la-maladie-dalzheimer-162905">Quels types d’oublis sont les plus liés à la maladie d’Alzheimer ?</a>
</strong>
</em>
</p>
<hr>
<p>L’Alzheimer a été guérie plus de <a href="https://alz-journals.onlinelibrary.wiley.com/doi/10.1002/trc2.12179">400 fois en laboratoire</a>. Comment, alors, pouvons-nous toujours considérer l’Alzheimer comme incurable ? Simplement parce qu’elle a seulement été guérie <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4594046/#fn34">chez l’animal</a>. Or, une souris ne développe pas naturellement l’Alzheimer ; il faut la provoquer. Pour cela, nous utilisons nos maigres connaissances sur ce qui déclenche l’Alzheimer et reproduisons le tout chez la souris. Bref, ces souris n’ont pas l’Alzheimer : elles sont plutôt atteintes de notre conception imparfaite de l’Alzheimer.</p>
<p>En tant que doctorant en psychologie, j’ai complété un stage de recherche au CHUM dans le laboratoire de la professeure Nicole Leclerc avec pour objectif de développer de nouveaux modèles pour étudier l’Alzheimer tout en se délestant de nos théories limitées.</p>
<p>Dans le milieu scientifique moderne, un nouveau composé non testé <a href="https://www.fda.gov/patients/drug-development-process/step-2-preclinical-research">ne peut pas être utilisé pour traiter une maladie humaine</a> puisque cela constitue un risque inacceptable. Il faut donc utiliser un modèle de maladie, qui reproduit nos observations de celle-ci chez l’humain, afin de vérifier si le nouveau composé est prometteur. Les modèles de maladies permettent de développer des traitements et des outils diagnostiques. Ils nous donnent également la possibilité de mieux comprendre les <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7329115/">processus derrière la maladie étudiée</a>. Les modèles sont ainsi un outil incontournable en science biomédicale.</p>
<h2>Des modèles de maladie du futur</h2>
<p>Étudier une maladie deviendrait plus simple si nous pouvions directement observer et agir sur les cellules qui cessent de fonctionner correctement. Dans le cas de l’Alzheimer, il est impossible de prélever une tranche de cerveau d’une personne vivante afin d’expérimenter sur les neurones qui s’y trouvent. Toutefois, je travaille sur le développement d’une technique qui pourra s’y rapprocher énormément. En prélevant un petit bout de peau du patient, je peux laisser pousser les cellules qui s’y trouvent dans une boîte de Petri et les transformer en neurones en environ un mois.</p>
<figure class="align-center ">
<img alt="Main d’un homme portant des gants en caoutchouc bleus et tenant un échantillon liquide bleu dans une boîte de pétri dans un laboratoire de chimie" src="https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/459169/original/file-20220421-23-qo7498.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Si au premier abord, la boîte de Petri semble bien différente d’une personne atteinte d’une maladie, la réalité pourrait être bien différente lorsqu’on les regarde de plus près.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>La méthode profite du fait que toutes les cellules qui composent le corps d’une personne ont le même code génétique : l’ADN. Ce qui différencie une cellule de peau d’un neurone est simplement les gènes qu’exprime la cellule. Ainsi, je suis en mesure de forcer la cellule de peau à exprimer des gènes typiquement neuronaux pour qu’elle se transforme graduellement en neurone. Ces neurones retiennent les signatures du vieillissement, ce qui est crucial pour étudier les maladies liées au vieillissement. Les avantages sont clairs : on peut produire une colonie de neurones humains provenant d’une personne ayant l’Alzheimer. Les neurones de personnes Alzheimer développeront alors des <a href="https://www.sciencedirect.com/science/article/pii/S1934590921001612">caractéristiques de l’Alzheimer</a>, ce qui permettra d’étudier la maladie bien plus facilement.</p>
<p>Le neurone ne fonctionne cependant pas en vase clos, d’autres types de cellules interagissent avec lui. Pour améliorer une culture neuronale, on peut donc pousser le concept encore plus loin en produisant des <a href="https://www.frontiersin.org/articles/10.3389/fcell.2020.579659/full">organoïdes</a>. Ce sont des cultures cellulaires comprenant plusieurs types de cellules. Un organoïde de cerveau pourrait donc recréer plus fidèlement le fonctionnement cérébral, et donc être un meilleur modèle de maladies du système nerveux.</p>
<h2>Des modèles de maladies polyvalents</h2>
<p>Si on découvre qu’une cellule présente un fonctionnement anormal chez une personne atteinte de la maladie, on cherchera à comprendre pourquoi elle se comporte ainsi. En observant un modèle de cette maladie, nous pourrons découvrir si ce fonctionnement anormal est similaire à celui observé dans le cerveau des patients. Si c’est le cas, nous pourrons tenter de modifier le fonctionnement de cette cellule chez notre modèle et voir si cela a un effet bénéfique.</p>
<p>Les modèles ont donc comme première fonction de permettre d’étudier plus facilement une maladie. Un bon modèle doit ainsi la représenter de la manière la plus fiable possible. Lorsqu’un modèle est considéré comme suffisamment représentatif de la maladie, il peut être utilisé en études précliniques afin de vérifier si le composé a le potentiel de la soigner sans être nocif. Lorsque la maladie est bien reproduite par le modèle, on peut supposer qu’un traitement qui fonctionne sur celui-ci a des chances de fonctionner chez des personnes atteintes de la maladie. Les cultures cellulaires et organoïdes provenant de patients sont particulièrement prometteuses à cause de cette représentativité. Même si nous ne connaissons pas toutes les caractéristiques d’une maladie, il y a des chances que ces portions inconnues puissent être reproduites dans ces modèles.</p>
<p>Comme elles viennent de véritables patients, ces modèles du futur pourraient avoir une troisième utilité unique : la <a href="https://cellregeneration.springeropen.com/articles/10.1186/s13619-020-00059-z">médecine personnalisée</a>. Tous les patients atteints d’une même maladie sont hétérogènes et donc ne répondent pas de la même manière à un traitement. Lorsque plusieurs types de thérapies existent, il faut s’en remettre aux essais-erreurs pour identifier celle qui convient le mieux à chaque patient.</p>
<p>En 2021, l’équipe de Kimberly K. Leslie à l’université d’Iowa a démontré que les organoïdes pouvaient remédier à ce problème en <a href="https://www.mdpi.com/2072-6694/13/12/2901">prédisant la réponse d’extraits de cancers gynécologiques à différents traitements</a>. La même année, une autre équipe de Singapour et de Hong-kong a démontré qu’on pouvait utiliser les organoïdes pour <a href="https://www.frontiersin.org/articles/10.3389/fonc.2021.622244/full">prédire la réponse de tumeurs naso-pharyngées à la radiothérapie et en ajuster la dose</a>. Grâce à cette méthode, il sera donc possible de sélectionner le traitement le plus prometteur pour un individu en un temps beaucoup plus court. Cependant, elle n’a été testée que chez des modèles animaux et des extraits cellulaires. La faisabilité chez l’humain demeure donc à prouver.</p>
<h2>Des modèles à suivre, mais pas au pied de la lettre</h2>
<p>Un traitement qui fonctionne chez un modèle de maladie ne fonctionnera pas nécessairement chez l’humain. C’est précisément pour cela que l’Alzheimer, ou du moins, sa reconstruction en laboratoire dans un modèle animal, a été « guérie » plus de 400 fois sans jamais fonctionner chez l’humain. De la même façon, il est possible que des composés pouvant réellement ralentir la progression de l’Alzheimer aient été testés, mais qu’ils n’aient pas réussi à guérir ces animaux. Pour des maladies neurodégénératives comme l’Alzheimer, créer un modèle représentatif est particulièrement complexe puisque la maladie n’a pas une seule cause. Nous connaissons des <a href="https://pubs.rsc.org/en/content/chapterhtml/2022/bk9781839162305-00001?isbn=978-1-83916-230-5&sercode=bk">centaines de processus qui seraient déréglés dans l’Alzheimer</a>, impliquant notamment les systèmes nerveux, cardiovasculaire, et immunitaire.</p>
<p>Il n’est pas encore possible de reproduire ces interactions en culture cellulaire. C’est pourquoi même si les modèles du futur permettront de mieux représenter la maladie, et peut-être de découvrir des traitements, il ne faut jamais oublier qu’ils seront toujours imparfaits. La guérison d’un modèle n’équivaudra donc jamais exactement à la guérison d’une maladie.</p><img src="https://counter.theconversation.com/content/181396/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Étienne Aumont a reçu du financement de la part des Instituts de Recherche en Santé du Canada (IRSC). </span></em></p>
Les cultures cellulaires semblent prometteuses pour représenter les maladies. La boîte de Petri ne diffère pas autant d’une personne malade que l’on pourrait croire.
Étienne Aumont, Étudiant au doctorat en psychologie, Université du Québec à Montréal (UQAM)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/160425
2022-01-05T18:43:54Z
2022-01-05T18:43:54Z
Les océans bientôt dotés de jumeaux virtuels, pour quoi faire ?
<p>De la bourrasque de vent ou de la vaguelette déferlante aux phénomènes climatiques globaux, l'océan et l'atmosphère sont en interaction à toutes les échelles. Ces échanges et rétroactions complexes et non linéaires sont depuis longtemps connus pour favoriser l'émergence de phénomènes téléconnectés et de désastres naturels – par exemple, l'influence de El Niño et La Niña sur des évènements météorologiques distribués sur l'ensemble de la planète. Ils jouent en permanence sur les aspects fondamentaux de la vie, l'évolution des espèces et l'écologie des systèmes.</p>
<p>En parallèle, l'activité humaine a crû au point de transformer directement le contenu et la redistribution thermique des océans avec des implications assez nettes sur sa capacité d'absorption du dioxyde de carbone et son acidification.</p>
<p>Cette modification du contenu et de la redistribution thermique des océans et son inertie pourront également affecter la fréquence des tempêtes, les distributions de leurs localisations et de leurs pistes privilégiées d'occurrence, leurs tailles, intensités et vitesses de déplacements.</p>
<p>Quoiqu’aux conséquences souvent observables et maintenant mieux quantifiées, ces variations demeurent difficiles à parfaitement modéliser et comprendre. S'il est admis que l'océan réagit et interagit en symbiose avec l'atmosphère, son avenir et l'évolution des équilibres du système climatique restent largement incertains. </p>
<p>Le lancement de <a href="https://fr.unesco.org/ocean-decade">la décennie de l'océan</a> en 2021 par les Nations unies, les espoirs fondés sur l'économie bleue et les volontés politiques de produire de l'innovation justifient donc le lancement de grandes initiatives nationales et internationales pour le développement de nouveaux outils, tels que la mise en place de jumeaux numériques.</p>
<h2>Modéliser et comprendre l'océan grâce au numérique</h2>
<p>Il est en effet tout naturel que le numérique tienne une place de choix dans ces nouvelles démarches. Les architectures futures doivent donner lieu à l'exploitation et la valorisation de toutes les sources potentielles d'observations, l'accès simplifié aux différents travaux de simulations numériques, et favoriser la mise en oeuvre de méthodes d'apprentissage profond et d'intelligence artificielle pour combiner données et modèles. Les jumeaux numériques futurs intégreront tous ces efforts, pour regrouper vite les informations sur l'état de l'océan, permettre visualisation et rapides évaluations, possiblement reconnaître des situations similaires dans les catalogues d'observations et/ou de simulations, afin de conforter et aider aux décisions.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1442414975549534212"}"></div></p>
<p>Ainsi, derrière ce mantra de « jumeaux numériques » se cachent des efforts variés de la part des producteurs de données, des chercheurs, des instances internationales… avec le développement d'outils plus ou moins sophistiqués visant à optimiser l'exploitation des capacités numériques croissantes, en matière de calculs intensifs ou de brassages de données. Combinés avec les masses d'observations et d'analyses déjà accumulées, les précisions et prévisions des modèles s'améliorent afin de mieux anticiper l'évolution de l'état de l'océan, c'est-à-dire des contenus en chaleur, sel et niveau d'oxygène ou du degré d'acidification.</p>
<p>Cela demeure toutefois souvent insuffisant, avec un horizon de prévisions fiables encore trop proche. Aujourd'hui, le vœu est de fournir la description de l'océan la plus cohérente possible et aux plus hautes résolutions spatio-temporelles nécessaires, pour des objectifs et applications en temps quasi réels jusqu'aux prédictions climatiques à long terme.</p>
<h2>Favoriser la coopération internationale sur les océans</h2>
<p>Il faut savoir qu'il y a encore peu d'années, les données marines étaient souvent difficiles à trouver, accessibles uniquement grâce à des conventions particulières et ne bénéficiant pas de protocoles d'accès garantis et de formats homogènes. Ces obstacles sont maintenant largement levés grâce à des protocoles qui assurent la diffusion et les échanges de données.</p>
<p>Cela permet d'homogénéiser la qualité et les méthodes, ce qui facilite la coopération entre les grands centres internationaux, couvrant à la fois la définition des instruments futurs, la définition optimale de nouveaux réseaux d'observations et l'intégration et la diffusion de données et analyses (entre les différents centres d'observation, CNES, ESA, NASA, JAXA, Météo-France, ECMWF, NOAA, JAMSTEC, Ifremer, etc.). </p>
<h2>Outils précieux pour les chercheurs et les citoyens</h2>
<p>Les jumeaux numériques doivent se consolider avec ces capacités accrues pour exploiter conjointement l'ensemble des jeux de données, et utiliser plus efficacement des ensembles de simulations numériques et l'assimilation des observations. Les plateformes jumeaux numériques favoriseront et renforceront les travaux des jeunes générations de chercheurs pour mieux répondre aux questions scientifiques majeures : en particulier, elles permettront d'améliorer l'horizon de prédiction des modèles pour construire des projections à plusieurs mois et années.</p>
<p>Cela doit également encourager des analyses et des prises de décisions plus locales, possiblement citoyennes, ou encore la définition de services mieux ciblés par l'utilisation de ces ensembles de données nationales, européennes et internationales. Tout cela s'articulant avec de grandes initiatives comme <a href="https://digital-strategy.ec.europa.eu/en/policies/destination-earth">Destination Earth</a>, à l'échelle européenne, pour développer les nécessaires infrastructures numériques (calcul, stockage, réseaux…).</p>
<p>L'augmentation du réalisme et de la précision des simulations et prévisions numériques, fondées principalement sur la résolution de systèmes d'équations pouvant décrire les évolutions spatio-temporelles des variables sous l'influence de forçages divers, permettra les utilisations plus directes des observations et de méthodes d'intelligence artificielle. </p>
<p>Reconnaissance de récurrences et enchaînements dynamiques, évaluations d'analogies dans les situations passées, identification ou inférence de précurseurs, seront, en autre, les éléments essentiels pour construire et améliorer les nouveaux outils statistiques et contribuer à mieux exploiter les couples données-modèles. </p>
<h2>Appréhender des questions plus complexes</h2>
<p>Les méthodologies d'intelligence artificielle émergent effectivement rapidement pour améliorer largement les modes traditionnels de prévisions, corrections des biais et sensibilités aux conditions initiales.</p>
<p>Ainsi, ces jumeaux numériques doivent-ils contribuer à aborder conjointement des questions plus complexes, relatives aux évolutions jointes des propriétés physiques, chimiques, géologiques et biologiques des océans, sous les contraintes environnementales et socio-économiques des activités humaines.</p>
<p>On citera l'occurrence, l'intensité et la distribution des efflorescences algales d'origine naturelle ou amplifiées par des pollutions terrestres, restent des questions encore mal comprises et difficiles à résoudre. Pour exemple, l'extension et l'évolution de la grande ceinture des sargasses de l'Atlantique : des proliférations locales extrêmes sont aujourd'hui observées, empêchant la lumière de pénétrer et limitant l'oxygène disponible, affectant le développement des organismes marins et également les activités touristiques.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1112839651642015744"}"></div></p>
<p>À l'avenir, les jumeaux numériques auront donc pour vocation de servir les développements d'approches interdisciplinaires, incluant sciences dures, sociales, économiques et juridiques, facilitant les constructions des outils nécessaires aux aides aux décisions, par exemple sur les pollutions pétrochimiques ou encore les déchets plastiques, ou pour définir des sanctuaires marins.</p>
<p>Ouverts et partagés, ces jumeaux numériques seront les instruments capables d'identifier les altérations majeures, évaluer les causes et scénariser les conséquences. Cela contribuera à définir des stratégies pour contrer ou atténuer les dépassements de seuils les plus dévastateurs, afin d'assurer au mieux la pérennité des espaces maritimes.</p>
<h2>Jumelles numériques pour scruter l’océan</h2>
<p>Avec ces objectifs principaux, les jumeaux numériques Océan vont se constituer d'un ensemble de méthodes et de simulations pour que scientifiques ou citoyens puissent réaliser et tester divers scénarios, avec des retours d'expériences encore mieux pris en compte, telles les apparitions et évolutions de conditions environnementales inhabituelles ou amplifiées – comme les sargasses aux Antilles.</p>
<p>De manière collective et possiblement participative, les différents éléments de surveillance et suivi des habitats marins seront intégrés, intensifiant les échanges et retours d'expériences afin d'améliorer outils et méthodes d'analyse des impacts et augmenter les horizons des prévisions, principalement pour les évènements les plus extrêmes.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1351433243816550400"}"></div></p>
<p>Pour imager le propos, ce sont donc plutôt des jumelles numériques qui seront élaborées, disponibles pour tous et effectivement dédiées à mieux détecter et scruter certains effets locaux associés à un enchaînement de causes, pas forcément toutes d'origines locales. </p>
<p>Même avec le bénéfice des outils de simulations et de l'intégration de l'ensemble de données toujours de meilleures qualités, cela reste un pari, nécessaire, mais encore très ambitieux.</p><img src="https://counter.theconversation.com/content/160425/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Bertrand Chapron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Modéliser les mouvements océaniques avec toujours plus de précision nous permettra d’anticiper à court et plus long terme son avenir et les phénomènes associés.
Bertrand Chapron, Docteur en mécanique des fluides, Ifremer
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/172918
2021-12-16T20:07:28Z
2021-12-16T20:07:28Z
Quelle est l’origine du champ magnétique terrestre ?
<figure><img src="https://images.theconversation.com/files/436083/original/file-20211207-159504-bfhk2t.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C1920%2C1077&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Représentation du champ magnétique terrestre.</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/gsfc/7402439760/">NASA Goddard Space Flight Center/Flickr</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>Il est surnommé « bouclier terrestre » par les scientifiques. Pour de nombreux animaux migrateurs terrestres ou aquatiques, il est un repère pour les déplacements de grande distance. Il contraint les boussoles à indiquer la même direction tout le temps.</p>
<p>Vous l’avez sans doute reconnu, il s’agit du <em>champ magnétique terrestre</em> (CMT).</p>
<p>La Terre possédait déjà un champ magnétique il y a <a href="https://www.science.org/doi/abs/10.1126/science.1183445?doi=10.1126/science.1183445">3,45 milliards d’années</a>. À cette époque, son intensité n’était que de 50 à 70 % de sa valeur actuelle. Mais dès 3,2 milliards d’années, le champ magnétique terrestre était aussi intense qu’aujourd’hui. Toutefois, il est très compliqué d’avoir des certitudes dans ce domaine. En 2020, un <a href="https://www.science.org/doi/10.1126/sciadv.aav9634">travail du MIT</a> contredit ainsi des résultats publiés en 2014, fondés sur la magnétisation de cristaux anciens de zircon et prouvant que le champ magnétique terrestre existait déjà il y a 4,2 milliards d’années.</p>
<p>Bien que les aimants soient connus depuis l’Antiquité, ce sont les Chinois qui, vers l’an 1000-1100, les utilisèrent en premier pour s’orienter : c’est la naissance de la boussole.</p>
<p>La relation entre les aimants et le champ magnétique terrestre fut ensuite découverte en 1600 par William Gilbert, physicien anglais et médecin de la reine Élisabeth I<sup>re</sup> qui publie en 1600 de <em>Magno Magnete Tellure</em> (« Du Grand Aimant de la Terre »). Il démontra comment une boussole placée à la surface d’une <a href="https://www.larecherche.fr/william-gilbert-philosophe-magn%C3%A9tique">boule magnétisée</a> (la terrella) indique toujours le même point, comme elle le fait sur la Terre. Puis, en 1840, le mathématicien et physicien <a href="http://musee-sismologie.unistra.fr/comprendre-le-magnetisme-terrestre/notions-pour-petits-et-grands/les-premieres-mesures-du-champ-magnetique/">Carl Gauss</a> propose l’idée que l’aimant « terrestre » était au centre de la Terre.</p>
<p>Depuis, les progrès scientifiques ont mis en lumière le fonctionnement du champ magnétique terrestre, et son rôle dans les phénomènes électromagnétiques. Pourtant, l’origine du champ magnétique terrestre constitue probablement l’un des problèmes les plus surprenants de la physique moderne. À la question « pourquoi la boussole indique-t-elle le nord ? », la réponse se refuse aux physiciens depuis le XVI<sup>e</sup> siècle. L’hypothèse la plus concluante, celle de la théorie des dynamos auto-excitées, a été introduite pour la première fois par Sir Joseph Larmor en 1919. Elle a résisté aux critiques les plus sévères, mais n’a pas encore pu être appliquée au cas des paramètres terrestres.</p>
<p>À l’ère du calcul scientifique, il peut sembler surprenant que ce modèle de dynamo auto-excitée n’ait pas encore été entièrement modélisé. Les modèles numériques récents permettent certes d’étudier le système complet, mais dans une gamme de régimes de paramètres très éloignée de la réalité physique, en raison de la limitation de la puissance de calcul directement reliée à la complexité mathématique des termes associés aux phénomènes physiques intervenant dans le problème. Les chercheurs travaillent donc au développement de nouvelles approches numériques, plus performantes, ou bien basées sur des modélisations des phénomènes en jeu.</p>
<p>Le champ magnétique terrestre peut être comparé, approximativement, au champ magnétique d’un aimant droit (les aimants collés sur vos réfrigérateurs). Le point central de cet aimant n’est pas exactement au centre de la Terre, il se trouve à quelques centaines de kilomètres du centre géométrique. Le CMT semble toujours dominé par ce dipôle (deux pôles : Nord et Sud) qui s’aligne en moyenne avec l’axe de rotation de notre planète (dipôle axial).</p>
<p>L’ensemble des lignes de champ magnétique de la Terre situées au-dessus de l’ionosphère, soit à plus de 1 000 km, est appelé magnétosphère. L’influence du champ magnétique terrestre, quant à lui, se fait sentir à plusieurs dizaines de milliers de kilomètres.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/436104/original/file-20211207-21-1tuu544.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/436104/original/file-20211207-21-1tuu544.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/436104/original/file-20211207-21-1tuu544.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=491&fit=crop&dpr=1 600w, https://images.theconversation.com/files/436104/original/file-20211207-21-1tuu544.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=491&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/436104/original/file-20211207-21-1tuu544.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=491&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/436104/original/file-20211207-21-1tuu544.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=616&fit=crop&dpr=1 754w, https://images.theconversation.com/files/436104/original/file-20211207-21-1tuu544.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=616&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/436104/original/file-20211207-21-1tuu544.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=616&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Le champ magnétique terrestre peut être vu comme celui d’un aimant droit légèrement décalé par rapport à l’axe de rotation de la Terre (pôle Nord géographique). Le Pôle Nord magnétique correspond en fait au pôle sud de l’aimant terrestre.</span>
<span class="attribution"><a class="source" href="https://www.shutterstock.com/fr/image-vector/magnetic-fields-earth-showing-north-pole-1726458031">OSweetNature/Shutterstock</a></span>
</figcaption>
</figure>
<p>Même si l’on observe que la boussole indique le Nord magnétique (et donc le pôle sud de l’aimant terrestre…) depuis des centaines de millions d’années, les paléomagnéticiens ont aussi montré que le pôle de l’aiguille aimantée qui pointe vers le Nord magnétique est tantôt le nord, comme aujourd’hui, tantôt le sud.</p>
<p>Le champ magnétique terrestre s’est en effet <a href="https://www.science.org/doi/10.1126/science.abb8677">inversé</a> plus de 100 fois au cours de 50 derniers millions d’années, et la <a href="https://www.futura-sciences.com/planete/actualites/terre-il-y-42000-ans-inversion-champ-magnetique-terre-change-notre-histoire-85901/">dernière inversion</a> date de 42 000 ans.</p>
<h2>Origine(s) du champ magnétique : l’effet dynamo</h2>
<p>Le champ magnétique terrestre est engendré par les mouvements complexes de fluide (nommés convection) dans le noyau externe de notre planète. Ledit noyau externe est en effet un véritable <a href="https://www.pourlascience.fr/sd/geosciences/un-jet-stream-de-fer-dans-le-noyau-terrestre-12498.php">océan de métal en fusion</a> (notamment du fer et du nickel), situé entre la graine de fer solide de 1 220 km de rayon et le bas du manteau à 3 500 km de rayon.</p>
<p>La convection est sans doute solutale (due à des différences par endroit de concentration) plutôt que thermique (due à des différences par endroit de température), et intimement liée à la <a href="https://www.pourlascience.fr/sd/geosciences/le-moteur-de-la-dynamo-terrestre-3088.php">croissance du noyau interne</a> : le fer-nickel solide étant moins riche en éléments dissous que le liquide, la cristallisation de ce liquide enrichit la base du noyau externe en éléments dissous ; ces éléments étant plus légers que le fer et le nickel, le liquide métallique profond tend à remonter sous l’effet de la poussée d’Archimède.</p>
<p>Le noyau interne est cependant trop jeune (son âge est estimé entre 165 millions et 2,5 milliards d’années, une <a href="https://www.nature.com/articles/s41561-018-0288-0">estimation récente</a> penche pour 1,3 milliard d’années) pour que le mécanisme ci-dessus ait pu fonctionner il y a plus de 1,5 milliard d’années. Un autre processus de convection solutale aurait alors été l’exsolution (c’est-à-dire la séparation d’un constituant homogène en plusieurs constituants distincts sans changer la composition globale du mélange) <a href="https://www.pourlascience.fr/p/articles-fond/dossier-dans-les-profondeurs-des-planetes-le-moteur-de-la-dynamo-terrestre-2531.php">d’oxyde de magnésium (MgO)</a>, due au refroidissement progressif du noyau (alors entièrement liquide). L’oxyde de magnésium est en effet soluble dans le fer liquide à très haute température.</p>
<p>Pour comprendre la dynamo terrestre, il faut également pouvoir identifier ce qui relie rotation de la Terre sur elle-même et champ magnétique. En l’absence de champ magnétique, on sait que la force de Coriolis (la force responsable de ce pas hésitant lorsque vous marchez dans un manège qui tourne) contraint les écoulements (ici les fluides) à s’organiser en <a href="https://www.futura-sciences.com/planete/dossiers/climatologie-cyclone-ouragan-typhon-sont-ils-573/page/4/">cyclones et anticyclones</a> – comme dans l’atmosphère – et s’oppose à toute variation le long de l’axe de rotation, conduisant la convection du noyau à s’organiser en immenses colonnes parallèles à l’axe de rotation.</p>
<p>La force de Coriolis engendre donc un enroulement de la matière sous forme de tourbillons. À cause de la prédominance de la force de Coriolis, ces tourbillons s’alignent selon l’axe de rotation de la Terre. Le frottement visqueux entre le fluide du noyau externe et la frontière solide du manteau provoque quand à lui un écoulement secondaire localisé qui donne un « sens » d’entraînement aux tourbillons.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/436106/original/file-20211207-140895-fjimir.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/436106/original/file-20211207-140895-fjimir.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/436106/original/file-20211207-140895-fjimir.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=603&fit=crop&dpr=1 600w, https://images.theconversation.com/files/436106/original/file-20211207-140895-fjimir.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=603&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/436106/original/file-20211207-140895-fjimir.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=603&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/436106/original/file-20211207-140895-fjimir.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=758&fit=crop&dpr=1 754w, https://images.theconversation.com/files/436106/original/file-20211207-140895-fjimir.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=758&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/436106/original/file-20211207-140895-fjimir.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=758&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Schéma montrant la relation entre le mouvement du fluide conducteur (organisé en rouleaux par la force de Coriolis) et le champ magnétique que le mouvement génère.</span>
<span class="attribution"><a class="source" href="https://upload.wikimedia.org/wikipedia/commons/e/e9/Dynamo_Theory_-_Outer_core_convection_and_magnetic_field_geenration.svg">Andrew Z. Colvin/Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Lorsque les mouvements de convection sont suffisamment vigoureux, l’instabilité dynamo (une « augmentation » spontanée de champ magnétique avec le temps) se déclenche et produit un champ magnétique dont la géométrie dépend naturellement de celle des mouvements qui lui donnent naissance. <a href="https://hal.inria.fr/ensl-00180607/">Le champ croît</a> jusqu’à ce que les forces de Laplace (forces d’origine magnétique) viennent concurrencer la force de Coriolis.</p>
<p>Ce n’est que très récemment que ce scénario a reçu l’appui de simulations numériques complètes. Le champ magnétique produit par ces dynamos numériques est dominé par un dipôle aligné avec l’axe de rotation. Les simulations produisent un champ magnétique qui ressemble à s’y méprendre à celui de la Terre et plusieurs présentent même des inversions spontanées.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/435906/original/file-20211206-15-2sdjeq.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/435906/original/file-20211206-15-2sdjeq.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=321&fit=crop&dpr=1 600w, https://images.theconversation.com/files/435906/original/file-20211206-15-2sdjeq.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=321&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/435906/original/file-20211206-15-2sdjeq.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=321&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/435906/original/file-20211206-15-2sdjeq.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=403&fit=crop&dpr=1 754w, https://images.theconversation.com/files/435906/original/file-20211206-15-2sdjeq.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=403&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/435906/original/file-20211206-15-2sdjeq.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=403&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Premières simulations de champ magnétique terrestre par l’équipe de G. Glatzmaier avant et après inversion du CMT. Les courbes sont des lignes de champ magnétique, bleues quand elles vont en direction du centre et jaunes lorsqu’elles s’en éloignent. L’axe de rotation de la Terre est centré et vertical.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Geodynamo-Before-And-In-Reversal.png">Gary A. Glatzmaier & MikeRun/Wikimedia</a></span>
</figcaption>
</figure>
<p>Pourtant, de nombreuses questions se posent : quel rôle jouent les petites échelles de l’écoulement et du champ magnétique, que l’on ne peut pas modéliser ? Ne dominent-elles pas la dissipation ? Quelle est alors la puissance nécessaire pour faire marcher la dynamo terrestre ? Au cours de son histoire, la Terre a-t-elle toujours disposé d’une puissance suffisante pour entretenir sa dynamo ? Même avant que ne démarre la cristallisation de la graine solide, qui procure aujourd’hui l’essentiel des forces d’Archimède qui nourrissent la convection ? Pourquoi <a href="https://webtv.univ-lille.fr/video/10055/le-magnetisme-de-la-terre-et-des-autres-planetes">Vénus</a> n’a-t-elle pas de dynamo ?</p>
<p>Quoi qu’il en soit, alors que le <a href="https://www.futura-sciences.com/sciences/actualites/soleil-nouveau-cycle-solaire-pourrait-etre-plus-intense-jamais-observe-84601/">cycle solaire 25</a> du Soleil promet d’être très intense (ce cycle de 11 ans qui caractérise l’activité solaire a débuté en décembre 2019), nous pouvons compter sur notre cher champ magnétique terrestre pour nous protéger. Et si jamais les éruptions solaires venaient à nous priver de nos satellites pour nous repérer, il ne nous resterait plus qu’à compter sur ce bon vieux CMT pour nous guider. En espérant que l’inversion des pôles <a href="https://www.sciencesetavenir.fr/fondamental/faut-il-s-inquieter-de-l-inversion-magnetique-des-poles_130996">ne nous déboussole pas</a> pour autant !</p><img src="https://counter.theconversation.com/content/172918/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Waleed Mouhali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Bien qu’on utilise ses caractéristiques depuis plus de 1 000 ans, les modélisations de l’origine du champ magnétique terrestre se heurtent toujours à sa complexité.
Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/172185
2021-11-30T07:32:03Z
2021-11-30T07:32:03Z
Une France zéro carbone en 2050 : pourquoi le débat sur la sobriété est incontournable
<p>Pour faire face aux conséquences du réchauffement climatique, la France s’est fixé pour objectif d’atteindre la « neutralité carbone » d’ici à 2050 : c’est-à-dire atteindre un équilibre entre les flux annuels d’émissions de gaz à effet de serre et les flux annuels d’absorption de ces gaz pour limiter le déséquilibre climatique.</p>
<p>Mais comment s’y prendre concrètement pour atteindre un tel objectif en quelques décennies seulement, alors que nous peinons à réduire seulement de quelques pour cent nos émissions ? Cela passe nécessairement par de profondes transformations de la société et de l’économie.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1457614030000967683"}"></div></p>
<p>Une nouvelle étude de l’Agence de la transition écologique (Ademe) – <a href="https://transitions2050.ademe.fr/">« Transition(s) 2050. Choisir maintenant. Agir pour le climat »</a> qui paraît ce mardi 30 novembre 2021 – tente d’apporter des éléments de réponse en proposant 4 « profils » de scénarios comme autant de manières d’aboutir à la neutralité carbone en 2050 : de la plus sobre (il faut changer nos modes de vie et réduire notre consommation) à la plus « technophile » (misons sur les avancées technologiques pour réparer les dégâts causés à l’environnement sans modifier nos modes de vie).</p>
<h2>Inviter au débat collectif</h2>
<p>Si l’Ademe s’est déjà livrée à un exercice de prospective en 2012 puis 2017, c’est la première fois qu’elle le fait dans une approche aussi globale. Ce travail d’ampleur, mené pendant deux années, a mobilisé une centaine d’experts au sein de l’Agence qui ont chacun apporté une vision de leur secteur pour construire, par itérations successives, quatre scénarios consistants et cohérents.</p>
<p>Le résultat de cette initiative se présente en plus de 650 pages et a vocation à toucher bien au-delà des spécialistes de la transition énergétique et écologique. Dans cet esprit, une synthèse et un résumé exécutif sont également proposés. Acteurs économiques, citoyens, ONG, décideurs publics, tous sont invités à s’en saisir pour alimenter la délibération collective.</p>
<p>Les quatre scénarios proposés, qui s’inspirent de ceux du <a href="https://www.ipcc.ch/site/assets/uploads/sites/2/2019/09/IPCC-Special-Report-1.5-SPM_fr.pdf">rapport du GIEC sur les 1,5 °C</a>, sont volontairement contrastés : chacun mobilise des leviers techniques, économiques et sociaux différents, et le document détaille le plus honnêtement possible leurs implications respectives.</p>
<h2>Les défis d’une projection en 2050</h2>
<p>La complexité d’une telle étude était d’intégrer toutes les dimensions de la transition écologique, certaines étant encore mal documentées.</p>
<p>Contrairement aux enjeux touchant l’énergie, déjà bien modélisés, ceux qui concernent les ressources (sols, matériaux, métaux, eau…) sont en effet compliqués à appréhender quantitativement dans leur diversité. Même difficulté pour la biodiversité : les enjeux sont territorialisés et donc difficiles à extrapoler dans un modèle national. Ces nouveaux champs ont donc été intégrés autant que possible, mais ils devront être affinés dans de prochains exercices.</p>
<p>Autre défi : les effets du changement climatique. Lorsque l’on se projette en 2050, on risque d’oublier que le monde de demain sera bien différent, le changement climatique étant déjà une réalité. Si le débit du Rhône baisse de 30 %, c’est toute l’agriculture du sud-est de la France qui devra changer tandis que les productions d’énergie des centrales nucléaires du Rhône seront remises en question.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/recit-anime-deux-siecles-de-sciences-du-climat-vus-par-les-chercheurs-171433">Récit animé : deux siècles de sciences du climat vus par les chercheurs</a>
</strong>
</em>
</p>
<hr>
<p>Il faut donc intégrer l’adaptation au changement climatique dans les stratégies de neutralité carbone, ce que l’Ademe a tenté de faire avec les connaissances disponibles.</p>
<p>Enfin, si les enjeux écologiques sont mondiaux, l’étude a été menée à l’échelle de la France métropolitaine : penser l’avenir sans connaître précisément l’évolution du reste du monde implique forcément des simplifications.</p>
<h2>Quels sont les principaux constats de l’étude ?</h2>
<p>Plusieurs résultats forts émergent : tout d’abord, il n’y a pas de solution miracle. Aucun des scénarios n’est facile, en raison de défis à relever pour mettre en œuvre les nouvelles solutions – plutôt technologiques pour les scénarios 3 “technologies vertes” et 4 “pari réparateur”, plutôt d’organisation sociétale pour les scénarios 1 “génération frugale” et 2 “coopérations territoriales”.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/434438/original/file-20211129-59337-1800mau.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/434438/original/file-20211129-59337-1800mau.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/434438/original/file-20211129-59337-1800mau.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=424&fit=crop&dpr=1 600w, https://images.theconversation.com/files/434438/original/file-20211129-59337-1800mau.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=424&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/434438/original/file-20211129-59337-1800mau.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=424&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/434438/original/file-20211129-59337-1800mau.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=533&fit=crop&dpr=1 754w, https://images.theconversation.com/files/434438/original/file-20211129-59337-1800mau.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=533&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/434438/original/file-20211129-59337-1800mau.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=533&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Présentation synthétique des quatre scénarios.</span>
<span class="attribution"><span class="source">Ademe</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span>
</figcaption>
</figure>
<p>L’étude met par ailleurs en lumière l’importance d’inscrire au cœur des débats, au même titre que la question des technologies, les interactions avec le monde vivant. Au-delà de sa valeur propre que nous devons préserver, le vivant nous nourrit, nous fournit en matériaux et en énergie, et stocke aussi du carbone… Nous devons imaginer notre développement en interdépendance avec lui, ce que nous avons un peu oublié dans notre monde où l’urbanisation ne cesse de gagner du terrain.</p>
<p>Enfin, la sobriété apparaît comme un élément structurant du choix de développement. Nous avons en effet trois leviers principaux pour diminuer nos impacts sur le climat : la sobriété (s’interroger sur nos besoins), l’efficacité énergétique (produire en consommant moins d’énergie), et le recours aux énergies propres. Or ces deux derniers leviers sont limités par leur potentiel physique et restent conditionnés au progrès technologique.</p>
<h2>La sobriété, une notion mal connue</h2>
<p>Centrale dans la transition écologique, cette notion demeure mal appréhendée, parfois caricaturée. Et soulève des inquiétudes.</p>
<p>Rappelons d’abord ce qu’elle est : loin de se réduire à un slogan pour un mode de vie « régressif », elle consiste en premier lieu à nous questionner collectivement et individuellement sur nos besoins ; en second lieu, à satisfaire ces besoins en limitant notre impact sur l’environnement.</p>
<p>Si cette démarche de sobriété n’appelle pas de réponse unique, elle a forcément des conséquences plus radicales sur nos modes de vie et de consommation que des solutions techniques (augmenter l’efficacité énergétique, décarboner les énergies, voire capter et stocker le CO<sub>2</sub>).</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/434455/original/file-20211129-23-zz9j8c.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/434455/original/file-20211129-23-zz9j8c.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/434455/original/file-20211129-23-zz9j8c.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=566&fit=crop&dpr=1 600w, https://images.theconversation.com/files/434455/original/file-20211129-23-zz9j8c.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=566&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/434455/original/file-20211129-23-zz9j8c.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=566&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/434455/original/file-20211129-23-zz9j8c.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=712&fit=crop&dpr=1 754w, https://images.theconversation.com/files/434455/original/file-20211129-23-zz9j8c.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=712&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/434455/original/file-20211129-23-zz9j8c.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=712&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Graphique extrait de l’étude de l’Ademe détaillant la consommation énergétique dans les différents scénarios prospectifs visant la neutralité carbone de la France à l’horizon 2050.</span>
<span class="attribution"><span class="source">Ademe</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span>
</figcaption>
</figure>
<p>Il ne s’agit pas pour autant d’opposer frontalement la sobriété et la technologie. La première interroge surtout la manière d’utiliser la seconde, en la mobilisant à la mesure de la réalité de nos besoins. Elle peut conduire par exemple à privilégier des solutions <em>low tech</em>, simples et robustes, qui répondent au besoin, en laissant de côté des fonctionnalités secondaires.</p>
<h2>Des solutions de bon sens ?</h2>
<p>S’appuyer sur la sobriété devrait être plus facile que développer de nouvelles solutions technologiques, puisqu’elle repose le plus souvent sur le bon sens (« L’énergie qui coûte la moins chère est celle qu’on ne consomme pas », etc.) et ne nécessite pas de développements compliqués. Pourtant, les freins restent nombreux.</p>
<p>Le premier concerne « l’effet rebond » : lorsqu’on met en place une nouvelle technologie plus efficace, elle nous fait faire des économies, ce qui peut nous pousser à changer notre comportement pour en profiter encore davantage. Ainsi, la rénovation énergétique d’un logement poussera les habitants à monter le thermostat, puisque le chauffage coûte moins cher. Dans un logement où il faisait froid parce qu’on ne pouvait pas payer la facture, c’est tout à fait compréhensible. Mais quand on se chauffait déjà bien, ne vaudrait-il pas mieux garder un pull et utiliser les économies réalisées pour des besoins plus pertinents ?</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1318658567738712066"}"></div></p>
<p>Deuxième obstacle, les individus peuvent être dans l’incapacité de choisir la sobriété. Cette incapacité peut être financière (ils n’ont pas les moyens d’engager une rénovation énergétique) ou physique, parce que l’organisation territoriale ou économique les en empêche. Si l’on peut faire l’effort d’aller acheter son pain à pied ou à vélo, se rendre quotidiennement au travail à plusieurs dizaines de kilomètres de chez soi quand il n’y a pas de transport collectif s’avère compliqué ; difficile ici de se passer de voiture.</p>
<p>Un dernier obstacle concerne la dimension sociale de la sobriété et nos imaginaires collectifs et individuels de la « vie bonne ». Notre modèle économique contemporain demeure fondé sur l’incitation à la consommation. Transformer nos représentations sociales, alimentées par la publicité et les réseaux sociaux, implique d’agir sur des aspects systémiques de la société.</p>
<h2>Mille et une façons d’être sobre</h2>
<p>Penchons-nous à présent sur différentes déclinaisons possibles de la sobriété.</p>
<p>Nos actes de consommation représentent la plus grande partie de notre empreinte carbone. Plus on achète, plus on fabrique, et plus on fabrique, plus on utilise d’énergie et de matières premières… Prenons l’exemple du textile : nous achetons aujourd’hui deux fois plus de vêtements <a href="https://multimedia.ademe.fr/infographies/infographie-mode-qqf/">qu’il y a 15 ans</a> ! Pouvons-nous interroger la nécessité de renouveler notre garde-robe aussi fréquemment ?</p>
<p>La sobriété réside aussi dans la façon de s’alimenter, qui représente en moyenne le quart de l’empreinte carbone d’un Français. Le levier le plus efficace consiste à modérer sa consommation de viande : il faut quatre fois moins de surface agricole pour nourrir un végétarien qu’un gros mangeur de viande. Entre les deux, il y a de la marge pour choisir son niveau de modération et manger de la viande de qualité. On peut également interroger sa consommation d’aliments transformés, de produits sucrés, etc.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/434449/original/file-20211129-59337-1euo515.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/434449/original/file-20211129-59337-1euo515.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/434449/original/file-20211129-59337-1euo515.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=399&fit=crop&dpr=1 600w, https://images.theconversation.com/files/434449/original/file-20211129-59337-1euo515.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=399&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/434449/original/file-20211129-59337-1euo515.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=399&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/434449/original/file-20211129-59337-1euo515.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=501&fit=crop&dpr=1 754w, https://images.theconversation.com/files/434449/original/file-20211129-59337-1euo515.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=501&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/434449/original/file-20211129-59337-1euo515.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=501&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Graphique extrait de l’étude de l’Ademe montrant comment se compose l’alimentation dans les différents scénarios prospectifs visant la neutralité carbone de la France à l’horizon 2050.</span>
<span class="attribution"><span class="source">Ademe</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span>
</figcaption>
</figure>
<p>Le numérique, dont l’utilisation, et donc l’impact, croît à une vitesse vertigineuse, est un beau terrain de jeu pour la sobriété : privilégier le wifi à la 4G, modérer l’envoi de vidéos sur les réseaux sociaux, regarder une vidéo en basse définition…</p>
<p>Ces actions relèvent plutôt du niveau individuel, mais sur des pans structurants, la sobriété est en fait un défi collectif.</p>
<p>Le télétravail est ainsi synonyme de gain de confort et, à première vue, bénéfique pour l’environnement. Voilà une sobriété apparemment facile à atteindre ! Mais c’est sans compter l’appartement chauffé toute la journée, voire le déménagement vers un logement plus spacieux et peut-être plus éloigné du lieu de travail. Pendant ce temps, les bureaux de l’entreprise restent largement vides, et continuent de consommer de l’énergie. Le gain effectif est en fait conditionné à une modification globale de l’organisation des entreprises et de l’aménagement du territoire ; cela nécessite une adaptation coordonnée entre collectivités, entreprises et salariés.</p>
<p>Plus globalement, les politiques publiques, les logiques de marché, sur lesquelles l’individu n’a pas de prise, vont largement définir là où on habite, là où on consomme, là où on travaille, nos modes de déplacement…</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1082854865355894785"}"></div></p>
<p>Par exemple, sortir du modèle du tout pavillonnaire, qui consomme beaucoup de surface et allonge les temps de parcours, nécessite un effort coordonné de tous les acteurs politiques et économiques pour offrir des logements économiquement accessibles et désirables dans un nouveau modèle urbain, de nouveaux types d’emplois plus proches des lieux de vie, des parcours de formations adaptés… Pas simple !</p>
<h2>Un défi démocratique</h2>
<p>Comme le révèlent ces exemples, ce sont nos modes de vie, mais aussi notre modèle social et économique que la sobriété vient bousculer. Cela explique que l’on tende collectivement à privilégier les solutions techniques pour ne pas s’attaquer à ce qui paraît trop complexe et peu consensuel. Pourtant, la nouvelle étude de l’Ademe montre qu’une bonne dose de sobriété sécurisera grandement la préservation de la planète.</p>
<p>Le scénario 4, qui ne recourt pas à la sobriété nous mène visiblement dans une impasse : tels les Shadoks, nous consacrerions toujours plus d’effort à réparer les dégâts sur l’environnement. Le scénario 3 mise principalement sur les technologies, mais le temps pour les diffuser retarde la baisse de notre impact sur l’environnement.</p>
<p>Le scénario 1 et le scénario 2 font eux le pari de réussir à changer nos modes de vie. Le premier au moyen d’une modification rapide de l’imaginaire collectif et de normes contraignantes, ce qui fait peser le risque de clivages forts, voire violents (la crise des gilets jaunes l’a montré) dans la société si les choix ne sont pas bien partagés et expliqués. Le second mise sur un consensus issu d’une gouvernance multipartite ; il va nécessairement un peu moins vite.</p>
<p>L’enjeu de la sobriété collective, c’est de proposer des options désirables et de répartir l’effort équitablement entre entreprises et consommateurs, urbains et ruraux, jeunes et âgés… Ceci nécessite d’en débattre sereinement, de trouver des compromis, en veillant avant tout à ne pas faire peser l’effort de sobriété sur des populations qui ont déjà du mal à satisfaire leurs besoins. La modération numérique ne peut pas être un prétexte par exemple pour ne pas donner l’accès au numérique très haut débit dans les zones rurales ! De même, il faudra accompagner les fractions de la société affectées de plein fouet par ces transformations. Ceux, par exemple, qui travaillent dans une filière remise en cause par la démarche de sobriété collective.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1446368521777262628"}"></div></p>
<p>C’est pour toutes ces raisons que la mise en œuvre de la sobriété exige une délibération collective. Il faut réhabiliter cette question comme une chance pour un nouveau contrat social à élaborer collectivement, et non un débat clivant. L’expérience de la convention citoyenne pour le climat, qui réunissait des personnes de tous horizons, a révélé qu’il était possible de proposer des choix ambitieux et consensuels.</p>
<p>Aucun des scénarios présentés dans l’étude n’a bien sûr de valeur normative ; divers choix sont possibles. La question reste de savoir quels types de leviers de sobriété on veut mobiliser et jusqu’à quel point.</p>
<p>Croire que la résolution de la crise climatique ne passera que par la technologie est un pari trop risqué pour être tenté.</p><img src="https://counter.theconversation.com/content/172185/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Fabrice Boissier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Dans sa nouvelle étude,« Transition(s) 2050 », l’Ademe dévoile quatre scénarios pour lutter contre le changement climatique. La sobriété, à différents degrés, y tient une place de choix.
Fabrice Boissier, Ingénieur du Corps des Mines, Directeur général délégué, Ademe (Agence de la transition écologique)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/155344
2021-11-17T21:27:41Z
2021-11-17T21:27:41Z
Hôpital : les « jumeaux numériques », un nouvel outil de simulation
<figure><img src="https://images.theconversation.com/files/431269/original/file-20211110-21-1ugwy4x.jpg?ixlib=rb-1.1.0&rect=13%2C20%2C4454%2C2954&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Un jumeau numérique est le double virtuel d'un système complexe. Cet outil numérique, entre simulation et modélisation, permet d'appréhender des conditions complexes ou inhabituelles.</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/U4FyCp3-KzY">Piron Guillaume/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>Le jumeau numérique est le double virtuel d’un système complexe : un hôpital, un organe, un médicament, ou bien encore une zone de conflit. Dans le secteur de la santé, la start-up française Anatoscope a par exemple développé le jumeau numérique de patients présentant des caractéristiques différentes afin de simuler sur eux l’efficacité de prothèses orthopédiques – une fois l’efficacité prouvée grâce à la simulation numérique, la production personnalisée <a href="https://www.inria.fr/fr/sante-medecine-anatoscope-jumeaux-numeriques">a été lancée</a>.</p>
<p>Aussi éloignées que soient les missions de l’armée et de l’hôpital, l’essor des technologies numériques conduit néanmoins à développer des outils et des pratiques fortement similaires. Par exemple, la complexité d’un combat en zone de guerre et d’une organisation hospitalière peuvent s’appréhender à la fois par la <a href="https://www.dunod.com/sciences-humaines-et-sociales/modelisation-systemes-complexes">modélisation systémique</a> et par la <a href="https://mitpress.mit.edu/books/sciences-artificial">simulation</a>, deux possibilités justement offertes par le « jumeau numérique ».</p>
<h2>Modélisation et simulation pour créer des connaissances actionnables à l’armée et à l’hôpital</h2>
<p>Depuis 2016, chaque régiment de l’armée de Terre est équipé d’un « espace d’instruction collective à la numérisation de l’espace de bataille assisté par la simulation ». Par exemple, l’outil de simulation de combat <em>Battle Space 3</em> modélise en 3D de vrais terrains de conflits, <a href="https://www.defense.gouv.fr/terre/actu-terre/la-simulation-en-appui-aux-operations">ce qui permet aux soldats</a> de s’entraîner virtuellement et ensuite d’étudier différents itinéraires, différents scénarios de combats, d’analyser leurs points forts et leurs points faibles.</p>
<p>Dans la même logique que celle suivie par les militaires, les professionnels de la santé commencent à se doter de <a href="https://www.researchgate.net/publication/306223791_Digital_Twin_Mitigating_Unpredictable_Undesirable_Emergent_Behavior_in_Complex_Systems">« jumeaux numériques »</a> pour mieux se préparer aux soins. Par exemple, le jumeau numérique d’un anévrisme de l’aorte permet de fabriquer des <a href="https://fr.wikipedia.org/wiki/Endoproth%C3%A8se">endoprothèses</a> spécifiques à chaque patient et permet au chirurgien de préparer son intervention grâce aux simulations des complications qui pourraient survenir après l’opération.</p>
<p>Le jumeau numérique d’un hôpital peut également aider à mieux se préparer aux situations sanitaires exceptionnelles. Même si de telles modélisations restent encore expérimentales, il existe déjà des jumeaux numériques de services de soins, par exemple le <a href="https://www.lemonde.fr/campus/article/2019/09/17/a-saint-etienne-une-salle-d-hopital-numerique-pour-former-des-etudiants_5511300_4401467.html">jumeau du service des urgences du CHU de Saint-Étienne</a>.</p>
<p>Pour les zones de conflits comme pour les hôpitaux, l’objectif est de développer et d’utiliser des <a href="https://www.dunod.com/entreprise-economie/savoir-pour-agir-surmonter-obstacles-apprentissage-organisationnel">connaissances « actionnables »</a>, c’est-à-dire « valables et pouvant être mises en action » immédiatement, au quotidien. En effet, les jumeaux numériques modélisent le fonctionnement de systèmes complexes, prenant en compte les processus, interactions, rétroactions, effets amplificateurs, etc. Il procède ensuite à des <a href="https://mitpress.mit.edu/books/sciences-artificial">simulations</a> de ce fonctionnement. Dans le cas d’un hôpital, il pourrait par exemple considérer différents scénarios de crise sanitaires : variation du nombre et de l’ampleur des clusters sur le territoire, du taux de personnels contaminé, du nombre de respirateurs disponibles par exemple, afin de tester la fiabilité de l’organisation.</p>
<p>Il existe cependant une différence notable entre l’armée et l’hôpital : la <a href="https://www.cnrtl.fr/definition/subsidiarit%C3%A9">subsidiarité</a>, c’est-à-dire le fait que « tout échelon supérieur s’interdit de réaliser lui-même ce qu’un échelon inférieur pourrait faire ».</p>
<h2>La subsidiarité et le sens donné aux missions : la force de l’armée, la faiblesse de l’hôpital</h2>
<p>L’armée de Terre française a publié en 2016 un <a href="https://www.economica.fr/livre-commandement-et-fraternite-armee-de-terre,fr,4,9782717868944.cfm">ouvrage</a> qui explique comment elle s’adapte à un monde incertain. Notamment, elle recueille tous les avis « sans que le niveau hiérarchique de ceux qui les émettent n’intervienne dans l’appréciation de leur pertinence », en vertu du <a href="https://fr.wikipedia.org/wiki/Principe_de_subsidiarit%C3%A9">principe fondateur de subsidiarité</a>. La collaboration à tous les niveaux de la chaîne de commandement permet de proposer des actions, des adaptations pour être meilleur que l’ennemi. Les décideurs que sont tous les soldats, indépendamment de leur grade, s’appuient sur des flux d’informations croisés avant, pendant, et après la mission, afin de créer des connaissances actionnables. Le partage d’information est en outre indispensable pour poser « les bases d’une compréhension mutuelle, d’une appropriation de la mission en permettant à chacun d’inscrire son action dans un cadre plus vaste ». Cette implication profonde n’enlève rien à la discipline et à la relation de commandement, mais constitue un facteur essentiel du sens donné aux missions et à l’engagement sous les drapeaux.</p>
<p>Inversement, les professionnels au sein des hôpitaux sont globalement peu impliqués dans les prises de décisions qui les concernent directement, ce qui contribue à altérer le sens donné au travail. La culture du secteur porte des valeurs humanistes – égalité, neutralité, continuité des soins et adaptation aux besoins de la population – qui entrent en tension avec l’organisation du management et les outils portés par la technostructure. Ces derniers <a href="https://doi.org/10.3917/mav.111.0035">paraissent en effet souvent rigides, contraignants, inutiles ou même incompatibles</a> avec la réalité du terrain. Globalement, contrairement à ce qui se produit dans l’armée, il est difficile de s’approprier les décisions prises par une tutelle, de trouver du sens à une activité qui étouffe les initiatives sortant du cadre imposé et finalement, d’être agile pour faire face à l’incertitude. C’est d’ailleurs pour cette raison que la tutelle a laissé une <a href="https://theconversation.com/debat-affronter-le-covid-19-comme-larmee-affronterait-son-ennemi-134854">liberté d’action tout à fait inédite</a> de quelques semaines aux équipes de terrain pour affronter la première vague de la pandémie.</p>
<h2>La collaboration de tous les professionnels est nécessaire pour mettre en place des jumeaux numériques utiles</h2>
<p>À l’armée comme à l’hôpital, la modélisation et la simulation grâce au jumeau numérique invitent les équipes à se concerter, collaborer, communiquer pour agir, penser dans et avec la complexité.</p>
<p>Le jumeau numérique d’un hôpital dans son ensemble n’existe pas encore, il nécessiterait le rapprochement des sphères gestionnaire, soignante et technique afin de chercher à comprendre ensemble les situations, les objectifs fixés, les résultats obtenus en fonction d’un contexte donné. La compréhension est <a href="https://www.cairn.info/revue-du-mauss-2006-2-page-59.htm">« à la fois fin et moyen de la communication humaine »</a>. Ce chemin à parcourir ensemble pour définir et faire vivre le jumeau numérique permettrait aux professionnels de mieux comprendre les différentes situations selon chaque point de vue, de participer à la <a href="https://theconversation.com/bureaucratie-hospitaliere-chronique-dune-methodique-construction-138397">définition et à la mise en œuvre des décisions</a> selon le principe de subsidiarité et ainsi, de maintenir ou de faire progresser la qualité des soins et la qualité de vie au travail en <a href="https://www.editions-ems.fr/livres/collections/management-prospective/ouvrage/541-guider-la-raison-qui-nous-guide.html">dépit des incertitudes</a>.</p>
<h2>Les défis de la mise en place de jumeaux numériques d’hôpitaux</h2>
<p>Les résultats seront toujours imparfaits, car tous les scénarios ne peuvent pas être imaginés et toutes les données ne peuvent pas être recueillies, <a href="https://imtech.wp.imt.fr/2019/12/10/quesaco-le-jumeau-numerique/">aujourd’hui en tout cas</a>. Néanmoins, le jumeau numérique d’un hôpital permettrait de visualiser différentes nuances de la réalité auxquelles les équipes pourraient être confrontées. Au lieu de perdre du temps à réguler les dysfonctionnements et à agir dans une inconfortable précipitation, l’étude de chacune de ces nuances permettrait ensuite aux professionnels d’anticiper et de se préparer aux nouvelles situations possibles en agissant sur l’organisation.</p>
<p>Comme la simulation en 3D de conflits utilisée par les soldats, le jumeau numérique de l’hôpital peut aider les acteurs à penser l’organisation selon différents angles de vue, celui des soignants et des non soignants, des personnes avec ou sans responsabilité hiérarchique. Le jumeau numérique oblige ainsi une volte-face épistémologique (passant du <a href="https://fr.wikipedia.org/wiki/Positivisme">positivisme</a> au <a href="https://fr.wikipedia.org/wiki/Constructivisme_(%C3%A9pist%C3%A9mologie)">constructivisme</a>) en permettant aux professionnels de voir que la réalité n’est pas univoque, qu’il n’existe pas une seule solution, bonne et définitive, à un problème. Cette piste est largement explorée dans le cadre du <a href="https://hal.archives-ouvertes.fr/hal-03337218">programme de recherche COPING</a> (<em>Covid pandemic institutional management</em>), destiné à mieux appréhender les situations d’incertitudes comme celles engendrées par la pandémie.</p>
<p>La prouesse technologique réside dans la réalisation du double virtuel d’une organisation complexe et du test d’une multitude de scénarios de crises (flux plus ou moins importants de patients lors d’une pandémie, de victime après une tempête, etc.) afin de vérifier la robustesse des différents processus de soins (actes de soins, personnels mobilisés, médicaments et matériels nécessaires, etc.) et des différents processus de services supports (restauration, lingerie, etc.). La prouesse intellectuelle réside dans le fait d’accepter qu’il n’existe pas une seule bonne solution définitive, mais de multiples solutions, qui changent selon le contexte, mais qui gagnent à être trouvées ensemble, puis adaptées au fur et à mesure par ceux qui doivent les appliquer, au plus près des patients.</p><img src="https://counter.theconversation.com/content/155344/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Sandra Bertezene est membre de l'Impact Tank, think tank dédié à l'innovation sociale.</span></em></p>
Des doubles virtuels d’organes existent déjà pour mieux préparer les soins. Les simulations de services hospitaliers commencent également à se développer, notamment pour la formation.
Sandra Bertezene, Professeur titulaire de la Chaire de gestion des services de santé, Conservatoire national des arts et métiers (CNAM)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/166373
2021-08-18T18:45:48Z
2021-08-18T18:45:48Z
« Un monde nouveau » : écoutez l’émission sur les fantasmes autour du cerveau amélioré
<figure><img src="https://images.theconversation.com/files/416770/original/file-20210818-13-1lldvfl.jpg?ixlib=rb-1.1.0&rect=3%2C0%2C1934%2C1373&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">L'artiste Neil Harbisson (ici en 2012) se définit comme cyborg : l'antenne sur son crâne lui permet de capter les couleurs sous forme de sons.</span> <span class="attribution"><span class="source">Flávia de Quadros/indicefoto.com</span>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Parviendra-t-on un jour à réparer le cerveau, grâce à des implants crâniens ou des prothèses, comme le rêve l’hétéroclite courant transhumaniste ? La recherche dans ce domaine existe, mais il y a encore loin de la coupe aux lèvres… L’idée même soulève toutefois déjà d’importantes questions scientifiques, éthiques et philosophiques.</p>
<p>D’un côté, certaines sociétés, comme Neuralink (de l’entrepreneur milliardaire touche-à-tout Elon Musk, transhumaniste affiché), veulent nous projeter dans un avenir où un large public aura accès à ce genre de technologies riche en promesses ludiques sinon provocantes.</p>
<p>De l’autre, laboratoires et institutions se penchent sur la recherche fondamentale, de la compréhension du cerveau aux applications médicales en passant par les moyens de faire communiquer nos cellules avec des objets…</p>
<p>Où s’arrête le réel, où commence le fantasme, que peut-on déjà faire aujourd’hui, quelles sont les difficultés… Voilà les points que nous évoquons dans le cadre de l’émission « Un monde nouveau » sur France Inter.</p>
<p>Ne manquez pas l’épisode <a href="https://www.franceinter.fr/emissions/un-monde-nouveau/un-monde-nouveau-du-mercredi-18-aout-2021">ici</a>.</p>
<p>Et pour aller plus loin, retrouvez notre dossier :</p>
<h2><a href="https://theconversation.com/elon-musk-le-singe-et-les-trois-cochons-une-fable-transhumaniste-164418">Elon Musk, le singe et les trois cochons : une fable transhumaniste ?</a></h2>
<figure class="align-center ">
<img alt="Elon Musk sur la scène de présentation de résultat de sa société Neuralink" src="https://images.theconversation.com/files/416774/original/file-20210818-25-19jnerk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/416774/original/file-20210818-25-19jnerk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=391&fit=crop&dpr=1 600w, https://images.theconversation.com/files/416774/original/file-20210818-25-19jnerk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=391&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/416774/original/file-20210818-25-19jnerk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=391&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/416774/original/file-20210818-25-19jnerk.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=491&fit=crop&dpr=1 754w, https://images.theconversation.com/files/416774/original/file-20210818-25-19jnerk.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=491&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/416774/original/file-20210818-25-19jnerk.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=491&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Elon Musk à la présentation Neuralink d’août 2020.</span>
<span class="attribution"><span class="source">Steve Jurvetson</span>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<h2><a href="https://theconversation.com/vers-les-protheses-de-cerveau-quand-neurones-artificiels-et-naturels-dialoguent-141793">Vers les prothèses de cerveau : quand neurones artificiels et naturels dialoguent</a></h2>
<figure class="align-center ">
<img alt="Neurone actif" src="https://images.theconversation.com/files/416776/original/file-20210818-27-3ab4oz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/416776/original/file-20210818-27-3ab4oz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/416776/original/file-20210818-27-3ab4oz.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/416776/original/file-20210818-27-3ab4oz.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/416776/original/file-20210818-27-3ab4oz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/416776/original/file-20210818-27-3ab4oz.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/416776/original/file-20210818-27-3ab4oz.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Comment faire communiquer nos neurones avec des objets ?</span>
<span class="attribution"><span class="source">T. Ahmed, A. Buonanno, National institute of Child Health and Human Development, National Institutes of Health</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc/4.0/">CC BY-NC</a></span>
</figcaption>
</figure>
<h2><a href="https://theconversation.com/nos-cerveaux-resteront-ils-humains-111471">Nos cerveaux resteront-ils humains ?</a></h2>
<figure class="align-center ">
<img alt="Cerveau « nébulaire »" src="https://images.theconversation.com/files/416778/original/file-20210818-21-5pujrw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/416778/original/file-20210818-21-5pujrw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=338&fit=crop&dpr=1 600w, https://images.theconversation.com/files/416778/original/file-20210818-21-5pujrw.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=338&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/416778/original/file-20210818-21-5pujrw.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=338&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/416778/original/file-20210818-21-5pujrw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/416778/original/file-20210818-21-5pujrw.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/416778/original/file-20210818-21-5pujrw.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Quelles seront les conséquences d’apporter des modifications à notre cerveau ?</span>
<span class="attribution"><span class="source">Ivan</span>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<h2><a href="https://theconversation.com/medecine-personnalisee-modeliser-le-cerveau-pour-mieux-soigner-146630">Médecine personnalisée : modéliser le cerveau pour mieux soigner</a></h2>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/416779/original/file-20210818-15-1mmhn14.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/416779/original/file-20210818-15-1mmhn14.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=447&fit=crop&dpr=1 600w, https://images.theconversation.com/files/416779/original/file-20210818-15-1mmhn14.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=447&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/416779/original/file-20210818-15-1mmhn14.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=447&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/416779/original/file-20210818-15-1mmhn14.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=562&fit=crop&dpr=1 754w, https://images.theconversation.com/files/416779/original/file-20210818-15-1mmhn14.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=562&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/416779/original/file-20210818-15-1mmhn14.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=562&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Reconstruction de neurones en 3D.</span>
<span class="attribution"><span class="source">ZEISS Microscopy</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span>
</figcaption>
</figure>
<h2><a href="https://theconversation.com/derriere-la-prise-de-smart-drugs-une-experimentation-sociale-sauvage-50169">Derrière la prise de « smart drugs », une expérimentation sociale sauvage</a></h2>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/416781/original/file-20210818-13-1aqldjd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/416781/original/file-20210818-13-1aqldjd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/416781/original/file-20210818-13-1aqldjd.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/416781/original/file-20210818-13-1aqldjd.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/416781/original/file-20210818-13-1aqldjd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/416781/original/file-20210818-13-1aqldjd.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/416781/original/file-20210818-13-1aqldjd.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Beaucoup tentent de détourner certains médicaments de leur usage initial pour essayer d’améliorer leurs capacités cognitives.</span>
<span class="attribution"><span class="source">Marco Verch</span>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure><img src="https://counter.theconversation.com/content/166373/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
À travers une série d’articles, nos auteurs reviennent sur les fantasmes qui entourent l’amélioration de nos capacités cognitives. On ne peut (pas) encore faire n’importe quoi avec notre cerveau.
Émilie Rauscher, Journaliste rubrique Santé The Conversation, The Conversation France
Lionel Cavicchioli, Journaliste scientifique, The Conversation France
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/165185
2021-08-03T19:40:31Z
2021-08-03T19:40:31Z
Les clefs pour comprendre ces graphes qui ont fleuri lors l’épidémie de Covid-19
<figure><img src="https://images.theconversation.com/files/413390/original/file-20210727-16-1ie6g9e.png?ixlib=rb-1.1.0&rect=0%2C0%2C1337%2C582&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Sur internet et dans les médias, le nombre de visualisations dédiées à la Covid a explosé.</span> <span class="attribution"><span class="source">D'après Google Images/DR</span></span></figcaption></figure><p>Plus qu’aucun événement auparavant, l’épidémie de Covid-19 a été celui des courbes, graphiques, cartes et autres formes de visualisations – « dataviz » pour les habitués. Une singularité qui a contribué à forger notre perception de la situation. Ainsi, dès ses premiers pas au ministère de la Santé, Olivier Véran <a href="https://twitter.com/olivierveran/status/1237113080401756164?">dessinait en direct un graphique</a> pour justifier la stratégie du gouvernement « d’aplatir la courbe ».</p>
<p>Produites par une diversité d’acteurs allant des <a href="https://www.lemonde.fr/m-le-mag/article/2020/10/08/coronavirus-les-producteurs-amateurs-de-graphiques_6055255_4500055.html">institutions publiques et scientifiques aux amateurs</a>, leur circulation dans les médias et sur les réseaux sociaux a <a href="https://arxiv.org/abs/2101.04743">attiré l’attention des chercheurs</a>. Pourquoi une telle profusion ? Quelle place occupent ces représentations de l’épidémie et quelles sont leurs conséquences sur notre manière d’envisager les enjeux de santé ?</p>
<h2>Les visualisations sont utiles pour donner du sens</h2>
<p>L’épidémie de Covid-19 s’est concrétisée dans une diversité de situations, de vécus et d’images entraînant une multiplication des chiffres permettant de les retranscrire. Certains indicateurs sont vite devenus centraux pour construire une idée générale du phénomène : nombre de cas détectés, taux de positivité des tests, nombre d’hospitalisation, nombre de décès, taux de vaccination, etc. Ils ont alors été transformés en infographies de toutes sortes, afin de faciliter leur communication, leur analyse et aider à raconter le <a href="https://www.values-associates.fr/blog/datavisualisation-raconte-covid-19/">déroulé des événements</a>.</p>
<p>Ces visualisations ont été relayées par Internet, la presse et les plateaux télévisés <a href="https://www.meta-media.fr/2020/04/10/selection-des-meilleures-dataviz-sur-le-co-vid-19.html">à une échelle sans précédent</a>. Au point que, comme le remarquait un <a href="https://www.lemonde.fr/m-perso/article/2021/05/21/c-est-le-langage-du-moment-comment-les-nouvelles-cartes-redessinent-le-monde_6081070_4497916.html">article du Monde</a>, « imaginaires ou tragiquement sérieuses, les cartes constituent la toile de fond de notre quotidien sous Covid-19 ».</p>
<p>Un mouvement qui est aussi associé à la multiplication des <em>dashboards</em> (« tableaux de bord ») chez les <a href="http://mastersofmedia.hum.uva.nl/blog/2020/10/21/public-safety-in-the-year-of-unprecedented-times-an-intervention-on-government-sanctioned-covid-19-data-visualization/">agences de santé nationales</a>, telle <a href="https://dashboard.covid19.data.gouv.fr/suivi-indicateurs?location=FRA">Santé Publique France</a>, ou par des particuliers tel <a href="https://covidtracker.fr/">Covid tracker</a> : autant d’outils qui résument, via une sélection de graphiques, la situation à l’échelle de pays.</p>
<p>Dans des situations très complexes comme les <a href="https://www.cairn.info/revue-reseaux-2021-4-page-23.html">modélisations de l’épidémie</a>, ces représentations graphiques jouent un rôle central dans l’analyse. Elles font désormais partie intégrante de la manière dont on se la représente, jusque dans les métaphores employées – quand, par exemple, comme Olivier Véran nous parlons « d’aplatir la courbe ».</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1242420727401394176"}"></div></p>
<h2>… Mais elles ne sont pas sans conséquence</h2>
<p>Cartes et courbes ne sont toutefois pas neutres : elles témoignent des choix faits pour les établir, et dessinent des <a href="https://utpjournals.press/doi/abs/10.3138/E635-7827-1757-9T53">configurations de pouvoirs</a>. Comme le remarquent les coordinateurs d’un <a href="https://www.aup.nl/en/book/9789463722902/data-visualization-in-society">ouvrage récent sur la visualisation des données dans la société</a> :</p>
<blockquote>
<p>« La visualisation de données est une technologie, ou un ensemble de technologies, qui, comme dispositifs tels que l’horloge, le compas, le boulier ou la carte, transforme la manière dont nous voyons le monde et dont nous nous référons à la réalité. » (<em>Traduction de l’auteur</em>)</p>
</blockquote>
<p>Du fait de leurs atouts, elles sont omniprésentes. Les visualisations sont en effet associées à la rigueur de la démarche scientifique et à la solidité des données. Les chercheurs, même les plus discutés, les mettent ainsi en avant. Et s’il reste à mieux saisir <a href="https://www.natureindex.com/news-blog/simple-data-visualisations-have-become-key-to-communicating-about-the-covid-nineteen-pandemic-but-we-know-little-about-their-impact">leur influence dans l’espace public</a>, des études autour de la littératie graphique en santé (utilisation de représentations graphiques pour visualiser les données, ou <a href="https://en.wikipedia.org/wiki/Graphicacy"><em>graphicacy</em> en anglais</a>) montrent également <a href="https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0241844">leur intérêt pour la prise de décision</a>. Elles sont alors une solution pour rendre perceptibles des phénomènes complexes, difficile à partager autrement, comme les <a href="https://science.sciencemag.org/content/333/6048/1393">incertitudes sur les risques</a>.</p>
<p>Cependant, en raison de leur légitimité et de cet « effet d’objectivité », elles sont aussi régulièrement instrumentalisées. Dans la <a href="https://theconversation.com/next-slide-please-data-visualisation-expert-on-whats-wrong-with-the-uk-governments-coronavirus-charts-149329">communication politique</a> déjà. Avec certaines représentations pouvant <a href="https://www.mediapart.fr/journal/france/090421/covid-jean-castex-presente-des-projections-trafiquees-aux-parlementaires">manquer de fondement</a>, ou des cartes utilisées pour créer une <a href="https://www.lci.fr/amp/sante/covid-19-carnaval-non-declare-de-marseille-un-premier-effet-visible-dans-les-eaux-usees-2181942.html">panique morale d’un risque d’explosion épidémique après le Carnaval de Marseille</a>. Mais également dans la communication de groupes contestataires, qui critiquent les analyses des autorités de santé publique en <a href="https://arxiv.org/abs/2101.07993">mettant en circulation leurs propres « contre-visualisations »</a> où les données établies servent à accréditer des thèses qui le sont moins.</p>
<h2>Distinguer bonnes et mauvaises visualisations</h2>
<p>Car même si les chiffres et données utilisées sont solides, leur mise en scène ne l’est pas forcément.</p>
<p>Voulant mieux comprendre la nature des visualisations réalisées autour de la Covid-19, des chercheurs en ont réalisé une <a href="https://arxiv.org/abs/2101.07993">analyse quantitative</a> à l’aide d’algorithmes de classification. Ils ont pu en identifier huit catégories différentes : les courbes, les zones colorées, les barres, les diagrammes circulaires, les tableaux, les cartes et enfin les plus complexes <em>dashboards</em> et images.</p>
<p>Aucune n’est meilleure qu’une autre dans l’absolu, car il faut savoir s’adapter à son sujet et ses données. Si les critères d’une « bonne visualisation » ne sont pas arrêtés, on sait identifier les mauvaises. Julia Dumont, de la coopérative <a href="https://datactivist.coop/fr/">Datactivist</a> spécialisée dans l’ouverture des données, a répertorié avec le <a href="https://padlet.com/julia_dumont/covid19">hashtag #nifnaf</a> (ni fait, ni à faire) quelques-unes de ces visualisations problématiques en signalant leurs biais et défauts.</p>
<p>Parmi les nombreux problèmes identifiés, il y a : l’absence de cohérence entre les données d’une même visualisation, l’absence d’information sur ce qui est représenté, des choix des couleurs douteux, des comparaisons qui ne font pas sens ou encore la production d’un effet visuel inadéquat. Par exemple le choix d’une échelle géographique risquant de gommer la diversité réelles de situations, <a href="https://theconversation.com/even-the-most-beautiful-maps-can-be-misleading-126474">par exemple à l’échelle d’une ville</a>.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/413387/original/file-20210727-19-u6m2d5.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/413387/original/file-20210727-19-u6m2d5.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=337&fit=crop&dpr=1 600w, https://images.theconversation.com/files/413387/original/file-20210727-19-u6m2d5.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=337&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/413387/original/file-20210727-19-u6m2d5.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=337&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/413387/original/file-20210727-19-u6m2d5.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/413387/original/file-20210727-19-u6m2d5.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/413387/original/file-20210727-19-u6m2d5.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Une carte entièrement verte ne dit absolument rien, et les nombres ne représentant rien sont de toute manière trop petits pour être lus.</span>
<span class="attribution"><span class="source">Intervention d’Olivier Véran sur BFMTV/@blandinelc</span></span>
</figcaption>
</figure>
<p>Une même information, comme le nombre de morts, peut être <a href="https://theconversation.com/the-bar-necessities-5-ways-to-understand-coronavirus-graphs-135537">représentée de diverses manières</a> : avec des formes graphiques différentes (une courbe ou une succession de barres ?) ou à l’aide d’indicateurs différents (valeur absolue ou relative ?). Il convient d’identifier la plus pertinente, en suivant les quelques <a href="https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1003833">règles de bonnes pratiques</a> en usage. Au-delà de la standardisation, la force des visualisations repose largement sur leur dimension créative, gage de leur capacité d’adaptation aux diverses situations.</p>
<p>Cette dimension créative est centrale dans <a href="https://twitter.com/coulmont/status/1334100923992453121">l’excellente visualisation dynamique proposée par Baptiste Coulmont</a>, professeur de sociologie à l’ENS Paris-Saclay, pour rendre compte d’un sujet très débattu sur l’année écoulée : la surmortalité liée à l’épidémie. La mortalité y évolue suivant les jours de la semaine, les semaines de l’année et les années, faisant ressortir les variations. Pour faire apparaître l’impact de l’épidémie, une représentation circulaire (ou polaire) des données rendues disponibles par l’Institut de statistiques français (Insee) est utilisée. Ce qui permet de rendre compte à la fois du caractère cyclique de certains phénomènes (à l’échelle de l’année) et de l’effet cumulé de la mortalité. <a href="https://germain-forestier.info/covid/">D’autres excellentes visualisations existent</a>, faisant preuve là encore de créativité pour résumer des informations complexes.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1334100923992453121"}"></div></p>
<h2>Replacer les visualisations dans leur contexte</h2>
<p>Cependant, une visualisation n’est qu’une étape dans le long cycle des données reposant sur une <a href="https://www.cairn.info/revue-reseaux-2021-4-page-9.htm">infrastructure souvent invisible</a>. La mobilisation des associations et des professionnels a permis de rendre accessible de <a href="https://www.data.gouv.fr/en/pages/donnees-coronavirus/">nombreux jeux de données officiels sur l’épidémie</a>, ouvrant ainsi la possibilité d’une diffusion sous forme graphique… mais aussi de leur vérification. Cet accès est important car il permet de faire varier les choix toujours subjectifs derrière les visualisations réalisées.</p>
<p>Un usage éclairé des visualisations nécessite à la fois d’être en mesure de les lire mais aussi de les resituer dans le paysage plus large de la production des données initiales, de leur analyse et de <a href="https://www.sciencedirect.com/science/article/abs/pii/S0033350621000652?via%3Dihub">leur usage dans la prise de décision en santé publique</a>. Elles doivent donc être recontextualisées, tant dans la perspective de ses auteurs, des données utilisées et de la manière dont elles ont été diffusées. Pour cela, il apparaît nécessaire d’œuvrer pour plus de médiation aux données afin de favoriser la connaissance de ces enjeux auprès des citoyen·ne·s et de participer à une meilleure appréhension de ces visualisations.</p>
<p>Un beau graphique n’implique pas le sérieux de l’analyse représentée, et les usages des visualisations sur la Covid-19 doivent être restitués dans le climat plus général de la <a href="https://pubmed.ncbi.nlm.nih.gov/33866149/">confiance envers les institutions de santé publique</a>.</p>
<hr>
<p><em>Cet article a été réfléchi en collaboration avec l’association marseillaise de médiation aux données <a href="https://www.ledonut-marseille.com/">DONUT Infolab</a> et sa coordinatrice, Elise Méouchy, qui militent en faveur de la transparence de l’information, de l’acculturation aux données par les citoyen·ne·s et du partage des savoirs.</em></p><img src="https://counter.theconversation.com/content/165185/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Émilien Schultz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
L’épidémie de Covid a généré un nombre inédit de cartes, graphes, etc. Mais ces visualisations ne sont pas toujours neutres : quel est leur impact ? Et comment distinguer les bonnes des mauvaises ?
Émilien Schultz, Chercheur en sociologie des sciences et de la santé, Institut de recherche pour le développement (IRD)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/162700
2021-07-26T17:34:30Z
2021-07-26T17:34:30Z
ITER : comment le numérique aide à éviter et contrôler les instabilités de la fusion nucléaire
<figure><img src="https://images.theconversation.com/files/408897/original/file-20210629-26-l38cxd.png?ixlib=rb-1.1.0&rect=5%2C8%2C952%2C949&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Une instabilité de Kelvin-Helmholtz simulée par ordinateur.</span> <span class="attribution"><a class="source" href="https://www.reddit.com/r/CFD/comments/l9mmcm/simulation_of_a_kelvinhelmholtz_instability/">u/unnecessaryellipses1, Reddit</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>Une énergie propre, sans risque d’accident grave et quasiment illimitée ? Cet objectif qui fait rêver est associé au principe de la fusion nucléaire depuis des décennies. À tel point qu’en 1986, malgré leurs fortes divergences, Ronald Reagan et Mikhaïl Gorbatchev proposèrent une coopération permettant de tester cette approche. Ce projet, rejoint depuis par l’Union européenne, l’Inde, la Chine, le Japon et la Corée du Sud a pris le nom d’« ITER », pour « Réacteur thermonucléaire expérimental international ». Finalement initié en 2006, il fournira une preuve de concept que la fusion peut être une source d’énergie. La prochaine étape, un prototype à l’échelle industrielle, est en conception et s’appelle Demo – elle serait certainement mise en œuvre en pratique si ITER démontrait que l’on peut tirer de l’énergie d’un tel réacteur.</p>
<p>Quels principes se cachent derrière ce nom désormais bien connu ? Comment développer un projet d’une telle envergure en pratique ?</p>
<h2>Qu’est-ce que la fusion nucléaire ?</h2>
<p>L’énergie nucléaire est connue car elle nous permet, notamment en France, de nous alimenter en énergie, mais aussi bien sûr à cause des risques qui lui sont associés et qui ont mené à des accidents célèbres, en particulier ceux de <a href="https://theconversation.com/tchernobyl-epidemiologie-dune-catastrophe-58315">Tchernobyl en 1986</a> et <a href="https://theconversation.com/les-lecons-de-fukushima-56254">Fukushima en 2011</a>.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/406122/original/file-20210614-72954-1wo8dy8.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/406122/original/file-20210614-72954-1wo8dy8.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=936&fit=crop&dpr=1 600w, https://images.theconversation.com/files/406122/original/file-20210614-72954-1wo8dy8.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=936&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/406122/original/file-20210614-72954-1wo8dy8.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=936&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/406122/original/file-20210614-72954-1wo8dy8.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1176&fit=crop&dpr=1 754w, https://images.theconversation.com/files/406122/original/file-20210614-72954-1wo8dy8.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1176&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/406122/original/file-20210614-72954-1wo8dy8.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1176&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Exemple d’une fission nucléaire de l’uranium.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Nuclear_fission.svg?uselang=fr">Fastfission, Wikipedia</a></span>
</figcaption>
</figure>
<p>Cette énergie est basée sur une réaction atomique, la <em>fission nucléaire</em>, qui consiste à casser un atome lourd en deux atomes plus légers. Dans les réacteurs actuels, c’est l’uranium qui est fissionné par collision avec un neutron, formant par exemple un atome de krypton et un second de baryum ou encore strontium et xénon. Lors de cette réaction, une partie de la masse initiale est convertie en énergie qu’on récupère et la réaction libère également un neutron qui, lui-même, va aller « casser » un autre atome et ainsi de suite. Hélas, il est possible de perdre le contrôle de ces réactions successives, ce qui peut mener à des accidents.</p>
<p>Dès les années 1940, les scientifiques G. P. Thomson et M. Blackman ont postulé, en déposant un brevet de réacteur, qu’il existait une approche qui consiste plutôt à « fusionner » deux atomes légers en un plus lourd avec là encore une perte de masse qu’on peut récupérer sous forme d’énergie cinétique (particule rapide), puis sous forme de chaleur. Cette réaction est celle qu’on retrouve au cœur de notre soleil et de la plupart des étoiles. Ces recherches ont commencé il y a 70 ans et ITER ne commencera à être testé qu’en 2025. Pourquoi est-ce si long ?</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/406123/original/file-20210614-73350-wxcfix.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/406123/original/file-20210614-73350-wxcfix.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=720&fit=crop&dpr=1 600w, https://images.theconversation.com/files/406123/original/file-20210614-73350-wxcfix.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=720&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/406123/original/file-20210614-73350-wxcfix.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=720&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/406123/original/file-20210614-73350-wxcfix.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=905&fit=crop&dpr=1 754w, https://images.theconversation.com/files/406123/original/file-20210614-73350-wxcfix.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=905&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/406123/original/file-20210614-73350-wxcfix.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=905&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Un noyau de deutérium et un noyau de tritium fusionnent en un noyau d’hélium.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Deuterium-tritium_fusion.svg?uselang=fr">Wykis/Wikipedia</a></span>
</figcaption>
</figure>
<p>Pour une raison finalement assez simple. Pour fusionner deux atomes d’hydrogène – le plus petit et le plus simple des atomes à fusionner, il faut chauffer le gaz d’hydrogène à plusieurs millions de degrés lorsque le gaz est très dense (plusieurs dizaines de fois la densité de l’aire), comme c’est le cas dans le soleil. Pour des densités plus raisonnables, que l’on considère en pratique dans un réacteur (plusieurs milliers de fois moins dense que l’air), il faut atteindre une température entre 100 et 150 millions de degrés. Évidemment, aucun matériau connu ne peut résister à de telles conditions. Comment chauffer alors un gaz à cette température et l’enfermer dans un réacteur sans danger ?</p>
<p>Heureusement, à cette température les gaz deviennent chargés électriquement, les électrons se séparent des atomes et on parle de « plasma ». L’idée géniale des scientifiques russes Igor Tamm et Andreï Sakharov dans les années 1950 a été de proposer un dispositif appelé « tokamak ». Il s’agit d’enfermer le plasma dans une chambre en forme de <em>donut</em>, ou « tore » en langage mathématique, et de le contraindre à tourner à l’intérieur du tore sans jamais s’approcher des bords à l’aide de champs magnétiques extrêmement puissants qui confinent le gaz au centre du tore.</p>
<p>L’objectif d’ITER est de savoir si cette technologie peut être utilisable pour la production d’énergie. Pour cela, ITER cherche à produire plus 5 à 10 fois d’énergie que celle utilisée pour chauffer le plasma et pour le confiner pendant quelques minutes. Si tel est le cas, on pourra passer à des prototypes industriels d’ici à 2050 ou 2060.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/406125/original/file-20210614-115215-1rjk1ae.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/406125/original/file-20210614-115215-1rjk1ae.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/406125/original/file-20210614-115215-1rjk1ae.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/406125/original/file-20210614-115215-1rjk1ae.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/406125/original/file-20210614-115215-1rjk1ae.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/406125/original/file-20210614-115215-1rjk1ae.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/406125/original/file-20210614-115215-1rjk1ae.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/406125/original/file-20210614-115215-1rjk1ae.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Le plasma dans sa cavité torique. Un humain indique l’échelle, en bas à droite.</span>
<span class="attribution"><a class="source" href="https://www.iter.org/img/resize-2000-70/all/content/com/gallery/media/7%20-%20technical/cs_and_plasma_in_tokamak_us-iter.jpg">ITER</a></span>
</figcaption>
</figure>
<p>Bien que le principe des tokamaks existe depuis la fin des années 50, la construction d’ITER n’a commencé qu’à la fin des années 2000. En effet, la technologie des tokamaks est très compliquée et on a construit, au fur et à mesure des années, des tokamaks de plus en plus complexes et de plus en plus grands jusqu’à ITER qui devrait être le premier à produire plus d’énergie que celle utilisée pour le faire fonctionner.</p>
<h2>Quand le numérique permet de mieux contrôler les risques et les coûts</h2>
<p>Une des difficultés centrales pour faire fonctionner la fusion nucléaire est la gestion des « instabilités » : le confinement du plasma à 100-150 millions de degrés par le champ magnétique aura forcément de petits défauts. Ces défauts peuvent conduire une portion du plasma à « s’échapper » vers le bord de la chambre de confinement, conduisant au mieux à une perte d’énergie, au pire à des dégâts très lourds sur la chambre de confinement (ce type de dégâts ne donnerait pas lieu à un accident nucléaire type Fukushima, mais aurait un coût financier très important).</p>
<p>Un enjeu central est donc de détecter et prédire ces instabilités afin de les contrôler ou de les éviter. Une chambre de confinement ainsi que la plupart des dispositifs sont très chers et on ne peut pas se permettre de tester directement les solutions pour le contrôle des instabilités dans un vrai tokamak. Par conséquent, les physiciens utilisent des modélisations mathématiques et numériques de la dynamique du plasma dans la chambre de confinement afin de tester de potentielles méthodes de contrôle et de détection. Il s’agit d’abord de transcrire le problème sous la forme d’équations mathématiques (très complexes, car couplant des phénomènes se déroulant à différentes des échelles de temps et d’espace), puis de résoudre ces équations à l’aide de <a href="https://www.cea.fr/comprendre/Pages/nouvelles-technologies/essentiel-sur-supercalculateurs.aspx">superordinateurs</a> ce qui va permettre de prédire l’évolution du plasma et sa réponse à une nouvelle méthode de contrôle.</p>
<p>Ce processus de modélisation/simulation est en fait très fréquemment utilisé dans l’industrie et en physique : en météorologie pour <a href="https://fr.wikipedia.org/wiki/Pr%C3%A9vision_num%C3%A9rique_du_temps">prévoir la météo</a>, pour la <a href="https://www.pourlascience.fr/sd/geosciences/prevoir-les-tsunamis-2239.php">prédiction de tsunami</a>, en <a href="https://www.inria.fr/fr/la-simulation-numerique-au-service-de-la-chirurgie">médecine pour les jumeaux numériques</a> ou encore dans l’<a href="https://www.youtube.com/watch?v=5-dn4lnS3s0">automobile</a> et l’aviation pour tester les prototypes. Ce type d’outils est utilisé pour simuler séparément les différents phénomènes présents dans un tokamak, car on ne sait pas encore modéliser le fonctionnement complet. Cela a déjà permis de proposer plusieurs <a href="https://www.ipp.mpg.de/5067514/runaways">pistes pertinentes</a> pour le contrôle d’instabilités ces dernières années.</p>
<p>Depuis peu, ces modèles numériques combinent approches physiques (modèles de mécanique des fluides et d’électromagnétisme) et méthodes d’intelligence artificielle, qui permettent de construire des modèles prédictifs à partir de données expérimentales ou de données issues des simulations.</p>
<p>D’un point de vue scientifique, ITER est un projet hors norme. Il est issu d’un partenariat entre plus de trente pays pour un budget d’environ 20 milliards d’euros sur plusieurs décennies. Il mobilise physiciens théoriciens, ingénieurs, spécialistes des matériaux, informaticiens, mathématiciens, qui collaborent afin de faire de ce vieux rêve une réalité pour la génération suivante pour qui l’enjeu énergétique sera central.</p><img src="https://counter.theconversation.com/content/162700/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Emmanuel Franck a reçu des financements de Eurofusion. </span></em></p>
ITER vise à démontrer l’intérêt de la fusion nucléaire pour la production d’énergie. Sur ce chemin semé d’embûches, les outils numériques permettent de mieux contrôler les risques et les coûts.
Emmanuel Franck, Chargé de recherche, Inria
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/163994
2021-07-08T17:51:09Z
2021-07-08T17:51:09Z
Comment se forment les embouteillages ?
<p>Parmi les nombreux souvenirs d’été, il y a, selon les envies et les années, la mer, la montagne… mais aussi les embouteillages. Pourquoi est-il impossible d’avancer, sinon par intermittence, alors qu’aucun péage n’apparaît à l’horizon, ni même un accident ?</p>
<p>Les embouteillages ont de nombreuses conséquences économiques, sociales, logistiques, sanitaires et écologiques. En août 2010, un embouteillage à Pékin d’une centaine de kilomètres dura 12 jours, provoqué par les camions apportant le matériel pour les travaux de l’autoroute G110. Une étude d’un institut de recherche et d’une société d’infotrafic américaine <a href="https://cebr.com/reports/the-future-economic-and-environmental-costs-of-gridlock/">a montré en 2013</a> que les embouteillages coûtent 5,9 milliards d’euros à l’économie française chaque année. De plus, un embouteillage est une source importante de pollution de l’air.</p>
<p>Comment se forme un embouteillage ? Comment l’éviter ? Que peut la science face à ce problème ?</p>
<h2>Comprendre très simplement le phénomène par un exemple</h2>
<p>Dans le cas d’un trafic routier dense, quand un automobiliste change de file, le véhicule qui le suit doit freiner et cette vague (ou onde) de freinage se propage petit à petit et de façon graduelle. Si le premier véhicule a réduit sa vitesse de 10 %, le dixième véhicule aura diminué la sienne d’au moins 20 % pour des raisons de sécurité (maintien de la distance de freinage), mais également par réflexe de préservation. Si bien qu’au bout de plusieurs kilomètres, un bouchon se créera inéluctablement. Ce phénomène est appelé « effet papillon » ou « effet chenille » : une petite cause provoque une réaction beaucoup plus importante en bout de chaîne.</p>
<p>Si les premiers véhicules à avoir ralenti ne sont que faiblement impactés par le bouchon en création et retrouvent rapidement leur vitesse de croisière, il faudra un certain laps de temps pour ceux qui se situent en aval avant de parvenir à se sortir de cette situation. C’est la définition même de l’embouteillage en accordéon.</p>
<figure> <img src="https://1.bp.blogspot.com/-5HvjMIalnXk/WT6UwyxWLAI/AAAAAAAAKkY/TT0xmv-XgXMDlYjtnGrykI1474SYU-OwQCLcB/s1600/bouchon.gif"><figcaption>Animationde la formation d’un embouteillage par effet chenille.</figcaption></figure>
<p>Ce changement de file évoqué n’est qu’un exemple parmi d’autres qui peuvent expliquer la création d’un embouteillage sans raison apparente. Les modes de conduite différents d’un individu à l’autre, les voies d’insertion de véhicules, ou encore tout simplement l’effet de curiosité <a href="https://www.science-et-vie.com/questions-reponses/pourquoi-la-circulation-fait-elle-laccordeon-5939">peuvent entraîner</a> des perturbations de la circulation.</p>
<h2>Une analogie pour comprendre le phénomène…</h2>
<p>Pour étudier les « bouchons automobiles », on utilise en fait des modèles de mécanique des fluides ou de physique des milieux granulaires, car la polyvalence des modèles physiques est telle qu’une même équation peut servir <a href="https://www.podcastscience.fm/dossiers/2012/07/17/les-mathematiques-de-la-formation-des-bouchons/">à modéliser des phénomènes a priori différents</a>. Le flux des voitures peut être imaginé comme un liquide s’écoulant dans un tuyau, ou des billes roulant dans un conduit. Si l’une des billes subit un ralentissement en un point du conduit, celui-ci affecte toutes les billes en aval ; la perturbation se propage vers l’arrière, exactement comme une onde. C’est ce qui se passe dans les bouchons de voitures.</p>
<p>Comment ce ralentissement se forme, se propage et s’amplifie-t-il ? Il faut se tourner du côté des modèles mathématiques issus de la mécanique pour y répondre. Ici, on utilise des paramètres stables pour modéliser le système, par exemple la vitesse autorisée, la vitesse à laquelle se propage un bouchon, le nombre maximal de voitures que la voie peut accueillir.</p>
<p>Pour reproduire le phénomène de formation des bouchons de façon satisfaisante, les facteurs clés sont la fluidité initiale du trafic, la tendance des conducteurs à « surréagir » et la tendance des conducteurs à réagir en retard.</p>
<p>De façon contre-intuitive, la vitesse des véhicules et la densité du trafic n’ont pratiquement aucune incidence, sauf dans les cas limites. Le système peut rapidement dégénérer : une très faible perturbation a des répercussions sur l’ensemble du système. Cette perturbation peut être un conducteur nerveux, un virage trop serré, une anomalie sur la route, etc. Un seul conducteur peut créer un bouchon (ou le résorber, mais cela n’arrive jamais, car un conducteur qui sort d’un bouchon a tendance à trop accélérer).</p>
<p>Conclusion : il faut absolument éviter, dans la mesure du possible, de réagir trop vivement ou pire, de s’arrêter complètement. Mieux vaut rouler à 1 km/h plutôt que devoir immobiliser le véhicule. En faisant cela, on diminue l’amplitude de l’onde et on augmente sa longueur d’onde, première étape de son atténuation. Autre préconisation : équiper les voitures de régulateurs spécialement adaptés aux conditions de circulation lente.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/xpXzz3tEsUg?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">La formation d’embouteillages « fantômes », ceux qui semblent arriver sans raison (Figaro Sciences).</span></figcaption>
</figure>
<h2>Solutions et paradoxes</h2>
<p>Lors des grands départs en vacances, les embouteillages sont inévitables. Les autoroutes ne sont capables d’absorber qu’un certain nombre de véhicules à l’heure. Au-delà d’un certain débit, la fluidité du trafic diminue jusqu’à l’arrêt complet.</p>
<p>Peut-on prévoir les embouteillages ? Hélas… Non ! La visualisation des ondes en temps réel et à grande échelle est quasi impossible… De plus, si le mouvement des fluides, régis par des lois physiques, est, lui, assez « stable », les comportements humains, eux, restent imprévisibles.</p>
<p>Alors, pour réguler le trafic on peut agir sur certains paramètres. Par exemple, jouer sur la vitesse maximale autorisée, même de façon ponctuelle. Sur un axe à plusieurs points d’accès, on peut installer des feux pour faire varier la densité des nouveaux arrivants. De plus, le bon sens pourrait inciter à rajouter des routes. Mais ce n’est pas si simple : à Stuttgart à la fin des années 1960, de gros travaux d’extension du réseau routier avaient créé des <a href="http://www.breves-de-maths.fr/creer-de-nouvelles-routes-peut-generer-davantage-dembouteillages/">embouteillages monstres</a>, aboutissant à la fermeture de la section toute neuve.</p>
<p>La science a même prouvé qu’une voie express pouvait réduire la vitesse moyenne du trafic. C’est le <a href="http://images.math.cnrs.fr/Le-prix-de-l-anarchie.html">« paradoxe de Braess »</a> développé par le mathématicien éponyme. En substance : si la ville décide de construire une nouvelle route (appelons-la A) nettement plus rapide que les voies existantes (nommées B et C), tous les automobilistes vont opter pour la solution A. Un bouchon se forme et au final, les conducteurs mettent plus de temps en empruntant A qu’en se répartissant sur les voies B et C. Sa théorie s’est depuis confirmée. En 1990, la municipalité de New York ferme la 42<sup>e</sup> rue : la circulation dans Manhattan devient plus fluide. À Séoul, la destruction d’une voie express a permis d’améliorer la circulation globale.</p>
<p>En fait, les automobilistes ont un comportement égoïste, et sont en permanence soumis à un conflit intérêt individuel/intérêt collectif.</p>
<p>Alors, rappelons les préconisations scientifiques pour éviter les bouchons :</p>
<ul>
<li><p>augmenter les distances de sécurité permettant d’éviter les freinages intempestifs provoquant des ralentissements conséquents en cas de fort trafic,</p></li>
<li><p>diminuer la vitesse globale tout en gardant une vitesse relativement constante</p></li>
<li><p>ne pas changer de file sans arrêt, être attentif, savoir se détendre pour conserver une conduite normale.</p></li>
</ul>
<h2>Biomimétisme et embouteillages</h2>
<p>Nous l’avons vu, les embouteillages sont liés à une trop forte concentration d’individus qui circulent dans un même espace. Pourtant, les déplacements de grandes colonies de fourmis <a href="https://elifesciences.org/articles/48945">ne rencontrent pas ce problème</a>. En effet, chez les fourmis, quand la densité augmente, le flux croît puis devient constant, contrairement aux êtres humains qui, au-delà d’un certain seuil de densité, ralentissent jusqu’à avoir un flux nul et provoquer un embouteillage. En cas de trop forte densité, les fourmis ne s’engagent plus sur la route, elles attendent. Le choix est conditionné par l’adaptation continue à ces règles « tacites » de déplacement. Le trafic automobile, lui, suit des règles imposées, comme celle de s’arrêter au feu rouge, indépendamment du trafic.</p>
<p>Les systèmes de transport intelligents <a href="https://www.lepoint.fr/automobile/salons/a-la-ils-ont-vu-la-voiture-bio-de-2025-17-11-2013-1757956_656.php">peuvent être influencés</a> par l’adaptabilité permanente des fourmis. La conduite autonome <a href="https://www.leparisien.fr/economie/la-voiture-autonome-servira-a-bien-d-autres-choses-qu-a-se-deplacer-31-03-2019-8043237.php">relèverait le défi de la fluidité sur les routes</a>, pourrait rendre la circulation plus homogène, diminuer les erreurs d’appréciation humaines et permettre d’optimiser les temps de parcours en fonction du trafic.</p><img src="https://counter.theconversation.com/content/163994/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Waleed Mouhali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Entre modèles et paradoxes mathématiques, mieux comprendre les embouteillages et comment les éviter.
Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/162794
2021-06-20T17:03:34Z
2021-06-20T17:03:34Z
Décroissance, impact des réouvertures : où en est l’épidémie de Covid-19 et à quoi s’attendre pour la rentrée ?
<p><em>Réouverture des restaurants, des lieux culturels, levée du couvre-feu, fin du port du masque obligatoire en extérieur… L’épidémie de Covid-19 marque le pas en France, et décroît même sensiblement plus rapidement que ne l’avaient projeté les modèles en avril dernier. Mircea Sofonea, maître de conférences en épidémiologie et évolution des maladies infectieuses à l’Université de Montpellier, nous explique pourquoi, et fait le point sur les hypothèses pour les mois à venir.</em></p>
<hr>
<p><strong>The Conversation France : La décroissance de l’épidémie a été plus rapide que ce qu’avaient anticipé les modèles en avril. Que s’est-il passé ?</strong></p>
<p><strong>Mircea Sofonea :</strong> Il faut rappeler que les modèles épidémiologiques mécanistiques (c’est-à-dire qui reposent sur la dynamique explicite de transmission) ne produisent pas des prévisions, mais des projections. Formellement, il s’apparentent à une implication logique : si la condition A est réalisée, alors on peut s’attendre à ce que la situation B survienne. </p>
<p>Si les hypothèses de travail ne sont en réalité pas satisfaites, les scénarios produits deviennent caducs et les simulations doivent être actualisées. Ce problème survient essentiellement lorsque le signal de l’effet d’une nouvelle mesure est encore incomplet dans les données hospitalières, sur lesquelles nos modèles reposent depuis le début de la pandémie.</p>
<p>Nos premières projections relatives au troisième déconfinement <a href="https://theconversation.com/en-france-lavenir-immediat-de-lepidemie-dependra-des-gestes-barrieres-et-du-depistage-160485">ont été élaborées fin avril</a>. À cette date, l’effet du troisième confinement était limité par rapport aux deux premiers, puisqu’en moyenne 10 personnes en infectaient 9, contre 8 (voire 7) lors des deux précédents. Notre scénario le plus optimiste était donc basé sur l’hypothèse que cette tendance ne s’inverse pas. </p>
<p>La bonne surprise est venue une semaine plus tard, début mai, avec un renforcement de l’effet du confinement. Dès lors, nous avons pu mettre à jour les simulations. </p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1394937126601510912"}"></div></p>
<p>Depuis un mois, l’épidémie suit la tendance la plus optimiste du modèle, sans nécessiter d’ajustement.</p>
<p><strong>TC : Pourquoi n’avoir pas imaginé un scénario « optimiste », avec une telle chute du nombre de reproduction ?</strong></p>
<p><strong>MS :</strong> La démarche scientifique repose sur un principe important, le principe de parcimonie ou « rasoir d’Ockham » (du nom du philosophe franciscain Guillaume d’Ockham qui l’a formulé) : « les hypothèses suffisantes les plus simples doivent être préférées ».</p>
<p>En l’absence d’éléments solides permettant d’anticiper de façon quantitative une dynamique du nombre de reproduction qui ne serait pas déjà incluse dans le modèle (typiquement, l’effet de la vaccination et de l’immunisation par infection), l’hypothèse minimale et méthodologiquement neutre est d’extrapoler la dynamique de l’épidémie en s’appuyant sur les dernières données en date. En avril, cette extrapolation était elle-même soutenue par l’analogie avec les deux premiers confinements. Lors des deux fois précédentes, le nombre de reproduction estimé avait atteint son niveau minimum une dizaine de jours après l’instauration des mesures. </p>
<p>Cependant, la cinétique du troisième confinement a été différente : pendant les 10 premiers jours, le nombre de reproduction a stagné entre 0,9 et 1, puis il a chuté brutalement pour passer en dessous de 0,8, avant de remonter légèrement début mai.</p>
<p>(<em>NDLR : Le nombre de reproduction est une estimation, sur les 14 derniers jours, du nombre moyen d’individus contaminés par une personne infectée. On parle de nombre de reproduction de base (ou R0) en début d’épidémie, en l’absence de mesures de contrôle de la transmission et lorsque la population est entièrement sensible au virus. Au cours de l’épidémie, ce nombre change : on parle de nombre de reproduction effectif ou temporel (Rt). S’il est inférieur à 1, l’épidémie régresse, au-dessus de 1, elle progresse.</em>)</p>
<p>Si, rétrospectivement, il apparaît désormais clair que le troisième confinement a induit une baisse du nombre de reproduction plus lente que celle des deux premiers confinements, il n’était pas possible fin avril de l’anticiper, tout comme il n’y avait pas d’élément en faveur d’une inversion de la tendance au cours du confinement, scénario que, pour les mêmes raisons, nous n’avons pas envisagé.</p>
<p><strong>TC : La fiabilité des modèles est-elle remise en cause ?</strong></p>
<p><strong>MS :</strong> Non, mais il faut bien comprendre que plusieurs raisons, méthodologiques et biologiques, compliquent l’estimation du nombre de reproduction peu de temps après l’instauration ou la levée d’une mesure de restriction.</p>
<p>Premièrement, il existe une différence entre la réalité et ce que l’on peut en appréhender par les mesures. Quand on implémente des restrictions (confinement, couvre-feu…) le nombre de reproduction chute du jour au lendemain dans la vie quotidienne. Cependant, cette discontinuité ne se voit pas dans les chiffres collectés, tout simplement parce que divers paramètres biologiques varient d’une personne à l’autre (temps d’incubation, début de contagiosité, apparition des symptômes…). </p>
<p>La discontinuité due aux restrictions pourrait être visible si tous ces événements se produisaient de façon homogène chez tout le monde, en admettant que le dépistage se fasse exactement au même moment, avec des résultats obtenus avec des délais identiques. Mais ce n’est pas le cas. Dans les faits il y a un lissage, et on ne voit les effets qu’au bout de deux semaines, indirectement, sur les hospitalisations et admissions quotidiennes en services de soins critiques (des données plus fiables que les dépistages, a fortiori en présence de jours fériés).</p>
<p>Deuxièmement, les méthodes de calcul du nombre de reproduction utilisent elles aussi des lissages, notamment pour s’affranchir de l’« effet week-end » : la moyenne glissante sur 7 jours permet de répartir la baisse d’activité de détection des cas le week-end (les laboratoires étant fermés) sur l’ensemble de la semaine, et donc de ne plus être impacté par des oscillations non pertinentes. L’inconvénient est que cette approche tamponne les variations qui témoignent d’un changement récent de tendance en cas de mise en place de mesures de restriction par exemple.</p>
<p>Il est donc nécessaire de poursuivre les efforts de recherche en modélisation. Il faudra notamment affiner les patrons de transmission et, surtout, améliorer l’inférence à partir de signaux faibles. De même, l’acquisition et le croisement de jeux de données complémentaires constituent un véritable enjeu. Au Royaume-Uni par exemple, l’épidémiosurveillance en milieu scolaire, le suivi des chaînes de contacts, le dépistage aléatoire de la population ainsi que le séquençage fournissent des sources précieuses pour améliorer la fiabilité des modèles.</p>
<p>Malgré tout, les modèles parcimonieux ont encore un rôle à jouer, même un an et demi après le début de la pandémie. En effet, s’ils ne sont pas les plus précis sur le court terme, ils permettent de facilement explorer l’ensemble des possibles sur le moyen terme, une temporalité qui intéresse tout particulièrement les décideurs. </p>
<p>En cela, ils sont adaptés pour éclairer les stratégies d’anticipation, en particulier dans le contexte d’une flambée épidémique où un délai peut se traduire exponentiellement en impact sanitaire. Quitte à réévaluer le calendrier toutes les deux semaines, à mesure que les estimations se consolident.</p>
<p><strong>TC : Rétrospectivement, a-t-on une idée des raisons qui peuvent expliquer cette décroissance plus rapide que lors des précédents confinements ?</strong></p>
<p><strong>MS :</strong> Aujourd’hui, nous manquons encore de recul (et de temps) pour l’expliquer de façon causale. Toutefois, à mesure que nous nous éloignons des événements, nous pourrons utiliser d’autres méthodes statistiques dédiées à l’étude du passé lointain, pour étudier de façon plus précise le déroulé de l’épidémie et évaluer la contribution des différents facteurs. Un travail qui, pour le moment, ne peut s’inscrire dans l’urgence des sollicitations. </p>
<p>Une des hypothèses est que la fermeture des écoles a constitué une contribution majeure à l’effet du confinement (pour le premier, la fermeture a été générale et pour le second, les vacances scolaires avaient déjà commencé). Or les enfants étant moins symptomatiques, il faut plus de temps pour voir les effets d’une telle mesure.</p>
<p>La stagnation du nombre de reproduction observée pendant la première semaine du troisième confinement pourrait s’expliquer par le fait que les chaînes de transmission se sont maintenues chez les adultes (sur les lieux de travail notamment). En revanche, ensuite les vacances scolaires ont commencé, les chaînes de transmission initiée dans les écoles n’existaient plus à ce moment-là, et le nombre de reproduction a fortement chuté, puisque de nombreux adultes étaient eux aussi en congé.</p>
<p><strong>TC : Ce résultat repose à nouveau la question du rôle des écoles…</strong></p>
<p><strong>MS :</strong> Oui, et d’autant plus que l’effet « vaccin » a été intégré de façon favorable. </p>
<p>Cependant, on ne peut pas vraiment dire qu’il y a eu un « effet écoles » plus important lors de ce confinement que lors du premier, car les conditions étaient différentes : présence du variant alpha (anciennement dit « britannique », plus contagieux que la souche historique en particulier chez les plus jeunes), vaccination des personnes les plus à risque de complications. </p>
<p>En outre, d’autres facteurs ont pu avoir un impact : les parcs étaient ouverts, la météo était meilleure qu’à l’automne (mais le temps plus clément ne peut expliquer à lui seul la baisse). Mais dans une modélisation prospective, il demeure délicat d’intégrer dans les projections un paramètre comme la météo, alors même que les prévisions au-delà d’une semaine sont incertaines.</p>
<p><strong>TC : Où en est-on aujourd’hui ? Voit-on un effet des réouvertures ?</strong></p>
<p><strong>MS :</strong> À la réouverture des écoles le 26 avril (et du secondaire en demi-jauge la semaine suivante), puis des terrasses le 19 mai, on a vu une légère remontée du nombre de reproduction, qui est repassé entre 0,8 et 0,9, pour revenir se stabiliser autour de 0,8 actuellement.</p>
<p>On observe donc bien un effet de la reprise scolaire et plus modestement de la réouverture des terrasses, mais rien qui soit de nature à faire repartir l’épidémie, qui reste en décroissance, même si cette dernière est un peu plus lente que début mai. Ceci suggère que les terrasses auraient pu être rouvertes plus tôt, en particulier dans les territoires dans lesquels l’incidence était déjà moins élevée. De manière générale, une territorialisation des levées des restrictions (et non pas seulement de leur mise en place) permet de générer des données à même à éclairer la prise de décision pour les territoires moins épargnés. </p>
<p>Par ailleurs, la vaccination joue un rôle clé, ce que montrent les divers scénarios : même si le nombre de reproduction remontait pour repasser légèrement au-dessus de 1, l’avancée de la vaccination pourrait le faire se stabiliser ou refluer rapidement.</p>
<p>Pour la suite, il convient de rester vigilant vis-à-vis des rassemblements en intérieur avec un renouvellement de l’air limité. Les réouvertures des salles de spectacles, des salles intérieures de restaurants sont encore trop récentes pour évaluer leur effet sur l’épidémie.</p>
<p><strong>TC : Le port du masque en extérieur n’est désormais plus obligatoire. Qu’en penser ?</strong></p>
<p>Rappelons que la réouverture des terrasses est intervenue dans un contexte de reconnaissance de la contribution de la voie aérienne (par aérosol) dans la transmission du SARS-CoV-2 et la dynamique de l’épidémie.</p>
<p>La littérature récente suggère cependant que le risque de transmission à l’extérieur est très faible. Il peut néanmoins persister dans les situations de proximité prolongée sans courant d’air, si une personne est exposée plusieurs minutes au nuage d’aérosols produit par une personne contagieuse sans que ce dernier ait eu le temps de se dissiper.</p>
<p><strong>TC : Que peut-on imaginer à l’automne ? Quels variants peut-on s’attendre à voir circuler, dans quelle partie de la population ?</strong></p>
<p><strong>MS :</strong> À nouveau, l’objectif des modèles mécanistiques n’est pas de prédire combien il y aura d’hospitalisation d’ici un nombre donné de jours, mais plutôt de savoir par exemple quel est le niveau de relâchement que l’on peut se permettre sans craindre une saturation hospitalière ou quel est le potentiel de décès d’une quatrième et dernière vague.</p>
<p>Actuellement, le variant alpha est majoritaire (même si le variant bêta d’origine sud-africaine semble désormais se propager plus rapidement que lui en Île-de-France et dans les Hauts-de-France, peut-être parce qu’il échapperait davantage à l’immunité naturelle, voir notre dernier travail <a href="https://www.eurosurveillance.org/content/10.2807/1560-7917.ES.2021.26.23.2100447">publié dans le journal du centre européen de prévention et de contrôle des maladies</a>). </p>
<p>Sachant que le variant alpha se propage davantage chez les jeunes et qu’en outre, les plus âgés ont été vaccinés en priorité, on peut naturellement s’attendre à ce que les plus jeunes deviennent le réservoir de circulation du virus dans les mois à venir.</p>
<p>La véritable question est de savoir quelle est l’ambition que l’on se fixe pour la rentrée : souhaite-t-on, par exemple, se débarrasser du port du masque complètement, non seulement à l’extérieur, mais aussi à l’intérieur ? Permettre à nouveau tous les événements culturels, quelle que soit la taille du public ? Dans ce cas, la poursuite de la campagne de vaccination cet été sera cruciale.</p>
<p><strong>TC : Quelles sont les estimations en termes de décès potentiels ?</strong></p>
<p><strong>MS :</strong> Actuellement, dans le cas où 90 % de la population adulte se retrouve vaccinée avec deux doses à la rentrée, nous serions encore sous la menace de 15 000 décès hospitaliers au niveau national – l’équivalent d’une importante épidémie de grippe saisonnière. Il s’agit d’un ordre de grandeur, dans les conditions actuelles (hors échappement immunitaire d’un variant, ce qui pour l’instant ne semble pas d’actualité).</p>
<p>Est-on prêt à accepter 15 000 morts supplémentaires ? Sachant que nous avons déjà collectivement accepté plus de 110 000 décès dus à cette pathologie, il y a peu de raison d’imaginer le contraire…</p>
<p>D’un point de vue purement pragmatique, le risque est que, si ces 15 000 décès survenaient de manière rapprochée, ils pourraient mettre à nouveau en tension localement certains centres hospitaliers. Pour cette raison, il est crucial de préparer la rentrée dès à présent. Il s’agira notamment pour les hôpitaux de déterminer comment s’organiser pour gérer au mieux l’activité Covid-19 résiduelle : faudra-t-il maintenir un plateau dédié ou répartir les hospitalisations entre les services ?</p>
<p><strong>TC : Pour prévenir ce type de problème, faut-il forcément que la vaccination soit homogène sur tout le territoire ?</strong></p>
<p><strong>MS :</strong> Pas forcément. Dans une modélisation initiée par Olivier Thomine basée sur les données d’OpenStreetMap, non encore revus par des pairs, l’hétérogénéité spatiale de l’épidémie suggère qu’il est <a href="https://zenodo.org/record/4675731">important d’atteindre des niveaux de couverture vaccinale élevés avant tout dans les grandes métropoles</a>.</p>
<p>Cela plaide pour des mesures territorialisées différenciées, y compris pour la couverture vaccinale : avoir une couverture vaccinale plus basse dans le Gers qu’à Paris, à Lyon où en Seine-Saint-Denis n’est pas forcément un problème. Cependant, si le virus venait à atteindre des territoires à la couverture vaccinale bien trop faible, il y aurait des risques d’épidémies locales. C’est ce qui a été observé par exemple <a href="http://dx.doi.org/10.2807/1560-7917.ES.2017.22.3.30443">aux Pays-Bas avec la rougeole</a>.</p>
<p>Outre la problématique du variant delta (d’origine indienne), dont la dynamique en France est suivie de près, la fin de l’épidémie en France sera déterminée par la couverture vaccinale. L’adhésion peut faiblir à mesure que la situation hospitalière s’améliore et que le risque infectieux perçu baisse. </p>
<p>Les modèles épidémiologiques n’intègrent pas encore les comportements humains, bien qu’il s’agisse d’une piste active de recherche. En attendant, les modélisations se doivent de produire scénarios basés sur une gamme d’hypothèses réalistes et documentées, pour qu’ils recouvrent une gamme de possibles à même d’anticiper le risque épidémique.</p><img src="https://counter.theconversation.com/content/162794/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Mircea T. Sofonea a reçu des financements de la Région Occitanie et de l'ANR (Projet PHYEPI). Il remercie Samuel Alizon (DR CNRS) pour ses suggestions.</span></em></p>
Pourquoi la baisse rapide des contaminations par le coronavirus a-t-elle surpris les modélisateurs ? À quoi s’attendre à la rentrée ? Combien de décès pourraient encore survenir ? Pistes de réponses.
Mircea T. Sofonea, Maître de conférences en épidémiologie et évolution des maladies infectieuses, laboratoire MIVEGEC, Université de Montpellier
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/161256
2021-05-20T18:12:12Z
2021-05-20T18:12:12Z
Neutralité carbone : que retenir du nouveau rapport de l’AIE ?
<p>Alors que les États sont de plus en plus nombreux à annoncer leurs objectifs de neutralité carbone, l’Agence internationale de l’énergie (AIE) vient de <a href="https://www.youtube.com/watch?v=WQ5HsTyU_5Q">dévoiler les trajectoires qui permettraient d’atteindre, ou non, cet objectif</a> au niveau mondial, d’ici 2050.</p>
<p>Quels sont les principaux enseignements de ces nouvelles prévisions réalisées à la demande de la présidence de la COP26, qui se tiendra en novembre 2021 à Glasgow ?</p>
<h2>La « neutralité carbone », pour réduire et absorber les émissions de GES</h2>
<p>La lutte contre le réchauffement climatique repose sur la réduction des émissions de gaz à effet de serre GES (CO<sub>2</sub> en tête) via une baisse massive de la consommation des énergies carbonées (charbon, pétrole et gaz) ; elle repose aussi sur le développement des puits de carbone, avec l’augmentation des capacités de stockage des forêts et des sols, ainsi que sur le déploiement de technologies de captage et stockage du CO<sub>2</sub>.</p>
<p>La combinaison de ces deux actions doit permettre d’atteindre le « zéro émission nette » (la neutralité carbone), en ramenant les émissions de GES engendrées par l’activité humaine au niveau auquel elles sont « retirées » de l’atmosphère et absorbées par les puits.</p>
<p>Ces activités deviendraient alors « climatiquement neutres », permettant une stabilisation des températures au niveau mondial, comme le préconise le Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/401901/original/file-20210520-23-1e9o2xg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/401901/original/file-20210520-23-1e9o2xg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=366&fit=crop&dpr=1 600w, https://images.theconversation.com/files/401901/original/file-20210520-23-1e9o2xg.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=366&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/401901/original/file-20210520-23-1e9o2xg.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=366&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/401901/original/file-20210520-23-1e9o2xg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=460&fit=crop&dpr=1 754w, https://images.theconversation.com/files/401901/original/file-20210520-23-1e9o2xg.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=460&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/401901/original/file-20210520-23-1e9o2xg.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=460&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">La centrale solaire de Plopsa Coo, en Belgique. Développer la production d’énergie renouvelable et préserver les puits de carbone naturels, comme les forêts, aide à décarboner les activités humaines.</span>
<span class="attribution"><a class="source" href="https://fr.wikipedia.org/wiki/Plopsa_Coo#/media/Fichier:Coo_(Stavelot)_-_Plopsa_Coo,_centrale_solaire_(01).JPG">Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">CC BY-NC-SA</a></span>
</figcaption>
</figure>
<h2>Plusieurs futurs énergétiques possibles</h2>
<p>Avec sa nouvelle publication du <a href="https://www.iea.org/reports/net-zero-by-2050"><em>World Energy Outlook « Atteindre le zéro émission nette d’ici 2050 »</em></a>, l’AIE décrit les trajectoires possibles des émissions de CO<sub>2</sub> jusqu’en 2050, selon trois scénarios.</p>
<ul>
<li><p>Le scénario le moins intense en termes d’effort de réduction correspond au scénario tendanciel (« laisser faire ») : il traduit la trajectoire des émissions si l’action politique reste figée au niveau actuel. L’objectif de cette projection étant de montrer quel serait l’impact futur du manque d’ambition climatique.</p></li>
<li><p>Le scénario intermédiaire (« développement durable »), décrit les projections d’émission de CO<sub>2</sub> si les États mettent en application les politiques nécessaires pour atteindre leurs objectifs. Ce scénario présente une trajectoire compatible avec les seuils de températures fixés par l’Accord de Paris – soit une hausse maximale des températures moyennes mondiales limitée à + 2 °C.</p></li>
<li><p>Enfin, un nouveau scénario apparaît dans le rapport annuel de l’AIE : le « zéro émission nette », le plus audacieux pour le système énergétique global.</p></li>
</ul>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1394518259261710337"}"></div></p>
<h2>Le scénario ZEN, zéro émission nette</h2>
<p>Ce nouveau scénario dessine le chemin à suivre d’ici 2050 pour atteindre la neutralité carbone nécessaire, toujours selon le cadre fixé par le GIEC, afin de <a href="https://www.ipcc.ch/site/assets/uploads/sites/2/2019/09/IPCC-Special-Report-1.5-SPM_fr.pdf">limiter le changement climatique à 1,5 °C</a>.</p>
<p>Alors que le scénario tendanciel n’aurait aucun effet sur l’évolution des émissions de CO<sub>2</sub> en 2030, le scénario « zéro émission nette » indique un potentiel de réduction de 45 %. À l’horizon 2050, selon les modèles de prévision de l’AIE, ce scénario permettrait d’atteindre la neutralité carbone.</p>
<figure class="align- zoomable">
<a href="https://images.theconversation.com/files/401841/original/file-20210520-23-9fbekg.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/401841/original/file-20210520-23-9fbekg.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/401841/original/file-20210520-23-9fbekg.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=304&fit=crop&dpr=1 600w, https://images.theconversation.com/files/401841/original/file-20210520-23-9fbekg.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=304&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/401841/original/file-20210520-23-9fbekg.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=304&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/401841/original/file-20210520-23-9fbekg.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=383&fit=crop&dpr=1 754w, https://images.theconversation.com/files/401841/original/file-20210520-23-9fbekg.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=383&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/401841/original/file-20210520-23-9fbekg.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=383&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Émissions de CO₂ liées à l’énergie et aux processus industriels ; et potentiels de réduction dans les scénarios WEO 2020, trajectoire 2015-2030.</span>
<span class="attribution"><a class="source" href="https://www.iea.org/reports/net-zero-by-2050">World Energy Outlook/AIE</a></span>
</figcaption>
</figure>
<p>L’exercice prospectif du scénario « zéro émission nette » d’ici 2050 identifie la feuille de route suivante pour le secteur de l’énergie.</p>
<h2>Du côté de la demande en énergie</h2>
<p>Une baisse significative de la demande d’énergie (-8 % par rapport à aujourd’hui), malgré une population qui continue de croître.</p>
<p>Cette baisse est obtenue en jouant sur la consommation, grâce à la sobriété, résultat de changements de comportements en particulier dans le secteur du transport (par exemple, bannir les vols de moins d’une heure, privilégier le vélo pour de courtes distances plutôt que la voiture, ou réduire de 7 km/h la vitesse du trafic routier) ; <a href="https://theconversation.com/energie-climat-la-transition-est-elle-vraiment-en-panne-en-france-154963">grâce aussi à l’efficacité énergétique</a> qui devrait partout portée à son maximum.</p>
<h2>Du côté de l’offre en énergie</h2>
<p>En ce qui concerne l’offre énergétique, le scénario suppose une électrification massive des systèmes : la demande d’électricité aura doublé d’ici 2050 et serait produite à 90 % à partir de renouvelables (avec une dominante pour le solaire), et à 10 % à partir du nucléaire qui verrait sa production et sa capacité mondiales doubler.</p>
<p>De nouvelles technologies et usages seront nécessaires et se déploieront grâce à un effort massif d’innovation : la demande pour le vecteur énergétique hydrogène serait multipliée par six et jouerait un <a href="https://theconversation.com/electricite-hydrogene-le-duo-gagnant-pour-decarboner-les-systemes-energetiques-156828">rôle complémentaire à l’électricité</a>.</p>
<figure class="align- zoomable">
<a href="https://images.theconversation.com/files/401843/original/file-20210520-17-1941hw7.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/401843/original/file-20210520-17-1941hw7.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/401843/original/file-20210520-17-1941hw7.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=766&fit=crop&dpr=1 600w, https://images.theconversation.com/files/401843/original/file-20210520-17-1941hw7.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=766&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/401843/original/file-20210520-17-1941hw7.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=766&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/401843/original/file-20210520-17-1941hw7.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=963&fit=crop&dpr=1 754w, https://images.theconversation.com/files/401843/original/file-20210520-17-1941hw7.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=963&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/401843/original/file-20210520-17-1941hw7.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=963&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Le scénario « zéro émission nette ».</span>
<span class="attribution"><a class="source" href="https://www.iea.org/reports/net-zero-by-2050">World Energy Outlook/AIE</a></span>
</figcaption>
</figure>
<h2>L’arrêt de tout nouveau projet dans les fossiles</h2>
<p>Au niveau des équipements et usages, l’AIE prévoit notamment que 60 % des véhicules devront être électriques d’ici 2030 et 50 % des camions d’ici 2035.</p>
<p>Les ventes de chaudières au fioul devraient être interdites dès 2025 et 50 % des bâtiments existants auront été rénovés de façon efficace en 2040.</p>
<p>L’une des conclusions les plus remarquées de ce dernier rapport de l’AIE est la suivante : en conséquence directe des trajectoires énergétiques impliquées par le scénario « zéro émission nette », les États et les entreprises doivent immédiatement cesser de procéder au développement de nouveaux gisements d’énergies fossiles et, au contraire, se reporter massivement sur les énergies bas carbone, pour un niveau de 4 100 milliards d’euros par an… soit plus du double de l’actuel !</p>
<h2>Une base pour les négociations à venir</h2>
<p>Même si l’exercice prospectif réalisé par l’AIE reste marqué de fortes incertitudes, il a le mérite de mettre en évidence deux points essentiel : d’abord l’écart entre les intentions et les actions mises en œuvre par les États ; et aussi la voie à suivre pour « sauver le climat ».</p>
<p>Cette proposition pourra ainsi servir de base aux négociations préparatoires de la prochaine COP26 en Écosse.</p>
<p>Le défi climatique et les challenges associés sont immenses ; seule une coopération internationale permettant des changements radicaux pourra permettre de relever un tel défi. Mais la feuille de route existe désormais pour cette ambition.</p><img src="https://counter.theconversation.com/content/161256/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
Dans son nouveau rapport, l’Agence internationale de l’énergie propose une feuille de route pour atteindre d’ici 2050 la neutralité carbone.
Carine Sebi, Professeure associée et coordinatrice de la chaire « Energy for Society », Grenoble École de Management (GEM)
Patrick Criqui, Directeur de recherche émérite au CNRS, Université Grenoble Alpes (UGA)
Licensed as Creative Commons – attribution, no derivatives.