tag:theconversation.com,2011:/au/topics/modeles-33725/articles
modèles – The Conversation
2024-03-20T15:58:44Z
tag:theconversation.com,2011:article/225380
2024-03-20T15:58:44Z
2024-03-20T15:58:44Z
Faut-il changer de modèles macroéconomiques pour être à la hauteur du Pacte vert européen ?
<figure><img src="https://images.theconversation.com/files/580694/original/file-20240308-18-5vpjm5.jpg?ixlib=rb-1.1.0&rect=101%2C36%2C1943%2C1324&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Actuellement, les modèles issus de l'économie écologique ne sont pratiquement pas utilisés par les institutions européennes.
</span> <span class="attribution"><a class="source" href="https://www.flickr.com/photos/european_parliament/53188705655">Flickr/European Parliament</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Les modèles sont centraux dans la science économique. Certains économistes considèrent même que c’est l’usage de ceux-ci qui <a href="https://www.deboecksuperieur.com/ouvrage/9782807305793-peut-faire-confiance-aux-economistes">distingue l’économie des autres sciences sociales</a> et en fait une discipline à part entière. Ces modèles permettent de proposer des explications de phénomènes économiques observés, de raisonner comme on le ferait dans une discussion ordinaire, mais sous contrainte d’un formalisme mathématique.</p>
<p>Un tel formalisme est censé assurer transparence et cohérence dans le raisonnement, tout en évitant d’avoir à réfléchir avec une « carte d’échelle 1 ». En macroéconomie, l’usage de modèles mathématiques permet en outre de décrire des systèmes complexes et d’envisager la résultante de multiples effets contradictoires, ce qui serait parfois impossible par la seule expérience de pensée.</p>
<p>Les modèles sont donc abondamment utilisés dans les administrations, gouvernements et banques centrales, où ils sont utilisés à toutes les étapes de l’élaboration des politiques publiques. Comme le justifie le <a href="https://www.ecb.europa.eu/press/blog/date/2023/html/ecb.blog230705%7Ed16c61381c.en.html">blog de la Banque centrale européenne</a> (BCE) :</p>
<blockquote>
<p>« Demander à un économiste d’expliquer les comportements économiques ou de faire des prédictions sans modèle, c’est comme demander à un météorologue de prédire le temps qu’il fera en regardant le ciel. »</p>
</blockquote>
<p>Pourtant, contrairement aux modèles climatiques dont la précision et le pouvoir de prédiction ne sont plus à démontrer, les modèles macroéconomiques n’ont pas la chance de pouvoir se baser sur les lois universelles de la physique. Ils présentent des performances nettement plus mitigées, à tel point que Christine Lagarde, la présidente de la BCE, <a href="https://www.euractiv.com/section/economy-jobs/news/a-tribal-clique-lagarde-denounces-economists-at-davos/">n’a pas mâché ses mots lors du Forum économique mondiale de Davos en janvier dernier</a> en conseillant de « se méfier des modèles [économiques] », dont elle décrivait la qualité des prédictions comme « abyssale ».</p>
<h2>« Clique tribale »</h2>
<p>La Commission européenne, tout comme la BCE, se fonde principalement sur des modèles dits « d’équilibre général » pour élaborer ses analyses macroéconomiques, telles que le <a href="https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2024%3A63%3AFIN">calcul du coût de la décarbonation de l’économie européenne</a>. Or, comme nous l’avons <a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4640677">analysé en détail dans un récent travail de recherche</a>, ces classes de modèles présentent une série de faiblesses, notamment du fait de leur structure sous forme d’optimisation.</p>
<p>Cette optimisation cadenasse les dynamiques du modèle et rend impossible la représentation de fluctuations endogènes au système économique. Ainsi, les cycles conjoncturels et les déséquilibres dans l’économie ne peuvent être représentés que sous la forme de « chocs » extérieurs, venant éloigner le modèle de son équilibre « naturel » – chocs dont l’existence est bien souvent supposée ex post comme explication des fluctuations, <a href="https://ccl.yale.edu/sites/default/files/files/The%20Trouble%20with%20Macroeconomics%20(Updated).pdf">mais sans être réellement identifiés</a>. Ces insuffisances apparaissent d’autant plus marquées dans le contexte du Pacte vert européen, qui constitue un premier pas vers une transformation en profondeur de l’économie européenne, en réponse à l’effondrement écologique.</p>
<p>Nous n’en concluons pas pour autant qu’il vaudrait mieux se passer de modèles. <a href="https://www.piie.com/publications/policy-briefs/do-dsge-models-have-future">Olivier Blanchard</a>, chef économiste du Fonds monétaire international (FMI) durant la crise financière de 2008, appelle les modèles d’équilibre général à se montrer moins « impérialistes ». Christine Lagarde, dans son intervention à Davos, est même allée jusqu’à qualifier les économistes de « clique tribale » (sic)…</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1747864710563999865"}"></div></p>
<p>Nous sommes, comme eux, convaincus qu’utiliser une plus grande diversité de modèles dans les institutions européennes permettrait de significativement améliorer leurs capacités d’analyse, de compréhension et de prédiction. Cela a déjà été démontré en sciences de la complexité, comme le chercheur <a href="https://www.govinfo.gov/content/pkg/CHRG-111hhrg57604/pdf/CHRG-111hhrg57604.pdf">Scott Page le résume</a> : la précision d’un ensemble de modèles ne dépend pas seulement de la précision moyenne des modèles mais également de leur diversité.</p>
<h2>De nouvelles questions abordées</h2>
<p>Or, depuis des décennies, la perspective de la transition écologique a guidé l’essor d’une communauté très dynamique de chercheurs dans la discipline connue sous le nom d’<a href="https://www.cairn.info/revue-l-economie-politique-2016-1-page-8.htm">« économie écologique »</a>, aux influences interdisciplinaires. Plusieurs modèles de ce domaine ont maintenant atteint un niveau de maturité suffisant que pour être directement utilisés par les acteurs publics.</p>
<p>Ces modèles présentent, en effet, des avantages par rapport aux modèles aujourd’hui utilisés pour aborder des questions telles que :</p>
<ul>
<li><p>Quels sont les effets redistributifs des politiques de transition ? Comment intégrer les inégalités sociales dans la conception des politiques de transition écologique, afin d’améliorer leur acceptabilité ?</p></li>
<li><p>Comment inclure, dans la conception de ces politiques, les risques d’instabilité financière et économique émergeant à la fois de la dégradation de l’environnement et de la transition ?</p></li>
<li><p>Comment les déséquilibres et l’inflation peuvent-ils influencer ou résulter des politiques de transition écologique ?</p></li>
</ul>
<p>Actuellement, les modèles issus de l’économie écologique ne sont pratiquement pas utilisés par les institutions européennes. Nous avons donc écrit une <a href="https://docs.google.com/document/d/15HW2PgJBIhMo-3dShSVQNeQ6OEuKl4R8NwqCZgOHhmI/edit">lettre ouverte</a> [dont cet article reprend certains extraits, NDLR], signée par plus de 200 économistes et <a href="https://www.euractiv.com/section/economy-jobs/news/something-is-not-working-economists-urge-eu-commission-to-overhaul-its-models/">diffusée largement</a>, enjoignant la Commission européenne à s’emparer de ces nouveaux outils pour diversifier son arsenal de modélisation.</p>
<h2>Un paysage complexe et changeant</h2>
<p>S’appuyer sur différents modèles reflétant une pluralité de points de vue et de méthodologies est également une question démocratique. En effet, le choix d’un modèle particulier pour éclairer la prise de décision n’est jamais neutre. Ses fondements théoriques déterminent dès le départ une partie des recommandations qui émaneront des résultats. Un tel choix influe donc activement sur les politiques publiques, <a href="https://academic.oup.com/ser/article-abstract/18/2/337/5680050">dont celles des institutions européennes</a>.</p>
<iframe src="https://www.linkedin.com/embed/feed/update/urn:li:share:7165990776101933056" height="496" width="100%" frameborder="0" allowfullscreen="" title="Post intégré"></iframe>
<p>L’architecture et les hypothèses fondamentales de certains modèles tendent ainsi naturellement à favoriser des solutions basées sur le marché plutôt que des solutions basées sur la réglementation. En outre, <a href="https://doi.org/10.2298/PAN1502157T">certaines catégories de modèles plaident</a>, de manière systématique et par construction, contre une politique économique européenne expansionniste et contre des investissements massifs, pourtant <a href="https://institut-rousseau.fr/road-2-net-zero/">nécessaires pour atteindre les objectifs du Pacte vert</a>, dont la neutralité carbone d’ici 2050.</p>
<p>Nous plaidons donc avec force pour une diversification des catégories de modèles utilisés et de leurs hypothèses sous-jacentes, afin de bénéficier des particularités et des avantages comparatifs de chaque modèle. De bonnes pratiques existent par ailleurs dans d’autres disciplines, à l’image des sciences du climat, où la nécessité de comparer les modèles et leurs résultats s’est fait sentir très tôt.</p>
<p>Ainsi, depuis 1997, le programme mondial de recherche <a href="https://wcrp-cmip.org/"><em>Coupled Model Intercomparison Project</em></a> (CMIP) a la charge de la comparaison systématique et transparente des modèles pour permettre une amélioration continue des outils collectifs, toujours dans le cadre d’un dialogue entre équipes de recherche.</p>
<p>Ces enjeux de diversification des outils, de transparence des hypothèses et de dialogue entre communautés de recherche et institutions sont essentiels pour la mise en œuvre de politiques de transition écologique qui soient réalistes économiquement, désirables écologiquement et socialement juste. C’est en relevant ce défi que l’Union européenne acquerra les capacités nécessaires pour naviguer à travers le paysage complexe et changeant de la transition écologique au XXI<sup>e</sup> siècle.</p><img src="https://counter.theconversation.com/content/225380/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>The idea of writing this article emerged from discussions with the team of Philippe Lamberts, who is president of the Greens/EFA European Parliamentary group.
Pierre Jacques is member of the board of the Institut Rousseau.</span></em></p><p class="fine-print"><em><span>Camille Souffron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Un groupe de 200 économistes a récemment appelé Bruxelles à modifier ses outils pour mieux appréhender les enjeux économiques de la transition verte.
Pierre Jacques, PhD Student & Researcher in Ecological Economics, Université catholique de Louvain (UCLouvain)
Camille Souffron, Student & Researcher in Ecological Economics, École normale supérieure (ENS) – PSL
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/213015
2023-09-10T14:56:21Z
2023-09-10T14:56:21Z
Les risques de températures extrêmes en Europe de l’Ouest sont sous-estimés
<figure><img src="https://images.theconversation.com/files/546954/original/file-20230907-15-l25cig.jpeg?ixlib=rb-1.1.0&rect=0%2C152%2C2312%2C1841&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La température de surface lors de la vague de chaleur de fin juillet 2019 sur l’Europe de l’Ouest.</span> <span class="attribution"><a class="source" href="https://www.esa.int/ESA_Multimedia/Images/2019/07/Extreme_heatwave">Données (Copernicus Sentinel, 2019), processé par l'ESA</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Le 25 juillet 2019, la station météo centenaire de Paris Montsouris a battu son record datant de 1947 en enregistrant une température de 42,6 °C. De son côté, la station de la petite ville de Lytton dans l’ouest canadien a enregistré une température record de 49,6 °C le 30 juin 2021. Dans les deux cas, les précédents records de températures locaux ont été largement battus, respectivement de <a href="https://doi.org/10.1088/1748-9326/acf679">2 et 5 °C</a>, <a href="https://esd.copernicus.org/articles/13/1689/2022/esd-13-1689-2022-discussion.html">ce qui aurait été très improbable sans changement climatique d’origine humaine</a>.</p>
<p>Atteindre des températures aussi élevées a des conséquences importantes sur les êtres vivants — sur les <a href="https://pubmed.ncbi.nlm.nih.gov/30189362/">humains</a> notamment. Par exemple, les <a href="https://nph.onlinelibrary.wiley.com/doi/10.1111/nph.17348">plantes</a>, dont les <a href="https://iopscience.iop.org/article/10.1088/1748-9326/abf004">cultures</a>, peuvent se déshydrater très rapidement, produisant des conditions favorables à des incendies. Les <a href="https://www.sciencedirect.com/science/article/abs/pii/S0959652614013754">infrastructures</a>, rails ou bâtiments, sont aussi touchées car elles ne sont pas toujours conçues pour résister à ces températures.</p>
<p>Une méthode classique pour estimer les risques d’occurrence de températures très intenses est statistique. Elle repose sur la <a href="https://fr.wikipedia.org/wiki/Th%C3%A9orie_des_valeurs_extr%C3%AAmes">« théorie des valeurs extrêmes »</a> qui permet d’estimer une <em>température maximale atteignable</em> à partir de données de température passées, et donc de définir un « worst-case scenario » auquel se préparer. Les scénarios du pire actuellement utilisés sont souvent basés sur cette méthode statistique, qui prend mal en compte les mécanismes physiques des vagues de chaleur. </p>
<p>Une autre façon d’aborder le problème des températures extrêmes est de considérer les mécanismes physiques atmosphériques qui empêchent cette température d’augmenter indéfiniment. Dans une étude parue récemment dans <em>Environmental Research Letters</em>, nous montrons ainsi <a href="https://doi.org/10.1088/1748-9326/acf679">qu’il n’est pas possible d’écarter la possibilité d’atteindre les 50 °C à Paris</a> – y compris à l’heure actuelle – et que les estimations statistiques des valeurs maximales sont probablement sous-estimées de plusieurs degrés en Europe de l’Ouest.</p>
<h2>Comment évalue-t-on les températures maximales atteignables ?</h2>
<p>La vague de chaleur canadienne de 2021 était tellement intense que les <a href="https://esd.copernicus.org/articles/13/1689/2022/esd-13-1689-2022-discussion.html">températures qui ont été atteintes étaient jugées impossibles par les méthodes <em>statistiques</em></a>. </p>
<p>Suite à ces observations, la communauté des sciences du climat a commencé à donner plus de crédit à ses simulations informatiques qui montraient bien que de tels événements très intenses étaient <a href="https://www.nature.com/articles/s41558-021-01092-9">possibles</a>, mais qui avaient été jugées peu réalistes jusqu’alors, voire comme des artefacts des modèles de climat. Ainsi, après l’événement canadien, plusieurs études ont notamment montré que des <a href="https://www.nature.com/articles/s41467-023-40112-4">événements aussi intenses</a> étaient pourtant <a href="https://iopscience.iop.org/article/10.1088/1748-9326/acab77/pdf">simulés correctement</a> par les modèles, ce qui est en un sens rassurant quant à notre compréhension du système climatique. </p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/pourquoi-les-temperatures-pourraient-battre-des-records-au-cours-des-prochains-mois-210935">Pourquoi les températures pourraient battre des records au cours des prochains mois</a>
</strong>
</em>
</p>
<hr>
<p>Mais pour évaluer les températures maximales atteignables et préparer nos sociétés à ces extrêmes, il reste que l’application simpliste de la « théorie des valeurs extrêmes » est mise en défaut. </p>
<p>Récemment, une <a href="https://www.pnas.org/doi/10.1073/pnas.2215278120">nouvelle théorie, basée sur la physique cette fois</a>, a été proposée pour estimer les températures maximales théoriques atteignables à nos latitudes. Dans notre étude, nous l’utilisons pour montrer que des bornes maximales supérieures de 5 à 10 °C aux estimations statistiques traditionnelles du <em>worst case scenario</em> pour les grandes villes européennes étudiées sont possibles.</p>
<p>Par exemple, la méthode statistique traditionnelle donne une température maximale pour Paris de 40,8 °C, qui a été dépassée pendant l’événement de 2019 (42,6 °C), tandis que notre estimation donne 46,6 °C. Rappelons que nous parlons ici des températures mesurées à 2 mètres du sol, à l’ombre, sous abri et selon un protocole météorologique précis. Localement les températures peuvent être plus — ou moins — fortes.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/546952/original/file-20230907-15-rlaob4.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/546952/original/file-20230907-15-rlaob4.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/546952/original/file-20230907-15-rlaob4.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=268&fit=crop&dpr=1 600w, https://images.theconversation.com/files/546952/original/file-20230907-15-rlaob4.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=268&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/546952/original/file-20230907-15-rlaob4.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=268&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/546952/original/file-20230907-15-rlaob4.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=336&fit=crop&dpr=1 754w, https://images.theconversation.com/files/546952/original/file-20230907-15-rlaob4.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=336&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/546952/original/file-20230907-15-rlaob4.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=336&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Comparaison entre la température maximale enregistrée en juillet 2019, avec la température maximale théorique calculée avec la méthode statistique (troisième colonne) et avec la méthode physique (quatrième colonne). Le tableau donne la valeur médiane estimée et les fourchettes l’incertitude sur cette valeur.</span>
<span class="attribution"><span class="source">Robin Noyelle</span>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>Les ingrédients indispensables pour générer des vagues de chaleur</h2>
<p>Pour générer une vague de chaleur très intense, il faut principalement deux éléments. Le premier est un printemps ou début d’été peu pluvieux qui rend les sols anormalement secs. </p>
<p>Le deuxième est une bulle de haute pression centrée sur la région de la vague de chaleur. Ces hautes pressions dévient vers le Nord les perturbations qui traversent l’Atlantique et nous amènent habituellement de la fraîcheur et de l’humidité océaniques : on parle d’« anticyclone de blocage », habituellement associé à un ciel ensoleillé et sans nuage. </p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>La combinaison de sols secs et de l’absence de nuages implique que l’énergie reçue du soleil atteint directement le sol. Cette énergie est ensuite transférée : soit pour faire évaporer de l’eau (majoritairement par la transpiration des plantes), ce qui fait diminuer localement la température ; soit pour réchauffer les basses couches de l’atmosphère (inférieures à 1500 mètres d’altitude). </p>
<p>Ainsi, quand les sols sont déjà très secs, la majorité de l’énergie reçue du soleil est utilisée pour augmenter la température de l’air proche du sol. </p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/546944/original/file-20230907-23-3ox0ko.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/546944/original/file-20230907-23-3ox0ko.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/546944/original/file-20230907-23-3ox0ko.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=458&fit=crop&dpr=1 600w, https://images.theconversation.com/files/546944/original/file-20230907-23-3ox0ko.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=458&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/546944/original/file-20230907-23-3ox0ko.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=458&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/546944/original/file-20230907-23-3ox0ko.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=576&fit=crop&dpr=1 754w, https://images.theconversation.com/files/546944/original/file-20230907-23-3ox0ko.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=576&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/546944/original/file-20230907-23-3ox0ko.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=576&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Organisation schématique et simplifiée de l’atmosphère pendant une vague de chaleur.</span>
<span class="attribution"><a class="source" href="https://www.nature.com/articles/s43017-022-00371-z">Adapté et traduit par Robin Noyelle et Elsa Couderc</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>L’humidité du sol limite l’augmentation des températures</h2>
<p>Une particule d’air très chaud est moins dense qu’une particule d’air froid : elle a tendance à s’élever. Comme ce sont les basses couches de l’atmosphère qui sont réchauffées par le Soleil, l’air chaud au niveau du sol monte : on parle de convection. Si la convection est suffisamment intense, l’air chaud peut s’élever très haut dans l’atmosphère (plusieurs kilomètres) ce qui le refroidit du fait de la diminution de sa pression. <a href="https://meteofrance.com/comprendre-la-meteo/nuages/comment-se-forme-un-nuage">Dans certaines conditions</a>, ce refroidissement fait condenser la vapeur d’eau contenue dans l’air : un nuage apparaît.</p>
<p>Mais en se condensant, la vapeur d’eau réchauffe l’air dans laquelle elle est contenue, ce qui peut entretenir son mouvement ascendant. Si le mouvement ascendant est suffisamment fort, un orage se déclenche. La pluie refroidit le sol et stoppe l’augmentation des températures.</p>
<p>Plus il y a de vapeur d’eau dans la particule d’air au départ, plus la condensation est facile : le mouvement ascendant et les chances de précipitations orageuses sont renforcés. </p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/546948/original/file-20230907-29-yebdlz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/546948/original/file-20230907-29-yebdlz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=451&fit=crop&dpr=1 600w, https://images.theconversation.com/files/546948/original/file-20230907-29-yebdlz.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=451&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/546948/original/file-20230907-29-yebdlz.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=451&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/546948/original/file-20230907-29-yebdlz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=567&fit=crop&dpr=1 754w, https://images.theconversation.com/files/546948/original/file-20230907-29-yebdlz.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=567&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/546948/original/file-20230907-29-yebdlz.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=567&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les cumulonimbus sont des nuages d’orage qui peuvent monter en panache.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Cumulonimbus_varois.jpg">Brigitte Alliot</a></span>
</figcaption>
</figure>
<p>L’humidité au niveau du sol joue donc un double rôle pour limiter l’augmentation des températures : elle permet de rafraîchir l’air localement en s’évaporant, et elle limite les augmentations de température en favorisant la convection.</p>
<h2>Pourquoi les orages ne se déclenchent pas systématiquement pendant les vagues de chaleur</h2>
<p>Mais la convection ne se déclenche pas systématiquement. En effet, pendant les vagues de chaleur les plus intenses, une bulle de haute pression et d’air chaud se trouve au-dessus des régions touchées, à une altitude d’environ 5 à 6 kilomètres, c’est le fameux anticyclone de blocage, qui peut atteindre quelques milliers de kilomètres de large. Un tel anticyclone bloque la condensation de la vapeur d’eau et empêche le déclenchement de la convection profonde et des orages.</p>
<p>C’est donc la combinaison des caractéristiques physiques de cet anticyclone et de l’humidité du sol qui définit les températures maximales atteignables pendant une vague de chaleur.</p>
<p>Dans notre étude, nous montrons que la température maximale définie par les caractéristiques de l’anticyclone de blocage change assez peu entre des conditions anticycloniques passées (entre 1940 et 1980) et présentes (entre 1981 et 2021), alors que les températures maximales observées au sol augmentent fortement, entre 2 et 3 °C selon les régions. Cette augmentation est probablement principalement due à des phénomènes d’assèchement des sols liés au réchauffement climatique d’origine anthropique.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/des-temperatures-extremes-statistiquement-impossibles-quelles-sont-les-regions-les-plus-a-risque-210342">Des températures extrêmes « statistiquement impossibles », quelles sont les régions les plus à risque ?</a>
</strong>
</em>
</p>
<hr>
<hr>
<p><em>Le projet <a href="https://anr.fr/Projet-ANR-20-CE01-0008">Simuler des Evenements Climatiques Rares – SAMPRACE</a> est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’<a href="https://anr.fr/">ANR</a>.</em></p><img src="https://counter.theconversation.com/content/213015/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs de l'étude parue dans ERL ont été soutenus par la subvention ANR-20-CE01-0008-01426 (SAMPRACE : Pascal Yiou). Ce travail a également reçu le soutien du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n°101003469 (XAIDA) et par la convention de subvention Marie Sklodowska-Curie No.956396 (EDIPI). Robin Noyelle a bénéficié d'une bourse doctorale du Commissariat à l'énergie atomique et aux énergies alternatives (CEA).</span></em></p><p class="fine-print"><em><span>Davide Faranda et Yi Zhang ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.</span></em></p>
Quelle pourrait être les températures maximales en Europe ? Comment se forment les vagues de chaleur ?
Robin Noyelle, Doctorant en sciences du climat au Laboratoire des Sciences du Climat et de l'Environnement (LSCE-CEA-IPSL), Université Paris-Saclay
Davide Faranda, Senior Researcher, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Yi Zhang, Postdoctoral scholar, University of California, Berkeley
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/208141
2023-07-16T15:29:40Z
2023-07-16T15:29:40Z
Pourquoi la route de la plage « gondole »
<p>Lorsqu’une route de sable, de terre ou de gravier est soumise aux passages répétés de véhicules, un motif régulier de rides peut apparaître – il est connu sous le nom de « route de tôle ondulée » ou « washboard road ». Si la vitesse est suffisante, la moindre irrégularité dans la route dégénère, et l’ensemble de la route ressemble rapidement à un champ de bosses.</p>
<p>Ces rides gênent la conduite et usent prématurément les véhicules, mais elles sont surtout dangereuses. En effet, les véhicules circulant à des vitesses de quelques dizaines de kilomètres par heure volent littéralement de ride en ride, ce qui diminue leur adhérence et affecte le contrôle des trajectoires et les longueurs de freinage.</p>
<p>Le phénomène de « washboard road » est très répandu dans de nombreux pays en voie de développement, mais également aux États-Unis et en Australie, où des routes non goudronnées (pour des raisons de coût d’installation et de maintenance) traversent les étendues désertiques sur plusieurs milliers de kilomètres.</p>
<p>Si l’on peut bétonner ou goudronner les routes, on peut aussi les raboter à l’aide d’un bulldozer, mais ceci s’avère aussi coûteux qu’inefficace, le motif réapparaissant très rapidement après le passage de l’engin. Incorporer à la route des <a href="https://theses.hal.science/tel-01902750/document">additifs, tels que des résines végétales ou des hydrocarbures lourds, pourrait rendre le matériau plus résistant aux déformations</a>, mais poserait de sérieux problèmes environnementaux et est difficilement envisageable à grande échelle : comment incorporer de tels volumes d’additifs sur des milliers de kilomètres ?</p>
<h2>Comment se forment ces motifs qui rappellent les dunes ?</h2>
<p>L’amplitude et la longueur d’onde du motif dépendent des masses et vitesses des véhicules qui y roulent mais aussi de la pression des pneumatiques ou encore des conditions climatiques. Les observations de terrain rapportent que le motif est plus marqué dans les virages, ainsi que sur les fortes pentes et autour des carrefours, car les contraintes mécaniques exercées sur la route par les véhicules sont plus importantes dans ces trois situations.</p>
<p>Mais au-delà des implications pratiques, le phénomène constitue un <a href="https://link.springer.com/book/10.1007/BFb0110577">problème fascinant pour les physiciens : la « morphogenèse », l’étude de la formation de motifs répétés, et plus généralement des instabilités</a>.</p>
<p>Ici, les similitudes sont grandes avec la formation des dunes (qui sont des motifs d’une hauteur de quelques centaines de mètres) ou des rides sur une surface de sable soumis à un vent constant. Ces phénomènes ont fait l’<a href="https://www.annualreviews.org/doi/abs/10.1146/annurev-fluid-011212-140806">objet de nombreuses études</a>, par exemple via l’analyse de modèles expérimentaux dans lesquels un lit de sable sec est soumis à un vent constant grâce à une soufflerie.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="dispositif experimental avec levier et roue" src="https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=454&fit=crop&dpr=1 600w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=454&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=454&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=571&fit=crop&dpr=1 754w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=571&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/535264/original/file-20230703-246268-emghe2.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=571&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Le dispositif expérimental pour étudier la formation des rides de sable.</span>
<span class="attribution"><span class="source">Nicolat Taberlet/ENS Lyon</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Dans nos travaux, nous avons choisi de simplifier au maximum le système et d’étudier une situation contenant les <a href="https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.99.068003">ingrédients physiques fondamentaux nécessaires à l’apparition de l’instabilité « washboard road »</a>.</p>
<h2>Un phénomène très robuste</h2>
<p>Certes, sur le terrain, les différents véhicules possèdent des masses et vitesses variables, et soient équipés de plusieurs roues munies d’une suspension et de pneus déformables sur lesquels s’applique parfois un couple moteur. Au contraire, dans nos études en laboratoire, nous avons travaillé avec une roue en gomme rigide, placée à l’extrémité d’un bras articulé, et tirée à vitesse constante sur un lit de sable : notre montage ne comporte ainsi aucune suspension et l’unique roue n’avance pas sous l’effet d’un couple moteur. La roue est contrainte dans son mouvement horizontal le long de la piste circulaire, mais est libre de monter et descendre ainsi que de rouler.</p>
<p>Mais malgré ces simplifications à l’extrême, ce système permet de reproduire fidèlement le phénomène de « washboard road » : après plusieurs passages, la route initialement plane se transforme en profil ondulé et régulier. En poussant cette démarche à l’extrême, il est même possible de former une « washboard road » en tirant un simple patin incliné (à l’image d’un chasse-neige) avec le bras articulé. </p>
<p>La robustesse du phénomène de formation de rides est un des résultats importants de l’étude : ce phénomène existe sous une large gamme de conditions, et une modification des paramètres des véhicules ne suffirait probablement pas à éradiquer le motif ondulé.</p>
<p>Ce résultat est malheureusement fort contrariant pour toute tentative de mitigation des rides : il semble que l’ajout d’une suspension ou d’un pneu déformable pourrait modifier les dimensions du motif de rides, mais ces caractéristiques ne sont pas des ingrédients indispensables à l’apparition du motif de rides.</p>
<h2>Une vitesse « seuil » au-delà de laquelle les rides se forment</h2>
<p>Par contre, notre système nous a également permis de mettre en évidence l’existence d’une vitesse « critique » (ou seuil) pour le phénomène : en dessous de cette vitesse, toute perturbation dans la piste comme un creux ou une bosse est lentement érodée et le profil redevient plan après quelques passages. À l’inverse, <a href="https://journals.aps.org/pre/abstract/10.1103/PhysRevE.84.051302">au-delà de cette vitesse, la moindre irrégularité dans la route dégénère rapidement et provoque l’apparition de rides</a>.</p>
<p>Nous avons compris comment cette vitesse critique dépend des paramètres du système (masse du véhicule et masse volumique du sable), ce qui nous a permis d’estimer la vitesse critique d’environ 10 km/h pour des voitures légères et de 20 km/h pour les véhicules les plus lourds. Ainsi, si les véhicules circulaient à faible vitesse, les routes resteraient planes, mais cette valeur est tellement faible qu’elle parait difficilement réaliste comme limitation de vitesse… surtout pour traverser l’Australie !</p><img src="https://counter.theconversation.com/content/208141/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Nicolas Taberlet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Pour que ça ne gondole pas, une seule solution : rouler très lentement… difficile de traverser le désert en véhicule sans créer de rides dans ces conditions.
Nicolas Taberlet, Maître de conférences en physique, ENS de Lyon
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/196084
2022-12-26T17:49:42Z
2022-12-26T17:49:42Z
Beau parleur comme une IA
<p>Les intelligences artificielles apprennent à parler grâce aux « modèles de langage »: les modèles les plus simples vous proposent par exemple le mot suivant sur votre smartphone. </p>
<p>Mais les prouesses et les progrès des modèles de langage les plus modernes tels que <a href="https://www.forbes.com/sites/bernardmarr/2020/10/05/what-is-gpt-3-and-why-is-it-revolutionizing-artificial-intelligence/">GPT-3</a>, <a href="https://blog.google/technology/ai/lamda/">LaMDA</a>, <a href="https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html">PaLM</a> ou <a href="https://openai.com/blog/chatgpt/">ChatGPT</a> sont époustouflants. Il existe par exemple des programmes informatiques capables d’écrire <a href="https://www.theatlantic.com/technology/archive/2022/09/artificial-intelligence-machine-learing-natural-language-processing/661401/">dans le style d’un poète</a> donné, de <a href="https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/">simuler des personnes décédées</a>, d’<a href="https://storage.googleapis.com/pathways-language-model/PaLM-paper.pdf">expliquer des blagues, traduire des langues, et même produire et corriger le code informatique</a>, en se basant sur des <a href="https://theconversation.com/quand-lia-prend-la-parole-des-prouesses-aux-dangers-153495">modèles de neurones</a> de plus en plus complexes. </p>
<p>Ceci aurait été impensable il y a quelques mois à peine et soulève de <a href="https://theconversation.com/chatgpt-pourquoi-tout-le-monde-en-parle-197544">nombreuses questions</a>. Mais ces modèles de langage sont en réalité plus superficiels que ces exemples nous font croire. </p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/chatgpt-pourquoi-tout-le-monde-en-parle-197544">ChatGPT : pourquoi tout le monde en parle ?</a>
</strong>
</em>
</p>
<hr>
<h2>Quand les intelligences artificielles parlent à tort et à travers</h2>
<p>Par exemple, nous avons comparé les <a href="https://suchanek.name/work/publications/coling-2022.pdf">histoires générées par des modèles de langage</a> à des histoires écrites par des humains et constaté qu’elles étaient moins cohérentes, mais engageantes, et moins surprenantes que les histoires écrites par les humains.</p>
<p>Plus important, nous pouvons montrer que les modèles de langage actuels ont des <a href="https://suchanek.name/work/publications/akbc-2021-reasoning.pdf">problèmes même avec des tâches de raisonnement simples</a>. Lorsque nous demandons :</p>
<blockquote>
<p>« L’avocat a rendu visite au médecin ; le médecin a-t-il rendu visite à l’avocat ? »</p>
</blockquote>
<p>… les modèles de langage simples ont tendance à dire oui. GPT3 répond même que l’avocat n’a pas rendu visite au médecin. Une raison possible que nous sommes en train d’explorer est que ces modèles de langage encodent les positions des mots de manière symétrique, et donc ils ne font pas la distinction entre « avant le verbe » et « après le verbe », ce qui complique la distinction du sujet et de l’objet dans une phrase.</p>
<p>De plus, les limites théoriques des modèles de langage basés sur les « transformateurs » signifient qu’ils <a href="https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00306/43545">ne peuvent pas distinguer les séquences paires et impaires</a> d’un certain élément, si celles-ci sont intercalées avec un autre élément. <a href="https://suchanek.name/work/publications/akbc-2021-reasoning.pdf">En pratique</a>, cela signifie que les modèles ne peuvent pas résoudre une tâche que nous appelons la « tâche pizza » – une simple énigme de la forme :</p>
<blockquote>
<p>« La lumière est éteinte. J’appuie sur l’interrupteur d’éclairage. Je mange une pizza. J’appuie sur l’interrupteur d’éclairage. La lumière est-elle allumée ? »</p>
</blockquote>
<p>Ici, une séquence paire d’interrupteurs d’éclairage signifie que la lumière est éteinte, mais un modèle BERT n’arrive pas à l’apprendre. Les modèles les plus puissants actuellement, GPT-3 et chatGPT, refusent catégoriquement de conclure que la lumière est éteinte.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Les modèles de langage d’aujourd’hui ont également des <a href="https://arxiv.org/pdf/2105.03519.pdf">difficultés avec la négation</a>, et réussissent généralement mal les <a href="https://suchanek.name/work/publications/akbc-2021-reasoning.pdf">tâches de raisonnement dès que celles-ci sont plus complexes</a>. Par exemple, considérons <a href="https://arxiv.org/pdf/2007.08124.pdf">l’énigme suivante de l’examen national des fonctionnaires de Chine</a> :</p>
<blockquote>
<p>« <em>David connaît l’ami de M. Zhang, Jack, et Jack connaît l’amie de David, Mme Lin. Tous ceux qui connaissent Jack ont une maîtrise, et tous ceux qui connaissent Mme Lin sont de Shanghai. Qui est de Shanghai et a une maîtrise ? »</em></p>
</blockquote>
<p>Les modèles actuels ne répondent correctement que dans 45 % des cas et chatGPT refuse de répondre… alors que la meilleure performance humaine est de 96 %.</p>
<h2>Le modèle ne sait pas qu’il ne sait pas</h2>
<p>Très probablement, le principal inconvénient des modèles de langage actuels est qu’ils sont faits pour faire des analogies, mais pas pour mémoriser exactement un ensemble trop grand. Par exemple, ils ne peuvent pas se souvenir d’une liste d’un million de clients ou d’un ensemble de dix mille protéines. Le modèle, à sa propre discrétion, oubliera certains des articles. Un problème encore plus important est qu’il peut aussi, encore une fois à sa propre discrétion, inventer de nouveaux éléments (un processus appelé à juste titre <a href="https://dl.acm.org/doi/pdf/10.1145/3571730">« hallucination »</a>). Cela est une conséquence fondamentale des techniques d’apprentissage automatique des modèles de langage, <a href="https://arxiv.org/pdf/2010.06973v1.pdf">optimisées pour interpoler et généraliser, pas pour mémoriser</a>.</p>
<p>Le problème est qu’il est impossible de dire à partir de la sortie d’un modèle de langage si une réponse a été mémorisée ou inventée. Par exemple, quand <a href="https://arxiv.org/abs/2110.04888">on demande à</a> <a href="https://arxiv.org/abs/2110.04888">GPT-3</a> où est mort Alan Turing, le modèle répond impassiblement « Warrington », au lieu de la réponse correcte (Wilmslow). ChatGPT répond correctement à cette question, mais si on l’interroge sur des chercheurs moins connus, comme les auteurs de cet article, il invente des faits. Et quand on lui pose des questions plus compliquées, il fournit des réponses élégantes, mais fausses :</p>
<blockquote>
<p>« L’addition de deux nombres impairs est-elle impaire ? »</p>
</blockquote>
<p>… le modèle répond poliment :</p>
<blockquote>
<p>« Oui, lorsque vous ajoutez deux nombres impairs, le résultat est toujours un nombre impair. Cela est dû au fait qu’un nombre impair peut s’exprimer sous la forme 2n+1, où n est un entier. Lorsque vous ajoutez deux nombres sous cette forme, le résultat est (2n+1)+(2m+1) = 2(n+m)+2, qui est également sous la forme 2p+1, où p est un entier. Cela signifie que le résultat est un nombre impair. »</p>
</blockquote>
<p>Sur la forme, la réponse est très convaincante, mais fausse.</p>
<p>Avec ces exemples, nous souhaitons montrer qu’il reste à l’heure actuelle imprudent de s’appuyer sur un modèle de langage pour raisonner ou prendre des décisions. Les modèles s’améliorent avec le temps, connaissent plus de choses, et savent de plus en plus s’abstenir de répondre lorsqu’ils n’ont pas l’information. Cependant, en dehors des questions simples, un modèle de langage peut facilement inventer une réponse et avec une explication ou une preuve tout aussi inventée et approximative.</p>
<h2>D’autres méthodes excellent à raisonner sur des faits exacts</h2>
<p>Tout cela ne veut pas dire que les modèles de langage ne seraient pas des outils étonnants aux capacités époustouflantes. Cela ne veut pas non plus dire que les modèles de langage ne pourront jamais surmonter ces défis, ou que d’autres méthodes de <em>deep learning</em> ne seront pas développées à cette fin. C’est plutôt dire qu’au moment d’écrire ces lignes, en 2022, les modèles de langage ne sont pas l’outil de choix pour raisonner ou pour stocker des données exactes.</p>
<p>Pour ces fonctions, l’outil de prédilection reste actuellement les « représentations symboliques » : les bases de données, les bases de connaissances et la logique. Ces représentations stockent les données non pas de façon implicite, mais comme des <a href="https://suchanek.name/work/publications/rw-2019.pdf">ensembles d’entités (telles que des personnes, des produits commerciaux ou des protéines) et des relations entre ces entités</a> (telles que qui a acheté quoi, ce qui contient quoi, etc.). Des règles logiques ou des contraintes sont ensuite utilisées pour raisonner sur ces relations d’une manière prouvée correcte – bien que généralement sans tenir compte des informations probabilistes. Un tel raisonnement a par exemple été utilisé <a href="https://web.archive.org/web/20110219023019/https://www.google.com/hostednews/ap/article/ALeqM5jwVBxDQvVKEwk_czuv8Q4jxdU1Sg?docId=2e3e918f552b4599b013b4cc473d96af">dès 2011 par l’ordinateur Watson</a>, lors du jeu Jeopardy pour répondre à la question suivante :</p>
<blockquote>
<p>« Quel est le roi espagnol dont un portrait, peint par Titien, a été volé avec arme d’un musée argentin en 1987 ? »</p>
</blockquote>
<p>En effet, la question peut se traduire par des règles de logique applicables sur une base de connaissance, et uniquement le roi Philip II peut correspondre. Les modèles de langages ne savent actuellement répondre à cette question, probablement parce qu’ils n’arrivent pas à mémoriser et manipuler suffisamment de connaissance (liens entre des entités connues).</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/499300/original/file-20221206-5419-51n7x3.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/499300/original/file-20221206-5419-51n7x3.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/499300/original/file-20221206-5419-51n7x3.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=421&fit=crop&dpr=1 600w, https://images.theconversation.com/files/499300/original/file-20221206-5419-51n7x3.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=421&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/499300/original/file-20221206-5419-51n7x3.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=421&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/499300/original/file-20221206-5419-51n7x3.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=529&fit=crop&dpr=1 754w, https://images.theconversation.com/files/499300/original/file-20221206-5419-51n7x3.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=529&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/499300/original/file-20221206-5419-51n7x3.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=529&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Un exemple très simple de « graphe de connaissance ». Ces objets permettent de connecter des concepts et des entités. Ils sont beaucoup utilisés par les moteurs de recherche et les réseaux sociaux.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Wikidata-knowledge-graph-fuzheado-metobjects-2.png">Fuzheado/Wikidata</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Ce n’est sans doute pas un hasard si les mêmes grandes entreprises qui construisent certains des modèles de langage les plus puissants (Google, Facebook, IBM) <a href="https://cacm.acm.org/magazines/2019/8/238342-industry-scale-knowledge-graphs/fulltext">construisent également certaines des plus grandes bases de connaissances</a>. Ces <a href="https://arxiv.org/abs/2009.11564">représentations symboliques sont aujourd’hui souvent construites</a> par l’extraction d’information d’un texte en langage naturel, c’est-à-dire un algorithme essaie de créer une base de connaissances en analysant des articles de presse ou une encyclopédie. Les méthodes qui sont utilisées pour cela sont en l’occurrence les modèles de langage. Dans ce cas, les modèles de langage ne sont pas l’objectif final, mais un moyen de construire les bases de connaissances. Ils sont adaptés pour ça parce qu’ils sont très résistants au bruit, à la fois dans leurs données d’apprentissage et dans leurs entrées. Ils sont donc très bien adaptés pour traiter les entrées ambigues ou bruyantes, omniprésentes dans le langage humain.</p>
<p>Les modèles de langage et les représentations symboliques sont complémentaires : les modèles de langage excellent dans l’analyse et la génération de texte en langage naturel. Les méthodes symboliques sont l’outil de choix lorsqu’il s’agit de stocker des éléments exacts et de raisonner dessus. Une analogie avec le cerveau humain peut être instructive : certaines tâches sont suffisamment faciles pour que le cerveau humain les exécute inconsciemment, intuitivement, en quelques millisecondes (lire des mots simples ou à saisir la somme « 2 + 2 ») ; mais des opérations abstraites nécessitent une réflexion laborieuse, consciente et logique (par exemple mémoriser des numéros de téléphone, résoudre des équations ou déterminer le rapport qualité/prix de deux machines à laver).</p>
<p><a href="https://en.wikipedia.org/wiki/Thinking,_Fast_and_Slow">Daniel Kahneman</a> a dichotomisé ce spectre en « Système 1 » pour le raisonnement subconscient et en « Système 2 » pour le raisonnement avec effort. Avec la technologie actuelle, il semble que les modèles de langage résolvent les problèmes du « Système 1 ». Les représentations symboliques, en revanche, sont adaptées aux problèmes du « Système 2 ». Au moins pour l’instant, il apparaît donc que les deux approches ont leur raison d’être. Qui plus est, tout un spectre entre les deux reste à explorer. Des chercheurs explorent déjà le <a href="https://proceedings.mlr.press/v162/borgeaud22a.html">couplage entre modèles de langage et bases de données</a> et certains voient l’avenir dans la fusion des modèles neuronaux et symboliques en approches « neurosymboliques ».</p><img src="https://counter.theconversation.com/content/196084/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Fabian Suchanek est porteur de la chaire NoRDF à Télécom Paris, qui est co-financé par l'ANR, la Gendarmerie nationale, l'Agence innovation défense, Sereneo, Converteo, EDF, BPCE, et Schlumberger.</span></em></p><p class="fine-print"><em><span>Gaël Varoquaux a reçu des financements de l'Agence National de la Recherche (chaire LearnI), la BPI France, et l'Union Européenne. </span></em></p>
Les « modèles de langage » comme ChatGPT raisonnent encore très mal, mais ce n'est pas le cas d'autres systèmes d'IA. Ils seront peut-être compatibles à l'avenir.
Fabian Suchanek, Professeur en informatique, Télécom Paris – Institut Mines-Télécom
Gaël Varoquaux, Directeur de recherche en intelligence artificielle et applications en santé, Inria
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/193234
2022-12-15T18:22:04Z
2022-12-15T18:22:04Z
Le foot, un sport disséqué par les sciences mais au résultat souvent imprévisible
<p>Alors que le football compte le plus grand nombre de pratiquants dans le monde, 265 millions de joueurs (4,6 millions en France) selon la FIFA, il représente aussi le sport le plus étudié sur le plan scientifique. Dans <a href="https://www.nlm.nih.gov/medline/medline_overview.html">Medline</a>, l’une des bases de données bibliographiques biomédicale les plus importante, indexant des articles depuis 1946, le football avec plus de 14 000 références répertoriées dépasse de plus de 60 % le second sport le plus étudié (le tennis).</p>
<p>Comme le <a href="https://www.researchgate.net/publication/342487623_Evolution_of_soccer_as_a_research_topic">relève Donald Kirkendall</a>, membre du Centre d’évaluation et de recherche médicale de la FIFA et du Comité américain de médecine sportive du football, ce corpus très quantitatif d’études exprime des tendances, des sujets prédictifs de recherche au cours du temps. En effet, des sujets spécifiques se dégagent dans la comparaison du football avec d’autres sports collectifs.</p>
<p>Les problématiques sur les blessures et leurs préventions, l’optimisation de l’entraînement pour de meilleures performances physiques, les niveaux de jeux lors des matches, se révèlent récurrentes. Les sollicitations du système cardio-vasculaire dans l’alternance des actions de jeux où les joueurs aux comportements hybrides marchent, courent, sprintent et récupèrent de manière passive ou active, intéressent particulièrement les auteurs pour les optimiser.</p>
<p>Enfin, la croissance exponentielle du nombre d’études recourant aux nouvelles technologies (GPS, cardiofréquencemètres et autres capteurs) et notamment à l’intelligence artificielle <a href="https://digitalhub.fifa.com/m/31cbb0f9e12a57b1/original/211012_WHU_Research_Report_Fifa_EN_Digital_RZ.pdf">reste un constat de progression majeur</a>.</p>
<h2>Intégrer l’individuel dans le collectif</h2>
<p>Sous cet aspect de mesures quantitatives, il existe depuis 2005 à Neuchâtel, en Suisse, <a href="https://www.football-observatory.com/?lang=fr">l’Observatoire du football</a>, un groupe de recherche spécialisé dans l’analyse statistique du football, intégré au Centre International d’Étude du Sport (CIES). À partir de 2010, l’Observatoire a développé un modèle d’analyse du footballeur où sa performance comme elle se doit, est intégrée dans son contexte de jeu collectif. C’est-à-dire que l’efficacité du joueur est perçue dans son milieu d’évolution, dépendant principalement de turbulences physiques collectives et spatio-temporelles (entre autres car les spectateurs, la météo, le lieu du match… influencent aussi cette performance).</p>
<p>Entouré de partenaires mais aussi d’adversaires, l’efficacité du joueur se déplace dans des zones de jeux spécifiques sur le terrain. Cela conditionne la nature de ses déplacements et réciproquement influence ses techniques. D’autre part, la perception de l’écoulement du temps fluctue en fonction du score du match et du différentiel positif ou négatif de l’équipe.</p>
<p>Il existe une réciprocité entre les caractéristiques dynamiques voulues du jeu et celles des joueurs, qui doivent posséder une morphologie adaptée pour exercer au plus haut niveau leurs qualités physiques de bases telles que : l’endurance, la résistance, la force, la vitesse, la coordination et la souplesse.</p>
<p>Dans ce contexte de jeu mouvant, des <a href="https://football-observatory.com/IMG/sites/mr/mr74/fr/">chercheurs caractérisent</a> des profils techniques de joueurs selon une approche par rôle. Un modèle de performance du footballeur par l’intermédiaire de huit domaines eux-mêmes subdivisés en variables se dessine :</p>
<ul>
<li><p>la défense aérienne (duels aériens gagnés – défense),</p></li>
<li><p>la défense au sol (duels au sol gagnés – défense),</p></li>
<li><p>la récupération (reprises de balles perdues/interceptions),</p></li>
<li><p>la distribution (passes),</p></li>
<li><p>la percussion (centres/dribbles réussis),</p></li>
<li><p>la mise en danger (passes pour occasions/passes de but),</p></li>
<li><p>la finition (tirs), </p></li>
<li><p>l’attaque aérienne (duels aériens gagnés – attaque).</p></li>
</ul>
<p>Ces indicateurs permettent de dresser le profil technique spécifique des joueurs tout en facilitant leurs comparaisons tout au long d’une saison. Il est possible de tester ce profilage <a href="https://football-observatory.com/IMG/sites/playerprofile/">sur le site de l’Observatoire du football CIES</a>, alimenté par les données de la société spécialisée dans les données sportives InStat avec des joueurs de renommée mondiale ayant par exemple obtenu entre autres le ballon d’or : Karim Benzema (2022), Lionel Messi (2021…), Luka Modric (2018), Cristiano Ronaldo (2017…).[]</p>
<figure class="align-center ">
<img alt="Exemple du profil technique de Karim Benzema, ballon d’or 2022" src="https://images.theconversation.com/files/500144/original/file-20221210-58060-qh64s7.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/500144/original/file-20221210-58060-qh64s7.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=423&fit=crop&dpr=1 600w, https://images.theconversation.com/files/500144/original/file-20221210-58060-qh64s7.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=423&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/500144/original/file-20221210-58060-qh64s7.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=423&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/500144/original/file-20221210-58060-qh64s7.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=531&fit=crop&dpr=1 754w, https://images.theconversation.com/files/500144/original/file-20221210-58060-qh64s7.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=531&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/500144/original/file-20221210-58060-qh64s7.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=531&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Karim Benzema.</span>
</figcaption>
</figure>
<p>Dresser le profil sur l’efficacité d’un joueur de football reste difficile, d’autant plus qu’il dépend du potentiel de son équipe, des stratégies et tactiques envisagées par l’entraîneur, mais aussi du facteur chance, parfois « se trouver au bon moment et au bon endroit », du geste technique exceptionnel conditionné par un état momentané euphorique. Certains commentateurs parlent d’opportunisme ou d’exploit, d’autres plus modestes de circonstances favorables, sans doute des justifications et des explications complexes.</p>
<h2>Des modèles, par nature, imparfaits</h2>
<p>En effet, dans tout profil de sportif performatif s’entremêlent, entre autres des facteurs physiologiques et morphologiques comme énoncés précédemment mais aussi psychologiques et biomécaniques qui complètent les modèles. Cependant, comme toute proposition de modèle d’analyse, celui-ci a des vertus explicatives spécifiques tout en étant simplificatrices d’une réalité qui reste toujours difficile à maîtriser. Dans ces décompositions analytiques de la performance constituées de nombreuses variables qui interagissent aussi entre elles, les transcriptions demeurent délicates comme pour toute explication de systèmes vivants, fluides et mouvants.</p>
<p>Il existe finalement peu d’études qui analysent la performance en sports collectifs sur la durée selon l’évolution de la structure ou de la tactique du jeu. Le football intègre des systèmes dynamiques complexes et non linéaires, dont les variations ne peuvent pas être représentées selon de simples relations proportionnelles entre causes et effets. Comparées à des systèmes dynamiques sensibles à de multiples conditions, il émerge cependant des équipes de football, des <a href="https://www.editions-jclattes.fr/livre/comment-marquer-un-les-lois-secretes-du-football-9782709628365/">modèles de jeu cohérents</a> qui conduisent au but.</p>
<p>Les images diffusées des <a href="https://www.researchgate.net/publication/236637719_Evolution_of_World_Cup_soccer_final_games_1966-2010_Game_structure_speed_and_play_patterns">finales de Coupe du monde</a> entre 1966 et 2010 ont été analysées notamment pour suivre les changements dans la durée, les schémas de jeu, le type et la durée des arrêts de jeu, la vitesse de la balle, la densité des joueurs et les taux de réussite. Cela montre qu’au cours de cette période les variables ont changé de manière significative au fil du temps. Ces changements ne sont pas aléatoires, mais illustrent plutôt des modèles de jeu qui sont susceptibles de conférer des avantages aux joueurs.</p>
<p>D’une part, la durée de jeu a diminué tandis que la durée d’arrêt a augmenté ; les deux affectant les ratios travail/récupération. En effet, les résultats montrent que le nombre total d’arrêts de jeu est resté inchangé au fil du temps. Cependant il y a eu des augmentations constantes de la durée moyenne de quasiment tous les événements d’arrêts. Selon les auteurs, pour la période 1966-2010, cela correspondrait à une baisse de 10,6 % du temps de jeu.</p>
<p>La vitesse de la balle a augmenté de 15 % au cours de la période de 44 ans. La structure du jeu a évolué vers une densité de joueurs plus élevée. Finalement, l’augmentation de la vitesse de circulation du ballon et de la densité des joueurs peut être à l’origine des structures de jeu et de leur évolution. L’intensité accrue du jeu s’accompagne d’interruptions de jeu plus longues qui permettent une plus grande récupération du joueur. Cela amène à un jeu plus intense accompagné des stratégies défensives qui s’accentuent au fil du temps.</p>
<p>Depuis 1966, le Groupe d’étude technique de la FIFA publie un rapport depuis l’extraction de nombreuses données qui confirme des évolutions. <a href="https://digitalhub.fifa.com/m/c44e0555c341e3ed/original/vnyavkozqglkj1omdaoi-pdf.pdf">Le rapport 2018</a> note que malgré la volonté des grands tacticiens à contrôler le jeu sans prendre de risques excessifs, la compétition rappelle que toute stratégie et tactique peut être réduite à néant par les aléas du jeu, les « caprices du ballon rond », le facteur chance.</p>
<p>La technologie intègre l’univers footballistique pour, dans un futur proche, générer avec un groupe de joueurs potentiel, la composition optimale d’une équipe pour confronter l’adversaire du moment. Des logiques algorithmiques deviennent nécessaires car le décideur se heurte à une quantité croissante d’information à traiter. L’entraîneur toujours responsable des choix stratégiques, tactiques et techniques de l’équipe décide pour le mieux selon l’opinion des multiples membres du staff. Des ingénieurs statisticiens spécialistes de modélisations intégreront progressivement le staff pour optimiser les prises de décision <a href="https://www.librairie-gallimard.com/livre/9782851809889-le-football-est-une-science-in-exacte-entraineurs-journalistes-spectateurs-comment-le-big-data-a-change-le-visage-du-football-gautier-stangret/">par le big data</a>.</p>
<p>Pour augmenter la probabilité de succès lors des prochaines compétitions, il conviendra que les équipes s’entraînent à développer leur potentiel ainsi qu’à générer des plans d’auto-organisations collectives rapides pour maîtriser les fluctuations des systèmes dynamiques spatio-temporels lors des matches. Plus précisément, depuis une défense rigoureuse et stable, les équipes devront avoir la faculté de varier de manière dynamique leurs façons de s’adapter, mais surtout de contrer les stratégies et les tactiques de l’adversaire, tout en produisant de l’originalité dans leur jeu. De la cohésion de l’équipe émerge des potentialités de performances supérieures à la somme des potentiels de chaque joueur.</p>
<p>Les tendances constatées sur le long terme suggèrent que les professionnels s’améliorent dans ces domaines grâce aux processus d’autosélection, de conditionnement et de rétroaction positive lors des stratégies réussies.</p>
<p>Sur les bases de fondamentaux stratégiques et tactiques solides, les équipes devront faire preuve d’inventivité, de créativité et d’ingéniosité. C’est par l’intermédiaire, d’un ensemble de compétences développées autour d’une intensité soutenue, lors des vitesses d’exécution, dans les transmissions de balle afin de générer une possession active, précise mais aussi turbulente et déstabilisante, que s’effectueront les différences. La réversibilité des statuts des joueurs (défenseurs, milieux, attaquants) et des rôles (récupérateurs, stabilisateurs, créateurs) dans le jeu sera fondamentale pour atteindre un football total facilitant les opportunités de buts. Ces caractéristiques devraient permettre de générer des zones de rupture, des actions de basculement chez les équipes adverses. Depuis des techniques maîtrisées, une forme physique optimisée pour une perception du jeu facilitée, les équipes possédant ces caractéristiques devraient se rapprocher du podium.</p><img src="https://counter.theconversation.com/content/193234/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Philippe Campillo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Les entraîneurs font de plus en plus appel aux sciences et aux données pour optimiser les performances de leurs équipes. Mais les modèles restent imparfaits… heureusement pour le spectacle !
Philippe Campillo, Maitre de conférences STAPS, Université de Lille
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/186414
2022-07-24T15:50:30Z
2022-07-24T15:50:30Z
Comprendre la formation des vagues, et comment les surfeurs les domptent
<figure><img src="https://images.theconversation.com/files/472570/original/file-20220705-1817-lex54z.jpg?ixlib=rb-1.1.0&rect=29%2C14%2C4928%2C2512&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Faire du surf, c'est aussi comprendre la physique des vagues. Ici à Croyde Bay.</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/U9g56y7R7Fk">Surfing Croyde Bay, Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p><em>Les vacances d'été amènent leur lots de questions cruciales: faut-il changer de file quand on est coincés dans les bouchons? Comment ce surfeur tient-il sur sa planche? Comment se protéger du soleil? Où construire un château de sable? D'où viennent les odeurs de la nature, et à quoi servent-elles? Nous vous proposons 5 articles pour bronzer moins bête.</em></p>
<p>Si vous choisissez, comme destination de vacances, la mer qui danse le long des golfes clairs, avec ses reflets changeants, témoins privilégiés des caprices du ciel, vous vous retrouverez sans doute à attendre qu’une vague vous emporte, avant qu’elle ne vienne s’échouer sur le bord. On en a tous fait l’expérience : rien de plus compliqué que de prévoir comment une vague va venir nous emporter ou comment sortir de l’eau une fois dans les flots impétueux.</p>
<p>Au moment d’apprécier l’ampleur d’une vague, pendant quelques secondes et de manière improvisée, on se transforme en physicien modélisateur d’un phénomène très complexe pour en prédire ses effets.</p>
<p>Les vagues sont des phénomènes naturels aussi spectaculaires que dangereux. La hauteur des vagues varie de quelques centimètres à 32,3 mètres pour la <a href="https://angeo.copernicus.org/articles/26/1327/2008/angeo-26-1327-2008.pdf">plus haute enregistrée par un instrument</a>, voire plus de 34 mètres pour la plus haute vague observée visuellement.</p>
<h2>Origine et nature des vagues</h2>
<p>Une vague est une déformation de la surface d’une masse d’eau le plus souvent provoquée par un autre fluide : le vent. À l’interface, le vent crée des vagues sur les océans, mers et lacs.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/472568/original/file-20220705-14-bdbi5x.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="tableau de naufrage avec des grandes vagues et un ciel de feu" src="https://images.theconversation.com/files/472568/original/file-20220705-14-bdbi5x.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/472568/original/file-20220705-14-bdbi5x.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=403&fit=crop&dpr=1 600w, https://images.theconversation.com/files/472568/original/file-20220705-14-bdbi5x.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=403&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/472568/original/file-20220705-14-bdbi5x.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=403&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/472568/original/file-20220705-14-bdbi5x.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=507&fit=crop&dpr=1 754w, https://images.theconversation.com/files/472568/original/file-20220705-14-bdbi5x.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=507&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/472568/original/file-20220705-14-bdbi5x.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=507&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">La neuvième vague, tableau Hovhannes Aivazovsky, 1850.</span>
<span class="attribution"><a class="source" href="https://en.wikipedia.org/wiki/File:Hovhannes_Aivazovsky_-_The_Ninth_Wave_-_Google_Art_Project.jpg">Hovhannes Aivazovsky/Wikipedia</a></span>
</figcaption>
</figure>
<p>D’autres phénomènes, beaucoup moins fréquents, sont aussi source de vagues : certains séismes, éruptions volcaniques ou chutes de météorites créant des vagues appelées tsunamis ou raz-de-marée. La marée est également à l’origine de vagues très particulières, appelées mascarets, de brusques surélévations de l’eau d’un fleuve ou d’un estuaire, provoqué par l’onde de la marée montante dans l’embouchure et le cours inférieur de certains cours d’eau, lors des grandes marées. Enfin, les navires sont aussi des sources de vagues.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comment-naissent-les-vagues-scelerates-146646">Comment naissent les vagues scélérates ?</a>
</strong>
</em>
</p>
<hr>
<p>Les vagues sont des ondes, c’est-à-dire des phénomènes qui se déplacent de manière périodique dans le temps (on parle de période) et dans l’espace (on parle de longueur d’onde). Elles peuvent se propager pendant des kilomètres avant de toucher terre, et gagner en force en fonction de la pente du sol océanique. Pour comprendre ce phénomène, il faut rechercher une modélisation physique de la vague.</p>
<h2>Une brève histoire des vagues</h2>
<p>L’astronome et mathématicien George Biddell Airy a fourni la théorie la plus simple pour des vagues régulières (périodiques). L’onde d’Airy possède une surface libre, la surface de l’eau, de forme sinusoïdale. C’est une vision très simplifiée de la réalité, valable pour des vagues de faible « cambrure », c’est-à-dire le rapport de la hauteur sur la longueur d’onde.</p>
<p>[<em>Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Si on regarde avec attention les vagues en mer, on constate que la plupart d’entre elles ne sont pas sinusoïdales : les crêtes sont plus pointues, les creux plus aplatis.</p>
<p>Mais ce qui est intéressant pour nous aujourd’hui dans la théorie d’Airy, c’est que les particules de fluide décrivent des ellipses presque fermées, dont la taille décroît avec la profondeur. On pense toujours à tort qu’un vague nous emporte : en réalité, si l’on nage en profondeur pendant la propagation d’une vague, on s’aperçoit qu’il y a un mouvement de va-et-vient, pas forcément intuitive du point de vue l’expérience au quotidien mais bien mis en évidence par la théorie d’Airy.</p>
<figure> <img src="https://upload.wikimedia.org/wikipedia/commons/b/be/Shallow_water_wave.gif"><figcaption>Unevagueavance et les particules transportées par les flots ont des trajectoires elliptiques. (Kraaiennest/Wikipedia).</figcaption></figure>
<p>En eau profonde, c’est-à-dire pour des profondeurs supérieures à la moitié de la longueur d’onde, ces ellipses sont des cercles. Le fait que les ellipses ne soient pas tout à fait fermées est une manifestation de la <a href="https://fr.wikipedia.org/wiki/D%C3%A9rive_de_Stokes">« dérive de Stokes »</a>. Près de la surface libre, la vitesse d’une particule d’eau est plus importante sous une crête que la vitesse opposée lors du passage du creux suivant. Il en résulte une dérive dans le sens de propagation des vagues qui peut s’inverser en profondeur.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/472567/original/file-20220705-20-20rozd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Un homme et une femme jouent et rient, habillés dans une grande vague" src="https://images.theconversation.com/files/472567/original/file-20220705-20-20rozd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/472567/original/file-20220705-20-20rozd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=377&fit=crop&dpr=1 600w, https://images.theconversation.com/files/472567/original/file-20220705-20-20rozd.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=377&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/472567/original/file-20220705-20-20rozd.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=377&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/472567/original/file-20220705-20-20rozd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=474&fit=crop&dpr=1 754w, https://images.theconversation.com/files/472567/original/file-20220705-20-20rozd.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=474&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/472567/original/file-20220705-20-20rozd.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=474&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Quelle liberté ! Tableau d’Ilya Repin.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:%D0%98%D0%BB%D1%8C%D1%8F_%D0%A0%D0%B5%D0%BF%D0%B8%D0%BD_-_%D0%9A%D0%B0%D0%BA%D0%BE%D0%B9_%D0%BF%D1%80%D0%BE%D1%81%D1%82%D0%BE%D1%80.jpg">Ilya Repin</a></span>
</figcaption>
</figure>
<h2>Déferlement des vagues à l’approche de la plage</h2>
<p>Revenons à ce qui va nous concerner cet été : faire face aux vagues… dignement ! En fait, « s’approprier une vague », c’est comprendre son <a href="https://www.pourlascience.fr/sr/article-fond/le-deferlement-4923.php">déferlement</a>.</p>
<p>En effet, certaines vagues sont trop cambrées pour être stables : elles déferlent.</p>
<p>À l’approche d’un rivage, la profondeur diminue, la forme des vagues se modifie, d’abord de manière à peu près symétrique puis en général avec une face avant de plus en plus raide dès que la hauteur de la vague est du même ordre que la profondeur. Quand la vague se brise, l’essentiel de son énergie est dissipée en tourbillons et bulles d’air. L’impulsion associée contribue à accélérer le courant dans la direction du déferlement.</p>
<p>La forme d’un déferlement au voisinage du rivage dépend essentiellement de la pente des fonds. En allant dans le sens des pentes croissantes on distingue les plus souvent trois types de déferlement. Le déferlement progressif ou glissant se produit généralement sur les plages à très faible pente. Les vagues commencent à se briser loin du rivage avec une crête à l’aspect mousseux qui s’accentue lors de la progression en laissant derrière une couche d’écume.</p>
<p>Le déferlement plongeant est particulièrement spectaculaire avec ses rouleaux appréciés par les surfeurs. La vague s’enroule autour d’une poche d’air puis s’écroule en créant une éclaboussure notable. Cela tend à se produire le plus souvent sur une forte pente ou sur un changement brutal de la profondeur (un écueil), et c’est pour ça qu’il y a des « spots » appréciés par les surfeurs.</p>
<h2>Tirer son énergie des vagues</h2>
<p>Il y a beaucoup plus d’énergie dissipée que d’énergie réfléchie sur la plage. L’énergie dissipée à la surface de la vague qui s’effondre est bénéfique au surfeur qui peut l’utiliser comme source d’énergie cinétique : la vague lui apporte la dynamique nécessaire pour se déplacer, et réaliser les figures qu’il souhaite sur sa planche en mouvement grâce à la vague.</p>
<p>Le déferlement frontal ou gonflant se forme comme le déferlement plongeant mais la vague gravit la plage avant que la crête puisse s’enrouler. La zone de déferlement est très étroite et une grande partie de l’énergie est réfléchie vers les plus grandes profondeurs. Quand la crête va plus vite que la vague elle-même, une épaisse couche d’écume au sommet se forme au sommet. On parle alors de déferlement glissant, typique d’un rivage à faible pente. Ce type de déferlement désavantage complètement le surfeur puisque l’énergie est donnée aux profondeurs. Le talent du surfer en tant que « physicien occasionnel » est de pouvoir reconnaître les types de déferlement à cet effet.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/472564/original/file-20220705-26-q5cctz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Quatre types de vagues déferlant sur la plage : glissant, gonflant, plogeant et s’effondrant rapidement" src="https://images.theconversation.com/files/472564/original/file-20220705-26-q5cctz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/472564/original/file-20220705-26-q5cctz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=260&fit=crop&dpr=1 600w, https://images.theconversation.com/files/472564/original/file-20220705-26-q5cctz.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=260&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/472564/original/file-20220705-26-q5cctz.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=260&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/472564/original/file-20220705-26-q5cctz.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=327&fit=crop&dpr=1 754w, https://images.theconversation.com/files/472564/original/file-20220705-26-q5cctz.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=327&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/472564/original/file-20220705-26-q5cctz.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=327&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Types de déferlements.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Breaking_wave_types.gif">S.L. Douglas et J. Krolak/FHWA/Wikimedia</a></span>
</figcaption>
</figure>
<p>Il existe aussi un cas intermédiaire entre les déferlements plongeant et frontal. Au lieu de constituer un rouleau, la vague présente une face verticale avant de s’effondrer.</p>
<p>Les surfeurs sont souvent surnommés les « dompteurs » de vagues. Les bonnes conditions de vagues permettent une bonne pratique de surf (avec beaucoup de technique quand même !). Cela signifie de bonnes conditions de vent ou de houle, pouvant varier selon les lieux.</p>
<p>Les vagues creuses, avec un déferlement plongeant, sont les préférées des « shortboarders », qui utilisent des planches courtes. Les vagues creuses sont les vagues les plus puissantes, mais pas forcément les plus grandes. En effet, certaines vagues que l’on peut qualifier de creuses sont bien plus puissantes qu’une vague molle de la même taille. Le principe du shortboard (planche courte) est de permettre une pratique du surf plus « dynamique » avec des changements multiples de direction sur la vague pour réaliser différentes figures. Ceci est rendu possible avec une vague dont le déferlement est mieux contrôlé.</p>
<p>Finalement, un surfeur fait avant tout de la recherche appliquée discipline « bonnes vagues ».</p>
<p>De manière générale, que vous jouiez avec elles, que vous les contempliez ou les affrontiez, profitez de ces instants de liberté offerts par la Nature. Et souvenons-nous qu’il n’y a qu’une seule planète Terre pour passer de beaux étés !</p><img src="https://counter.theconversation.com/content/186414/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Waleed Mouhali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Le vent, la pente du sol océanique, la vitesse de l’eau – des paramètres à prendre en compte pour profiter des vagues cet été.
Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/185467
2022-07-06T18:16:28Z
2022-07-06T18:16:28Z
Le destin de l’Antarctique sur un fil, ou le double rôle des nuages dans le réchauffement climatique
<figure><img src="https://images.theconversation.com/files/471463/original/file-20220628-14286-odtq5o.jpeg?ixlib=rb-1.1.0&rect=7%2C7%2C5168%2C3414&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Le rôle des nuages est double: ils nous protègent du soleil bien sûr, mais ils reflètent également la chaleur de la Terre vers la Terre.</span> <span class="attribution"><span class="source">Jonathan Willie</span>, <span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>Alors que les vagues de chaleur nous rappellent de plus en plus souvent que le réchauffement climatique a déjà un impact sur nos vies quotidiennes, les modèles climatiques indiquent que <a href="https://www.carbonbrief.org/limiting-warming-to-1-5c-would-halve-land-ice-contribution-to-sea-level-rise-by-2100/">plus le réchauffement climatique sera important, plus les changements en Antarctique seront marqués</a>. C’est important, car la fonte de la calotte antarctique est actuellement une des causes majeures de la hausse du niveau des mers.</p>
<p>Mais, à la manière d’un équilibriste sur un fil, l’avenir de l’Antarctique est incertain : la balance pourrait pencher d’un côté ou de l’autre, selon que la fonte de la calotte polaire ou l’accumulation de neige deviendra prédominante.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/le-bouchon-de-lantarctique-pret-a-sauter-sous-leffet-du-changement-climatique-162052">Le « bouchon » de l’Antarctique prêt à sauter sous l’effet du changement climatique</a>
</strong>
</em>
</p>
<hr>
<p>Notre <a href="https://doi.org/10.5194/tc-2021-263">nouvelle étude</a>, en cours de publication, montre que les nuages sont une source importante d’incertitudes, qui s’ajoute à celles que nous connaissons déjà. Dans certaines conditions, les nuages pourraient fortement augmenter la fonte en surface, et provoquer une déstabilisation rapide de la calotte antarctique, l’attaquant par la surface (et s’ajoutant à la fonte par le bas, due au <a href="https://theconversation.com/fonte-des-glaces-et-climat-que-se-trame-t-il-en-antarctique-113446">réchauffement de l’océan</a>. Dans le « meilleur » des cas, ils ralentiraient un peu la fonte des glaces antarctique en servant de « parasol » et en favorisant l’accumulation de neige.</p>
<h2>De nombreuses inconnues</h2>
<p>En sciences du climat, les sources d’incertitudes sont nombreuses, dans le changement climatique lui-même, mais aussi dans la façon dont les modèles représentent le climat. Il est donc particulièrement compliqué de prédire la fonte de l’Antarctique associée à une augmentation de température.</p>
<p>Ces incertitudes rendent également difficile l’établissement de stratégies politiques visant à définir un objectif de réchauffement maximal (comme ceux des accords de Paris par exemple), en fonction des taux de réchauffement et des risques associés inférés par les observations et les modèles.</p>
<h2>Les nuages jouent un double rôle</h2>
<p>En plus d’apporter de l’humidité et des précipitations sur le continent antarctique (dont le centre est un désert très sec), les nuages affectent l’énergie disponible pour refroidir ou réchauffer la surface.</p>
<p>Dans les régions polaires, la neige blanche au sol réfléchit l’énergie solaire vers l’espace, en particulier les courtes longueurs d’onde, et notamment le visible. Tant que la neige est blanche et ne fond pas, l’énergie du soleil n’est que peu absorbée par la surface. Mais dès qu’elle fond, cet effet diminue et la surface absorbe alors de l’énergie solaire.</p>
<p>[<em>Près de 70 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5">Abonnez-vous aujourd’hui</a>.</em>]</p>
<p>Parce qu’ils sont blancs, les nuages réfléchissent une partie de l’énergie du soleil vers l’espace. Quand il y a des nuages, plus d’énergie est renvoyée vers l’espace que lorsqu’il n’y en a pas : ils font alors l’effet d’un parasol et limitent l’énergie solaire qui arrive à la surface de la Terre.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/471465/original/file-20220628-14570-g9d50m.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Schéma explicitant les deux effets des nuages : parasol et effet de serre" src="https://images.theconversation.com/files/471465/original/file-20220628-14570-g9d50m.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/471465/original/file-20220628-14570-g9d50m.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=467&fit=crop&dpr=1 600w, https://images.theconversation.com/files/471465/original/file-20220628-14570-g9d50m.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=467&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/471465/original/file-20220628-14570-g9d50m.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=467&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/471465/original/file-20220628-14570-g9d50m.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=587&fit=crop&dpr=1 754w, https://images.theconversation.com/files/471465/original/file-20220628-14570-g9d50m.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=587&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/471465/original/file-20220628-14570-g9d50m.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=587&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Comprendre l’effet des nuages dans l’effet de serre : d’une part, les nuages peuvent jouer le rôle de parasol et limiter le rayonnement visible en provenance du soleil atteignant l’atmosphère ; mais ils peuvent aussi renvoyer vers la Terre le rayonnement infrarouge qu’elle émet.</span>
<span class="attribution"><span class="source">Christoph Kettel</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>La neige à la surface de l’Antarctique, dont le comportement se rapproche d’un « corps noir », émet un rayonnement infrarouge vers l’espace. En l’absence de nuages, le rayonnement infrarouge émis par la surface est perdu vers l’espace. Mais lorsqu’il y a des nuages, ceux-ci peuvent absorber une partie de cette énergie et l’émettre à leur tour vers la surface. Cette énergie infrarouge émise par les nuages a pour conséquence de réchauffer la surface. Ce principe peut s’observer facilement chez nous en hiver : il fait toujours beaucoup plus froid la nuit en l’absence de nuages que lorsqu’il y en a.</p>
<p>L’énergie émise par les nuages vers la surface augmente l’énergie disponible pour faire fondre la calotte antarctique. Elle est similaire à l’effet des gaz à effet de serre. D’ailleurs, l’eau sous ses différentes formes est <a href="https://www.ipcc.ch/report/ar6/wg1/downloads/report/IPCC_AR6_WGI_Chapter01.pdf">responsable de 75 % de l’effet de serre</a>.</p>
<p>Selon les conditions, les nuages peuvent donc refroidir la surface, via l’effet parasol, et la réchauffer, via l’effet de serre.</p>
<h2>Le futur de l’Antarctique</h2>
<p>La loi de Clausius-Clapeyron lie le contenu en humidité de l’air à la température. La relation est assez simple : plus l’air est chaud, plus il contient de l’humidité. Cela augmente la quantité de nuages, et in fine les précipitations neigeuses en Antarctique. L’effet parasol va augmenter, mais aussi le pouvoir d’effet de serre. C’est l’équilibre entre ces effets antagonistes qui va déterminer le rôle des nuages.</p>
<p>Cet équilibre dépend des propriétés des nuages. Par exemple, ceux contenant de l’eau liquide induisent un effet de serre plus important, tandis que ceux contenant de la glace et de la neige ont un plus grand effet parasol.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/les-nuages-enfants-terribles-du-climat-113102">Les nuages, enfants terribles du climat</a>
</strong>
</em>
</p>
<hr>
<p>Suite au réchauffement climatique, la neige en Antarctique va fondre. Cela va déclencher un processus supplémentaire influençant le bilan d’énergie : en fondant, la neige devient plus foncée et réfléchit moins d’énergie directe du soleil (on dit que son albédo diminue). Elle en absorbe plus et fond davantage. Il s’agit d’une boucle de rétroaction positive qui se renforce au fil du temps. Selon l’effet prédominant des nuages, ceux-ci peuvent ralentir un peu la rétroaction positive (effet parasol) ou fortement l’accentuer.</p>
<figure class="align-center ">
<img alt="Schéma de la boucle de rétroaction entre fonte de la neige et albédo" src="https://images.theconversation.com/files/470621/original/file-20220623-52272-vcci2v.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/470621/original/file-20220623-52272-vcci2v.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=206&fit=crop&dpr=1 600w, https://images.theconversation.com/files/470621/original/file-20220623-52272-vcci2v.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=206&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/470621/original/file-20220623-52272-vcci2v.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=206&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/470621/original/file-20220623-52272-vcci2v.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=258&fit=crop&dpr=1 754w, https://images.theconversation.com/files/470621/original/file-20220623-52272-vcci2v.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=258&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/470621/original/file-20220623-52272-vcci2v.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=258&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">La fonte de la neige impacte son albédo (sa capacité à renvoyer le rayonnement solaire), et vice versa. On parle de « boucle de rétroaction ». En A : lorsque la neige fond, son albédo diminue ce qui augmente à nouveau la fonte car la neige absorbe plus d’énergie, et ainsi de suite. Dans la situation B, la neige fond, son albédo diminue mais les nuages empêchent une partie de l’énergie solaire d’atteindre la surface, ce qui limite l’augmentation de fonte (effet parasol). Dans la situation C, les nuages amplifient la fonte et donc amplifient la rétroaction (effet de serre).</span>
<span class="attribution"><span class="source">Christoph Kittel</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>D’après notre étude, une des grandes sources d’incertitudes des projections est de savoir quels nuages deviendront plus fréquents dans le futur et donc dans quel sens la balance penchera. Toutes les projections suggèrent une augmentation des nuages à fort pouvoir d’effet de serre (contenant de l’eau liquide) ayant pour conséquences d’augmenter la fonte, mais dans des proportions différentes, ce qui conduit à une grande incertitude dans les projections sur les quantités de glace fondue.</p>
<h2>Comment fait-on entrer un nuage dans un modèle climatique ?</h2>
<p>Un modèle climatique est un ensemble d’équations mathématiques des lois physiques de l’atmosphère. À ces équations, on ajoute des paramétrisations pour représenter des processus pour lesquels on ne dispose pas (encore) de lois physiques. Et, parmi ces processus, se trouvent la formation des nuages et leur transformation en précipitations. Ce sont sur les paramétrisations des nuages que les modèles divergent le plus, et où l’incertitude est la plus grande. Typiquement, la plupart des modèles climatiques ont des difficultés à représenter les nuages des régions polaires.</p>
<p>En augmentant la fonte, les nuages pourraient permettre d’atteindre des points de bascule conduisant à la destruction des barrières de glace qui stabilisent l’Antarctique. Ces mêmes nuages ont d’ailleurs grandement contribué <a href="https://www.washingtonpost.com/weather/2022/03/18/antarctica-heat-wave-climate-change/">au récent record de température en Antarctique de l’Est</a> et leur rôle pourrait être encore bien plus déterminant à l’avenir. Toutefois, ils sont encore très mal représentés par les modèles climatiques. Aucune projection n’est plus probable qu’une autre, mais tout indique que plus le réchauffement sera important, plus la probabilité d’atteindre des points de bascule sera grande.</p><img src="https://counter.theconversation.com/content/185467/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Christoph Kittel a reçu des financements de recherche Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention no. 101003826 de l'Union Européenne via le projet CRiceS (Climate Relevant interactions and feedbacks: the key role of sea ice and Snow in the polar and global climate system).</span></em></p>
Les nuages limitent-ils le réchauffement climatique comme des parasols, ou l’accélèrent-ils en amplifiant l’effet de serre ?
Christoph Kittel, Chercheur post-doctorant en climatologie, Université Grenoble Alpes (UGA)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/183680
2022-06-09T22:10:25Z
2022-06-09T22:10:25Z
Votre chien est aussi le meilleur ami des généticiens
<figure><img src="https://images.theconversation.com/files/465029/original/file-20220524-11-iwbm3j.jpg?ixlib=rb-1.1.0&rect=42%2C16%2C5585%2C3332&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Étudier les mutations génétiques chez les chiens permet aussi de mieux comprendre les maladies affectant les humains, et leur évolution.</span> <span class="attribution"><a class="source" href="https://www.shutterstock.com/fr/image-photo/your-friend-hand-veterinarian-protective-glove-1361660516">Friends Stock, shutterstock</a></span></figcaption></figure><p>Le chien est le meilleur ami de l’Homme, et cette amitié remonte à très longtemps. En effet, le chien <em>Canis Lupus familiaris</em>, est la première espèce animale domestiquée par l’homme, bien avant les vaches ou les moutons. Tous les chiens partagent un ancêtre commun avec les loups. Les premiers « chiens-loups » auraient été domestiqués il y a environ 15 000 à 30 000 ans, probablement pour l’aider dans la chasse ou la défense face à d’autres animaux, mais aussi pour bénéficier de la protection et la nourriture des hommes. Mais c’est seulement au cours des deux siècles derniers que les races modernes que nous connaissons aujourd’hui ont véritablement été créées, avec aujourd’hui plus de 400 races répertoriées à travers le monde.</p>
<h2>Un modèle d’étude unique et naturel pour la recherche en génétique</h2>
<p>Pourquoi le chien est-il un bon modèle en génétique ? Le chien est proche de l’espèce humaine en termes de similarités génétiques et il partage aussi son environnement, sa nourriture, ses stress, et parfois même son canapé ! Le chien développe de nombreuses maladies génétiques similaires à celles de l’espèce humaine, par exemple l’<a href="https://www.nature.com/articles/ng.1056">ichtyose du Golden Retriever</a>, dont les gènes et la physiopathologie sont similaires.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comment-les-humains-ont-faconne-le-cerveau-des-chiens-et-pourquoi-ils-nous-le-rendent-bien-123158">Comment les humains ont façonné le cerveau des chiens et pourquoi ils nous le rendent bien</a>
</strong>
</em>
</p>
<hr>
<p>Contrairement à d’autres modèles classiques utilisés pour la recherche en génétique, tels que la souris ou bien les drosophiles, nous n’avons pas de chiens au laboratoire. Nous travaillons en lien étroit avec les propriétaires de chiens, les éleveurs, les clubs de races et bien sûr les vétérinaires, qui réalisent des prélèvements, dans le cadre du parcours de soin de leurs patients chiens et avec l’autorisation du propriétaire. C’est à partir de ces prélèvements sanguins fournis par les vétérinaires, de chiens atteints de maladies génétiques et de chiens indemnes que nous réalisons les analyses génétiques.</p>
<p>Le chien est un modèle « naturel » : nous travaillons sur des spécificités naturellement présentes chez les chiens, et particulièrement fréquentes dans certaines races, indiquant une origine génétique. En effet, certaines races sont par exemple prédisposées à développer des maladies génétiques complexes – comme la dysplasie de la hanche, des cancers, des maladies immunitaires par exemple – ou encore des maladies plus « simples », comme des rétinopathies, des épilepsies, des maladies dermatologiques notamment. Les mutations responsables de ces maladies ont en effet été <a href="https://www.nature.com/articles/nrg.2017.67">involontairement sélectionnées par l’Homme</a> lors de la création des races canines.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/466310/original/file-20220531-18-gtqb2q.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/466310/original/file-20220531-18-gtqb2q.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=338&fit=crop&dpr=1 600w, https://images.theconversation.com/files/466310/original/file-20220531-18-gtqb2q.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=338&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/466310/original/file-20220531-18-gtqb2q.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=338&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/466310/original/file-20220531-18-gtqb2q.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/466310/original/file-20220531-18-gtqb2q.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/466310/original/file-20220531-18-gtqb2q.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les chiens peuvent présenter des maladies génétiques similaires à celles des humains.</span>
<span class="attribution"><a class="source" href="https://unsplash.com/photos/vR6gQ52qe-E">Nathalie Spehner/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Nous recherchons ainsi dans l’ADN de ces chiens quels pourraient être les gènes et leurs allèles (version maternelle ou paternelle d’un gène) impliqués dans ces maladies. L’objectif étant ensuite de transférer nos découvertes à l’espèce humaine en collaborant notamment avec des équipes travaillant sur les mêmes maladies en médecine humaine, afin d’apporter des réflexions, connaissances et un bénéfice médical aux deux espèces.</p>
<p>Pour ce faire, nous avons dès les années 2000, constitué une collection d’échantillons d’ADN, à partir des prélèvements sanguins et de tissus fournis par les vétérinaires. Puis, cette collecte s’est organisée et structurée et nous avons maintenant un CRB : « centre de ressources biologiques » comportant plus de 32 000 ADN de chiens et 6 500 tissus – le <a href="https://biosit.univ-rennes1.fr/centre-de-ressources-biologiques-crb-cani-dna">centre de ressources biologiques Cani-DNA</a>. Piloté par la Dr Catherine André, ce centre de ressources biologiques, en réseau avec les quatre Écoles Nationales Vétérinaires, la société Antagene et l’association française des vétérinaires praticiens, l’AFVAC, est d’envergure nationale, avec une lisibilité internationale.</p>
<p>L’idée que le chien constitue un modèle unique et particulièrement intéressant en génétique a été vraiment concrétisée en 2005, à la suite du <a href="https://www.nature.com/articles/nature04338">séquençage de l’ADN d’un boxer</a> au Broad Institute, aux États-Unis. Depuis, une communauté de 200 chercheurs travaille sur la génétique non seulement des maladies communes au chien et à l’Homme, mais aussi sur la <a href="https://www.nature.com/articles/s41467-019-09373-w">morphologie</a>, les <a href="https://www.science.org/doi/10.1126/science.abk0639">comportements</a>, ou l’<a href="https://www.pnas.org/doi/full/10.1073/pnas.2120887119">espérance de vie</a>.</p>
<h2>Un compagnon pour la recherche fondamentale</h2>
<p>Ce qui frappe lorsqu’on regarde les 350 races canines, c’est l’incroyable diversité qui existe en termes de taille, couleur, pelage, alors qu’il s’agit d’une seule et même espèce. On trouve aujourd’hui de toutes petites races de chiens mesurant une dizaine de centimètres et pesant à peine 2 kilogrammes comme le Chihuahua, mais aussi des races géantes, comme les Dogues allemands, mesurant plus de 80 centimètres au garrot pour un poids supérieur à 80 kilogrammes.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/466312/original/file-20220531-16-an4ahh.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/466312/original/file-20220531-16-an4ahh.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=391&fit=crop&dpr=1 600w, https://images.theconversation.com/files/466312/original/file-20220531-16-an4ahh.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=391&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/466312/original/file-20220531-16-an4ahh.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=391&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/466312/original/file-20220531-16-an4ahh.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=492&fit=crop&dpr=1 754w, https://images.theconversation.com/files/466312/original/file-20220531-16-an4ahh.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=492&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/466312/original/file-20220531-16-an4ahh.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=492&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Une mutation menant à la grande variété de taille chez les chiens a été identifiée. Elle date d’avant la domestication des chiens par les humains.</span>
<span class="attribution"><a class="source" href="https://unsplash.com/photos/U6nlG0Y5sfs">Hannah Lim/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Cette grande variabilité morphologique sous-tend donc que de nombreuses mutations de gènes sont apparues dans l’ADN de ces chiens, au cours de l’évolution de l’espèce et des sélections artificielles appliquées aux races par l’espèce humaine. La recherche de ces mutations offre donc une opportunité pour comprendre les mécanismes génétiques qui interviennent dans le développement d’un organisme et définissent sa morphologie, pourrait permettre de comprendre certaines maladies humaines, associées par exemple à des <a href="https://www.nature.com/articles/s41574-022-00649-8">malformations des os</a>.</p>
<p>Contrairement à l’espèce humaine, pour laquelle des centaines de gènes sont impliqués dans les variations de taille et de poids observées entre les individus, il a été récemment montré que <a href="https://www.nature.com/articles/s41467-019-09373-w">chez le chien, seule une quinzaine de gènes est impliquée</a>. Certains de ces gènes sont déjà connus chez l’espèce humaine et d’autres non, ce qui offre donc de nouvelles pistes de recherche à explorer pour comprendre comment interviennent les gènes au cours du développement d’un organisme.</p>
<h2>Une vieille histoire peu banale</h2>
<p>Il est généralement admis que pour les espèces domestiquées, la plupart des caractères morphologiques sélectionnés par l’espèce humaine résulteraient de <a href="https://www.nature.com/articles/nrg1294">mutations apparues après leurs domestications</a>. Ainsi pour le chien, on pensait que les différences morphologiques résultaient de mutations qui seraient apparues bien après la période de domestication, c’est-à-dire, il y a moins de 15 000 ans.</p>
<p>Mais pour l’une d’entre elles, nous avons découvert une tout autre histoire. Dans une étude que j’ai menée (Jocelyn Plassais) aux États-Unis dans le laboratoire du Dr Elaine Ostrander, et <a href="https://www.cell.com/current-biology/fulltext/S0960-9822(21)01723-1">récemment publiée</a>, j’ai identifié une mutation impliquant le gène IGF1 qui permet la production d’une hormone de croissance, et qui expliquerait 15 % de la variabilité de taille/poids observée entre les races canines. Contrairement aux autres gènes impliqués dans les variations de tailles chez le chien, cette mutation serait beaucoup plus ancienne.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/a-quoi-ressemblaient-les-chiens-a-la-prehistoire-183243">À quoi ressemblaient les chiens à la préhistoire ?</a>
</strong>
</em>
</p>
<hr>
<p>En effet, en étudiant des ADNs provenant de fossiles de chiens âgés de 1 000 à 53 000 ans, nous avons démontré que cette mutation existait déjà chez les loups il y a plus de 53 000 ans, bien avant que les premiers chiens-loups ne soient domestiqués par l’espèce humaine. L’espèce humaine se serait donc servi de cette mutation naturellement présente chez le loup il y a des dizaines de milliers d’années pour créer les premiers petits chiens, et continuerait encore aujourd’hui à jouer avec cette mutation ancestrale présente dans certaines races canines pour créer de nouvelles races.</p>
<p>L’objectif de nos recherches est maintenant d’essayer de comprendre comment fonctionnent ces mutations, c’est-à-dire, grâce à quels mécanismes génétiques passe-t-on concrètement d’un individu de la taille d’un caniche, à celui d’un berger allemand ?</p><img src="https://counter.theconversation.com/content/183680/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jocelyn Plassais a reçu des financements (salaire) du National Institute of Health/NHGRI durant son postdoctorat aux Etats-Unis dans le cadre de l'article paru dans Current Biology.</span></em></p><p class="fine-print"><em><span>Catherine André a reçu des financements de l'Institut National du Cancer, du Programme Investissement d'Avenir, PIA1, d'Associations ou clubs de races de chiens, de la Société Centrale Canine .... pour mener a bien les différents projets de recherche sur les maladies génétiques canines. </span></em></p>
Les chiens sont proches de l’espèce humaine en termes génétiques et partagent nos modes de vie. En étudiant les mutations responsables de certaines maladies, on espère mieux comprendre les humains.
Jocelyn Plassais, Research scientist, Université de Rennes 1 - Université de Rennes
Catherine André, Senior research scientist, Université de Rennes 1 - Université de Rennes
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/176585
2022-02-07T20:18:36Z
2022-02-07T20:18:36Z
Un premier atlas mondial pour estimer les volumes d’eau des glaciers
<figure><img src="https://images.theconversation.com/files/444836/original/file-20220207-19-ey41nr.jpg?ixlib=rb-1.1.0&rect=0%2C461%2C3994%2C1784&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Acquisition Radar au Glacier Blanc, Massif des Ecrins, France. Avril 2021.</span> <span class="attribution"><span class="source">Julien Charron, Parc National des Ecrins</span>, <span class="license">Author provided</span></span></figcaption></figure><p>L’évolution des glaciers de montagne est un enjeu majeur : ils servent dans de nombreux pays de réservoir d’eau potable, ont un impact économique via le tourisme notamment et participent à la montée du niveau des mers. Cette évolution était jusqu’à alors mal connue. Nous venons de publier un <a href="http://ige-vis.univ-grenoble-alpes.fr/glaciers/index.html">atlas mondial</a> mesurant les vitesses d’écoulement et les épaisseurs de plus de 200 000 glaciers, ainsi qu’un article scientifique dans la revue <a href="https://www.nature.com/articles/s41561-021-00885-z">Nature Geoscience</a>. </p>
<p>Malgré leur taille réduite (727 000 km²) face à celle cumulée des deux grandes calottes que sont l’Antarctique (14 millions de km²) et le Groenland (1,7 millions de km²), la fonte des glaciers de montagne a contribué à <a href="https://www.nature.com/articles/s41586-021-03436-z">30 % de l’élévation du niveau des mers</a> depuis les années 1960.</p>
<p>Au-delà de cet impact global, le rôle des glaciers et de leur évolution est primordial au niveau local, ainsi, leur devenir est une source de préoccupation grandissante pour les zones de montagne et leurs piémonts.</p>
<h2>Des glaciers bien méconnus</h2>
<p>En dépit de ce rôle fondamental des glaciers, nous n’avons qu’une idée très limitée des volumes de glace stockés dans les glaciers. Ceci vient notamment du fait que les glaciers sont répartis sous toutes les latitudes, dans des régions souvent difficiles d’accès. Travailler directement sur le terrain est donc très complexe. Ainsi, des mesures des épaisseurs de glace n’existent actuellement que sur à peine plus d’<a href="https://www.gtn-g.ch/data_catalogue_glathida/">1 % des glaciers à la surface de la Terre</a> (en dehors des calottes du Groenland et de l’Antarctique). </p>
<p>À cause de ce manque d’observations, les scientifiques ont développé des méthodes indirectes pour estimer les quantités de glace sur la Terre. Ces méthodes ont d’abord été basées sur l’aire des glaciers, facilement cartographiable à partir de photos aériennes ou d’images satellites.</p>
<p>À partir des années 2000, des méthodes basées sur la pente en surface du glacier ont vu le jour, lorsque des modèles numériques de la surface de la Terre ont commencé à être disponibles à l’échelle globale.</p>
<p>Au-delà de la pente, la vitesse à laquelle s’écoule le glacier constitue une information encore plus pertinente pour estimer la distribution des épaisseurs de glace. En effet, les glaciers s’écoulent sous l’effet de leur propre poids ; une image souvent utilisée est celle d’un fluide très visqueux, comme du miel. Par conséquent, cartographier la vitesse à laquelle s’écoule le glacier est essentiel pour mieux estimer la distribution des épaisseurs de glace et donc le volume des glaciers.</p>
<p>Cependant, les observations sur le terrain de ces vitesses d’écoulement sont, là encore, très limitées, mais la quantité massive d’images prises depuis les satellites a ouvert des perspectives formidables pour mesurer l’écoulement de tous les glaciers de la Terre.</p>
<h2>Les satellites à la rescousse</h2>
<p>Pour quantifier la vitesse d’écoulement de l’ensemble des glaciers du monde, les chercheurs de l’Institut des Géosciences de l’Environnement de Grenoble et du Dartmouth College (USA) ont utilisé plus de 800 000 paires d’images satellite. Ces images ont été acquises entre 2017 et 2018 par les satellites Landsat-8 de la NASA et les satellites Sentinel-1 et Sentinel-2 de l’Agence spatiale européenne (ESA). Cette nouvelle génération de satellites constitue une révolution pour l’observation des glaciers, avec des images de l’ensemble des terres émergées acquises de façon systématique à des intervalles de temps réguliers (de 5 à 16 jours). Par exemple, les satellites Sentinel-2A et 2B acquièrent une image de chaque point de la surface terrestre tous les 5 jours, avec la possibilité d’observer des objets d’une taille de quelques dizaines de mètres. Ainsi, entre deux images consécutives, le déplacement d’un glacier est clairement visible dans ces images.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/444837/original/file-20220207-21-otg3ld.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/444837/original/file-20220207-21-otg3ld.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/444837/original/file-20220207-21-otg3ld.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=212&fit=crop&dpr=1 600w, https://images.theconversation.com/files/444837/original/file-20220207-21-otg3ld.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=212&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/444837/original/file-20220207-21-otg3ld.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=212&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/444837/original/file-20220207-21-otg3ld.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=266&fit=crop&dpr=1 754w, https://images.theconversation.com/files/444837/original/file-20220207-21-otg3ld.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=266&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/444837/original/file-20220207-21-otg3ld.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=266&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Écoulement de glaciers dans la Cordillère Blanche dans les Andes du Pérou. L’estimation de l’écoulement a permis de mettre en évidence dans cette région des volumes de glace plus faibles que dans les estimations précédentes, impactant ainsi la disponibilité en eau.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Plusieurs millions d’heures de calculs sur les serveurs de l’Université Grenoble Alpes nous ont été nécessaires pour permettre d’assembler un atlas unique de l’écoulement de plus de 200,000 glaciers autour de la Terre. </p>
<p>L’un des principaux apports de cet atlas est la couverture d’une très grande diversité de glaciers, allant de petits glaciers Andins de seulement quelques kilomètres de long, jusqu’à des calottes de l’Arctique canadien ou des champs de glace en Patagonie, s’écoulant sur des étendues de plusieurs milliers de kilomètres carrés. Ces cartographies permettent ainsi de mieux connaître la manière dont s’écoulent les glaciers.</p>
<p>Elles illustrent la grande variété de comportements, avec des glaciers qui s’écoulent à quelques dizaines de mètres par an (comme certains glaciers des Alpes), et d’autres dont les vitesses d’écoulement atteignent plusieurs kilomètres en une seule année (par exemple certains glaciers de Patagonie). Cette base de données unique permet aux chercheurs de mieux contraindre la représentation des glaciers dans les modèles, et ainsi de mieux estimer leur évolution future.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/444839/original/file-20220207-13-1te2szj.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/444839/original/file-20220207-13-1te2szj.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=551&fit=crop&dpr=1 600w, https://images.theconversation.com/files/444839/original/file-20220207-13-1te2szj.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=551&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/444839/original/file-20220207-13-1te2szj.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=551&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/444839/original/file-20220207-13-1te2szj.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=692&fit=crop&dpr=1 754w, https://images.theconversation.com/files/444839/original/file-20220207-13-1te2szj.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=692&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/444839/original/file-20220207-13-1te2szj.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=692&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Écoulement du glacier Upsala, un des glaciers les plus grands du champ de glace Sud de Patagonie. Les couleurs rouges indiquent une vitesse d’écoulement de plus de 1,5 km par an.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Par ailleurs, c’est cet atlas exhaustif des vitesses d’écoulement glaciaire qui a permis à notre équipe de réestimer la cartographie de la distribution des épaisseurs de glace et donc du volume des glaciers. En effet, en combinant les informations sur la vitesse d’écoulement en surface des glaciers avec celle de la pente de surface, dans un modèle numérique simulant la manière avec laquelle la glace glisse et se déforme, nous avons ainsi proposé une nouvelle représentation de la géométrie des glaciers.</p>
<p>En de multiples régions, les résultats de ce travail viennent apporter des estimations significativement différentes des précédentes, avec des conséquences importantes sur la disponibilité en eau potable pour la consommation, mais aussi par exemple pour l’agriculture ou la production hydro-électrique. Par exemple, dans les bassins de l’Indus et du Chenab, situés en Himalaya, les stocks d’eau que renferment les glaciers seraient 30 % plus importants que les études précédentes. À l’inverse, dans les Andes tropicales d’Amérique du Sud, les nouvelles estimations sont plus alarmantes, avec des stocks d’eau glaciaire près d’un quart plus faibles, augmentant ainsi la pression sur les ressources en eaux dans ces régions.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/gKiIjgc9yf4?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Vidéos représentant les épaisseurs de glace des glaciers Barpu et Chogo dans le Karakoram (Himalaya).</span></figcaption>
</figure>
<p>Au-delà d’un nouvel inventaire du volume des glaciers, cette étude permet de redéfinir la géométrie en trois dimensions des glaciers avec plus de précisions et en accord avec la mécanique d’écoulement de la glace. Ceci est crucial pour mieux simuler l’évolution future des glaciers et, en particulier, identifier quels sont les secteurs où les glaciers vont disparaître et ceux où ils devraient persister, au moins jusqu’à la fin du siècle, bien que dans des proportions nettement plus réduites.</p>
<p>Cette étude marque une amélioration majeure dans la quantification de la distribution des épaisseurs de glace. Cependant, l’estimation du volume des glaciers reste sujette à des incertitudes importantes, notamment dans les régions du monde où les populations dépendent fortement des glaciers. Pour minimiser ces incertitudes et améliorer les résultats dans ces régions, il est primordial de pouvoir disposer de quelques observations de terrain afin de mieux contraindre la calibration de la modélisation de l’épaisseur. Cette étape de calibration est d’autant plus importante que les glaciers sont des objets variés, soumis à des conditions environnementales multiples. Par conséquent, utiliser dans les modèles des lois de comportement établies sur la base d’observations conduites sur peu de glaciers est nécessairement source d’incertitudes.</p><img src="https://counter.theconversation.com/content/176585/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
Pour la première fois, un atlas mondial a été créé pour suivre l'évolution des glaciers.
Romain Millan, Glaciologue au CNRS, Post-doctorant en glaciologie, Université Grenoble Alpes (UGA)
Antoine Rabatel, Glaciologue, Physicien à l'Université Grenoble Alpes, Université Grenoble Alpes (UGA)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/169294
2021-10-11T19:04:54Z
2021-10-11T19:04:54Z
Pourquoi la recherche médicale gagnerait à inclure plus de femmes dans ses protocoles
<p>Les femmes et les jeunes filles représentent 50 % de la population mondiale… et pourtant la <a href="https://www.nature.com/articles/550S18a">plupart des recherches dans les domaines de la santé et la physiologie</a> sont toujours très majoritairement menées sur des hommes.</p>
<p>Ceci est particulièrement vrai en recherche fondamentale (qui développe les connaissances de fond mais sans encore d’application) et en recherche préclinique (sur les animaux). Ces types de travaux sont en effet le plus souvent conduites chez des hommes (humains de sexe masculin), des animaux mâles ou même des cellules d’origine masculine.</p>
<p>Dans notre discipline, la physiologie de l’exercice, seules <a href="https://journals.humankinetics.com/view/journals/wspaj/29/2/article-p146.xml">6 % des études</a> incluent ainsi des groupes dont les participantes sont exclusivement féminines.</p>
<p>Pourquoi tant de scientifiques semblent-ils ignorer l’existence de la moitié de la population mondiale ?</p>
<h2>Femmes, hommes trans et personnes non-binaires</h2>
<p>Tout d’abord, il est important de revenir sur la terminologie employée. Les termes « mâle » et « femelle » renvoient à des catégories de <a href="https://pubmed.ncbi.nlm.nih.gov/29451543/">sexe</a>, définies par un ensemble d’attributs biologiques associés à des caractéristiques physiques et physiologiques.</p>
<p>En comparaison, les termes « hommes », « femmes » et « personnes non binaires » renvoient au <a href="https://pubmed.ncbi.nlm.nih.gov/29451543/">genre</a> : en l’occurrence une construction sociétale qui englobe les comportements, les relations de pouvoir, les rôles et les identités.</p>
<p>Nous discutons ici de la recherche sur des sexes spécifiques. Il est à noter que la prise en compte de la diversité sur le plan du genre (personnes transgenres notamment) reste pour l’instant largement sous-représentée scientifiquement parlant.</p>
<h2>Pourquoi cette asymétrie d’étude ?</h2>
<p>La cause principale est que le sexe féminin, de façon générale et pas uniquement dans l’espèce humaine, constitue un organisme modèle plus « compliqué » que le sexe masculin. Et ce pour plusieurs raisons.</p>
<p>Les changements physiologiques associés au cycle menstruel ajoutent déjà beaucoup de complexité lorsqu’il s’agit de comprendre comment le corps peut réagir à un stimulus externe, comme la prise d’un médicament ou l’exécution d’un type d’exercice spécifique.</p>
<p>L’usage d’un moyen de contraception est, aussi, un élément de variabilité. Certaines y ont recours, d’autre pas ; il en existe de plus de nombreux types différents.</p>
<p>Il y a encore les effets de la ménopause, vers l’âge de 50 ans. Ce changement physiologique a un impact fondamental sur le fonctionnement et l’adaptation de l’organisme féminin.</p>
<p>Enfin, même lorsque la recherche sur la physiologie (ou autre) féminine est menée correctement, les résultats peuvent ne pas s’appliquer à toutes. Cela vaut tant pour les femmes cisgenres que pour celles non conformes au genre.</p>
<p>Tout cela rend cette recherche plus longue et plus coûteuse – et la recherche est presque toujours limitée par le temps et l’argent.</p>
<h2>Est-ce vraiment important ?</h2>
<p>Oui, car les hommes et les femmes sont physiologiquement différents.</p>
<p>Il ne s’agit pas seulement des différences visuellement évidentes (les caractéristiques sexuelles primaires, telles que la forme du corps ou les organes génitaux), mais aussi de toute une série de spécificités nichées dans les hormones et la <a href="https://pubmed.ncbi.nlm.nih.gov/32913072/">génétique</a>.</p>
<p>Notre équipe a également découvert que les différences entre les sexes ont un impact sur l’<a href="https://www.biorxiv.org/content/10.1101/2021.03.16.435733v1">épigénétique</a>, c’est-à-dire sur la manière dont vos comportements et votre environnement influencent l’expression de vos gènes.</p>
<p>Le fait de mener des recherches sur la santé et la physiologie exclusivement masculines ne tient pas compte de ces différences. Ainsi, notre connaissance du corps humain, qui est principalement déduite de ce qui est observé sur un organisme mâle, n’est pas toujours transposable à un organisme femelle. Par exemple, certaines maladies, comme les maladies <a href="https://pubmed.ncbi.nlm.nih.gov/32640661/">cardiovasculaires</a>, se présentent différemment chez l’un et chez l’autre sexe.</p>
<p>Les deux sexes peuvent de surcroît <a href="https://www.aafp.org/afp/2009/1201/p1254.html">métaboliser les médicaments</a> de manière distincte : ce qui signifie qu’ils peuvent avoir besoin de quantités ou de formulations différentes. Et ces médicaments peuvent avoir des <a href="https://bsd.biomedcentral.com/articles/10.1186/s13293-020-00308-5">effets secondaires spécifiques au sexe</a>.</p>
<p>Cela peut avoir des conséquences majeures sur la façon dont nous traitons les maladies, ou sur les médicaments que nous utilisons de façon préférentielle en clinique.</p>
<p>Prenons l’exemple récent du Covid-19. Les taux de <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7498997/">gravité et de mortalité</a> sont plus élevés chez les individus masculins. Les différences entre les sexes au niveau des systèmes immunitaires et hormonaux <a href="https://journals.physiology.org/doi/full/10.1152/ajpheart.00755.2020">peuvent expliquer ce phénomène</a>. C’est pourquoi les chercheurs plaident en faveur d’une recherche spécifique au sexe pour faciliter les traitements.</p>
<h2>Un début de changement</h2>
<p>Peu importe le coût ou la complexité supplémentaire, la recherche devrait être faite dans l’intérêt de tous et pouvoir s’appliquer à tous. Les organismes internationaux de recherche médicale commencent d’ailleurs à le reconnaître.</p>
<p>Dans une <a href="https://academic.oup.com/edrv/article/42/3/219/6159361">déclaration de mars 2021</a> de l’<a href="https://www.endocrine.org/">Endocrine Society</a>, l’organisme international des médecins et des chercheurs qui étudient les hormones et traitent les problèmes associés, le soulignait :</p>
<blockquote>
<p>Avant de pouvoir élucider les mécanismes à l’origine des différences physiologiques et pathologiques entre les sexes, il est nécessaire d’acquérir une compréhension fondamentale des différences entre les sexes qui existent au départ.</p>
</blockquote>
<p>Les <a href="https://www.nih.gov/">National Institutes of Health</a> (NIH), le plus grand organisme de recherche médicale des États-Unis, <a href="https://orwh.od.nih.gov/sex-gender/nih-policy-sex-biological-variable">ont récemment demandé</a> aux chercheurs de tenir compte du « sexe en tant que variable biologique ».</p>
<p>L’étude des deux sexes est désormais <a href="https://orwh.od.nih.gov/sex-gender/nih-policy-sex-biological-variable">exigée</a> pour l’attribution de fonds de recherche – à moins d’arguments, étayés, en faveur de l’étude d’un seul sexe.</p>
<p>L’équivalent australien, le <a href="https://www.nhmrc.gov.au/">National Health and Medical Research Council</a> (NHMRC), recommande indirectement la collecte et l’analyse de données spécifiques au sexe chez les <a href="https://www.nhmrc.gov.au/guidelines-publications/ea20">animaux</a> et les <a href="https://www.nhmrc.gov.au/guidelines-publications/e72">humains</a>. Cependant, l’<a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7027556/">inclusion</a> des deux sexes n’est <a href="https://www.mja.com.au/journal/2019/sex-and-gender-health-research-australia-lags-behind">pas encore une exigence pour recevoir un financement</a>.</p>
<p>(<em>En France, la Haute autorité de santé s’est saisie dans son <a href="https://www.has-sante.fr/upload/docs/application/pdf/2020-12/rapport_analyse_prospective_2020.pdf">rapport d’analyse prospective 2020</a>, indiquant que « les différences entre les sexes sont nombreuses, insuffisamment documentées, trop souvent ignorées, et parfois sources d’iniquités en santé ». Ndlr</em>)</p>
<h2>Sensibilisation des chercheurs</h2>
<p>Parce que le sexe compte, nous avons créé une <a href="https://doi.org/10.6084/m9.figshare.15506295.v1">infographie librement disponible</a> basée sur <a href="https://pubmed.ncbi.nlm.nih.gov/31190324/">nos recherches</a> qui vise à faciliter la conception projets de recherche dans les domaines de la santé et de la physiologie des femmes.</p>
<figure class="align-center ">
<img alt="Schéma pointant les éléments à vérifier en lançant une étude sur une cohorte féminine" src="https://images.theconversation.com/files/425026/original/file-20211006-27-1qqteig.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/425026/original/file-20211006-27-1qqteig.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=722&fit=crop&dpr=1 600w, https://images.theconversation.com/files/425026/original/file-20211006-27-1qqteig.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=722&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/425026/original/file-20211006-27-1qqteig.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=722&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/425026/original/file-20211006-27-1qqteig.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=907&fit=crop&dpr=1 754w, https://images.theconversation.com/files/425026/original/file-20211006-27-1qqteig.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=907&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/425026/original/file-20211006-27-1qqteig.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=907&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Pour répondre au manque d’habitude de faire appel à des cohortes largement féminines en recherche fondamentale, voici les points sur lesquels il faut être vigilant pour les autrices.</span>
<span class="attribution"><span class="source">Olivia Knowles et Severine Lamon</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Il se présente sous la forme d’un diagramme, simple et accessible à tous, que les chercheurs peuvent consulter avant de lancer leur projet. Un de ses objectifs est de les inciter à se poser certaines questions, telles que :</p>
<ul>
<li><p>Le phénomène que j’étudie est-il influencé par les hormones féminines ?</p></li>
<li><p>Toutes les femmes de ma cohorte doivent-elles utiliser la même contraception ?</p></li>
<li><p>Quel jour du cycle menstruel dois-je tester mes participantes pour obtenir le résultat le plus fiable ?</p></li>
</ul>
<p>En fonction des réponses, notre infographie propose des stratégies (qui peuvent être pratiques – comme qui recruter et quand – ou statistiques) pour concevoir des recherches qui tiennent compte de la complexité du corps féminin.</p>
<p>Initialement conçu pour la recherche en physiologie de l’exercice, il peut être appliqué à tout type de recherche sur la santé et la physiologie des femmes.</p>
<p>Sur la base de nos infographies, nous avons conçu un projet de recherche de quatre ans destiné à cartographier le processus de vieillissement musculaire chez les personnes de sexe féminin. Car si de nombreuses recherches ont été menées sur le vieillissement masculin, nous savons encore peu de choses sur les caractéristiques spécifiques à ce processus pour l’autre sexe. Or les femmes <a href="https://www.abs.gov.au/ausstats/abs@.nsf/0/1cd2b1952afc5e7aca257298000f2e76">vivent plus longtemps que les hommes</a> mais, paradoxalement, sont <a href="https://bsd.biomedcentral.com/articles/10.1186/s13293-019-0257-3">plus sensibles</a> à certaines des conséquences du vieillissement.</p>
<p>Alors oui, l’avenir se conjugue au féminin – tout comme notre recherche. Et nous espérons inspirer les chercheurs en santé et en physiologie du monde entier à faire de même.</p><img src="https://counter.theconversation.com/content/169294/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Severine Lamon a reçu des financements du Australian Research Council.</span></em></p><p class="fine-print"><em><span>Olivia Knowles ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Homme-femme, mode d’emploi… différent ? La recherche médicale se focalise encore trop souvent sur le premier, pour des raisons de simplicité. Mais au détriment des deux sexes. Décryptage.
Severine Lamon, Associate professor, Nutrition and Exercise Physiology, Deakin University
Olivia Knowles, PhD candidate, Deakin University
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/165190
2021-08-25T19:10:45Z
2021-08-25T19:10:45Z
D’où viennent les rayures et les autres motifs des animaux ?
<figure><img src="https://images.theconversation.com/files/413337/original/file-20210727-23-r0zvbe.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C2396%2C1598&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Qu’est-ce qui détermine où est la bande noire, et où est la bande blanche&nbsp;?</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/jNtv6K1RFek">redcharlie, Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>Les rayures du poisson-zèbre, les ocelles des léopards et les pois de certaines fleurs, comme les Mimulus, sont autant d’exemples de motifs de couleurs formés d’une multitude de répétitions.</p>
<p>Quand on remonte la vie de l’organisme pour regarder la formation de ces tissus biologiques colorés, on trouve un moment où les couleurs ne sont pas encore produites. Cela ne veut pas pour autant dire que le tissu ne soit pas déjà préparé à être organisé en futures rayures, taches ou pois, car celles-ci peuvent être déjà codées sous une autre forme de signal, non coloré, génétique ou épigénétique par exemple.</p>
<p>En revanche, si vous remontez encore le temps développemental, il arrivera un moment où vous ne pourrez plus dire si telle zone sera dans une rayure noire ou dans une rayure blanche, pour prendre l’exemple du zèbre. La raison est simple : cela n’a pas encore été codé, ou plutôt « déterminé » en langage de biologiste. Le tissu est encore homogène.</p>
<p>Passer d’un tissu homogène à un tissu organisé en deux ou plusieurs types de territoires, qui donneront ici <em>in fine</em> les couleurs, ne va pas de soi pour un système physico-chimique et par extension pour des systèmes biologiques. On appelle cela une « brisure de symétrie », et cela nécessite la mise en place de mécanismes bien particuliers, car beaucoup de phénomènes naturels ont au contraire plutôt tendance à homogénéiser les systèmes, comme la diffusion par exemple.</p>
<p>Pour briser les symétries, deux grands types de stratégies sont apparues au cours de l’évolution.</p>
<h2>Quand la zone d’arrivée d’un spermatozoïde déclenche l’asymétrie</h2>
<p>La première est d’utiliser une asymétrie préexistante, pour en quelque sorte la copier et briser sa propre symétrie. En effet, les brisures de symétries peuvent facilement être transférées, et en entraîner d’autres en cascade.</p>
<p>Par exemple, chez l’œuf de Xénope, un amphibien utilisé depuis très longtemps en biologie du développement, si les futures régions de la tête et de la queue sont déjà déterminées (c’est l’axe antéro-postérieur), il est en revanche impossible de différencier le ventre du dos (et même de prédire leurs positions). Ce qu’on appelle l’« axe ventro-dorsal » n’est pas encore déterminé.</p>
<p>Ce qui va déclencher la brisure de symétrie et cette détermination est un signal « extérieur », en l’occurrence l’arrivée du spermatozoïde. Au moment de ce qui est appelé la piqûre spermatique, l’endroit précis du contact entre les deux gamètes déterminera la future face ventrale de l’embryon. Mais ce spermatozoïde aurait très bien pu arriver de n’importe quel côté de l’œuf. Et d’ailleurs, s’il était arrivé sur le côté opposé, c’est celui-ci qui serait devenu le futur ventre de l’embryon. On a donc bien une asymétrie extérieure (ici le point d’arrivée du spermatozoïde) qui déclenche la brisure de symétrie de l’œuf de xénope. La nature regorge de ces <a href="https://science.sciencemag.org/content/306/5697/828.abstract">exemples de transferts d’asymétrie</a>.</p>
<h2>Amplifier des variations naturelles</h2>
<p>Le second type de stratégie va puiser dans les toutes petites variations naturelles du tissu, qui sont aléatoires et de faible ampleur, pour les amplifier. Si le tissu paraît homogène à l’échelle macroscopique, il ne l’est pas à l’échelle microscopique, de la même manière qu’un mur peut paraître blanc et parfaitement lisse vu de loin, alors que l’on en apercevra les imperfections en y regardant de plus près.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/413336/original/file-20210727-15-1hxe2j0.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/413336/original/file-20210727-15-1hxe2j0.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/413336/original/file-20210727-15-1hxe2j0.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/413336/original/file-20210727-15-1hxe2j0.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/413336/original/file-20210727-15-1hxe2j0.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/413336/original/file-20210727-15-1hxe2j0.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/413336/original/file-20210727-15-1hxe2j0.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Fleur de Mimulus.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Mimulus001.JPG">Hugo.arg, Wikipedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Ces irrégularités (le plus souvent dans la concentration de molécules biochimiques) sont autant de « microasymétries » qui vont servir de base et être amplifiées par le système. Une fois le système lancé, il s’autoentretient et s’affranchit de ce bruit aléatoire pour créer l’asymétrie finale, donc pour ce qui nous intéresse ici les zones de coloration. Ce phénomène, générant de l’asymétrie en puisant dans ses propres microvariations et non dépendant de l’extérieur, est appelé « auto-organisation ».</p>
<h2>Alan Turing, mathématicien, cryptologue, inventeur de l’ordinateur et… biologiste, le temps d’un article fondateur</h2>
<p>La première personne à avoir proposé les bases mathématiques et physico-chimiques d’un tel système biologique auto-organisé est le mathématicien et cryptologue britannique Alan Turing. <a href="https://link.springer.com/article/10.1007/BF02459572">Dans un article</a> publié deux ans avant sa mort tragique en 1954, il propose un système dit « de réaction/diffusion » comme étant une source potentielle de structures répétées dans la nature. Ce système consiste en deux molécules diffusibles et interagissant, que Turing nomme morphogènes. Le premier morphogène, appelé activateur, favorise sa propre production ainsi que celle du second, appelé l’inhibiteur. Ce dernier inhibe quant à lui la production de l’activateur. De plus, l’inhibiteur diffuse plus rapidement que l’activateur. Sous ces conditions, le système est capable de générer de l’asymétrie à partir d’irrégularités dans les concentrations initiales des deux morphogènes, et donnera après auto-organisation des motifs répétés et alternés, tels que des bandes ou des taches.</p>
<p>En plus de créer des motifs répétés sur un tissu initialement homogène, les motifs répétés que le système génère sont périodiques, autrement dit leur taille et leur espacement sont fixes.</p>
<p>Si la proposition de Turing a mis du temps à être mise en évidence chez un être vivant – le <a href="https://www.nature.com/articles/376765a0">poisson-zèbre</a> dans les années 90, depuis une vingtaine d’années de nombreux exemples sont décrits régulièrement. En vrac, les rides de votre palais, la formation de vos doigts, les rayures du poisson-zèbre ou les pois de la fleur de Mimulus, les motifs des vaisseaux racinaires des plantes sont tous des exemples de structures produites par des « systèmes de Turing ».</p>
<p>On <a href="https://www.sciencedirect.com/science/article/pii/S0959437X12001438">soupçonne en fait cette famille de systèmes</a> d’être apparue des centaines de fois au cours de l’évolution, et d’intervenir dans toutes sortes de processus biologiques.</p>
<h2>Briser les symétries pour créer des motifs de couleurs répétés</h2>
<p>Les systèmes de Turing sont-ils les seuls moyens retenus au cours de l’évolution pour peindre les espèces vivantes ? Cela serait surprenant, car certains motifs répétés ne correspondent pas tout à fait aux caractéristiques de ceux produits par Turing, en particulier concernant la périodicité ou la géométrie des motifs.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/413341/original/file-20210727-19-16bewfw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/413341/original/file-20210727-19-16bewfw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=375&fit=crop&dpr=1 600w, https://images.theconversation.com/files/413341/original/file-20210727-19-16bewfw.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=375&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/413341/original/file-20210727-19-16bewfw.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=375&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/413341/original/file-20210727-19-16bewfw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=471&fit=crop&dpr=1 754w, https://images.theconversation.com/files/413341/original/file-20210727-19-16bewfw.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=471&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/413341/original/file-20210727-19-16bewfw.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=471&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les dalmatiens ont des motifs, mais ceux-ci ne sont pas réguliers, ou « périodiques ».</span>
<span class="attribution"><a class="source" href="https://unsplash.com/photos/7gG_OG9w4Ds">Loan/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Prenez un pelage de dalmatien par exemple, les taches sont tout sauf périodiques. Leur répartition et donc leurs espacements semblent globalement aléatoires, ce qui suggère un autre type de mécanisme. Si ce type de mécanisme constitue une deuxième famille aux côtés des systèmes de Turing, en existe-t-il d’autres et, si oui, combien ?</p>
<p>Afin de commencer à répondre à cette question, nous nous sommes attachés à faire l’<a href="https://onlinelibrary.wiley.com/doi/full/10.1111/brv.12720">inventaire de tous les mécanismes de production de motifs de couleur répétés découverts par les scientifiques</a>. Il existe des dizaines d’exemples mis à jour chez autant d’espèces. Nous les avons triés, comparés et regroupés en sept grandes familles. La nature en recèle vraisemblablement d’autres, pas encore décrites à ce jour. Pour faciliter la découverte de nouvelles familles, nous avons suggéré quelques voies qui semblent prometteuses, comme les mécanismes d’induction mécanochimiques, où des forces mécaniques génèrent la brisure de symétrie et les motifs, en jouant le même rôle que les morphogènes du modèle initial de Turing.</p><img src="https://counter.theconversation.com/content/165190/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Pierre Galipot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Les rides de votre palais, la formation de vos doigts, les rayures du poisson-zèbre ou les pois de la fleur de Mimulus viennent de brisures d’asymétrie lors du développement de l’organisme.
Pierre Galipot, Doctorant en Morphogenèse, Muséum national d’histoire naturelle (MNHN)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/162794
2021-06-20T17:03:34Z
2021-06-20T17:03:34Z
Décroissance, impact des réouvertures : où en est l’épidémie de Covid-19 et à quoi s’attendre pour la rentrée ?
<p><em>Réouverture des restaurants, des lieux culturels, levée du couvre-feu, fin du port du masque obligatoire en extérieur… L’épidémie de Covid-19 marque le pas en France, et décroît même sensiblement plus rapidement que ne l’avaient projeté les modèles en avril dernier. Mircea Sofonea, maître de conférences en épidémiologie et évolution des maladies infectieuses à l’Université de Montpellier, nous explique pourquoi, et fait le point sur les hypothèses pour les mois à venir.</em></p>
<hr>
<p><strong>The Conversation France : La décroissance de l’épidémie a été plus rapide que ce qu’avaient anticipé les modèles en avril. Que s’est-il passé ?</strong></p>
<p><strong>Mircea Sofonea :</strong> Il faut rappeler que les modèles épidémiologiques mécanistiques (c’est-à-dire qui reposent sur la dynamique explicite de transmission) ne produisent pas des prévisions, mais des projections. Formellement, il s’apparentent à une implication logique : si la condition A est réalisée, alors on peut s’attendre à ce que la situation B survienne. </p>
<p>Si les hypothèses de travail ne sont en réalité pas satisfaites, les scénarios produits deviennent caducs et les simulations doivent être actualisées. Ce problème survient essentiellement lorsque le signal de l’effet d’une nouvelle mesure est encore incomplet dans les données hospitalières, sur lesquelles nos modèles reposent depuis le début de la pandémie.</p>
<p>Nos premières projections relatives au troisième déconfinement <a href="https://theconversation.com/en-france-lavenir-immediat-de-lepidemie-dependra-des-gestes-barrieres-et-du-depistage-160485">ont été élaborées fin avril</a>. À cette date, l’effet du troisième confinement était limité par rapport aux deux premiers, puisqu’en moyenne 10 personnes en infectaient 9, contre 8 (voire 7) lors des deux précédents. Notre scénario le plus optimiste était donc basé sur l’hypothèse que cette tendance ne s’inverse pas. </p>
<p>La bonne surprise est venue une semaine plus tard, début mai, avec un renforcement de l’effet du confinement. Dès lors, nous avons pu mettre à jour les simulations. </p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1394937126601510912"}"></div></p>
<p>Depuis un mois, l’épidémie suit la tendance la plus optimiste du modèle, sans nécessiter d’ajustement.</p>
<p><strong>TC : Pourquoi n’avoir pas imaginé un scénario « optimiste », avec une telle chute du nombre de reproduction ?</strong></p>
<p><strong>MS :</strong> La démarche scientifique repose sur un principe important, le principe de parcimonie ou « rasoir d’Ockham » (du nom du philosophe franciscain Guillaume d’Ockham qui l’a formulé) : « les hypothèses suffisantes les plus simples doivent être préférées ».</p>
<p>En l’absence d’éléments solides permettant d’anticiper de façon quantitative une dynamique du nombre de reproduction qui ne serait pas déjà incluse dans le modèle (typiquement, l’effet de la vaccination et de l’immunisation par infection), l’hypothèse minimale et méthodologiquement neutre est d’extrapoler la dynamique de l’épidémie en s’appuyant sur les dernières données en date. En avril, cette extrapolation était elle-même soutenue par l’analogie avec les deux premiers confinements. Lors des deux fois précédentes, le nombre de reproduction estimé avait atteint son niveau minimum une dizaine de jours après l’instauration des mesures. </p>
<p>Cependant, la cinétique du troisième confinement a été différente : pendant les 10 premiers jours, le nombre de reproduction a stagné entre 0,9 et 1, puis il a chuté brutalement pour passer en dessous de 0,8, avant de remonter légèrement début mai.</p>
<p>(<em>NDLR : Le nombre de reproduction est une estimation, sur les 14 derniers jours, du nombre moyen d’individus contaminés par une personne infectée. On parle de nombre de reproduction de base (ou R0) en début d’épidémie, en l’absence de mesures de contrôle de la transmission et lorsque la population est entièrement sensible au virus. Au cours de l’épidémie, ce nombre change : on parle de nombre de reproduction effectif ou temporel (Rt). S’il est inférieur à 1, l’épidémie régresse, au-dessus de 1, elle progresse.</em>)</p>
<p>Si, rétrospectivement, il apparaît désormais clair que le troisième confinement a induit une baisse du nombre de reproduction plus lente que celle des deux premiers confinements, il n’était pas possible fin avril de l’anticiper, tout comme il n’y avait pas d’élément en faveur d’une inversion de la tendance au cours du confinement, scénario que, pour les mêmes raisons, nous n’avons pas envisagé.</p>
<p><strong>TC : La fiabilité des modèles est-elle remise en cause ?</strong></p>
<p><strong>MS :</strong> Non, mais il faut bien comprendre que plusieurs raisons, méthodologiques et biologiques, compliquent l’estimation du nombre de reproduction peu de temps après l’instauration ou la levée d’une mesure de restriction.</p>
<p>Premièrement, il existe une différence entre la réalité et ce que l’on peut en appréhender par les mesures. Quand on implémente des restrictions (confinement, couvre-feu…) le nombre de reproduction chute du jour au lendemain dans la vie quotidienne. Cependant, cette discontinuité ne se voit pas dans les chiffres collectés, tout simplement parce que divers paramètres biologiques varient d’une personne à l’autre (temps d’incubation, début de contagiosité, apparition des symptômes…). </p>
<p>La discontinuité due aux restrictions pourrait être visible si tous ces événements se produisaient de façon homogène chez tout le monde, en admettant que le dépistage se fasse exactement au même moment, avec des résultats obtenus avec des délais identiques. Mais ce n’est pas le cas. Dans les faits il y a un lissage, et on ne voit les effets qu’au bout de deux semaines, indirectement, sur les hospitalisations et admissions quotidiennes en services de soins critiques (des données plus fiables que les dépistages, a fortiori en présence de jours fériés).</p>
<p>Deuxièmement, les méthodes de calcul du nombre de reproduction utilisent elles aussi des lissages, notamment pour s’affranchir de l’« effet week-end » : la moyenne glissante sur 7 jours permet de répartir la baisse d’activité de détection des cas le week-end (les laboratoires étant fermés) sur l’ensemble de la semaine, et donc de ne plus être impacté par des oscillations non pertinentes. L’inconvénient est que cette approche tamponne les variations qui témoignent d’un changement récent de tendance en cas de mise en place de mesures de restriction par exemple.</p>
<p>Il est donc nécessaire de poursuivre les efforts de recherche en modélisation. Il faudra notamment affiner les patrons de transmission et, surtout, améliorer l’inférence à partir de signaux faibles. De même, l’acquisition et le croisement de jeux de données complémentaires constituent un véritable enjeu. Au Royaume-Uni par exemple, l’épidémiosurveillance en milieu scolaire, le suivi des chaînes de contacts, le dépistage aléatoire de la population ainsi que le séquençage fournissent des sources précieuses pour améliorer la fiabilité des modèles.</p>
<p>Malgré tout, les modèles parcimonieux ont encore un rôle à jouer, même un an et demi après le début de la pandémie. En effet, s’ils ne sont pas les plus précis sur le court terme, ils permettent de facilement explorer l’ensemble des possibles sur le moyen terme, une temporalité qui intéresse tout particulièrement les décideurs. </p>
<p>En cela, ils sont adaptés pour éclairer les stratégies d’anticipation, en particulier dans le contexte d’une flambée épidémique où un délai peut se traduire exponentiellement en impact sanitaire. Quitte à réévaluer le calendrier toutes les deux semaines, à mesure que les estimations se consolident.</p>
<p><strong>TC : Rétrospectivement, a-t-on une idée des raisons qui peuvent expliquer cette décroissance plus rapide que lors des précédents confinements ?</strong></p>
<p><strong>MS :</strong> Aujourd’hui, nous manquons encore de recul (et de temps) pour l’expliquer de façon causale. Toutefois, à mesure que nous nous éloignons des événements, nous pourrons utiliser d’autres méthodes statistiques dédiées à l’étude du passé lointain, pour étudier de façon plus précise le déroulé de l’épidémie et évaluer la contribution des différents facteurs. Un travail qui, pour le moment, ne peut s’inscrire dans l’urgence des sollicitations. </p>
<p>Une des hypothèses est que la fermeture des écoles a constitué une contribution majeure à l’effet du confinement (pour le premier, la fermeture a été générale et pour le second, les vacances scolaires avaient déjà commencé). Or les enfants étant moins symptomatiques, il faut plus de temps pour voir les effets d’une telle mesure.</p>
<p>La stagnation du nombre de reproduction observée pendant la première semaine du troisième confinement pourrait s’expliquer par le fait que les chaînes de transmission se sont maintenues chez les adultes (sur les lieux de travail notamment). En revanche, ensuite les vacances scolaires ont commencé, les chaînes de transmission initiée dans les écoles n’existaient plus à ce moment-là, et le nombre de reproduction a fortement chuté, puisque de nombreux adultes étaient eux aussi en congé.</p>
<p><strong>TC : Ce résultat repose à nouveau la question du rôle des écoles…</strong></p>
<p><strong>MS :</strong> Oui, et d’autant plus que l’effet « vaccin » a été intégré de façon favorable. </p>
<p>Cependant, on ne peut pas vraiment dire qu’il y a eu un « effet écoles » plus important lors de ce confinement que lors du premier, car les conditions étaient différentes : présence du variant alpha (anciennement dit « britannique », plus contagieux que la souche historique en particulier chez les plus jeunes), vaccination des personnes les plus à risque de complications. </p>
<p>En outre, d’autres facteurs ont pu avoir un impact : les parcs étaient ouverts, la météo était meilleure qu’à l’automne (mais le temps plus clément ne peut expliquer à lui seul la baisse). Mais dans une modélisation prospective, il demeure délicat d’intégrer dans les projections un paramètre comme la météo, alors même que les prévisions au-delà d’une semaine sont incertaines.</p>
<p><strong>TC : Où en est-on aujourd’hui ? Voit-on un effet des réouvertures ?</strong></p>
<p><strong>MS :</strong> À la réouverture des écoles le 26 avril (et du secondaire en demi-jauge la semaine suivante), puis des terrasses le 19 mai, on a vu une légère remontée du nombre de reproduction, qui est repassé entre 0,8 et 0,9, pour revenir se stabiliser autour de 0,8 actuellement.</p>
<p>On observe donc bien un effet de la reprise scolaire et plus modestement de la réouverture des terrasses, mais rien qui soit de nature à faire repartir l’épidémie, qui reste en décroissance, même si cette dernière est un peu plus lente que début mai. Ceci suggère que les terrasses auraient pu être rouvertes plus tôt, en particulier dans les territoires dans lesquels l’incidence était déjà moins élevée. De manière générale, une territorialisation des levées des restrictions (et non pas seulement de leur mise en place) permet de générer des données à même à éclairer la prise de décision pour les territoires moins épargnés. </p>
<p>Par ailleurs, la vaccination joue un rôle clé, ce que montrent les divers scénarios : même si le nombre de reproduction remontait pour repasser légèrement au-dessus de 1, l’avancée de la vaccination pourrait le faire se stabiliser ou refluer rapidement.</p>
<p>Pour la suite, il convient de rester vigilant vis-à-vis des rassemblements en intérieur avec un renouvellement de l’air limité. Les réouvertures des salles de spectacles, des salles intérieures de restaurants sont encore trop récentes pour évaluer leur effet sur l’épidémie.</p>
<p><strong>TC : Le port du masque en extérieur n’est désormais plus obligatoire. Qu’en penser ?</strong></p>
<p>Rappelons que la réouverture des terrasses est intervenue dans un contexte de reconnaissance de la contribution de la voie aérienne (par aérosol) dans la transmission du SARS-CoV-2 et la dynamique de l’épidémie.</p>
<p>La littérature récente suggère cependant que le risque de transmission à l’extérieur est très faible. Il peut néanmoins persister dans les situations de proximité prolongée sans courant d’air, si une personne est exposée plusieurs minutes au nuage d’aérosols produit par une personne contagieuse sans que ce dernier ait eu le temps de se dissiper.</p>
<p><strong>TC : Que peut-on imaginer à l’automne ? Quels variants peut-on s’attendre à voir circuler, dans quelle partie de la population ?</strong></p>
<p><strong>MS :</strong> À nouveau, l’objectif des modèles mécanistiques n’est pas de prédire combien il y aura d’hospitalisation d’ici un nombre donné de jours, mais plutôt de savoir par exemple quel est le niveau de relâchement que l’on peut se permettre sans craindre une saturation hospitalière ou quel est le potentiel de décès d’une quatrième et dernière vague.</p>
<p>Actuellement, le variant alpha est majoritaire (même si le variant bêta d’origine sud-africaine semble désormais se propager plus rapidement que lui en Île-de-France et dans les Hauts-de-France, peut-être parce qu’il échapperait davantage à l’immunité naturelle, voir notre dernier travail <a href="https://www.eurosurveillance.org/content/10.2807/1560-7917.ES.2021.26.23.2100447">publié dans le journal du centre européen de prévention et de contrôle des maladies</a>). </p>
<p>Sachant que le variant alpha se propage davantage chez les jeunes et qu’en outre, les plus âgés ont été vaccinés en priorité, on peut naturellement s’attendre à ce que les plus jeunes deviennent le réservoir de circulation du virus dans les mois à venir.</p>
<p>La véritable question est de savoir quelle est l’ambition que l’on se fixe pour la rentrée : souhaite-t-on, par exemple, se débarrasser du port du masque complètement, non seulement à l’extérieur, mais aussi à l’intérieur ? Permettre à nouveau tous les événements culturels, quelle que soit la taille du public ? Dans ce cas, la poursuite de la campagne de vaccination cet été sera cruciale.</p>
<p><strong>TC : Quelles sont les estimations en termes de décès potentiels ?</strong></p>
<p><strong>MS :</strong> Actuellement, dans le cas où 90 % de la population adulte se retrouve vaccinée avec deux doses à la rentrée, nous serions encore sous la menace de 15 000 décès hospitaliers au niveau national – l’équivalent d’une importante épidémie de grippe saisonnière. Il s’agit d’un ordre de grandeur, dans les conditions actuelles (hors échappement immunitaire d’un variant, ce qui pour l’instant ne semble pas d’actualité).</p>
<p>Est-on prêt à accepter 15 000 morts supplémentaires ? Sachant que nous avons déjà collectivement accepté plus de 110 000 décès dus à cette pathologie, il y a peu de raison d’imaginer le contraire…</p>
<p>D’un point de vue purement pragmatique, le risque est que, si ces 15 000 décès survenaient de manière rapprochée, ils pourraient mettre à nouveau en tension localement certains centres hospitaliers. Pour cette raison, il est crucial de préparer la rentrée dès à présent. Il s’agira notamment pour les hôpitaux de déterminer comment s’organiser pour gérer au mieux l’activité Covid-19 résiduelle : faudra-t-il maintenir un plateau dédié ou répartir les hospitalisations entre les services ?</p>
<p><strong>TC : Pour prévenir ce type de problème, faut-il forcément que la vaccination soit homogène sur tout le territoire ?</strong></p>
<p><strong>MS :</strong> Pas forcément. Dans une modélisation initiée par Olivier Thomine basée sur les données d’OpenStreetMap, non encore revus par des pairs, l’hétérogénéité spatiale de l’épidémie suggère qu’il est <a href="https://zenodo.org/record/4675731">important d’atteindre des niveaux de couverture vaccinale élevés avant tout dans les grandes métropoles</a>.</p>
<p>Cela plaide pour des mesures territorialisées différenciées, y compris pour la couverture vaccinale : avoir une couverture vaccinale plus basse dans le Gers qu’à Paris, à Lyon où en Seine-Saint-Denis n’est pas forcément un problème. Cependant, si le virus venait à atteindre des territoires à la couverture vaccinale bien trop faible, il y aurait des risques d’épidémies locales. C’est ce qui a été observé par exemple <a href="http://dx.doi.org/10.2807/1560-7917.ES.2017.22.3.30443">aux Pays-Bas avec la rougeole</a>.</p>
<p>Outre la problématique du variant delta (d’origine indienne), dont la dynamique en France est suivie de près, la fin de l’épidémie en France sera déterminée par la couverture vaccinale. L’adhésion peut faiblir à mesure que la situation hospitalière s’améliore et que le risque infectieux perçu baisse. </p>
<p>Les modèles épidémiologiques n’intègrent pas encore les comportements humains, bien qu’il s’agisse d’une piste active de recherche. En attendant, les modélisations se doivent de produire scénarios basés sur une gamme d’hypothèses réalistes et documentées, pour qu’ils recouvrent une gamme de possibles à même d’anticiper le risque épidémique.</p><img src="https://counter.theconversation.com/content/162794/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Mircea T. Sofonea a reçu des financements de la Région Occitanie et de l'ANR (Projet PHYEPI). Il remercie Samuel Alizon (DR CNRS) pour ses suggestions.</span></em></p>
Pourquoi la baisse rapide des contaminations par le coronavirus a-t-elle surpris les modélisateurs ? À quoi s’attendre à la rentrée ? Combien de décès pourraient encore survenir ? Pistes de réponses.
Mircea T. Sofonea, Maître de conférences en épidémiologie et évolution des maladies infectieuses, laboratoire MIVEGEC, Université de Montpellier
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/160715
2021-05-13T15:11:51Z
2021-05-13T15:11:51Z
« Les mots de la science » : M comme modélisation
<p>Anthropocène, intersectionnalité, décroissance, modélisation… Ce jargon vous dit quelque chose, bien sûr. Mais parfois, nous utilisons ces mots sans bien savoir ce qu’ils veulent dire ! Dans les Mots de la science, on revient donc sur l’histoire et le sens de ces mots clés avec des chercheuses et chercheurs capables de nous éclairer.</p>
<p>L’épisode du jour est dédié à la <strong>modélisation</strong>. Cette notion scientifique a fait une entrée fracassante dans le débat public depuis le début de la crise sanitaire, puisque les modèles et modélisateurs sont devenus en quelques sortes nos « guides » dans ce tunnel, en nous expliquant à l’aide d’équations, de chiffres et d’indicateurs la trajectoire de la pandémie.</p>
<p>Mais ce mot n’a pas attendu la Covid-19 pour exister ! C’est tout l’enjeu de cet épisode : comprendre comment la modélisation et les modèles, permettant de représenter le réel dans des équations, sont au cœur de la démarche scientifique depuis des décennies. Nous allons revenir sur leur histoire, leur sens, le métier de modélisateur, et sur le lien ténu entre ces pratiques scientifiques et la prise de décision politique.</p>
<p>Pour nous en parler, nous recevons <strong>Catherine Bourgain</strong>, directrice de recherche à l’Inserm, directrice du laboratoire <a href="https://www.cermes3.cnrs.fr/fr/">Cermes3</a>. D’abord spécialiste de génétique épidémiologique, elle s’est progressivement intéressée à l’épistémologie et aux pratiques de la recherche, jusqu’à étudier dernièrement la fabrique des modèles et de la modélisation en sciences.</p>
<p>Bonne écoute !</p>
<iframe src="https://embed.acast.com/5f63618a37b1a24c4ff25896/609b880a561ef025f555c979?cover=true" frameborder="0" allow="autoplay" width="100%" height="110"></iframe>
<p><iframe id="tc-infographic-580" class="tc-infographic" height="100" src="https://cdn.theconversation.com/infographics/580/79c5a87fdceb1b0efb535b241695d9bb89f1bb67/site/index.html" width="100%" style="border: none" frameborder="0"></iframe></p>
<hr>
<p><em>Conception et réalisation, Iris Deroeux</em>.</p><img src="https://counter.theconversation.com/content/160715/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Catherine Bourgain a reçu des financements de l'ANR, l'INCa, l'Agence de la biomédecine. </span></em></p><p class="fine-print"><em><span>Iris Deroeux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Cet épisode est dédié à la modélisation, une pratique scientifique devenue une notion commune dans le sillon de la pandémie. Mais comment ça marche et à quoi cela sert exactement ?
Catherine Bourgain, Généticienne et sociologue des sciences. directrice du Cermes3 (CNRS, EHESS, Inserm, Université de Paris), directrice de recherche, Inserm
Iris Deroeux, journaliste , The Conversation France
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/158259
2021-03-31T19:50:20Z
2021-03-31T19:50:20Z
Que sait-on du rôle des écoles dans l’épidémie de Covid-19 ? Cinq experts répondent
<p>La question de la fermeture des écoles fait l’objet de débats récurrents depuis le début de l’épidémie de Covid-19. Il est désormais clair que les formes sévères de la maladie ne touchent que très exceptionnellement les enfants. </p>
<p>Mais qu’en est-il de la capacité des plus jeunes à transmettre le virus ? Le fait de maintenir les écoles ouvertes est-il problématique ? Leur fermeture peut-elle être efficace ? Pourquoi est-il si difficile d’obtenir un consensus sur la question du rôle des écoles dans la dynamique de l’épidémie de Covid-19 ? </p>
<p>Pour le comprendre, nous avons interrogé cinq experts.</p>
<hr>
<h2><em>« Dans nos modèles, nous ne considérons pas que les enfants ont un profil différent des adultes »</em></h2>
<p><strong>• Mircea Sofonea</strong>, maître de conférences en épidémiologie et évolution des maladies infectieuses à l’Université de Montpellier</p>
<p>Évaluer la contribution des enfants à la dynamique de l’épidémie est depuis le début un enjeu crucial de notre compréhension de l’épidémie, mais elle se heurte à des difficultés méthodologiques fortes et soulève légitimement la question de la balance coût-bénéfice de mesures ciblant le milieu scolaire. Sur ce sujet précisément, toutes les conclusions des études ne sont pas allées dans le même sens. Certaines références françaises ont initialement minimisé cet impact, avant les résultats de l’<a href="https://www.pasteur.fr/fr/espace-presse/documents-presse/etude-comcor-lieux-contamination-au-sars-cov-2-ou-francais-s-infectent-ils">étude ComCor de l’Institut Pasteur</a>, alors que les références allemandes et britanniques se montraient plus pessimistes. D’après les Allemands, les charges virales sont aussi élevées <a href="https://www.medrxiv.org/content/10.1101/2020.06.08.20125484v1">chez les enfants que dans le reste de la population</a>, ce qui a été confirmé plus récemment <a href="https://www.nature.com/articles/s41598-021-81934-w">par des travaux américains</a>. Un rapport britannique avait estimé que la transmissibilité des jeunes (jusqu’à 16 ans) est <a href="https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/948617/s0998-tfc-update-to-4-november-2020-paper-on-children-schools-transmission.pdf">plus de deux fois supérieure à celles des adultes</a>. Nos voisins d’outre-Manche sont d’autant plus pessimistes que le variant qui a émergé sur leur territoire se reproduit plus facilement chez les plus jeunes que la souche historique, <a href="https://wwwnc.cdc.gov/eid/article/27/5/21-0397_article#suggestedcitation">ce que nous avons constaté en France également</a>.</p>
<p>Une des difficultés est d’avoir des données sur ces classes d’âge et de pouvoir distinguer entre sur-contagiosité (risque de transmettre l’infection) ou de la sur-susceptibilité (risque de développer l’infection à exposition égale). Les plus jeunes étant majoritairement paucisymptomatiques (font peu de symptômes) ou asymptomatiques, ils ne rentrent pas dans les critères de dépistage (la Société française de pédiatrie a d’ailleurs limité les indications de dépistage PCR pour les enfants de moins de six ans), ce qui restreint la possibilité de mettre au jour et d’éteindre des chaînes de transmissions transitant par les écoles.</p>
<p>Autre difficulté : il est compliqué de déterminer le taux de contacts véritable des enfants et adolescents. Mais une chose est sûre, par définition les enfants ont plus de contacts que les autres classes d’âge, car ils sont exposés à leurs camarades. Cette surexposition doit-elle être prise en compte ? Personnellement je suis partisan d’avoir une approche plutôt parcimonieuse et conservative, autrement dit de ne pas considérer que les enfants ont un profil différent des adultes. </p>
<p>Contrairement à d’autres équipes comme celle de Vittoria Colizza, nous n’avons pas travaillé spécifiquement sur les écoles. Cependant, dans nos modèles, nous ne rendons pas les enfants plus ou moins contagieux ou plus ou moins susceptibles que les adultes (en revanche nous ne les intègre pas de la même façon dans les modèles d’hospitalisation, évidemment, puisque les formes sévères ne les concernent que de façon très exceptionnelle).</p>
<p>Concernant la mise en place de restrictions, il est clair que l’école est un lieu de contamination, <a href="https://doi.org/10.1038/s41562-020-01009-0">dont la fermeture représente un levier de freinage épidémique</a>. Mais c’est aussi un lieu trop essentiel pour être considéré comme une cible première de mesures de restriction.</p>
<hr>
<h2><em>« On a tendance à penser que les enfants vont être moins transmetteurs parce qu’ils font des formes asymptomatiques »</em></h2>
<p><strong>• Pascal Crépey</strong>, épidémiologiste et biostatisticien à l’École des Hautes Études en Santé Publique</p>
<p>Ce qui est clair, c’est qu’il est compliqué de suivre la dynamique de l’infection dans les écoles, principalement parce que les enfants ne font pas de forme sévère, et peu de formes symptomatiques. À moins de les tester très régulièrement, qu’ils aient des symptômes ou non, il est difficile d’obtenir une image claire de la dynamique.</p>
<p>La question à laquelle il faut répondre est « Est-ce que les enfants ont une contribution plus importante que les adultes dans la dynamique de l’épidémie ». C’est en effet cela qui justifierait qu’ils soient ciblés en priorité par des mesures de restriction. </p>
<p>Or, la dynamique de la grippe nous enseigne que les personnes sans symptômes, même s’ils ne s’isolent pas, <a href="https://academic.oup.com/aje/article/178/11/1655/83864">sont moins contaminantes que les personnes malades</a>. En effet, ils ne toussent pas, n’éternuent pas et donc excrètent moins de particules virales. Par ailleurs, même si les études divergent, <a href="https://www.thelancet.com/journals/laninf/article/PIIS1473-3099(20)30232-2/fulltext">leur charge virale est aussi moindre</a>, ce qui fait qu’ils ont, a priori, aussi moins de virus à excréter. </p>
<p>Partant de là, on a tendance à penser que les enfants vont être moins transmetteurs parce qu’ils font des formes asymptomatiques. C’est cependant compensé par le fait que les enfants vont avoir beaucoup de contacts les uns avec les autres, et vont sûrement moins respecter la distanciation physique, le port du masque, le lavage des mains… Toutefois depuis la réouverture des écoles, des protocoles sanitaires ont été mis en place. Même si leur respect peut varier d’une école à l’autre, ils limitent encore un peu plus les contaminations à l’école.</p>
<p>Concernant l’installation du variant d’origine britannique étant donné qu’il est plus transmissible que la souche historique à tous les âges, on peut s’attendre à ce qu’il y ait aussi une augmentation des contaminations chez les plus jeunes, mais elle sera du même ordre que dans le reste de la population. La fraction des contaminations attribuable aux enfants ne changera pas.</p>
<p>Ces dernières semaines il y a eu un effort particulièrement important de dépistage dans les écoles. Entre la semaine 10 et la semaine 11, le nombre de tests pratiqués a augmenté de 40 %. Cette augmentation provoque une augmentation de l’incidence puisqu’on trouve plus de tests positifs. Cependant l’incidence chez les 10-14 ans reste inférieure à l’incidence chez les adultes. Il y a donc des infections chez les enfants, mais elles sont en nombre plus limité que dans les populations adultes.</p>
<hr>
<h2><em>« La question du maintien ouvert des écoles est avant tout une question de balance bénéfice-risque »</em></h2>
<p><strong>• Christèle Gras-Le Guen</strong>, professeure de pédiatrie, présidente de la société française de pédiatrie</p>
<p>Un an après, le rôle joué par les écoles dans la dynamique de l’épidémie reste un des points sur lesquels la communication est la plus confuse et la plus difficile.</p>
<p>Personne ne conteste que les écoles sont un lieu de contamination potentielle et pourraient abriter des foyers infectieux : nous avons dit que les enfants étaient très peu contagieux, mais nous n’avons pas dit qu’ils ne l’étaient pas du tout. Cependant, on constate qu’en général, les enfants se font plutôt contaminer par les adultes ; l’inverse est plus rare. Ce n’est pas impossible, mais entre ce qui est possible en théorie et ce que l’on constate en pratique, il y a une différence. On constate que les contaminations surviennent surtout dans le milieu intrafamilial (repas et réunions privées).</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/un-an-plus-tard-que-sait-on-de-linfection-des-enfants-par-le-coronavirus-sars-cov-2-156600">Un an plus tard, que sait-on de l’infection des enfants par le coronavirus SARS-CoV-2 ?</a>
</strong>
</em>
</p>
<hr>
<p>Nous avons publié un article qui fait l’état des lieux en France <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7883717/pdf/main.pdf%5D(https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7883717/pdf/main.pdf%20%22%22)">deux mois après la rentrée scolaire de septembre</a>. On remarque non seulement que la circulation virale chez les enfants et les adolescents est très inférieure à ce qu’on observe chez l’adulte, mais aussi que très peu de classes ont été fermées et que très peu de clusters ont été investigués à l’école. En outre, les chiffres du ministère de l’Éducation nationale indiquent que très peu d’enseignants ont été contaminés.</p>
<p>Un point sur lequel on manque de données est la question de la contagiosité des enfants asymptomatiques, et leur proportion. En effet, jusqu’ici les enfants qui ont été testés l’ont été soit parce qu’ils avaient été en contact avec un cas positif, soit parce qu’ils étaient symptomatiques, mais aucun test systématique n’a été fait sur des enfants non symptomatiques. L’arrivée des tests salivaires dans les écoles a permis de mieux décrire le portage du virus en l’absence de symptôme chez l’enfant. Ainsi, le bulletin de l’Éducation nationale indique que parmi 200 404 tests réalisés entre le 15 et le 22 mars, seul 0,49 % élèves étaient positifs et donc potentiellement contaminants, ce qui confirme que la contribution des enfants asymptomatiques à la dynamique de l’épidémie est marginale.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/392913/original/file-20210331-25-eudoaw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/392913/original/file-20210331-25-eudoaw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=404&fit=crop&dpr=1 600w, https://images.theconversation.com/files/392913/original/file-20210331-25-eudoaw.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=404&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/392913/original/file-20210331-25-eudoaw.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=404&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/392913/original/file-20210331-25-eudoaw.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=507&fit=crop&dpr=1 754w, https://images.theconversation.com/files/392913/original/file-20210331-25-eudoaw.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=507&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/392913/original/file-20210331-25-eudoaw.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=507&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’école est importante pour l’équilibre des enfants. La santé psychique de bon nombre d’entre eux a été affectée par la crise sanitaire.</span>
<span class="attribution"><span class="source">Martin Bureau / AFP</span></span>
</figcaption>
</figure>
<p>Il ne s’agit pas de dire que le risque épidémique à l’école n’existe pas. Cependant, il est mineur par rapport au bénéfice attendu pour la santé des enfants, de laisser les écoles ouvertes, afin qu’ils puissent mener une vie aussi normale que possible. C’est d’autant plus important que l’on constate <a href="https://www.sfpediatrie.com/actualites/avis-du-29-mars-2021-question-recurrente-fermeture-ecoles">que la santé mentale des plus jeunes est particulièrement dégradée par la crise sanitaire</a>. La question du maintien ouvert des écoles est avant tout une question de balance bénéfice-risque qui doit être adaptée au niveau de circulation du virus, à l’âge des enfants et constitue la dernière mesure à prendre quand tout le reste a échoué (confinement strict, mesures barrières optimisées, vaccination intensifiée des professionnels de l’enfance).</p>
<hr>
<h2><em>« Les écoles jouent un rôle dans la dynamique de l’épidémie »</em></h2>
<p><strong>• Dominique Costagliola</strong>, épidémiologiste et biostatisticienne, directrice adjointe de l’Institut Pierre Louis d’Épidémiologie et de Santé Publique</p>
<p>Je comprends tout à fait que l’on puisse décider qu’il est important, pour de nombreuses raisons, que les enfants continuent à aller à l’école.</p>
<p>Cependant, une politique qui consiste à déclarer qu’« il faut garder les écoles ouvertes » implique de mettre en place des mesures qui permettent de gérer correctement le risque associé à cette décision (<a href="https://tnova.fr/notes/pour-une-autre-strategie-de-lutte-contre-le-covid-a-l-ecole">aération, masques, distanciation, dépistage…</a>).</p>
<p>Or, à l’heure actuelle, compte tenu de la très forte circulation du virus, je ne suis pas sûre que ce soit possible. Il est important de souligner que les résultats publiés dans la littérature scientifique sérieuse <a href="https://science.sciencemag.org/content/371/6531/eabd9338">ont bel et bien mis en évidence</a> que les écoles <a href="https://onlinelibrary.wiley.com/doi/full/10.1111/eci.13484">jouent un rôle dans la dynamique de l’épidémie</a>.</p>
<p>À ce sujet, un point interpelle fortement : comment est-il possible que l’on ait pu tolérer que la définition d’un cas contact à l’école ne soit pas la même que celle utilisée par Santé Publique France et la Caisse nationale d’Assurance Maladie partout ailleurs ? </p>
<p><em>(ndlr : dans les écoles, si un enseignant est positif, ses élèves ne sont pas considérés comme contacts à risque « car l’enseignant porte un masque » - si un seul enfant est positif dans une classe : les autres enfants ne sont pas contacts à risque « car ils sont peu actifs dans la chaîne de transmission du virus ». Une classe n’était fermée qu’à partir de trois cas avérés. Les choses ont changé récemment dans les départements reconfinés : toute classe y sera fermée « dès qu’un premier cas sera détecté ».)</em></p>
<p>Cette définition du cas contact a permis de laisser entendre qu’il n’y avait pas de problème dans les écoles. À l’étranger, en Allemagne et en Angleterre, les écoles ont été fermées quand des mesures sévères ont été décidées. Dans une tribune publiée le 24 février dernier dans le journal Le Monde, Mélanie Heard et François Bourdillon soulignaient bien <a href="https://www.lemonde.fr/idees/article/2021/02/24/en-france-il-existe-un-deni-du-risque-de-l-epidemie-a-l-ecole_6070995_3232.html">l’importance de reconnaître le rôle de l’école dans la dynamique de l’épidémie</a>.</p>
<hr>
<h2><em>« Si l’on veut garder les écoles ouvertes tout en maîtrisant davantage l’épidémie, il faut s’assurer de l’efficacité des protocoles »</em></h2>
<p><strong>• Vittoria Colizza</strong>, directrice de recherche Inserm au sein de l’Institut Pierre Louis d’épidémiologie et de santé publique</p>
<p>La susceptibilité des enfants et leur rôle dans la dynamique de l’épidémie sont des points qui ont été étudiés très tôt dans la pandémie.</p>
<p>Jusqu’à aujourd’hui, les conclusions de ces travaux n’ont pas changé : avant 20 ans, les individus sont moins susceptibles d’être infectés, et la contagiosité des enfants en bas âge est réduite.</p>
<p>Il y a probablement eu un malentendu initial : certains ont peut-être cru que les enfants à l’école n’attrapaient pas la maladie. Ce n’est pas le cas, comme l’ont confirmé les travaux de l’équipe d’Arnaud Fontanet à l’Institut Pasteur, portant sur le risque d’infection des élèves en fonction de l’âge. Cependant, la plupart de cas passaient davantage inaperçus, car ils étaient asymptomatiques. Les cas n’étaient détectés que lorsqu’un cas symptomatique survenait, ou après une enquête destinée à retracer les cas contacts dans un foyer infecté par exemple.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/covid-19-ecoles-et-contaminations-que-dit-la-science-149247">Covid-19 : écoles et contaminations, que dit la science ?</a>
</strong>
</em>
</p>
<hr>
<p>La seule nouveauté des derniers mois, c’est que le variant britannique se transmet plus facilement et est à l’origine de davantage de formes plus sévères, ce qui -dans des conditions d’incidence élevée comme aujourd’hui en France- amène a détecter plus de cas dans les écoles désormais. En outre, dans des conditions le virus circule moins ailleurs puisque de nombreux lieux sont fermés, que les gens télétravaillent, forcément, les contaminations dans les écoles prennent plus d’importance.</p>
<p>Une chose est certaine, si l’on veut garder les écoles ouvertes tout en maîtrisant davantage l’épidémie, il faut s’assurer de l’efficacité des protocoles en place.</p>
<p>Nos derniers travaux, menés avec l’équipe d’Alain Barrat (CNRS) avaient justement pour objectif de comprendre si un dépistage régulier dans les écoles permettrait de diminuer le nombre de cas. En nous basant sur des données de contact collectées dans une école de 250 élèves, nous avons construit un modèle de propagation de l’épidémie au sein de cet établissement situé dans un département « reconfiné ». Ce modèle nous a permis de comparer l’efficacité du protocole actuellement en place (fermeture de classe dès qu’un cas de Covid-19 est avéré chez un enfant) à divers scénarios de dépistage (PCR sur prélèvement nasopharyngé, PCR sur prélèvement salivaire, test antigénique sur prélèvement nasopharyngé).</p>
<p>La fermeture de la classe selon le protocole classique permet de diminuer de 10 à 20 % le nombre de cas au sein de l’école sur un trimestre. Nous avons comparé ce protocole avec des protocoles de dépistage régulier : test une fois toutes les 2 semaines, une fois par semaine, deux fois par semaine, et chaque jour d’école. Nous avons découvert que le paramètre clé n’est pas la sensibilité des tests, mais la fréquence de dépistage, et l’adhésion.</p>
<p>Si seul un quart des élèves participe (adhésion faible, dans le cas de tests nasopharyngés, désagréables…), il faudrait faire un dépistage presque tous les jours pour identifier les cas et ainsi réduire davantage la propagation de l’épidémie. Si les trois quarts des élèves participent (cas des tests salivaires, moins désagréables), on est capable d’atteindre les mêmes niveaux de réduction d’impact sur l’épidémie en ne faisant qu’un test par semaine.</p>
<p>Si on veut garder les écoles ouvertes au maximum, il faut donc tendre vers ce genre de protocole, beaucoup plus performant que le protocole actuel. En effet, avec ce dernier, la fermeture de la classe survient généralement trop tard, elle n’empêche pas la propagation du virus aux autres classes. En Suisse, dans certains cantons des tests sont pratiqués toutes les semaines. Au Royaume-Uni, des autotests ont été mis en place, deux fois par semaine.</p><img src="https://counter.theconversation.com/content/158259/count.gif" alt="The Conversation" width="1" height="1" />
Alors que notre pays fait face à la montée d’une troisième vague de Covid-19, la fermeture des écoles permettra-t-elle de freiner le SARS-CoV-2 ? Quel rôle jouent-elles dans l’épidémie ?
Lionel Cavicchioli, Chef de rubrique Santé + Médecine, The Conversation France
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/157705
2021-03-24T19:32:37Z
2021-03-24T19:32:37Z
Est-on en train de mettre à jour une nouvelle physique au CERN ? Pourquoi nous sommes prudemment optimistes
<figure><img src="https://images.theconversation.com/files/391363/original/file-20210324-13-twsgrm.png?ixlib=rb-1.1.0&rect=0%2C23%2C1198%2C752&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les collisions de particules de l'expérience LHCb mettent en évidence un phénomène inattendu dans le cadre du modèle standard.</span> <span class="attribution"><a class="source" href="https://cds.cern.ch/images/OPEN-PHO-EXP-2016-007-1/file?size=large">©CERN</a></span></figcaption></figure><p>Lorsque l’accélérateur géant du CERN, le Grand Collisionneur de Hadrons ou LHC, a démarré il y a dix ans, les espoirs étaient grands de découvrir bientôt de nouvelles particules qui pourraient nous aider à percer les plus grands mystères de la physique. Matière noire, trous noirs microscopiques et dimensions cachées <a href="https://theconversation.com/le-prix-nobel-de-physique-2020-va-aux-explorateurs-des-secrets-les-plus-sombres-de-lunivers-147673">n’étaient que quelques-unes</a> des possibilités. Mais à part la <a href="https://home.cern/fr/science/physics/higgs-boson">découverte spectaculaire</a> du boson de Higgs, le projet n’a pas réussi à fournir des indices sur ce qui pourrait se trouver <a href="https://fr.wikipedia.org/wiki/Physique_au-del%C3%A0_du_mod%C3%A8le_standard">au-delà du modèle standard</a> de la physique des particules, qui reste aujourd’hui notre meilleure théorie du microcosme, malgré ses défaillances.</p>
<p>C’est pourquoi le <a href="http://arxiv.org/abs/2103.11769">nouvel article</a> de la grande collaboration autour du LHCb, <a href="https://fr.wikipedia.org/wiki/LHCb">l’une des quatre expériences géantes du LHC</a>, devrait faire battre le cœur des physiciens un peu plus vite. Après avoir analysé des trillions de collisions produites au cours de la dernière décennie, nous pourrions être en train de voir la preuve de quelque chose de tout à fait nouveau – potentiellement la particule vectrice d’une toute nouvelle force de la nature.</p>
<p>Mais l’excitation est tempérée par une extrême prudence. Le modèle standard a résisté à tous les tests expérimentaux qu’on lui a fait subir depuis qu’il a été élaboré dans les années 1970. Il faut donc des preuves extraordinaires pour affirmer que nous voyons enfin quelque chose qu’il ne peut expliquer.</p>
<h2>Anomalie étrange</h2>
<p>Le modèle standard décrit la nature à la plus petite des échelles, comprenant des <a href="https://fr.wikipedia.org/wiki/Particule_%C3%A9l%C3%A9mentaire">particules élémentaires</a> connues sous le nom de leptons (comme les électrons) et de quarks (qui peuvent s’assembler pour former des particules plus lourdes comme les protons et les neutrons), ainsi que les forces grâce auxquelles ces particules interagissent.</p>
<p>Il existe de nombreux types de quarks, dont certains sont instables et peuvent se désintégrer en d’autres particules. En 2014, les physiciens du LHCb <a href="https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.113.151601">ont repéré</a> des quarks « bottom » se désintégrant de manière inattendue. Notre nouveau résultat est lié à ce qui était alors une anomalie expérimentale.</p>
<p>Plus précisément, les quarks <em>bottom</em> semblaient se désintégrer en « muons » (un type de lepton) moins souvent qu’ils ne se désintégraient en électrons. C’est étrange, car le muon est en fait une copie carbone de l’électron, identique en tous points sauf qu’il est environ 200 fois plus lourd.</p>
<p>On s’attendrait à ce que les quarks <em>bottom</em> se désintègrent en muons aussi souvent qu’en électrons. La seule façon dont ces désintégrations pourraient se produire à des taux différents serait que des particules jamais vues auparavant soient impliquées dans la désintégration et fassent pencher la balance en défaveur des muons.</p>
<p>Si le résultat de 2014 était intrigant, il n’était pas assez précis pour tirer une conclusion ferme. Depuis lors, un certain nombre d’autres anomalies sont apparues dans des processus connexes. Elles ont toutes été individuellement trop subtiles pour que les chercheurs soient sûrs qu’il s’agissait de véritables signes d’une nouvelle physique, mais de manière alléchante, elles semblaient toutes pointer dans une direction similaire.</p>
<figure class="align-center ">
<img alt="Image de l’expérience LHCb au CERN" src="https://images.theconversation.com/files/390889/original/file-20210322-19-nytkho.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/390889/original/file-20210322-19-nytkho.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=399&fit=crop&dpr=1 600w, https://images.theconversation.com/files/390889/original/file-20210322-19-nytkho.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=399&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/390889/original/file-20210322-19-nytkho.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=399&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/390889/original/file-20210322-19-nytkho.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=502&fit=crop&dpr=1 754w, https://images.theconversation.com/files/390889/original/file-20210322-19-nytkho.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=502&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/390889/original/file-20210322-19-nytkho.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=502&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Expérience LHCb.</span>
<span class="attribution"><span class="source">CERN</span></span>
</figcaption>
</figure>
<p>La grande question était de savoir si ces anomalies allaient se renforcer au fur et à mesure de l’analyse des données ou se fondre dans le néant. En 2019, LHCb a effectué la <a href="https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.122.191801">même mesure</a> de la désintégration du quark <em>bottom</em>, mais avec des données supplémentaires prises en 2015 et 2016. Mais les choses n’étaient pas beaucoup plus claires qu’elles ne l’étaient cinq ans plus tôt.</p>
<h2>Nouveaux résultats</h2>
<p>Le résultat d’aujourd’hui double l’ensemble de données existant, en ajoutant les mesures de 2017 et 2018. Pour éviter d’introduire accidentellement des biais, les données ont été analysées « en aveugle » : les scientifiques ne pouvaient pas voir le résultat avant que toutes les procédures utilisées dans la mesure aient été testées et examinées.</p>
<p><a href="https://www.imperial.ac.uk/people/mitesh.patel">Mitesh Patel</a>, physicien des particules à l’Imperial College London et l’un des responsables de l’expérience, a décrit l’excitation qu’il a ressentie lorsque le moment est venu de regarder le résultat : « Je tremblais. Je me suis rendu compte que c’était probablement la chose la plus excitante que j’aie faite en 20 ans de physique des particules. »</p>
<p>Lorsque le résultat est apparu à l’écran, l’anomalie était toujours là – environ 85 désintégrations en muons pour 100 désintégrations en électrons, mais avec une incertitude plus faible qu’auparavant.</p>
<p>Ce qui va enthousiasmer de nombreux physiciens, c’est que l’incertitude du résultat est maintenant supérieure à « trois sigmas » – la façon dont les scientifiques disent qu’il n’y a qu’une chance sur mille que le résultat soit un hasard des données. Par convention, les physiciens des particules appellent « preuve" tout ce qui dépasse trois sigmas. Cependant, nous sommes encore loin d’une « découverte confirmée » ou d’une « observation confirmée » – il faudrait pour cela cinq sigmas.</p>
<p>Les théoriciens ont montré qu’il est possible d’expliquer cette anomalie (et d’autres) en reconnaissant l’existence de toutes nouvelles particules qui influencent la façon dont les quarks se désintègrent. L’une des possibilités est une particule fondamentale appelée <a href="https://www.futura-sciences.com/sciences/actualites/cern-lhc-toujours-trace-mythique-boson-z-59635/">« Z prime »</a> (ou « Z’ ») – en fait, un porteur d’une nouvelle force de la nature. Cette force serait extrêmement faible, ce qui explique pourquoi nous n’en avons vu aucun signe jusqu’à présent, et interagirait différemment avec les électrons qu’avec les muons.</p>
<p>Une autre option est l’hypothétique <a href="https://home.cern/fr/news/news/physics/cms-sets-new-bounds-mass-leptoquarks">« leptoquark »</a> – une particule qui a la capacité unique de se désintégrer en quarks et en leptons simultanément et qui pourrait faire partie d’un plus grand puzzle expliquant pourquoi nous voyons les particules que nous voyons dans la nature.</p>
<h2>Interprétation des résultats</h2>
<p>Alors, avons-nous enfin trouvé la preuve d’une nouvelle physique ? Peut-être bien que oui, peut-être bien que non. Comme nous effectuons de nombreuses mesures au LHC, on peut s’attendre, statistiquement, à ce qu’au moins certaines d’entre elles s’éloignent à ce point du modèle standard. Et nous ne pouvons jamais exclure totalement la possibilité d’un biais dans notre expérience, que nous n’aurions pas correctement pris en compte, même si ce nouveau résultat a été vérifié de manière extraordinairement approfondie. En fin de compte, l’image ne deviendra plus claire qu’avec davantage de données. LHCb fait actuellement l’objet d’une mise à niveau majeure visant à augmenter considérablement le taux d’enregistrement des collisions.</p>
<p>Même si l’anomalie persiste, elle ne sera probablement pleinement acceptée par la communauté que lorsqu’une expérience indépendante aura confirmé les résultats. Une possibilité excitante est que nous puissions détecter les nouvelles particules responsables de l’effet créé directement dans les collisions au LHC. Mais l’<a href="https://www.belle2.org">expérience Belle II</a> devrait également être en mesure d’effectuer des mesures similaires, au Japon.</p>
<p>Que cela peut-il donc signifier pour l’avenir de la physique fondamentale ? Si ce que nous voyons est vraiment le signe avant-coureur de nouvelles particules fondamentales, ce sera enfin la percée que les physiciens attendent depuis des décennies.</p>
<p>Nous verrons enfin une partie de ce qui se trouve au-delà du modèle standard – ce qui pourrait finalement nous permettre de résoudre un certain nombre de mystères dont nous connaissons l’existence, et notamment la nature de la matière noire, ou celle du boson de Higgs. Elle pourrait même aider les théoriciens à unifier les particules et les forces fondamentales. Ou, ce qui est peut-être le plus intéressant, elle pourrait indiquer quelque chose que nous n’avons jamais envisagé.</p>
<p>Alors, faut-il s’enthousiasmer ? Oui, car des résultats comme celui-ci ne sont vraiment pas fréquents et ils signifient que la chasse est ouverte pour expliquer ces observations de la désintégration déséquilibrée des quarks <em>bottom</em>. Mais nous devons aussi faire preuve de prudence et d’humilité, car les affirmations extraordinaires exigent des preuves extraordinaires, comme le <a href="https://en.wikipedia.org/wiki/Sagan_standard">dit Carl Sagan</a>. Seuls le temps et beaucoup de travail nous diront si nous sommes en train de voir une première lueur de ce qui se trouve au-delà de notre compréhension actuelle de la physique des particules.</p>
<hr>
<p><em>Article traduit de l’anglais par DeepL avec l’aide d’Elsa Couderc</em>.</p><img src="https://counter.theconversation.com/content/157705/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Harry Cliff travaille à l'Université de Cambridge. Il reçoit des financements du Science and Technology Facilities Council britannique. Il est membre de la collaboration LHCb et un "utilisateur" du CERN.</span></em></p><p class="fine-print"><em><span>Konstantinos Alexandros Petridis reçoit des financements du Science and Technology Facilities Council britannique. Il travaille à l'Université de Bristol et est membre de la collaboration LHCb au CERN.</span></em></p><p class="fine-print"><em><span>Paula Alvarez Cartelle travaille à l'Université de Cambridge. Elle reçoit des financements du Science and Technology Facilities Council britannique. Elle est membre de la collaboration LHCb au CERN.</span></em></p>
Si les observations récentes du CERN sont vraiment liées à une nouvelle physique, ce pourrait être la percée que les physiciens des particules attendent depuis longtemps.
Harry Cliff, Particle physicist, University of Cambridge
Konstantinos Alexandros Petridis, Senior lecturer in Particle Physics, University of Bristol
Paula Alvarez Cartelle, Lecturer of Particle Physics, University of Cambridge
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/154233
2021-02-02T20:09:03Z
2021-02-02T20:09:03Z
Comment évaluer les nouveaux risques cyber ?
<figure><img src="https://images.theconversation.com/files/381353/original/file-20210129-15-1cum4lg.jpg?ixlib=rb-1.1.0&rect=13%2C255%2C3025%2C2260&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les risques cyber changent rapidement de nature.</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/xxn48oa73sM">Joshua Gandara, Unsplash </a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>L’<a href="https://cyberguerre.numerama.com/9374-sunburst-une-nouvelle-attaque-ultra-sophistiquee-menace-des-milliers-dorganisations.html">attaque Sunburst</a>, découverte en décembre, illustre l’ampleur du défi de la cybersécurité. Les pirates informatiques ont réussi à pénétrer dans les principales agences gouvernementales américaines et dans d’autres organisations du monde entier en compromettant les mises à jour de l’un de leurs fournisseurs de logiciels, SolarWinds. Les organisations peuvent faire appel <a href="https://www.forbes.com/sites/jwebb/2018/02/28/how-many-suppliers-do-businesses-have-how-many-should-they-have/?sh=6ec4b93d9bb7">à des centaines, voire des milliers</a>, de fournisseurs et d’entrepreneurs tiers qui leur permettent de s’infiltrer.</p>
<p>Ces tiers peuvent être des fournisseurs informatiques, mais pas seulement : en 2017, un casino de Las Vegas aurait été infiltré par un <a href="https://www.lefigaro.fr/secteur/high-tech/2018/04/16/32001-20180416ARTFIG00278-un-casino-pirate-a-cause-d-un-thermometre-dans-un-aquarium.php">aquarium connecté</a> et un supermarché Target aux États-Unis aurait été atteint <a href="https://business.lesechos.fr/directions-numeriques/technologie/cybersecurite/0203336807596-apres-le-vol-le-temps-des-explications-61311.php">par l’intermédiaire de son fournisseur d’air conditionné</a> en 2014.</p>
<p>De plus, de nouveaux types d’attaques et de nouveaux acteurs apparaissant régulièrement, ce qui rend difficile l’évaluation des risques cyber. Par exemple, nous assistons à l’avènement d’attaques utilisant l’intelligence artificielle. Dans une affaire très médiatisée, des cybercriminels ont récemment piégé un employé pour qu’il leur transfère de l’argent en <a href="https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402">utilisant l’IA pour imiter la voix du PDG</a>.</p>
<p>Les approches actuelles de la gestion des risques liés à la cybersécurité présentent des lacunes importantes. Elles ont tendance à s’appuyer sur des « matrices de risques », qui utilisent une grille pour comparer la probabilité du risque et la gravité de l’impact. Les valeurs numériques attribuées aux probabilités et à la gravité ont tendance à être ambiguës, car on peut obtenir la même valeur numérique pour des menaces qui sont sensiblement différentes. Ceci peut conduire les organisations à hiérarchiser des risques de cybersécurité incorrectement, et donc à allouer les ressources de manière non optimale.</p>
<h2>Un rôle pour la cyberassurance</h2>
<p>L’adoption accrue de polices de « cyberassurance » <a href="https://ieeexplore.ieee.org/abstract/document/7349090">pourrait améliorer la gestion des risques</a> en matière de cybersécurité. En effet, elle contribue à rendre le risque de cybersécurité gérable pour les organisations assurées en <a href="https://www.investopedia.com/ask/answers/051915/how-does-insurance-sector-work.asp">transférant le risque</a> aux fournisseurs d’assurance, mais elle pourrait aussi inciter les organisations à améliorer leur niveau de cybersécurité en offrant aux clients une réduction en échange de la mise en œuvre de mesures de sécurité.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/381313/original/file-20210129-17-py0r4h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/381313/original/file-20210129-17-py0r4h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=277&fit=crop&dpr=1 600w, https://images.theconversation.com/files/381313/original/file-20210129-17-py0r4h.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=277&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/381313/original/file-20210129-17-py0r4h.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=277&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/381313/original/file-20210129-17-py0r4h.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=348&fit=crop&dpr=1 754w, https://images.theconversation.com/files/381313/original/file-20210129-17-py0r4h.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=348&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/381313/original/file-20210129-17-py0r4h.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=348&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Une matrice de risques, un outil traditionnel pour évaluer les risques en multipliant les valeurs quantitatives associées à la probabilité du risque et à la gravité de l’impact.</span>
<span class="attribution"><span class="source">Elsa Couderc</span>, <a class="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">CC BY-NC-SA</a></span>
</figcaption>
</figure>
<p>Pourtant, la cyberassurance est encore <a href="https://www2.deloitte.com/us/en/insights/industry/financial-services/cyber-insurance-market-growth.html">sous-développée pour plusieurs raisons</a>. Comme nous l’avons vu, l’évaluation des risques cyber est encore malaisée, y compris pour les assureurs. Contrairement à d’autres domaines qui présentent des niveaux de risque aussi élevés – comme les pandémies, il existe en fait peu de données historiques sur les cyberattaques. Non seulement ces risques ont émergé relativement récemment, mais les organisations sont aussi réticentes à révéler qu’elles ont été attaquées par crainte d’entacher réputation.</p>
<p>En outre, le profil de risque d’une organisation au moment de l’émission d’une police d’assurance peut différer considérablement plusieurs mois plus tard : les organisations font régulièrement appel à de nouveaux fournisseurs et entrepreneurs tiers, ce qui augmente leur exposition au risque de cybersécurité ; elles peuvent aussi mettre en place de nouveaux outils de sécurité qui réduisent leur exposition. Ces problèmes sont aggravés par une pénurie aiguë de souscripteurs expérimentés en matière de cybersécurité, dont le travail consiste à décider s’il convient d’accepter d’assurer un client potentiel.</p>
<p>Un autre défi est le <a href="https://www.scor.com/fr/articles-experts/le-risque-daccumulation-des-sinistres">« risque d’accumulation »</a>, c’est-à-dire le risque que les sinistres d’un seul incident se propagent à d’autres parties du portefeuille d’un assureur. Il est particulièrement difficile d’évaluer le risque d’accumulation dans le domaine du cyberespace. Dans le monde physique, un ouragan ou une catastrophe naturelle peut déclencher une augmentation des demandes d’indemnisation, mais ces demandes sont limitées à une zone géographique particulière. Dans le cyberespace, une cyberattaque peut entraîner des demandes d’indemnisation dans le monde entier. Par exemple, le logiciel malveillant WannaCry – un <a href="https://fr.wikipedia.org/wiki/Ran%C3%A7ongiciel">rançongiciel</a> – a infecté quelque <a href="https://fr.wikipedia.org/wiki/WannaCry">200 000 systèmes informatiques dans 150 pays</a>, perturbant gravement de grandes organisations telles que FedEx et la NHS, le service de santé britannique.</p>
<p>Une question connexe est le <a href="https://www.capital.fr/entreprises-marches/risque-systemique-1382342">« risque systémique »</a>, c’est-à-dire la possibilité qu’un seul incident puisse provoquer une défaillance en cascade qui déclencherait l’effondrement de tout un système. Par exemple, une cyberattaque qui met hors service le réseau électrique aura des répercussions sur des secteurs allant des transports aux communications en passant par les soins de santé, ce qui entraînerait un arrêt quasi total de la vie quotidienne.</p>
<h2>Améliorer notre compréhension des risques cyber</h2>
<p>Pour répondre à ces questions, nous proposons dans notre <a href="https://www.routledge.com/Security-Risk-Models-for-Cyber-Insurance/Insua-Baylon-Vila/p/book/9780367339494">nouveau livre</a> une série de nouveaux modèles visant à aider les organisations et les assureurs à gérer les risques liés à la cybersécurité. Ils utilisent une nouvelle méthodologie appelée <a href="https://arxiv.org/abs/2007.02613"><em>Adversarial Risk Analysis</em></a>, qui permet de mieux évaluer le risque que les différents acteurs de la menace représentent pour une organisation.</p>
<p>Ces modèles permettraient aux assureurs d’ajuster automatiquement les primes en fonction de l’évolution du risque de cybersécurité d’une organisation assurée (ce que les assureurs considèrent de plus en plus). Ils s’appuient sur des données fournies par des sociétés tierces – par exemple <a href="https://www.ft.com/content/1cfd5d28-c26f-11e6-81c2-f57d90f6741a">SecurityScorecard et BitSight</a> – qui recueillent des informations en temps réel sur l’infrastructure informatique des organisations, les produits de sécurité et d’autres facteurs qui influent sur la sécurité, afin de donner une image plus claire du risque de cybersécurité d’une organisation à un moment donné.</p>
<p>L’un des modèles que nous avons développés permet de mieux comprendre le risque d’accumulation. Pour ce faire, il divise les différents segments de marché en composantes distinctes afin d’isoler, de comprendre et d’analyser l’effet d’accumulation d’une cyberattaque sur un segment de marché donné.</p>
<p>Certains assureurs vont <a href="https://www.wsj.com/articles/cyber-insurers-get-tough-on-risk-assessments-amid-coronavirus-pandemic-11589794201">au-delà de la simple vente d’assurance</a> afin d’aider leurs clients à améliorer leur préparation à la cybersécurité, par exemple, en partageant des informations avec leurs clients sur les vulnérabilités de sécurité, en analysant leur infrastructure informatique pour détecter de telles vulnérabilités, ou en les aidant à mettre en place des tests de pénétration de leurs systèmes informatiques et des campagnes de sensibilisation au <a href="https://www.economie.gouv.fr/dgccrf/Publications/Vie-pratique/Fiches-pratiques/Phishing-hameconnage">phishing</a> parmi leurs employés. En outre, leurs assurances proposent aussi aux clients de l’aide pour répondre aux cyberattaques – gestion de crise, assistance juridique, reprise rapide des activités – généralement <a href="https://insuranceblog.accenture.com/partnerships-can-help-carriers-optimize-the-cyber-insurance-opportunity">par le biais de partenariats</a> avec des sociétés de cybersécurité, des sociétés de relations publiques et des cabinets juridiques.</p>
<p>Ces développements sont prometteurs pour l’utilisation de la cyberassurance comme élément important de la gestion des risques de cybersécurité, et permettront de créer un cercle vertueux dans lequel la cyberassurance contribuera à accroître les niveaux de cybersécurité dans le monde.</p>
<hr>
<p><em>Cet article est basé en partie sur notre dernier livre, <a href="https://www.routledge.com/Security-Risk-Models-for-Cyber-Insurance/Insua-Baylon-Vila/p/book/9780367339494">Security Risk Models for Cyber Insurance</a>, publié par Routledge/Taylor & Francis. Il est issu d’un projet de deux ans financé par l’Union européenne dans le cadre d’Horizons 2020, appelé <a href="https://www.cybeco.eu/">CYBECO (Supporting Cyber Insurance from a Behavioral Choice Perspective)</a>.</em></p>
<hr>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/308798/original/file-20200107-123373-wmivra.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/308798/original/file-20200107-123373-wmivra.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=337&fit=crop&dpr=1 600w, https://images.theconversation.com/files/308798/original/file-20200107-123373-wmivra.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=337&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/308798/original/file-20200107-123373-wmivra.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=337&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/308798/original/file-20200107-123373-wmivra.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=424&fit=crop&dpr=1 754w, https://images.theconversation.com/files/308798/original/file-20200107-123373-wmivra.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=424&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/308798/original/file-20200107-123373-wmivra.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=424&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p><em>Créé en 2007 pour accélérer les connaissances scientifiques et leur partage, le Axa Research Fund a apporté son soutien à environ 650 projets dans le monde menés par des chercheurs de 55 pays. Pour en savoir plus, visitez le site <a href="https://www.axa-research.org/en">Axa Research Fund</a> ou suivez sur Twitter @AXAResearchFund.</em></p><img src="https://counter.theconversation.com/content/154233/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Caroline Baylon travaille pour AXA. Elle a reçu des financements l'Union Européenne dans le cadre du programme Horizons 2020.</span></em></p><p class="fine-print"><em><span>David Rios Insua a reçu des financements du AXA Research Fund et du CYBECO H2020 European project.</span></em></p>
Les risques cyber évoluent rapidement. Comment les organisations font-elles face à ces menaces changeantes ?
Caroline Baylon, Security Research and Innovation Lead, AXA and Research Affiliate, Centre for the Study of Existential Risk, University of Cambridge
David Rios Insua, Member of the ICMAT, AXA-ICMAT Chair in Adversarial Risk Analysis and Member of the Spanish Royal Academy of Sciences, Instituto de Ciencias Matemáticas (ICMAT-CSIC)
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/151354
2020-12-14T18:59:49Z
2020-12-14T18:59:49Z
Comment la Covid-19 fait évoluer les modèles mathématiques des épidémies
<figure><img src="https://images.theconversation.com/files/374764/original/file-20201214-15-1nxaasb.png?ixlib=rb-1.1.0&rect=20%2C14%2C1853%2C965&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Nombre de cas Covid-19 confirmés, par pays au 14 décembre 2020 (du noir au rouge puis rose et gris: : plus de 10 000 000; 1 000 000–9 999 999; 100 000–999 999; 10 000–99 999; 1 000–9 999; 100–999; 1–99; 0 ou pas de données).</span> <span class="attribution"><a class="source" href="https://en.wikipedia.org/wiki/COVID-19_pandemic#/media/File:COVID-19_Outbreak_World_Map.svg">Pharexia (original author); Ratherous, AKS471883 (contributors), Wikipédia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>En pleine pandémie mondiale de la Covid-19, après que le grand public s’est initié au nombre de reproduction et aux courbes exponentielles, certains médias ont <a href="https://www.liberation.fr/checknews/2020/06/03/les-previsions-de-ferguson-qui-ont-conduit-de-nombreux-pays-a-se-confiner-etaient-elles-fantaisistes_1790061">pu critiquer</a> les modèles mathématiques et leurs prédictions catastrophistes, auxquelles les politiques auraient tort de croire.</p>
<p>Et pourtant, les décideurs politiques ont besoin de prévisions pour prendre de graves décisions, et seuls les modèles mathématiques proposent de telles prédictions. Cela ne doit pas faire oublier que les prédictions chiffrées des modèles des épidémies sont à prendre avec beaucoup de précautions : nous tentons d’expliquer ce qui limite la fiabilité de celles-ci et comment elle progresse au fur et à mesure que l’on apprend à connaître la Covid-19.</p>
<h2>Depuis quand la seconde vague était-elle prévisible ?</h2>
<p>Si l’on regarde les données de l’épidémie depuis début mars en France, on se rend compte que l’épidémie a connu quatre phases jusqu’au début du second confinement, schématisées sur la figure ci-dessous.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/374866/original/file-20201214-17-gjdns0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/374866/original/file-20201214-17-gjdns0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/374866/original/file-20201214-17-gjdns0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=317&fit=crop&dpr=1 600w, https://images.theconversation.com/files/374866/original/file-20201214-17-gjdns0.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=317&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/374866/original/file-20201214-17-gjdns0.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=317&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/374866/original/file-20201214-17-gjdns0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=398&fit=crop&dpr=1 754w, https://images.theconversation.com/files/374866/original/file-20201214-17-gjdns0.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=398&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/374866/original/file-20201214-17-gjdns0.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=398&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Décès quotidiens à l’hôpital en France, en échelle logarithmique, du mois de mars au 8 décembre 2020. Une croissance linéaire sur le graphique correspond donc en réalité à une croissance exponentielle, et de même pour une décroissance linéaire ; avec des temps de doublement t₂ et de division par deux t½ donnés pour les différentes phases. On remarque en particulier que le temps de doublement associé à la seconde vague pouvait être estimé dès le mois de septembre 2020. On voit également que la décrue engagée à la suite du second confinement n’a pas encore eu le temps de ramener le nombre quotidien de décès au niveau observé au mois de juin dernier.</span>
<span class="attribution"><span class="source">Raphaël Forien</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>Il était clair depuis le mois de septembre environ que la croissance du nombre de cas nous conduirait vers une nouvelle crise sanitaire si elle n’était pas freinée. Si, comme nous l’expliquons plus bas, l’ampleur exacte de cette crise était difficile à prédire, elle aurait vraisemblablement été plus sévère que celle que nous avons connue au printemps.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comprendre-les-bases-des-modeles-mathematiques-des-epidemies-136056">Comprendre les bases des modèles mathématiques des épidémies</a>
</strong>
</em>
</p>
<hr>
<p>Au printemps, le nombre de reproduction de l’épidémie a été ramené en dessous de 1 <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7524515/">grâce au confinement</a>. Aussi appelé « R effectif », le nombre de reproduction est une estimation, sur les 7 derniers jours, du nombre moyen d’individus contaminés par une personne infectée. La relative lenteur de la croissance du nombre d’hospitalisations et de décès liés au Covid-19 observée depuis le premier confinement résulte sans doute des mesures comme le port du masque, la distanciation sociale, le fait qu’en été, les gens passent davantage de temps en extérieur qu’en lieu clos, etc. </p>
<p>Cet automne, l’objectif est de ramener le nombre de reproduction de 1,4 environ à moins de 1 – alors qu’au printemps il fallait le ramener de plus de 3 à moins de 1. Cet objectif est a priori plus facile à atteindre et <a href="https://www.lemonde.fr/les-decodeurs/article/2020/11/12/covid-19-quelle-est-la-situation-de-l-epidemie-dans-les-101-departements-francais_6059504_4355770.html">explique que ce second confinement ait été efficace</a> alors qu’il est moins strict que le premier.</p>
<h2>Une troisième vague épidémique est-elle à craindre ?</h2>
<p>Pour éviter une reprise de l’épidémie et donc une nouvelle vague, il faut un moyen efficace et durable de réduction de la transmission de la maladie. Tant qu’une proportion significative de la population n’est pas immunisée (ce qu’on appelle <a href="https://pubmed.ncbi.nlm.nih.gov/32908300/">l’immunité de groupe</a>), cela passe par une diminution des contacts et l’application des gestes qui limitent la transmission de la maladie. D’après plusieurs travaux publiés, au 1<sup>er</sup> septembre 2020, <a href="https://www.nature.com/articles/s41586-020-2918-0">seulement à peu près 5 % des Français avaient été touchés par le Covid-19</a>, ce qui est trop peu pour pouvoir significativement freiner l’épidémie. En effet dans ces conditions, pour que l’épidémie régresse, le R<sub>0</sub> doit se maintenir en dessous de 1,05, contre 1 si la population n’est pas immunisée. En outre, même si les vaccins bientôt disponibles s’avèrent capables d’offrir une protection durable et d’empêcher la propagation de la maladie – ce qui n’est pas encore certain puisqu’ils n’ont été testés que sur une période courte, il faudra de longs mois pour vacciner une fraction importante de la population.</p>
<p>En l’absence d’une politique stricte de test des cas contacts et d’isolation des personnes infectieuses, il est à craindre qu’à partir de janvier 2021, le nombre de reproduction remonte au-dessus de 1. Les autorités devront réagir rapidement en cas de signes de reprise de l’épidémie si elles veulent éviter une troisième vague et un troisième confinement : plus les mesures seront prises tardivement, plus elles devront rester en place longtemps afin de faire revenir le nombre quotidien de nouveaux cas en dessous d’un niveau fixé.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/covid-19-pour-eviter-dautres-confinements-les-personnes-contagieuses-doivent-sisoler-plus-rapidement-150565">Covid-19 : Pour éviter d’autres confinements, les personnes contagieuses doivent s’isoler plus rapidement</a>
</strong>
</em>
</p>
<hr>
<h2>Qu’est-ce qui limite la fiabilité des prévisions des modèles mathématiques ?</h2>
<p>Combien y aurait-il eu de morts en France si la population n’avait pas été confinée au printemps ? Plusieurs épidémiologistes ont proposé de répondre à cette question à l’aide de modèles mathématiques, mais aucun consensus ne semble émerger dans la communauté scientifique. Les prédictions de N. Fergusson, de l’Imperial College de Londres, ont parfois été <a href="https://www.nationalreview.com/corner/professor-lockdown-modeler-resigns-in-disgrace/">vertement critiquées</a> comme trop alarmistes, car fondées sur des hypothèses <a href="https://www.liberation.fr/checknews/2020/06/03/les-previsions-de-ferguson-qui-ont-conduit-de-nombreux-pays-a-se-confiner-etaient-elles-fantaisistes_1790061">trop simplistes ou irréalistes</a>. Quel crédit apporter aux chiffres avancés ? Qu’est-ce qui limite réellement leur fiabilité ?</p>
<p>La première source d’incertitude vient d’un certain nombre de paramètres que le modélisateur a besoin de connaître pour faire ses prédictions. À cet égard, l’une des principales inconnues au début de l’épidémie est le taux de létalité de la maladie, c’est-à-dire la proportion des individus infectés qui décèdent des suites de l’infection. C’est ce paramètre qui permet de déduire le nombre d’infectés à partir du nombre de décès, et donc d’en déduire la fraction de la population immunisée. La figure ci-dessous montre comment la valeur de ce paramètre affecte les prévisions des modèles concernant ce qui aurait pu se produire sans le second confinement. L’incertitude sur le taux de létalité de la maladie est un donc une source importante de variabilité dans les prédictions.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/374871/original/file-20201214-20-12gttie.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/374871/original/file-20201214-20-12gttie.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/374871/original/file-20201214-20-12gttie.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=423&fit=crop&dpr=1 600w, https://images.theconversation.com/files/374871/original/file-20201214-20-12gttie.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=423&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/374871/original/file-20201214-20-12gttie.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=423&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/374871/original/file-20201214-20-12gttie.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=532&fit=crop&dpr=1 754w, https://images.theconversation.com/files/374871/original/file-20201214-20-12gttie.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=532&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/374871/original/file-20201214-20-12gttie.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=532&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Projection de l’évolution des décès dans les hôpitaux dans quatre régions à l’aide d’un modèle homogène sans le second confinement. Chaque courbe est calculée en supposant une valeur différente du taux de létalité, prise dans l’intervalle de confiance déterminé par de précédents travaux. Comme expliqué dans le texte, ces prédictions sont à lire avec précaution, mais on observe bien l’effet de l’incertitude concernant le taux de létalité.</span>
<span class="attribution"><span class="source">Raphaël Forien</span>, <span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>De plus, les modèles mathématiques les plus simplistes font une <em>hypothèse d’homogénéité</em>, qui veut que chaque individu contagieux infecte n’importe quel individu susceptible avec la même probabilité. Lorsqu’une proportion suffisamment importante de la population est immunisée, l’épidémie commence à décroître, car une bonne partie des gens rencontrés par un individu infectieux sont déjà immunisés, ce qui limite la propagation de la maladie.</p>
<p>Des modèles plus réalistes prennent en compte la répartition spatiale des individus, le comportement différencié des diverses classes d’âge par rapport à la maladie ou le réseau des relations sociales. Mais les individus ne sont pas tous égaux en ce qui concerne la propagation de l’épidémie. Une certaine fraction de la population a plus d’échanges sociaux que les autres. Ceux-ci auront tendance à propager l’épidémie plus rapidement que les autres, mais ils seront également infectés plus tôt en moyenne. L’épidémie croît donc plus rapidement au début, et ralentit lorsqu’une fraction importante de ces individus « super actifs » a été touchée et immunisée. Ce ralentissement est alors <a href="https://science.sciencemag.org/content/369/6505/846">supérieur à celui que l’on observerait si le même nombre d’individus choisis au hasard dans la population étaient immunisés</a>.</p>
<p>En somme, la fraction de la population qui doit être immunisée pour atteindre l’immunité collective est en fait inférieure à celle que prédit le modèle homogène. Les mathématiciens qui étudient les épidémies s’efforcent donc de modéliser au mieux l’hétérogénéité des individus au sein de la population, mais beaucoup de chemin reste à parcourir.</p>
<p>Bien que l’on ne connaisse pas les détails du modèle utilisé par Neil Ferguson, on peut donc se douter que ses prédictions étaient pessimistes. Mais de combien exactement, impossible de le dire. Sans le premier confinement en France, nos hôpitaux auraient dans tous les cas été débordés. Les mesures prises étaient-elles correctement calibrées, et adaptées à la dangerosité de cette maladie ? C’est une autre question.</p>
<p>Depuis le début de la crise sanitaire, de nombreux scientifiques se sont investis pour tenter de comprendre et de lutter contre cette épidémie, ce qui a permis de grandes avancées dans plusieurs domaines. C’est aussi le cas de la modélisation mathématique des épidémies. Même si la science avance lentement, les travaux en cours permettront à l’avenir de mieux comprendre la fiabilité des modèles mathématiques et de leurs prédictions.</p><img src="https://counter.theconversation.com/content/151354/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Étienne Pardoux a reçu des financements pour des missions de la chaire Modélisation Mathématique de la Biodiversité. </span></em></p><p class="fine-print"><em><span>Raphaël Forien a reçu des financements pour des missions de l'ANR (projet RESISTE 18-CE45-0019) et de la chaire Modélisation Mathématique et Biodiversité.</span></em></p>
Alors que les prédictions mathématiques peuvent sembler simplistes, elles intègrent de plus en plus d’information à mesure que notre connaissance de la Covid-19 croît.
Étienne Pardoux, Professeur d'université, Institut de Mathématiques de Marseille, Aix-Marseille Université (AMU)
Raphaël Forien, Chargé de Recherche, Inrae
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/149380
2020-11-09T19:16:38Z
2020-11-09T19:16:38Z
Transformation digitale : le management de portefeuille de projets devient incontournable en entreprise
<figure><img src="https://images.theconversation.com/files/367245/original/file-20201103-23-1gietut.jpg?ixlib=rb-1.1.0&rect=5%2C5%2C3343%2C1998&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">L’évolution du contexte sanitaire a fortement impacté les DSI qui ont dû souvent revoir les priorités de déploiement des projets, et contribue à replacer encore plus la question du management de portefeuille de projets au cœur des réflexions des organisations.
</span> <span class="attribution"><a class="source" href="https://pxhere.com/fr/photo/1450067">PxHere</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Plusieurs <a href="https://www.lemondeinformatique.fr/actualites/lire-les-depenses-it-devraient-atteindre-3-8-billions-de-dollars-en%C2%A02019-73206.html">études et recherches</a> montrent que <a href="https://www.itespresso.fr/budget-it-une-annee-2020-sous-le-signe-du-cloud-213773.html">l’investissement croissant</a> dans les systèmes d’information (SI) ou dans les technologies de l’information (TI ou IT en anglais) a un impact bénéfique sur la performance globale des entreprises.</p>
<p>Les projets de transformation digitale (applications SaaS, services cloud, infrastructures big data, etc.) fleurissent maintenant depuis plusieurs années dans la plupart des secteurs d’activités, mettant sous pression de plus en plus les directions des systèmes d’information (DSI). L’une des explications repose sur les bénéfices de ces projets.</p>
<p>Par exemple, <a href="https://www.ey.com/fr_fr/consulting/la-transformation-digitale-au-sein-des-organisations">dans l’étude du cabinet de conseil EY</a> auprès de la communauté du think tank français sur l’innovation digitale <a href="https://www.ebg.net/qui-sommes-nous/reseauxEBG.php">EBG</a>, 88 % des répondants considèrent que la transformation digitale constitue un enjeu important et 65 % une source de création de valeur. Le cabinet PWC, dans une autre <a href="https://www.francenum.gouv.fr/comprendre-le-numerique/transformation-digitale-et-transformation-des-competences-bonnes-pratiques">étude de 2019</a>, montre que la transformation digitale est l’un des trois enjeux majeurs pour les PME et les entreprises de taille intermédiaire (ETI).</p>
<p>La crise sanitaire de la Covid-19 accélère également la <a href="https://www.silicon.fr/covid-19-scenarios-it-crise-337667.html">digitalisation</a> d’une partie des activités au sein des entreprises, que cela soit par les outils permettant le télétravail, les outils collaboratifs, le renforcement des infrastructures en SI, la gestion de la sécurité des applications, etc.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1317017294132940801"}"></div></p>
<p>L’évolution du contexte a ainsi fortement impacté les DSI qui ont dû souvent revoir les priorités de déploiement des projets. Cela contribue à replacer encore plus la question du management de portefeuille de projets au cœur des réflexions des organisations.</p>
<p>C’est dans le cadre d’une recherche avec un doctorant CIFRE au sein d’un cabinet de conseil que ce sujet majeur est ici analysé pour les projets de déploiement de SI.</p>
<h2>La difficile évaluation des projets</h2>
<p>Les projets de transformation digitale impliquent des investissements matériels, logiciels, de la formation et le recrutement du personnel, l’acquisition de nouvelles compétences, l’accompagnement par des cabinets spécialisés, etc. Or, il existe <a href="https://www.sciencedirect.com/science/article/pii/S0263786317306336">plusieurs modèles</a> concernant l’évaluation des projets (<em>Cost Benefit Graphical, risk management matrix, Analytic Hierarchical Process</em>, etc.) et la plupart reposent sur une approche « financière » classique dans les grands principes.</p>
<p>Ces modèles cherchent ainsi à démontrer le rapport « coût/bénéfices/risques » en identifiant les critères qui semblent les plus pertinents (qui sont parfois très nombreux et donc en réalité peu applicables au sein des organisations) et qui permettent d’évaluer le retour sur investissement des projets. L’un des objectifs est également de pouvoir réaliser une comparaison afin de pouvoir les hiérarchiser entre eux.</p>
<p><a href="https://www.sciencedirect.com/science/article/pii/S0263786317310785">L’approche reste relativement théorique</a> car elle repose sur une <a href="https://www.sciencedirect.com/science/article/pii/S0263786317306336">approche multicritères complexe</a> avec une incomplétude et une fiabilité non exhaustive en matière d’indicateurs.</p>
<p>Cela s’explique par les difficultés à prévoir le niveau des ressources à mobiliser et d’évaluer les délais qui, dans la très grande majorité des cas, ne sont pas ou peu respectés. À cela vient s’ajouter l’imprévisibilité de l’évolution des technologies (IA, big data, <em>deep learning</em>, etc.), du fait notamment des progrès techniques, des innovations inhérentes au secteur et des interrelations complexes entre les différents projets (par exemple les technologies liées à l’IA supposent des SI permettant de collecter une très grande masse de données, etc.).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/367248/original/file-20201103-19-1sstr8q.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/367248/original/file-20201103-19-1sstr8q.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=398&fit=crop&dpr=1 600w, https://images.theconversation.com/files/367248/original/file-20201103-19-1sstr8q.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=398&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/367248/original/file-20201103-19-1sstr8q.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=398&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/367248/original/file-20201103-19-1sstr8q.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=501&fit=crop&dpr=1 754w, https://images.theconversation.com/files/367248/original/file-20201103-19-1sstr8q.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=501&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/367248/original/file-20201103-19-1sstr8q.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=501&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’approche par le rapport « coût/bénéfices/risques » reste relativement théorique car il est difficile de prévoir et d’évaluer les délais..</span>
<span class="attribution"><a class="source" href="https://pixabay.com/fr/photos/comptabilit%C3%A9-taxes-r%C3%A8glement-615384/">Pixabay</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Enfin, l’évaluation des bénéfices peut également s’avérer complexe, soit au niveau de leur mesure (gains directs et indirects mesurables vs perçus), soit au niveau de la temporalité. De plus, les gains de l’implémentation de certains projets peuvent également relever d’une perception biaisée selon la manière dont le projet a été décidé.</p>
<h2>La nécessité d’une vision globale</h2>
<p>Manager un portefeuille de projets liés à la transformation digitale des organisations suppose une réflexion approfondie sur <a href="https://www.sciencedirect.com/science/article/pii/S0263786320300053">l’alignement stratégique entre les SI déployés et la stratégie de l’entreprise</a>. De <a href="https://theconversation.com/comment-les-digital-natives-sont-elles-devenues-les-entreprises-les-plus-innovantes-du-monde-94677">nombreux exemples</a> ont montré comment de nouvelles technologies ont pu conduire à l’arrivée de nouveaux entrants dans certains secteurs et des changements de modèles économiques dans d’autres (Amazon, Netflix, Uber, etc.).</p>
<p>Cette problématique est importante car les projets sont souvent coûteux et longs et viennent donc dans un processus d’arbitrage vis-à-vis d’autres ressources ou d’autres projets hors de la DSI. Il est donc de plus en plus courant de voir au sein des organisations, notamment de grandes entreprises, une direction de la transformation se créer afin d’avoir une vision globale des projets et de proposer des arbitrages au comité de direction.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/367255/original/file-20201103-23-b21k1i.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/367255/original/file-20201103-23-b21k1i.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=434&fit=crop&dpr=1 600w, https://images.theconversation.com/files/367255/original/file-20201103-23-b21k1i.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=434&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/367255/original/file-20201103-23-b21k1i.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=434&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/367255/original/file-20201103-23-b21k1i.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=546&fit=crop&dpr=1 754w, https://images.theconversation.com/files/367255/original/file-20201103-23-b21k1i.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=546&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/367255/original/file-20201103-23-b21k1i.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=546&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Dans les grandes entreprises, on assiste de plus en plus à la création de direction de la transformation afin de disposer d’une vision plus globale des projets.</span>
<span class="attribution"><a class="source" href="https://pxhere.com/fr/photo/1436183">PxHere</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Les décisions et les arbitrages dans le management de portefeuille de projets pour les organisations sont d’autant plus cruciaux car ils comportent aussi une très forte part d’irréversibilité. En effet, l’implémentation d’un projet notamment basé sur des SI et son degré d’appropriation par les différentes <em>business units</em> de l’organisation vont créer des routines parfois fortement ancrées qui seront très difficiles à modifier.</p>
<p>À cela s’ajoutent les problématiques de gouvernance et les jeux de pouvoir internes entre les <em>business units</em> elles-mêmes et les <em>business units</em> et la DSI lorsqu’il s’agit d’effectuer des arbitrages en matière de ressources.</p>
<h2>Une compétence dynamique</h2>
<p>Des <a href="https://www.sciencedirect.com/science/article/pii/S0263786320300053">recherches plus récentes</a> tendent à montrer que le management de portefeuille de projets relève d’une véritable capacité dynamique. D’une part, les organisations qui sont capables de gérer de manière agile et réactive leur portefeuille de projets bénéficient d’un avantage concurrentiel.</p>
<p>D’autre part, il s’agit bien d’une compétence dynamique au sens où les projets, notamment avec l’utilisation des <a href="https://theconversation.com/le-long-chemin-vers-la-generalisation-des-methodes-agiles-107295">méthodes agiles</a>, sont lancés de plus en plus souvent en parallèle les uns des autres et sont soumis à de multiples aléas internes et externes.</p>
<p>Il convient donc de s’inspirer des principes des méthodes agiles en les adaptant aux caractéristiques des projets basés sur des SI. Cela peut alors nécessiter une organisation différente au sein des entreprises pour faire face à une très grande complexité compte tenu de la multiplicité des projets qui coexistent.</p><img src="https://counter.theconversation.com/content/149380/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Sébastien Tran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
L’essor des technologies entraîne une multiplication des projets dans les directions des systèmes d’information, incitant les organisations à se doter de compétences spécifiques pour les coordonner.
Sébastien Tran, Directeur de l'École de Management Léonard de Vinci (EMLV), Pôle Léonard de Vinci
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/147763
2020-10-15T19:53:00Z
2020-10-15T19:53:00Z
Pourquoi Sherlock Holmes n’aurait pas pu vivre dans les années 60
<figure><img src="https://images.theconversation.com/files/362964/original/file-20201012-21-1qxr6fs.jpg?ixlib=rb-1.1.0&rect=53%2C176%2C5051%2C4202&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Sherlock Holmes et le docteur Watson, illustration de Sidney Paget pour le Strand Magazine, décembre 1892.</span> <span class="attribution"><a class="source" href="https://en.wikipedia.org/wiki/File:Strand_paget.jpg">Strand Magazine / Wikipédia</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>Sherlock Holmes est la figure mythique du détective, celui qui sait établir la vérité grâce à son sens de la déduction. Pour beaucoup, le talent de Sherlock Holmes tient d’abord dans une capacité d’observation exceptionnelle, symbolisée par sa loupe, qui lui permet de saisir le détail qui a échappé au commun des mortels.</p>
<p>Qu’il me soit permis ici d’explorer une autre explication, qui est sans doute complémentaire. Prenons un exemple parmi les plus purs du talent de déduction de notre célèbre détective, au début de <a href="https://fr.wikisource.org/wiki/Les_Aventures_de_Sherlock_Holmes/L%E2%80%99Escarboucle_bleue">« L’escarboucle bleue »</a>. Un homme a perdu son chapeau dans une altercation et s’est enfui. Holmes présente ce chapeau au Dr Watson, lui confie sa loupe, et lui demande d’en déduire la personnalité du possesseur de ce chapeau.</p>
<h2>Dans la tête de Sherlock Holmes</h2>
<p>Alors que Watson peine à trouver le moindre indice, Holmes lui fait un exposé sur cette personne, exposé qui frappe le lecteur par ses détails, notamment le fait que cet homme a sans doute subi des revers de fortune et perdu l’amour de sa femme :</p>
<blockquote>
<p>« Il est évident que le possesseur de ce chapeau était extrêmement intelligent, et que dans ces dernières années il s’est trouvé dans une situation, qui, d’aisée, est devenue difficile. Il a été prévoyant, mais l’est beaucoup moins aujourd’hui, c’est la preuve d’une rétrogression morale qui, ajoutée au déclin de sa fortune, semble indiquer quelque vice dans sa vie, probablement celui de l’ivrognerie. Ceci explique suffisamment pourquoi sa femme ne l’aime plus. » (« L’escarboucle bleue », 1892).</p>
</blockquote>
<p>Watson, et nous avec, sommes presque choqués par ces déductions qui semblent tenir du miracle, voire du bluff, mais qui se révéleront exactes par la suite. Holmes en livre une explication détaillée :</p>
<blockquote>
<p>« Ce chapeau date de trois ans ; or, à ce moment ses bords plats légèrement retournés étaient à la mode. Puis, c’est un chapeau de toute première qualité. Voyez donc le ruban gros grain qui le borde et sa doublure soignée. Si cet homme avait de quoi s’acheter, il y a trois ans, un chapeau de ce prix-là et qu’il n’en ait pas eu d’autre depuis, j’en conclus que sa situation est aujourd’hui moins bonne qu’elle ne l’a été. […] N’avez-vous pas remarqué que ce chapeau n’a pas été brossé depuis plusieurs semaines ? Mon cher Watson, lorsque votre femme vous laissera sortir avec un chapeau non brossé et que je vous verrai arriver ainsi chez moi, j’aurai des doutes sur la bonne entente de votre ménage. » (« L’escarboucle bleue »)</p>
</blockquote>
<p>Arrêtons-nous un instant sur le cheminement du détective. Comment déduit-il que sa femme ne l’aime plus ? L’homme n’est plus aimé par sa femme parce que le chapeau n’est pas bien entretenu.</p>
<p>Pour un lecteur du XXI<sup>e</sup> siècle comme moi, moitié d’un couple moderne, je fais ma part des tâches ménagères. Si d’aventure je mettais un chapeau, et que ce chapeau n’était pas bien entretenu, cela tiendrait plus vraisemblablement à ma propre négligence qu’à l’amour que peut me porter ma femme !</p>
<p>Mais voilà, la société dans laquelle je vis n’a pas grand-chose à voir avec celle dans laquelle évolue Holmes. Pour mieux comprendre comment cela influe sur le raisonnement de Sherlock, convoquons un autre anglais célèbre, Thomas Bayes.</p>
<h2>Le raisonnement bayésien</h2>
<figure class="align-right ">
<img alt="Signature de Bayes, à la plume" src="https://images.theconversation.com/files/362377/original/file-20201008-20-skmu9h.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/362377/original/file-20201008-20-skmu9h.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=133&fit=crop&dpr=1 600w, https://images.theconversation.com/files/362377/original/file-20201008-20-skmu9h.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=133&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/362377/original/file-20201008-20-skmu9h.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=133&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/362377/original/file-20201008-20-skmu9h.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=168&fit=crop&dpr=1 754w, https://images.theconversation.com/files/362377/original/file-20201008-20-skmu9h.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=168&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/362377/original/file-20201008-20-skmu9h.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=168&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Thomas Bayes nous a légué un théorème sur lequel sont basés nombres d’algorithmes d’analyses de données et de prise de décision.</span>
<span class="attribution"><a class="source" href="https://fr.wikipedia.org/wiki/Thomas_Bayes#/media/Fichier:Bayes_sig.png">Wikipedia</a></span>
</figcaption>
</figure>
<p>Pasteur et mathématicien du XVIII<sup>e</sup> siècle, Thomas Bayes est connu pour nous avoir légué son théorème de Bayes, sans doute un des théorèmes les plus importants pour toute personne cherchant à analyser des données avec des probabilités. Il a notamment permis ce qui est maintenant appelé l’<a href="https://fr.wikipedia.org/wiki/Inf%C3%A9rence_bay%C3%A9sienne"><em>inférence bayésienne</em></a>, manière optimale de combiner observation, déduction et a priori.</p>
<p>Tentons d’en donner ici une version simplifiée et intuitive, en utilisant notre exemple du chapeau. Imaginons quatre hypothèses :</p>
<ul>
<li><p>H1 : je suis en charge de l’entretien de mon chapeau, et m’en acquitte fort bien</p></li>
<li><p>H2 : je suis en charge de l’entretien de mon chapeau, mais suis assez négligent à son égard.</p></li>
<li><p>H3 : ma femme est en charge de l’entretien de mon chapeau, et s’en occupe amoureusement, reflétant l’amour qu’elle me porte.</p></li>
<li><p>H4 : ma femme est chargée d’entretenir mon chapeau, mais ne s’en occupe plus, car elle a perdu son intérêt pour moi.</p></li>
</ul>
<p>Deux choses vont vous permettre de trancher entre ces quatre hypothèses. D’abord, l’observation dudit chapeau. Tel le docteur Watson armé de la loupe de Sherlock, vous observez qu’il est fort mal entretenu. Cela rend les hypothèses H1 et H3 beaucoup moins probables que H2 et H4.</p>
<p>Par ailleurs, si vous savez que nous nous trouvons dans une société moderne où les femmes et les hommes partagent les tâches ménagères et que, selon toute vraisemblance, le possesseur de ce chapeau ne charge pas sa femme de l’entretenir, alors H3 et H4 sont moins probables que H1 et H2.</p>
<p>Vous voyez donc comment, d’une part, l’observation vous a permis de moduler la probabilité des quatre hypothèses, et d’autre part, comment votre connaissance <em>a priori</em> de la société dans laquelle vous vivez, vous a permis de le faire. Bayes a formalisé ces notions. Pour simplifier, il nous a donné la méthode pour combiner tout cela de manière optimale, et estimer ainsi la probabilité finale (dite « a posteriori ») de chaque hypothèse. Il en ressort que l’hypothèse H2 est la plus probable, c’est-à-dire que je suis sans doute un être négligent, mais encore aimé par sa femme, ouf.</p>
<p>Mais donnons maintenant ce même chapeau à Holmes. Il va observer la même chose que vous, et que le Dr Watson : ce chapeau est mal entretenu, favorisant H2 et H4. Mais Sherlock Holmes est un homme du XIX<sup>e</sup> siècle. En ce temps-là, les tâches ménagères étaient moins bien partagées, et il y a fort à parier que, pour lui, a priori, H1 et H2 sont bien moins probables que H3 et H4. Donc, en combinant tout cela, il en déduira que l’hypothèse la plus probable est H4, ce qu’il fait bien dans l’histoire.</p>
<p>Que conclure de tout ceci ? Que la fantastique capacité de déduction du brillant détective ne doit pas tout à son sens aiguisé de l’observation, mais aussi à une connaissance fine de la société qui l’entoure, et d’une capacité remarquable à combiner les deux.</p>
<p>Cette combinaison de l’observation avec sa connaissance de la société est encore plus frappante dans l’autre exemple mis en exergue plus haut : l’homme a subi des revers de fortune, car son chapeau est un modèle cher qui correspond à la mode d’il y a quelques années, mais pas à celle en vogue actuellement. Seul un homme riche il y a quelques années a pu l’acheter, mais s’il était toujours riche, il en aurait acheté un autre plus récemment, suivant la mode du moment. À moins que vous ayez fait une thèse sur les chapeaux à la mode à l’époque de Conan Doyle, il vous est tout simplement impossible de faire cette déduction, même avec une faculté d’observation hors norme. Holmes connaît bien son monde, les modes de chaque année, et sait mobiliser cette connaissance à bon escient.</p>
<h2>De l’avantage d’une société conformiste</h2>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/362965/original/file-20201012-17-oytdnr.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/362965/original/file-20201012-17-oytdnr.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=461&fit=crop&dpr=1 600w, https://images.theconversation.com/files/362965/original/file-20201012-17-oytdnr.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=461&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/362965/original/file-20201012-17-oytdnr.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=461&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/362965/original/file-20201012-17-oytdnr.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=580&fit=crop&dpr=1 754w, https://images.theconversation.com/files/362965/original/file-20201012-17-oytdnr.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=580&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/362965/original/file-20201012-17-oytdnr.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=580&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">L’escarboucle bleue, illustration de Sidney Paget, 1892.</span>
<span class="attribution"><a class="source" href="https://en.wikipedia.org/wiki/The_Adventure_of_the_Blue_Carbuncle#/media/File:The_Adventure_of_the_Blue_Carbuncle_03.jpg">Sidney Paget/Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Allons plus loin : quelle est cette société où l’on peut déduire la richesse passée et présente d’une personne à son chapeau ? À l’évidence, une société assez conformiste, la société victorienne de l’époque. Holmes semble exclure l’hypothèse que la personne puisse simplement conserver son chapeau sans se soucier de la mode.</p>
<p>Une société conformiste a bien pour effet de <em>réduire les hypothèses probables</em>. Dans notre exemple ci-dessus, H1 et H2 sont peu probables dans cette société victorienne, dont Sherlock Holmes connaît parfaitement les us et coutumes. Il peut donc définir très clairement son « a priori », le combiner avec les observations et, en bon bayésien, en déduire l’hypothèse la plus probable. Mais l’un de ses secrets est sans doute le conformisme de ses contemporains, conformisme qui les rend prévisibles et permet de réduire fortement les hypothèses possibles a priori. C’est d’ailleurs un aspect que Holmes remarque, et dont il se plaint, car cela rend son quotidien ennuyeux et les mystères trop faciles à résoudre (et l’incite à explorer d’autres mondes, comme les paradis artificiels).</p>
<p>Mais c’est justement cette société si conformiste, si déterministe, qui lui permet d’exercer de si brillantes déductions. Imaginons une expérience de pensée. Déménageons notre brillant détective depuis sa demeure de Baker Street, en pleine époque victorienne, pour Carnaby Street, cœur vibrant de la capitale londonienne des années 60. Le conformisme craque de toute part à l’époque des <em>swinging sixties</em>, les gens ne s’habillent plus selon une mode déterminée. Notre détective serait sans doute bien en peine de déduire quoique ce soit de son propriétaire si on lui apportait le chapeau de Jimi Hendrix. À une époque où l’on casse tous les codes culturels, toutes les hypothèses deviennent possibles : les « a priori » ne nous disent plus grand-chose, et même les déductions du plus brillant esprit ne permettraient pas de départager les hypothèses.</p>
<p>Non, Sherlock n’aurait pas pu vivre dans les années 60.</p><img src="https://counter.theconversation.com/content/147763/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Olivier Marre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Sherlock Holmes fait des déductions brillantes – ses raisonnements ont tout de « l’inférence bayésienne », une méthode mathématique très utilisée aujourd’hui en science.
Olivier Marre, Chercheur en neurosciences, Inserm
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/145330
2020-10-04T18:07:27Z
2020-10-04T18:07:27Z
Les sciences cachées derrière les modèles climatiques
<figure><img src="https://images.theconversation.com/files/357875/original/file-20200914-16-gr0wpt.jpg?ixlib=rb-1.1.0&rect=15%2C8%2C1482%2C988&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les modèles climatiques incluent des mesures et des modèles de la chimie et de la physique de l’atmosphère. </span> <span class="attribution"><a class="source" href="https://phototheque.cnes.fr/cnes/media/38698">© CNES/GABORIAUD Romain, 2018</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/293181/original/file-20190919-22450-1e2zj7j.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/293181/original/file-20190919-22450-1e2zj7j.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=236&fit=crop&dpr=1 600w, https://images.theconversation.com/files/293181/original/file-20190919-22450-1e2zj7j.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=236&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/293181/original/file-20190919-22450-1e2zj7j.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=236&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/293181/original/file-20190919-22450-1e2zj7j.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=297&fit=crop&dpr=1 754w, https://images.theconversation.com/files/293181/original/file-20190919-22450-1e2zj7j.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=297&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/293181/original/file-20190919-22450-1e2zj7j.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=297&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p><em>Cet article est publié dans le cadre de la prochaine Fête de la science (qui aura lieu du 2 au 12 octobre 2020 en métropole et du 6 au 16 novembre en Corse, en outre-mer et à l’international) dont The Conversation France est partenaire. Cette nouvelle édition aura pour thème : « Quelle relation entre l’Homme et la nature ? ». Retrouvez tous les événements de votre région sur le site <a href="https://www.fetedelascience.fr/">Fetedelascience.fr</a>.</em></p>
<hr>
<p>Le changement climatique est désormais un sujet de société majeur, préoccupant scientifiques, politiques et citoyens. Mais comment fait-on pour mesurer et surtout pour prédire l’augmentation de température de notre atmosphère ? Sur quoi se basent les modèles climatiques qui sont à la base des rapports du <a href="https://www.ipcc.ch/languages-2/francais/">GIEC</a> ? Au-delà des modèles, ces rapports sont en fait le résultat d’une longue chaîne de recherche, impliquant de nombreux scientifiques de domaines différents.</p>
<h2>Questions d’échelle</h2>
<p>L’atmosphère terrestre est un système très complexe. Comprendre son fonctionnement et calculer son évolution est une tâche particulièrement difficile nécessitant d’étudier des échelles d’espace et de temps très différentes : de la molécule à la planète entière, du millionième de milliardième de seconde pour les réactions chimiques – dont les détails se règlent à la femtoseconde – au siècle, pour l’échelle climatique.</p>
<p>Tout d’abord, il convient de ne pas confondre la météorologie, qui est l’étude du temps qu’il va faire, plus ou moins localement, à échéance de quelques jours, et l’étude du climat, qui concerne l’ensemble de la planète sur des durées très longues, de plusieurs décennies, voire de plusieurs siècles.</p>
<p>Comprendre le climat nécessite de comprendre le « système Terre » dans sa globalité, en tenant compte des interactions entre tous ses éléments : atmosphère, océans, reliefs par exemple, mais aussi avec le Soleil, la principale source de chaleur. Il faut calculer en détail comment ont lieu les échanges d’énergie entre le rayonnement solaire et les gaz composant notre atmosphère, ainsi qu’avec le sol. En effet, le sol chauffé par la lumière du soleil réémet un rayonnement infrarouge qui, à son tour, interagit avec l’atmosphère.</p>
<figure class="align-right ">
<img alt="La Terre vue du ciel" src="https://images.theconversation.com/files/357891/original/file-20200914-18-13ycbcd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/357891/original/file-20200914-18-13ycbcd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/357891/original/file-20200914-18-13ycbcd.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/357891/original/file-20200914-18-13ycbcd.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/357891/original/file-20200914-18-13ycbcd.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/357891/original/file-20200914-18-13ycbcd.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/357891/original/file-20200914-18-13ycbcd.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">La Terre, vue d’Apollo 17 le 7 décembre 1972. Comment faire le lien entre l’échelle planétaire et celles des molécules de l’atmosphère ?</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:The_Earth_seen_from_Apollo_17_(AS17-148-22727).jpg">Apollo 17/NASA</a></span>
</figcaption>
</figure>
<p>Ces calculs, complexes, reposent sur des méthodes mises au point petit à petit par les chercheurs depuis environ un siècle et que l’on regroupe sous le terme de « transfert radiatif ». Le rayonnement reçu par notre planète dépend de plus des mouvements de la Terre sur son orbite et même de l’évolution de cette orbite – sur plusieurs centaines de milliers d’années.</p>
<p>Le transfert radiatif nécessite de connaître les composants de l’atmosphère : quelles sont les molécules présentes ? comment absorbent-elles et réémettent-elles les différents rayonnements ?</p>
<p>La composition de l’atmosphère dépend de l’altitude, des vents et des sources d’émissions ou de piégeage des composés chimiques, par exemple du dioxyde de carbone ou du méthane, à des échelles régionales. On a donc une structure complexe en 3D qui évolue dans le temps, avec à la fois des structures verticales et des structures horizontales.</p>
<p>Enfin, pour modéliser l’absorption, l’émission et la diffusion de la lumière visible, infrarouge, ultraviolette par les molécules de l’atmosphère, il faut étudier les molécules elles-mêmes, par des travaux expérimentaux et théoriques en laboratoire, ainsi que les réactions chimiques entre les molécules car elles modifient la composition atmosphérique.</p>
<h2>Premier défi : mesurer le système Terre dans sa complexité</h2>
<p>Ces travaux reposent par conséquent sur de nombreux défis scientifiques et technologiques. Ils impliquent des scientifiques de nombreux domaines : des climatologues bien entendu, mais également des géologues, des physiciens et des chimistes.</p>
<p>Il faut tout d’abord mesurer, partout et tout le temps, les conditions physiques (température, pression) et chimiques de l’atmosphère. Ceci est effectué via des mesures au sol depuis des appareils répartis sur l’ensemble du globe, mais aussi embarquées sur des avions, des ballons stratosphériques et des satellites.</p>
<p>Au cours des 50 dernières années, l’apport du domaine spatial a été absolument décisif sur ce sujet. Aujourd’hui, un grand nombre de satellites auscultent en permanence l’ensemble des points du globe, en mesurant les températures, les espèces chimiques, l’évolution des glaces, de la couverture nuageuse, etc. Ces outils sont extrêmement précieux et indispensables. Ils fournissent une quantité considérable de données qu’il convient de collecter, d’analyser et de modéliser.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/357884/original/file-20200914-22-9mp7v3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/357884/original/file-20200914-22-9mp7v3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/357884/original/file-20200914-22-9mp7v3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/357884/original/file-20200914-22-9mp7v3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/357884/original/file-20200914-22-9mp7v3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/357884/original/file-20200914-22-9mp7v3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/357884/original/file-20200914-22-9mp7v3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Arrivée du navire l’Astrolabe à la base française Dumont d’Urville.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Arriv%C3%A9e_de_l%27astrolabe.jpg">Matthieu Weber/Wikimedia</a></span>
</figcaption>
</figure>
<p>Par ailleurs, comprendre le climat d’aujourd’hui et de demain implique également de bien comprendre le passé de notre planète. C’est là qu’interviennent les géologues qui peuvent, grâce à l’étude des roches ou des glaces – en Antarctique par exemple, reconstituer l’histoire des climats passés sur des millions d’années. Ils le font en collaboration avec les astronomes qui, eux, reconstituent l’évolution de l’orbite terrestre, ainsi que l’activité solaire.</p>
<h2>Deuxième défi : comprendre ces mesures grâce aux outils expérimentaux et numériques de laboratoire</h2>
<p>Au sein de ce grand ensemble de recherches sur le climat, les travaux effectués dans <a href="https://icb.u-bourgogne.fr/spectroscopie-moleculaire-processus-collisionnels-et-applications/">notre équipe</a> se situent à la base : il s’agit pour nous de comprendre les interactions entre molécules et rayonnement (du Soleil par exemple). Cette compréhension est cruciale et doit être très précise. En effet, nos modèles, destinés à prédire comment les molécules vont absorber et émettre de la lumière (ce qu’on appelle la <a href="https://www.sciencedirect.com/journal/journal-of-molecular-spectroscopy/vol/348/suppl/C">« spectroscopie moléculaire »</a>) sont ensuite injectés dans les calculs de transfert radiatif, qui sont eux-mêmes inclus dans les modèles atmosphériques à l’échelle planétaire.</p>
<p>Les erreurs se propageant d’étape en étape dans ces travaux, on comprend que de petites imprécisions, par exemple sur l’absorption de rayonnement infrarouge pour une molécule donnée, puissent avoir des conséquences importantes et changer les conclusions sur l’évolution climatique à long terme.</p>
<p>Les composants atmosphériques sont de trois types. Il s’agit tout d’abord des deux molécules de base constituant l’air : le diazote (78 %) et le dioxygène (21 %). Vient ensuite tout ce qui constitue le pour cent restant, qui est le plus important en termes de pollution et de climat : d’une part les composés réactifs, qui font évoluer rapidement la chimie atmosphérique (par exemple les composés favorisant la production ou la destruction de l’ozone) et, d’autre part les espèces chimiquement neutres, mais donc stables sur le long terme et qui vont très fortement absorber le rayonnement infrarouge et donc retenir la chaleur. Ce dernier type de molécules constitue ce que l’on appelle les gaz à effet de serre.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/357938/original/file-20200914-22-13xb7ly.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/357938/original/file-20200914-22-13xb7ly.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/357938/original/file-20200914-22-13xb7ly.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=173&fit=crop&dpr=1 600w, https://images.theconversation.com/files/357938/original/file-20200914-22-13xb7ly.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=173&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/357938/original/file-20200914-22-13xb7ly.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=173&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/357938/original/file-20200914-22-13xb7ly.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=217&fit=crop&dpr=1 754w, https://images.theconversation.com/files/357938/original/file-20200914-22-13xb7ly.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=217&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/357938/original/file-20200914-22-13xb7ly.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=217&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Deux modèles atmosphériques montrent la concentration en méthane dans l’atmosphère, à la surface et en altitude dans la stratosphère (en partie par million en volume).</span>
<span class="attribution"><a class="source" href="https://upload.wikimedia.org/wikipedia/commons/b/b6/AtmosphericMethane.png">Wikipedia</a></span>
</figcaption>
</figure>
<p>Les gaz à effet de serre les plus connus sont la vapeur d’eau (H<sub>2</sub>O) et le gaz carbonique (CO<sub>2</sub>). Mais d’autres sont également très importants, même s’ils ne sont présents qu’en très faibles quantités, car ils présentent une absorption infrarouge très forte et donc un pouvoir de réchauffement climatique puissant. Notre équipe de recherche s’est spécialisée dans l’étude de plusieurs d’entre eux, majoritairement d’origine humaine : le <a href="https://www.sciencedirect.com/journal/journal-of-molecular-spectroscopy/vol/291/suppl/C">méthane (CH₄)</a> en premier lieu, mais aussi différents gaz fluorés d’origine industrielle, comme l’hexafluorure de soufre <a href="https://www.sciencedirect.com/science/article/pii/S0022407316307440?via%3Dihub">SF₆</a> et le tétrafluorure de carbone <a href="https://www.sciencedirect.com/science/article/pii/S0022407317304648?via%3Dihub">CF₄</a>.</p>
<h2>La « propagation des erreurs »</h2>
<p>En laboratoire, nos collègues expérimentateurs enregistrent, à l’aide d’appareils appelés spectromètres, et utilisant des techniques optiques variées, des données (des « spectres ») dans différentes conditions de température, de pression et de mélanges gazeux. Il nous revient alors d’analyser ces données et d’en extraire des modèles capables de reproduire les spectres sur une large gamme de conditions physiques et chimiques à l’aide de modèles basés sur des outils mathématiques complexes et de logiciels dédiés.</p>
<p>La précision des modèles, déterminée par la comparaison entre expérience et calcul, doit être très grande. En effet, les satellites mesurent de plus en plus précisément : alors le CO<sub>2</sub> à quelques pour cent près il y a 20 ans, au dixième de pour cent aujourd’hui. On est face à un problème dit « de propagation des erreurs ». De petites erreurs sur la modélisation du spectre d’une molécule vont donner des erreurs plus importantes sur les mesures de sa concentration, qui vont entraîner des erreurs plus grosses encore sur les prédictions climatiques.</p>
<p>On pourrait croire que de petites molécules comme CH<sub>4</sub> sont désormais bien connues depuis longtemps. Il n’en est rien. La modélisation globale de leur spectre à haute précision reste aujourd’hui un défi et les travaux sur le sujet sont loin d’être arrivés à leur terme.</p><img src="https://counter.theconversation.com/content/145330/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
Comment fait-on le lien entre ce qui se passe à l’échelle de la planète entière et l’échelle de la molécule, de CO₂ par exemple ?
Vincent Boudon, Directeur de Recherche CNRS en physique moléculaire, Université de Bourgogne – UBFC
Cyril Richard, Ingénieur de Recherche CNRS en physique moléculaire, Université de Bourgogne, Université de Bourgogne – UBFC
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/142733
2020-09-06T16:05:58Z
2020-09-06T16:05:58Z
Statistiques et modèles mathématiques : doit-on les laisser nous gouverner ?
<p>« À quelles conditions peut-on aujourd’hui faire confiance aux données chiffrées mises en avant par nos gouvernants ? » Avec vingt philosophes, historiens, sociologues, statisticiens et mathématiciens exerçant dans neuf pays, nous avons publié fin juin dans la revue <em>Nature</em> un <a href="https://www.nature.com/articles/d41586-020-01812-9">texte-manifeste</a> s’attaquant à cette question pour alerter experts et profanes sur les mésusages des statistiques et modèles prédictifs, de plus en plus fréquents dans le contexte de la crise sanitaire mondiale, et pour proposer cinq façons de s’assurer que les chiffres éclairent avec justesse les débats et décisions.</p>
<h2>Les statistiques et modèles mathématiques ne doivent pas clore les débats, mais les ouvrir</h2>
<p>Depuis le début de l’année 2020, les chiffres de la pandémie de Covid-19 sont quotidiennement à la une de la presse : nombres de cas détectés ou existants, taux d’occupation des lits en réanimation, de transmission ou de guérison, courbes de l’évolution des décès et cartes des pays les plus touchés. Les discours politiques et médiatiques sont colonisés par des données et des concepts qui leur confèrent d’emblée une apparence de scientificité, sinon d’infaillibilité. « Aplatissement de la courbe », « risque de contamination », « probabilité d’infection » : tous ces éléments de langage sont mobilisés comme des arguments d’autorité, chiffres à l’appui, pour justifier des décisions et des dispositifs d’action publique, sans tenir compte des incertitudes qui les entourent et des précautions méthodologiques que suppose leur maniement.</p>
<p>Et pour cause : leur efficacité comme instrument politique tient à la reconnaissance de leur caractère indiscutable. Ce sont des boîtes noires utiles pour clore les débats, faire taire les oppositions et faire accepter des états d’exception restreignant les libertés les plus fondamentales.</p>
<p>Or, les données de modélisation qui peuplent aujourd’hui nos existences pourraient être de précieux outils pour soulever des problèmes, faire valoir certains droits et nourrir des échanges contradictoires… à condition d’admettre la porosité des frontières entre science et politique, savoir et pouvoir, débats publics et controverses expertes.</p>
<p>D’où les cinq précautions à prendre dans l’usage des chiffres pour se prémunir contre la « quantophrénie ».</p>
<h2>Expliciter les hypothèses et les incertitudes</h2>
<p><em>Que suppose le modèle ? Qu’a-t-il négligé ou délibérément écarté ? Une analyse de sensibilité a-t-elle été effectuée ?</em> Il convient non seulement d’expliciter systématiquement les hypothèses sous-tendant un modèle, mais aussi de rendre compte des incertitudes. <em>Pourquoi ?</em> Les modèles sont des outils qui permettent de répondre à des questions de type « et si ? » : <em>que se passera-t-il si nous imposons un confinement, doublons le nombre de lits d’hôpital, améliorons la capacité de dépistage de 30 %, etc. ?</em> Or ils répondent à cette question en fonction d’un certain nombre de conditions ou de présuppositions.</p>
<p>Répondre au questionnement ci-dessus suppose d’avoir une certaine idée de la dynamique de l’infection, de la manière dont les mesures de confinement sont mises en œuvre et respectées, de l’efficacité des tests… autant de choses sur lesquelles il n’y a aucune évidence. Nos connaissances en la matière sont en cours d’élaboration, c’est-à-dire plutôt rudimentaires.</p>
<p>Il est donc primordial d’insister sur les incertitudes qui conditionnent la qualité des prédictions. Un manque de transparence et d’information en la matière peut alimenter un faux sens de prévisibilité et, en fin de compte, miner la confiance sociale dans les nombres et les sciences. C’est pourquoi les hypothèses et les limites des modèles doivent être discutées ouvertement et honnêtement.</p>
<h2>Conjurer la démesure</h2>
<p>Telle est la deuxième précaution recommandée par les auteurs du manifeste. Comme tout scientifique, les modélisateurs aiment leurs créatures et ont tendance à les rendre plus sophistiquées que les connaissances disponibles ne le permettent. Or le <a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2643534">modèle le plus complexe n’est pas toujours le meilleur</a>. La réalité ne peut jamais être épuisée par des lignes de code et, parfois, augmenter l’ambition descriptive du modèle en multipliant les paramètres ne fait que redoubler l’incertitude de la prédiction.</p>
<p>Les auteurs appellent donc les modélisateurs à se méfier de l’orgueil que peut procurer leur création et à admettre leurs limites.</p>
<h2>Être attentif au cadrage</h2>
<p>La modélisation est une activité sociale, située dans le temps et l’espace. Chaque modélisateur, équipe ou institution impliquée dans ce travail a une orientation disciplinaire, normative et politique. Le reconnaître, ce n’est pas céder au relativisme, mais c’est admettre que les chiffres statistiques comme les modèles mathématiques ne sont pas transcendants, à l’image de vérités tombées du ciel. Ils sont des <a href="https://www.cairn.info/revue-francaise-de-socio-economie-2015-2-page-213.htm"><em>faits</em>, des construits sociaux, produits par un processus collectif</a> marqué par des arbitrages conceptuels, des choix méthodologiques, des compromis et des conventions, des rapports de force et des enjeux de pouvoir. C’est à la lumière de ce processus qu’on peut lire et interpréter avec justesse ses résultats.</p>
<p>La quantification produit des <a href="https://www.editionsladecouverte.fr/catalogue/index-Prouver_et_gouverner-9782707182494.html">outils de preuve, lesquels peuvent servir d’outils de gouvernement,</a>, mais aussi de résistance. Un militantisme armé de statistiques est possible : c’est le <a href="https://www.editionsladecouverte.fr/catalogue/index-Statactivisme-9782355220548.html">« statactivisme »</a>, lequel consiste à lutter contre les « politiques du chiffre », leurs abus, leurs injustices et les inégalités qu’elles creusent, en forgeant d’autres chiffres. Non pas que les uns soient vrais et les autres faux, mais d’autres visions du monde sont possibles appelant d’autres mesures.</p>
<p>Différentes expériences participatives partent ainsi du principe que la modélisation ne peut être laissée aux seuls modélisateurs, invités à recenser et intégrer les différents points de vue portés sur le problème traité de sorte à en restituer la complexité. Il s’agit alors de poser un cadre autorisant la participation des diverses parties prenantes, ce qui permet aux modélisateurs de mieux saisir et traduire le caractère multidimensionnel des phénomènes mesurés. <a href="https://www.nature.com/articles/d41586-020-01812-9">Notre manifeste s’accompagne d’un riche dossier annexe présentant des exemples de ce type</a>.</p>
<h2>Réfléchir aux conséquences</h2>
<p>Même une quantification bien intentionnée produit des effets imprévus, parfois nocifs. Ne citons ici qu’un exemple : les usages du nombre de décès dus au coronavirus. Comme l’a expliqué <a href="https://aoc.media/opinion/2020/04/15/politique-du-nombre-de-morts/">Emmanuel Didier</a> au début de l’état d’urgence sanitaire, le fait de se concentrer sur ce nombre, lequel ne peut être qu’approximatif dans le feu de l’actualité, a soustrait au débat public la question des valeurs. Doit-on renoncer à nos droits fondamentaux pour sauver des vies ? En brandissant le chiffre des morts, les gouvernants et de nombreux éditorialistes ont joué sur les affects des populations et ont rendu inconvenante toute discussion quant à <a href="http://www.lse.ac.uk/european-institute/Assets/Documents/LEQS-Discussion-Papers/LEQSPaper156.pdf">l’arbitrage sécurité/liberté</a> et à la légitimité des dispositifs instaurant un état d’exception. Or ce qu’il faut faire est une question politique, et non mathématique.</p>
<h2>Reconnaître sa « docte ignorance »</h2>
<p>Comme le penseur Nicolas de Cues le <a href="https://fr.wikipedia.org/wiki/De_la_docte_ignorance">suggérait déjà en 1440</a>, la « docte ignorance » – savoir (ce) qu’on ne sait pas – est une vertu précieuse pour réfréner des affirmations trop aventureuses concernant des problèmes complexes qui n’ont, la plupart du temps, pas de solution univoque. Modélisateurs et statisticiens doivent non seulement connaître et reconnaître les limites de leur savoir, mais aussi les rendre publiques pour qu’elles soient prises en compte par les usagers de leurs données et que ceux-ci comprennent les failles inhérentes à tout système prédictif au lieu de les regretter, <a href="https://link.springer.com/chapter/10.1057/9781137332288_2">à l’instar de la reine Élisabeth II reprochant en 2008 aux économistes de n’avoir pas vu venir la crise financière</a>.</p>
<p>En rappelant ces cinq garde-fous, le manifeste n’appelle pas à mettre fin à la quantification, ni à adopter des modèles prétendument apolitiques, mais à opter pour une divulgation pleine et entière de leurs apports et limites afin qu’ils soulèvent des questions et suscitent des débats contradictoires plutôt que d’alimenter un consensus délétère. Il ne s’agit pas par là de discréditer la contribution des scientifiques, de leurs modèles et données, à une meilleure connaissance de l’épidémie et, plus généralement, à un gouvernement mieux éclairé. Il s’agit bien plutôt de prendre acte des enseignements de l’histoire et de la sociologie des sciences, et d’admettre que le travail scientifique n’est pas hors du monde social, de ses contingences et incertitudes, de ses conflits et rapports de pouvoir.</p><img src="https://counter.theconversation.com/content/142733/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>
Cinq principes pour éviter les mésusages des modèles mathématiques, afin qu’ils éclairent avec justesse les décisions politiques.
Isabelle Bruno, CERAPS, Université de Lille
Andrea Saltelli, Open Evidence Research, Universitat Oberta de Catalunya, UOC - Universitat Oberta de Catalunya
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/143562
2020-08-11T20:16:19Z
2020-08-11T20:16:19Z
L’intelligence artificielle comme outil de lutte contre les incendies
<figure><img src="https://images.theconversation.com/files/351262/original/file-20200805-16-1u2mcwf.jpg?ixlib=rb-1.1.0&rect=10%2C0%2C6699%2C4466&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Incendie en Thaïlande</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/nVYEechGqqM">Sippakorn Yamkasikorn / Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Intuitivement, on devine facilement que le réchauffement climatique est une cause essentielle de l’augmentation de la fréquence et de l’intensité des feux de forêt. Ce qui est moins évident en revanche, c’est que la gestion qui a été faite jusqu’à présent de ces catastrophes naturelles a également joué un rôle dans cette intensification. En prévenant et en éteignant très efficacement tous les feux de forêt, les pompiers ont, bien malgré eux, créé les conditions idéales pour une telle amplification du phénomène. </p>
<p>En effet, ce que nous ne savions pas il y a quelques années, c’est que le <a href="https://www.cairn.info/le-feu-savoirs-et-pratiques-en-cevennes--9782759203970-page-143.htm?contenu=article">feu joue un rôle primordial dans la régénération de l’écosystème</a>. Il s’agit d’un processus naturel se produisant périodiquement dans le cycle de succession de la végétation : les végétaux les plus âgés et donc plus inflammables sont brûlés, ce qui laisse place à de nouveaux individus. Le caractère périodique de ce phénomène a été perturbé par l’activité humaine, y compris la lutte contre les incendies : le développement excessif du sous-bois, protégé des feux par les interventions des pompiers, perturbe l’écosystème et favorise des incendies plus nombreux et plus étendus.</p>
<p>Aujourd’hui, les professionnels de la lutte contre les incendies font un constat alarmant : les feux, toujours plus nombreux, toujours plus intenses, sont devenus très difficiles à maîtriser. On parle de mégafeux, presque impossibles à éteindre. 2019 a été l’année de tous les records et les récentes catastrophes en Amazonie, Indonésie, Australie et même en Arctique ont permis au monde entier de réaliser que les incendies sont désormais un enjeu sécuritaire et écologique majeur.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/un-mega-incendie-en-mediterranee-est-ce-possible-60138">Un méga-incendie en Méditerranée, est-ce possible ?</a>
</strong>
</em>
</p>
<hr>
<p>Face à ces phénomènes devenus ingérables, la prévention devient la solution idéale : en prévoyant la survenue des incendies, on peut anticiper leur gestion et les maîtriser avant qu’ils ne dégénèrent, tout en prenant en compte leur rôle naturel de régulation de la végétation.</p>
<p>Forts de ces expériences, <a href="https://time.com/5497251/wildfires-artificial-intelligence/">pompiers et scientifiques travaillent désormais main dans la main</a> à des solutions préventives qui tentent de prendre tous les paramètres en compte afin de mettre en place une gestion de court et long termes des feux de forêt. Ils s’offrent à cet effet les services d’un allié de poids : l’intelligence artificielle.</p>
<h2>Quelle est la plus-value de l’intelligence artificielle ?</h2>
<p>Dans un laps de temps très court, elle va être capable de réaliser des milliards de calculs qui seraient inaccessibles autrement pour une équipe de recherche, permettant aux scientifiques de comprendre et caractériser très rapidement les différents feux de forêt.</p>
<blockquote>
<p>Quels feux sont nuisibles ? Lesquels sont nécessaires ? Où et quand vont-ils se déclencher ? Quelles seront leurs caractéristiques (vitesse de propagation, surface, volume, etc.) ?</p>
</blockquote>
<p>L’interprétation par les scientifiques des résultats de ces calculs va leur permettre de donner de précieuses informations aux équipes de lutte sur le terrain.</p>
<h2>Concrètement, comment ça marche ?</h2>
<p>Tout comme l’Homme apprend à partir d’expériences, les modèles d’IA reposent sur l’apprentissage d’évènements passés.</p>
<p>Dans un premier temps, les <a href="https://www.researchgate.net/publication/335941718_Forest_Fire_Susceptibility_Modeling_Using_a_Convolutional_Neural_Network_for_Yunnan_Province_of_China">chercheurs donnent à l’algorithme</a> un historique des données décrivant les caractéristiques des incendies passés ainsi que les conditions météorologiques et de végétation qui y étaient associées.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/352268/original/file-20200811-15-k3z8vg.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/352268/original/file-20200811-15-k3z8vg.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/352268/original/file-20200811-15-k3z8vg.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=332&fit=crop&dpr=1 600w, https://images.theconversation.com/files/352268/original/file-20200811-15-k3z8vg.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=332&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/352268/original/file-20200811-15-k3z8vg.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=332&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/352268/original/file-20200811-15-k3z8vg.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=417&fit=crop&dpr=1 754w, https://images.theconversation.com/files/352268/original/file-20200811-15-k3z8vg.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=417&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/352268/original/file-20200811-15-k3z8vg.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=417&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Schéma de fonctionnement d’une IA.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>À travers des principes mathématiques, et en s’appuyant sur cet ensemble de données, l’algorithme va rechercher des corrélations entre ces facteurs environnementaux et les différents types de feux. Il construit ainsi ce qu’on appelle un modèle, qui va servir de référence aux scientifiques pour faire des prédictions quant aux incendies à venir. Pour cela, ils indiquent au modèle les prévisions et estimations concernant les conditions météorologiques et végétales dans les zones observées. Sur cette base, l’IA retourne la probabilité de survenue d’un incendie, ainsi que ses caractéristiques.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/feZTh3iJkXw?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">L’intelligence artificielle contre les feux/ICI Alberta.</span></figcaption>
</figure>
<p>Deux remarques importantes s’imposent. Tout d’abord, les performances d’un modèle d’IA reposent principalement sur la qualité, la fiabilité et la quantité de données à sa disposition. Ainsi, la création de ce genre de modèle demande au préalable aux scientifiques un travail colossal d’acquisition de l’information. Ils ont par exemple recours aux outils classiques de la météorologie et de la topographie, à des caméras à infrarouge, ou même des drones.</p>
<p>Par ailleurs, le modèle d’IA n’est pas infaillible et peut parfois <a href="https://theconversation.com/pourquoi-lintelligence-artificielle-se-trompe-tout-le-temps-143019">commettre des erreurs</a>. Ainsi pour le perfectionner, il est recommandé aux chercheurs de confirmer ou infirmer son appréciation à chaque prédiction. En cas d’erreur, le modèle l’intègre et affine son approche pour la suite.</p>
<p>Dans les faits, de nombreuses unités de recherche se sont lancées dans la création de tels modèles d’IA, utilisant différents types d’algorithmes. En voici quelques exemples :</p>
<p><a href="https://wifire.ucsd.edu/index.php/">Wifire Lab</a>, une équipe américaine, a élaboré un logiciel d’IA qui utilise des techniques de <em>traitement du signal</em> pour modéliser des incendies en fonction des conditions météorologiques et de la combustibilité de la végétation.</p>
<p><a href="https://www.folio.ca/new-ai-program-fights-fire-with-data/">Des chercheurs de l’Université de l’Alberta (Canada) et de l’Université de l’Oklahoma (États-Unis)</a> utilisent des algorithmes de <em>réseaux de neurones artificiels</em> pour prédire le lieu et la date de survenue des conditions météorologiques extrêmes qui sont à l’origine des incendies les plus dévastateurs.</p>
<p><a href="https://www.publish.csiro.au/wf/WF19023">Des chercheurs de l’Université de Californie (États-Unis)</a> utilisent un algorithme d’<em>arbre de décision</em> pour prédire la dimension finale d’un incendie.</p>
<h2>Que faire de ces prédictions ?</h2>
<p>Riches de ces prédictions, les équipes de lutte contre les incendies vont pouvoir adapter leurs interventions sur le terrain. Pour cela, elles peuvent effectuer des <a href="https://www.prevention-incendie66.com/sites/default/files/documents/312701.pdf">brûlages dirigés</a> de sorte à protéger les espèces animales et végétales présentes sur les zones concernées tout en respectant le cycle naturel du feu. Elles peuvent également anticiper une évacuation des populations et/ou se munir en avance du matériel adapté aux caractéristiques du feu qu’elles attendent.</p>
<p>Ces dernières années, un changement a été amorcé dans l’approche de la gestion des incendies. Elle s’est enrichie d’une compréhension plus profonde des phénomènes à l’œuvre, et l’intelligence artificielle s’est révélée être un allié précieux pour l’Homme dans cette démarche. Sans pour autant pouvoir le remplacer, elle l’accompagne vers plus d’harmonie avec son environnement.</p><img src="https://counter.theconversation.com/content/143562/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Eunice Okome Obiang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Grâce à l’IA, en prévoyant la survenue des incendies, on peut anticiper leur gestion et les maîtriser avant qu’ils ne dégénèrent, en tenant compte de leur rôle naturel de régulation de la végétation.
Eunice Okome Obiang, Doctorante en Statistiques - Data scientist, Université d'Angers
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/143854
2020-08-11T20:11:41Z
2020-08-11T20:11:41Z
La pandémie invite à redéfinir la notion de valeur en marketing
<figure><img src="https://images.theconversation.com/files/350861/original/file-20200803-20-1w8343r.jpg?ixlib=rb-1.1.0&rect=24%2C8%2C5439%2C3628&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Dans le contexte sanitaire du coronavirus, les livreurs se retrouvent exposés au risque de contamination ce qui peut occasionner une baisse de leur bien-être psychologique ou physique.</span> <span class="attribution"><a class="source" href="https://image.shutterstock.com/image-photo/riders-walk-against-working-conditions-600w-1660941199.jpg">MikeDotta / Shutterstock</a></span></figcaption></figure><p>Les exemples d’entreprises épinglées pour le non-respect de la sécurité sanitaire des salariés ont été nombreux depuis les débuts de la crise et notamment lors du confinement. Ils représentent une opportunité pour les chercheurs et praticiens de s’interroger sur leur conception de la création de valeur.</p>
<p>Face aux défis sociaux et environnementaux actuels, il devient critique de penser celle-ci à un niveau sociétal, afin que disparaissent les modèles d’affaires où la création de valeur pour certaines parties prenantes entraîne sa destruction chez d’autres.</p>
<h2>Une vision restreinte au client final</h2>
<p>En marketing, la valeur est un thème central, très tôt mis en avant comme étant la <a href="https://www.worldcat.org/title/marketing-management-analysis-planning-and-control/oclc/182347">justification même de toute activité marketing</a>. Dans cette perspective, la satisfaction client forme le Graal de toute stratégie.</p>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/350830/original/file-20200803-14-89usid.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/350830/original/file-20200803-14-89usid.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=587&fit=crop&dpr=1 600w, https://images.theconversation.com/files/350830/original/file-20200803-14-89usid.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=587&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/350830/original/file-20200803-14-89usid.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=587&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/350830/original/file-20200803-14-89usid.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=738&fit=crop&dpr=1 754w, https://images.theconversation.com/files/350830/original/file-20200803-14-89usid.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=738&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/350830/original/file-20200803-14-89usid.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=738&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
<span class="attribution"><span class="source">auteur</span></span>
</figcaption>
</figure>
<p>Cette acception classique et dominante entretient deux problématiques majeures :</p>
<ul>
<li><p>le langage de la valeur est empreint d’un biais positif qui en éclipse les travers potentiels ;</p></li>
<li><p>elle offre une vision restreinte du concept de valeur et du marché qui sont à dépasser.</p></li>
</ul>
<p>Le langage de la valeur utilisé dans la littérature scientifique et managériale en marketing tend à normaliser cette dernière comme correspondant à la satisfaction du consommateur, excluant toute autre considération que ce dernier, mais également à <a href="https://doi.org/10.1177/1470593117692023">réifier les principes implicites de l’économie capitaliste</a>. Toute pensée de l’alternative se retrouve mise de côté alors que celle-ci constitue un enjeu majeur pour répondre aux challenges économiques, sociaux et environnementaux cristallisés par la crise du coronavirus.</p>
<p>Considérons les activités de trois entreprises exposées médiatiquement durant cette crise : Amazon, Uber Eats et Deliveroo. Au prisme de la perspective traditionnelle de la valeur en marketing et de sa focalisation sur le client final, nous pourrions conclure qu’elles en ont été créatrices.</p>
<p>En effet, elles ont toutes trois maintenu leur activité – jusqu’à la fermeture des entrepôts intervenue suite à une <a href="https://www.mediapart.fr/journal/france/140420/la-justice-somme-amazon-de-s-en-tenir-aux-marchandises-essentielles?page_article=2">décision de justice</a> dans le cas d’Amazon, créant ainsi de la valeur pour leurs clients en leur donnant l’accès à divers biens (livres, produits cosmétiques, articles de bricolage) et services (livraison de repas ou de produits d’épicerie à domicile) et générant conséquemment un certain niveau de satisfaction client qui peut être appréhendé notamment au travers de <a href="https://actu.fr/nouvelle-aquitaine/bordeaux_33063/olivier-livreur-uber-eats-bordeaux-coronavirus-pas-les-gens-on-est-robots_33312556.html">l’augmentation moyenne des pourboires</a> distribués aux coursiers.</p>
<p>Les <a href="https://doi.org/10.1177/2394964317726451">travaux</a> sur la destruction et la co-destruction de valeur permettent de déconstruire l’idée que la création de valeur est un processus à l’issue nécessairement positive. La co-destruction de valeur peut prendre place lorsqu’un acteur (par exemple, un consommateur) intégrant ses ressources avec celles d’un autre acteur (par exemple, une entreprise) voit son bien-être diminuer.</p>
<p>Considérons le cas de l’entreprise de livraison à vélo Deliveroo. Le client intègre ses ressources financières (le prix du repas et de sa livraison) aux ressources humaines et technologiques de l’entreprise. L’expérience de consommation en résultant est créatrice de valeur.</p>
<p>Considérons à présent cette même configuration, mais en y ajoutant une partie prenante : le livreur. Dans ce cas, le client intègre toujours ses ressources à celles de l’entreprise, mais dans le contexte sanitaire du coronavirus, le livreur se trouve exposé au risque d’infection ce qui peut occasionner une baisse de son bien-être psychologique et même physique en <a href="https://www.politico.eu/article/coronavirus-pandemic-leaves-gig-economy-workers-exposed/">cas de contamination</a>.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1245073452366802945"}"></div></p>
<p>Ces travaux ouvrent la porte à une étude critique de la valeur, mais un obstacle important demeure : un ensemble réduit d’acteurs est considéré (entreprise, clients, partenaires) et leur impact sociétal et environnemental n’est jamais discuté.</p>
<h2>Une perspective multi parties prenantes</h2>
<p>La crise sanitaire actuelle met au jour les interrelations entre les parties prenantes constitutives de nos sociétés et la nécessité de leur prise en compte. Seule une perspective à la fois systémique et multi parties prenantes des marchés permet de sortir de cette impasse théorique et pratique posant de nombreux problèmes éthiques.</p>
<p>Sur un plan théorique, une <a href="https://doi.org/10.1177/1470593113500385">conceptualisation socioculturelle</a> de la valeur permet d’interroger son caractère subjectif, contextuel, complexe et interrelié. Elle permet de déconstruire les dogmes capitalistes et de replacer le bien-être d’un maximum de parties prenantes au centre de préoccupations communes.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/350844/original/file-20200803-14-knxsl3.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/350844/original/file-20200803-14-knxsl3.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=410&fit=crop&dpr=1 600w, https://images.theconversation.com/files/350844/original/file-20200803-14-knxsl3.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=410&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/350844/original/file-20200803-14-knxsl3.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=410&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/350844/original/file-20200803-14-knxsl3.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=515&fit=crop&dpr=1 754w, https://images.theconversation.com/files/350844/original/file-20200803-14-knxsl3.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=515&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/350844/original/file-20200803-14-knxsl3.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=515&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
<span class="attribution"><span class="source">auteur</span></span>
</figcaption>
</figure>
<p>Adoptons à présent cette perspective multi parties prenantes afin de saisir les externalités négatives (c’est-à-dire un dommage sans contrepartie monétaire) de l’activité économique d’Amazon, Uber Eats et Deliveroo durant la crise du coronavirus.</p>
<p>Dans le cas d’Amazon, la première est la mise en danger des salariés en raison du risque sanitaire existant dans ses entrepôts, et son corollaire la participation de l’entreprise à la <a href="https://www.mediapart.fr/journal/france/240420/amazon-condamne-en-appel-proteger-les-salaries-de-ses-entrepots">propagation de l’épidémie de Covid-19</a> et de facto à l’engorgement des services d’urgences. Le discours de l’entreprise remettait par ailleurs en cause le Code du travail en <a href="https://www.mediapart.fr/journal/fil-dactualites/190320/amazon-exerce-des-pressions-inacceptables-sur-ses-salaries-le-maire">menaçant de suspendre la rémunération des salariés</a> qui exerceraient leur droit de retrait pour des raisons sanitaires. Enfin, soulignons que toute livraison met à risque le livreur sous-traitant qui en a la charge.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/continuite-de-lactivite-des-entreprises-lapprentissage-difficile-de-la-negociation-de-crise-136258">Continuité de l’activité des entreprises : l’apprentissage difficile de la négociation de crise</a>
</strong>
</em>
</p>
<hr>
<p>Dans le cas d’Uber Eats et de Deliveroo, les livreurs à vélo font face à un risque sanitaire dans les restaurants où ils récupèrent les commandes ainsi que chez les particuliers <a href="https://www.lefigaro.fr/social/uber-eats-deliveroo-quel-bilan-de-l-epidemie-chez-les-livreurs-a-velo-20200611">où elles terminent leur course</a>. Ces entreprises ne salarient pas les coursiers mais les rémunèrent à la tâche. <a href="https://www.lemonde.fr/economie/article/2020/06/08/le-gouvernement-ouvre-la-porte-a-un-statut-specifique-des-travailleurs-des-plates-formes_6042179_3234.html">Précarisés</a>, ils ne sont pas non plus indemnisés en cas de maladie. Cette précarité combinée à la quasi-absence d’indemnisation en cas de suspicion de Covid-19 peut les empêcher de s’auto-confiner, augmentant ainsi la <a href="https://www.rue89strasbourg.com/mulhouse-livreurs-deliveroo-patinent-dans-le-vide-171669">possible propagation du virus</a> et là encore l’engorgement des services d’urgence.</p>
<p>Enfin, face au marasme économique engendré par la fermeture des cafés et restaurants, les <a href="https://www.usine-digitale.fr/editorial/le-confinement-un-accelerateur-pour-la-livraison-de-repas-a-domicile.N973381">commissions prises par les plates-formes</a> (25 % à 30 %) ont pesé particulièrement lourd sur les restaurateurs. Deliveroo a entendu répondre à leurs difficultés non pas en diminuant les commissions perçues mais en demandant au client de <a href="https://www.lefigaro.fr/flash-eco/deliveroo-l-addition-pourra-etre-arrondie-pour-aider-les-restaurateurs-20200605">pratiquer l’arrondi supérieur sur son addition</a> ou bien d’y ajouter un pourboire. La destruction de valeur est ici double puisqu’elle touche d’une part le restaurateur et d’autre part, le client.</p>
<p>Les marchés sont des constructions sociales que nous, chercheurs, mais aussi marketeurs, fournisseurs, partenaires, consommateurs… participons à construire notamment <a href="https://doi.org/10.1177/1470593106066789">au travers du langage que nous employons</a> à leur endroit. Le concept de valeur et <a href="https://doi.org/10.1177/1470593113500384">l’étude de ses différents types</a> (valeur d’usage, d’échange ou perçue) ignore le fait qu’elle en néglige toute forme et tout type d’échange qui sortirait de l’idéologie capitaliste dominante.</p>
<p>Penser l’<a href="https://www.upress.umn.edu/book-division/books/the-end-of-capitalism-as-we-knew-it">alternative</a>, au sens des chercheuses en géographie économique Julie Graham et Katherine Gibson doit alors se faire en dehors du langage économique néo-classique. Il est grand temps de créer un <a href="https://doi.org/10.1177/0276146717728776">langage sociétal et environnemental de la valeur</a> afin que la recherche en marketing permette elle aussi de penser l’alternative.</p><img src="https://counter.theconversation.com/content/143854/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Amélie S. Martin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
L’acception classique et dominante offre une vision restreinte à la satisfaction du client final et néglige la prise en compte des autres parties prenantes dans la stratégie d’entreprise.
Amélie S. Martin, Professeure Assistante en Marketing , PSB Paris School of Business
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/138282
2020-06-25T18:16:06Z
2020-06-25T18:16:06Z
La danse des pôles : pourquoi le pôle Nord se déplace-t-il ?
<figure><img src="https://images.theconversation.com/files/343709/original/file-20200624-132955-rgaap6.jpg?ixlib=rb-1.1.0&rect=20%2C88%2C952%2C681&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les pôles magnétiques de la Terre se déplacent à environ 50 km par an. Affiche de 1894 de Georges Ripart.</span> <span class="attribution"><a class="source" href="https://upload.wikimedia.org/wikipedia/commons/thumb/2/25/Georges_Ripart_Pole_Nord_1894.jpg/467px-Georges_Ripart_Pole_Nord_1894.jpg">Wikipédia</a></span></figcaption></figure><p>Le pôle Sud <a href="https://theconversation.com/ou-est-le-pole-sud-pourquoi-le-champ-magnetique-ne-se-tient-pas-tranquille-109739">est sorti</a> de la Terre Adélie pour se promener en mer. Pendant ce temps, le pôle Nord vit sa vie de pôle indépendant et il passe la ligne internationale de changement de jour en 2018, se sauvant vers la Sibérie. Jusqu’ici, on ne comprenait pas trop cette dérive anormale : pourquoi les chemins des deux pôles sont-ils indépendants l’un de l’autre ? Pourquoi leurs trajets se sont subitement accélérés depuis 1999 ?</p>
<h2>La transhumance des Pôles</h2>
<p>Un <a href="https://www.nature.com/articles/s41561-020-0570-9">article récent</a>, publié dans <em>Nature Geoscience</em>, explique cette soudaine accélération du pôle Nord vers la Sibérie : elle est due à une déformation locale du <a href="https://fr.wikipedia.org/wiki/Champ_magn%C3%A9tique_terrestre">champ magnétique terrestre</a>. La déformation est créée par les mouvements de roches magnétiques à l’interface entre le noyau terrestre et le manteau.</p>
<p>Les résultats montrent que cette accélération n’est pas anodine : la vitesse de déplacement du Pôle est passée de 0–15 km/an depuis qu’on a commencé à l’enregistrer régulièrement dans les années 70, à 50–60 km/an depuis 1999.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/342171/original/file-20200616-23276-1h9l1de.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/342171/original/file-20200616-23276-1h9l1de.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/342171/original/file-20200616-23276-1h9l1de.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=897&fit=crop&dpr=1 600w, https://images.theconversation.com/files/342171/original/file-20200616-23276-1h9l1de.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=897&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/342171/original/file-20200616-23276-1h9l1de.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=897&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/342171/original/file-20200616-23276-1h9l1de.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1127&fit=crop&dpr=1 754w, https://images.theconversation.com/files/342171/original/file-20200616-23276-1h9l1de.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1127&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/342171/original/file-20200616-23276-1h9l1de.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1127&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Positions du pôle Nord magnétique mesurées et modélisées.</span>
<span class="attribution"><a class="source" href="https://upload.wikimedia.org/wikipedia/commons/thumb/7/74/Magnetic_North_Pole_Positions_2015.svg/685px-Magnetic_North_Pole_Positions_2015.svg.png">Wikipedia</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>L’étude du champ magnétique terrestre global s’effectue essentiellement avec une technique de « décomposition en fréquences ». Elle permet par comparaison entre deux époques de distinguer ce qui varie rapidement dans le champ magnétique de ce qui varie moins vite. On peut faire une analogie avec la décomposition en fréquence sonore – il s’agirait de distinguer les aigus et les graves dans un morceau de musique par exemple. Comme dans toute décomposition, il y a des parties positives et des parties négatives. Cette décomposition fait apparaître deux zones légèrement négatives dans les latitudes élevées, dites « patch ». Ce sont des petits aimants (<a href="https://fr.wikipedia.org/wiki/Dip%C3%B4le_magn%C3%A9tique">dipôle</a>, quadrupôles…) supplémentaires qui s’additionnent pour former le champ total. Leur variation d’intensité indique que le <em>patch</em> canadien décroît légèrement tandis que le <em>patch</em> sibérien augmente. Ceci ne veut pas dire que le pôle nord glisse de l’un à l’autre ; mais que les charges à l’origine de ces <em>patchs</em>, qui font que le champ magnétique terrestre est plus complexe qu’un simple aimant nord-sud, se déplacent.</p>
<p>Les basses fréquences (les graves) indiquent que ces charges ont une origine profonde, à l’interface noyau-manteau. Toutes ces études permettent de comprendre comment varie le champ dans le temps. Il faut alors recourir à la modélisation pour comprendre pourquoi il existe ces variations.</p>
<h2>Modèles numériques et modèles expérimentaux pour comprendre le manteau terrestre</h2>
<p>Étudier le champ magnétique implique de comprendre la circulation dans le noyau. Cela peut se faire de façon numérique, en étudiant la <a href="https://planet-terre.ens-lyon.fr/article/convection-du-noyau.xml">convection dans une sphère</a> sous l’influence de la chaleur, ou expérimentale, en étudiant les mouvements dans une sphère remplie d’un liquide visqueux. Les modèles expérimentaux font intervenir des sphères remplies de sodium liquide, produit extrêmement dangereux et instable au contact de l’eau – d’où des normes de sécurité très strictes. Des interactions entre les modèles numériques (Paris, Zurich, Lingby DK, Leeds UK) et les expérimentaux (Grenoble, Maryland) permettent de raffiner notre compréhension du champ magnétique terrestre.</p>
<figure class="align-right zoomable">
<a href="https://images.theconversation.com/files/343687/original/file-20200624-132988-1q00s3d.gif?ixlib=rb-1.1.0&rect=3%2C235%2C1194%2C873&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/343687/original/file-20200624-132988-1q00s3d.gif?ixlib=rb-1.1.0&rect=3%2C235%2C1194%2C873&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/343687/original/file-20200624-132988-1q00s3d.gif?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=659&fit=crop&dpr=1 600w, https://images.theconversation.com/files/343687/original/file-20200624-132988-1q00s3d.gif?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=659&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/343687/original/file-20200624-132988-1q00s3d.gif?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=659&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/343687/original/file-20200624-132988-1q00s3d.gif?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=828&fit=crop&dpr=1 754w, https://images.theconversation.com/files/343687/original/file-20200624-132988-1q00s3d.gif?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=828&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/343687/original/file-20200624-132988-1q00s3d.gif?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=828&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Simulation du champ magnétique terrestre dans le cœur liquide du noyau terrestre ; les lignes de champ magnétique bleues pointent vers le centre, oranges vers l’extérieur.</span>
<span class="attribution"><a class="source" href="https://upload.wikimedia.org/wikipedia/commons/d/d5/Geodynamo_Between_Reversals.gif">NASA</a></span>
</figcaption>
</figure>
<p>En particulier, les modèles numériques permettent de comprendre comment se font la circulation et la convection dans le manteau. Les modèles analogiques, elles donnent des informations sur la création de quadrupôles et autres multipôles, soit sur l’intensité du champ. Ils permettent aussi de remonter dans le temps, pour comprendre <a href="http://www.ens-lyon.fr/actualite/recherche/comment-ete-genere-le-champ-magnetique-des-premiers-ages-de-la-terre">comment le champ magnétique s’est installé sur terre, et depuis quand</a>. Ces études poursuivent l’analyse du champ, et ses inversions qui sont à l’origine de la découverte de la dérive des continents. Le pourquoi est encore loin, mais on commence à savoir comment.</p>
<h2>Pourquoi étudier le champ magnétique terrestre et ses variations ?</h2>
<p>Notre existence même est liée à l’existence du champ magnétique terrestre, car il nous protège du vent solaire. En effet, le champ magnétique terrestre a deux composantes, interne et externe. La composante interne, c’est celle que l’on vient de voir : elle est générée par les mouvements internes dans et autour du noyau. C’est elle que l’on mesure habituellement avec une boussole.</p>
<p>La composante externe, dite « magnétosphère » résulte de l’interaction de ce champ avec le flux de particules que nous envoie le soleil. Cette partie externe est située entre 400 et 800 km d’altitude. Elle est asymétrique, comprimée du côté diurne, vers le soleil, et sous forme de queue allongée dans la direction opposée. Elle est naturellement liée au cycle solaire de 27 jours (la rotation du soleil) et un cycle de 11 ans dû à l’interaction entre les planètes proches (Vénus, Terre, Jupiter). Le champ magnétique solaire présente également un cycle de 22 ans, correspondant aux inversions de polarité à chaque nouveau cycle de 11 ans. La magnétosphère s’oppose au vent solaire et dévie les particules, c’est un bouclier protégeant la vie.</p>
<p>Au niveau des pôles (on y revient) ce bouclier prend la forme de deux cornets, un au sud et un au nord, qui attirent les particules électrisées et forment les aurores boréales. Ce vent solaire est quelquefois très important, induisant des manifestations que l’on appelle des <a href="https://fr.wikipedia.org/wiki/Orage_magn%C3%A9tique">orages magnétiques</a>. Ils brouillent les émissions radio et les communications électriques, d’où l’importance de l’étude des variations du champ magnétique terrestre.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/342123/original/file-20200616-23227-vcf10r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/342123/original/file-20200616-23227-vcf10r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=473&fit=crop&dpr=1 600w, https://images.theconversation.com/files/342123/original/file-20200616-23227-vcf10r.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=473&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/342123/original/file-20200616-23227-vcf10r.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=473&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/342123/original/file-20200616-23227-vcf10r.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=594&fit=crop&dpr=1 754w, https://images.theconversation.com/files/342123/original/file-20200616-23227-vcf10r.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=594&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/342123/original/file-20200616-23227-vcf10r.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=594&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">La magnétosphère de la Terre est la région où les phénomènes physiques sont dominés par le champ magnétique.</span>
<span class="attribution"><a class="source" href="https://fr.wikipedia.org/wiki/Fichier:Magnetosphere_schematic_fr.jpg">NASA, adapté en français par Medium69, Wikipedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<h2>Comment utiliser une boussole lorsque l’on est au pôle Nord ?</h2>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/342124/original/file-20200616-23266-abji57.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/342124/original/file-20200616-23266-abji57.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=600&fit=crop&dpr=1 600w, https://images.theconversation.com/files/342124/original/file-20200616-23266-abji57.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=600&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/342124/original/file-20200616-23266-abji57.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=600&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/342124/original/file-20200616-23266-abji57.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=754&fit=crop&dpr=1 754w, https://images.theconversation.com/files/342124/original/file-20200616-23266-abji57.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=754&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/342124/original/file-20200616-23266-abji57.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=754&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">pôle Nord magnétique et pôle Nord géographique.</span>
<span class="attribution"><a class="source" href="https://en.wikipedia.org/wiki/Earth%27s_magnetic_field#/media/File:Geomagnetisme.svg">Wikipedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Le champ magnétique interne varie en direction horizontale, c’est-à-dire parallèle au sol, vers le Nord, et verticale, c’est-à-dire vers le centre de la Terre, de l’Équateur aux Pôles. L’aiguille d’une boussole suit en principe les lignes de force du champ magnétique, qui convergent vers les Pôles. Qui a fait un peu de randonnée ou a été scout connaît la déclinaison et l’inclinaison : la première est l’angle entre le nord géographique et le nord magnétique, qui bouge, comme on vient de le voir, ce qui est à l’origine de la variation de déclinaison qui est indiquée sur toutes les cartes topographiques. La seconde est l’angle entre l’horizontale (la surface de la Terre) et la ligne de champ. C’est la variation qui part de l’équateur magnétique, où l’inclinaison est nulle, jusqu’au pôle où la ligne est en principe verticale.</p>
<p>Alors, comment utilise-t-on une boussole au pôle Nord magnétique ? Si on est vraiment au pôle Nord, où que l’on aille, on ira au Sud mais on ne saura pas si c’est vers Paris, New York ou Moscou.</p>
<p>Qu’indiquent alors les boussoles ? La question devient plus simple. L’aiguille aimantée s’aligne selon les lignes du champ. Elle a donc deux axes de rotation, vertical et horizontal, selon que l’on se déplace sur la sphère. Arrivée au Pôle, le champ est vertical. La pauvre aiguille n’a plus de position d’équilibre en direction horizontale. Elle va se mettre à tourner sur son axe vertical. Par contre, dans une situation sans contrainte de pivot vertical, par exemple suspendue à un fil fin, l’aiguille devient verticale. Reste à définir les notions d’Est et d’Ouest, qui elles ne varient pas comme la droite et la gauche par rapport au Nord.</p><img src="https://counter.theconversation.com/content/138282/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Jean Louis Vigneresse ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>
Le pôle Nord magnétique de la Terre se déplace d'environ 50-70 km par an. Pourquoi ?
Jean Louis Vigneresse, Géophysicien, Université de Lorraine
Licensed as Creative Commons – attribution, no derivatives.
tag:theconversation.com,2011:article/138272
2020-05-18T19:25:44Z
2020-05-18T19:25:44Z
De la difficile équation entre science et politique
<p>On peut tout lire et repenser à travers la crise du Covid : nos institutions, nos dynamiques économiques, nos politiques écologiques et sociales. On peut y lire aussi des contributions de toutes les sciences, ou presque. On a beaucoup parlé du rôle de certaines applications mathématiques liées à l’intelligence artificielle ou au traçage.</p>
<p>Il y a aussi des sujets moins médiatiques comme la modélisation statistique des dynamiques d’épidémies. Pourquoi cette discipline joue-t-elle aujourd’hui, malgré ses incertitudes, un rôle décisif dans cette crise ?</p>
<p>Quand, à l’<a href="http://www2.assemblee-nationale.fr/15/les-delegations-comite-et-office-parlementaire/office-parlementaire-d-evaluation-des-choix-scientifiques-et-technologiques">Office parlementaire scientifique</a>, nous nous sommes lancés sur l’épidémie de Covid-19, notre première tâche était d’analyser et commenter l’évolution de l’épidémie. Comme tant d’observateurs à travers le monde, chaque matin nous ajoutions un point sur les courbes de décompte des cas et des décès, d’un panel de pays, et nous les observions. Croissance exponentielle ou pas ? À cette époque, même parmi les experts les plus reconnus en matière de santé en France, il n’y avait pas consensus pour savoir si la courbe française suivrait celle de l’Italie.</p>
<p>L’Office parlementaire scientifique instruit les dossiers à l’interface entre science et politique, pour aider aux choix des parlementaires. La qualité universellement reconnue de ses rapports, en France comme à l’étranger, n’a jamais été source d’un poids politique et public conséquent, hélas : il en va ainsi de toutes les institutions françaises liées au conseil scientifique. Un exemple parmi d’autres : la remarquable doctrine de masques de la France – remarquable, mais non suivie au cours des années – avait été élaborée dans un rapport de l’OPECST, il y a une quinzaine d’années. J’ai travaillé depuis trois ans à restructurer et accroître le poids de l’OPECST : beaucoup reste à faire.</p>
<p>Au début de nos efforts, pour illustrer nos notes, comme d’autres, nous devions produire deux graphiques : un avec la courbe italienne et un sans la courbe italienne. La courbe italienne planait tellement loin au-dessus des autres, qu’en comparaison les autres courbes étaient à peine discernables de l’axe des abscisses ; le <em>zoom</em> permettait de les distinguer. Mais après une semaine, il n’y avait plus besoin d’un graphe séparé : les courbes exponentielles évoluent si vite ! Les pays européens autres que l’Italie avaient décollé, et il était devenu clair que la courbe française suivait impeccablement la courbe italienne, avec 8 à 10 jours de décalage.</p>
<p>Pour mieux visualiser des exponentielles, il est bon de passer en coordonnées logarithmiques : sur l’axe, un déplacement d’une unité correspondra à une multiplication par 10 (disons). On peut ainsi <em>redresser</em> les exponentielles en lignes droites, dont on peut comparer les pentes.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/54XLXg4fYsc?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Comment savoir si nous allons battre le Covid-19. minutephysics. Vous pouvez activer les sous-titres en français via le bouton « réglages ».</span></figcaption>
</figure>
<p>S’il y a bien une chose qui frappe, c’est, caché derrière l’apparent déluge anxiogène des chiffres, ce caractère universel de la courbe de propagation de l’épidémie. Moi-même, j’ai été stupéfait de le voir apparaître si nettement et si visuellement. Que ce soit à Séoul ou à Téhéran, malgré les différences de coutumes, de cultures, de logements, de systèmes médicaux, l’épidémie se propage exactement de la même façon. Il y aurait donc un modèle et une équation mathématique qui reflètent la réalité de l’épidémie.</p>
<p>Les épidémiologistes savent utiliser les équations différentielles pour cela, comme les fameux « modèles à compartiments », depuis le simple <a href="https://fr.wikipedia.org/wiki/Mod%C3%A8les_compartimentaux_en_%C3%A9pid%C3%A9miologie">modèle SIR</a> à 3 compartiments, jusqu’à ceux qui sont utilisés aujourd’hui pour la lutte contre le Covid-19, qui en comportent une douzaine, avec quantité de paramètres pour mesurer les interactions et contaminations entre individus, et le fameux paramètre R₀, ou paramètre de reproduction – le nombre de personnes qu’un individu infecté contamine, en moyenne. Ce nombre est proche de 19 pour la rougeole, et de 3 pour le COVID… il détermine quantité d’informations : dynamique de l’épidémie, croissance exponentielle (R₀>1) ou extinction (R₀<1), le nombre d’individus contaminés au final, la quantité qu’il faut vacciner, et bien d’autres informations. En bref, on peut poser et étudier toutes sortes de questions liées à la quantité d’individus infectés.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/comprendre-les-bases-des-modeles-mathematiques-des-epidemies-136056">Comprendre les bases des modèles mathématiques des épidémies</a>
</strong>
</em>
</p>
<hr>
<p>Quel est le taux de contamination actuel de la population ? Pour le Covid-19, personne ne le connaît exactement, mais on le pense inférieur à 10 % à l’échelle de la France ; un travail de recherche suggérait même que dans le territoire très contaminé de l’Île-de-France, il serait de l’ordre de 6 % seulement. Les études sont en cours et demandent des tests sérologiques fiables, un échantillonnage statistique bien fait, une méthodologie rigoureuse, une forte coordination entre compétences. Comme tout dans cette épidémie, cela demande un délicat dosage.</p>
<h2>Quand un paramètre mathématique devient un enjeu sanitaire</h2>
<p>Si l’immunité collective n’est pas au rendez-vous, et tant qu’un vaccin n’est pas disponible, le contrôle de l’épidémie passe par une diminution du coefficient de reproduction R₀, pour le faire passer de la valeur naturelle (disons 3) à une valeur modifiée, que l’on souhaite maintenir en dessous de 1 (contrôle de l’épidémie). En dessous de 1, cela ne veut pas dire que le virus n’existe plus, ou que la contamination est impossible : cela veut dire que si un nouveau foyer surgit, la dynamique des contaminations et guérisons aboutira à la disparition du foyer.</p>
<p>Et voilà comment un paramètre mathématique se transforme en enjeu de vie ou de mort pour notre système de santé collectif. Il y a encore deux mois, les dirigeants du monde entier se moquaient pas mal de ce coefficient R₀, mais aujourd’hui c’est leur obsession quotidienne. Il est même apparu explicitement dans des conférences de presse d’Angela Merkel et <a href="https://www.challenges.fr/france/en-direct-deconfinement-six-francais-sur-dix-ne-font-pas-confiance-au-gouvernement_707222">Édouard Philippe</a>. De la valeur du coefficient dépend la croissance du nombre de cas, et la possible saturation du système… et c’est très sensible !</p>
<blockquote>
<p>« Avec un coefficient 1,1 le système de santé allemand explose en octobre ; avec un coefficient 1,2 en juillet. » (Angela Merkel)</p>
</blockquote>
<p>Oui, la valeur du coefficient est importante… mais sa mesure est fort délicate, et ne peut être qu’une sorte de valeur moyenne sur plusieurs jours. Estimé entre 0,7 et 0,9 la semaine dernière, il serait tombé entre 0,5 et 0,6 ces derniers jours. Mais l’enjeu n’est pas tant sa valeur en temps de confinement, que sa valeur après le début du déconfinement. Pour contenir R₀, il faudra garder des mesures contraignantes.</p>
<p>Il ne faut pas croire que l’on pourra s’en tirer de façon légère : l’universalité de la propagation, dans les pays où l’on s’embrasse facilement comme dans les pays où l’on se tient plus à distance, montre que ce n’est pas une simple adaptation des comportements qui pourra y faire quelque chose ; c’est seulement avec de vraies contraintes que l’on peut espérer changer les choses !</p>
<h2>Des modèles frustrants</h2>
<p>Les modèles épidémiologistes sophistiqués comportent beaucoup d’inconnues, ce qui ne fait pas peur aux ordinateurs ; mais viennent aussi avec un grand nombre de paramètres à fixer. Certains de ces paramètres représentent les interactions entre individus, d’autres des probabilités de contamination… C’est une grande difficulté de les fixer, de les estimer, en fonction des expériences, des études épidémiques, des dispositifs techniques… Est-ce que les masques font baisser R à peine, ou beaucoup ? Que dire des procédures d’isolement, en estimant la proportion que l’on parviendra à identifier ? Dans quelle proportion les mesures seront appliquées en pratique ? C’est un casse-tête que de décider sur tous ces sujets. Les meilleurs experts hésiteront à se prononcer sur la valeur quantitative des masques dans ces équations. Chaque élément vient avec son lot d’incertitude.</p>
<p>Nous voici face à un problème aux multiples sources d’incertitude. Frustrant… Bien sûr, des équipes différentes ont des analyses différentes : c’est normal, tous les scientifiques savent combien la science est riche en controverses. Mais cela est désespérant pour un politique qui chercherait <em>la</em> recette dans les prédictions des scientifiques. Et pourtant ces efforts valent la peine, sans le moindre doute. Pour ramener en dessous de 1 un coefficient qui a envahi toutes nos existences et nous coûte, rien qu’à l’échelle nationale, 2 milliards d’euros par jour, il faut explorer toutes les pistes, saisir tous les outils qui permettront de prédire l’évolution de la courbe, confronter les points de vue, et il est impossible de faire l’impasse sur l’épidémiologie.</p>
<p>Nous pouvons aller plus loin dans le diagnostic : au bout du compte, si nous avons accepté, collectivement, d’arrêter l’ensemble de l’économie, c’est bien pour préserver la capacité de notre système de santé qui risquait l’explosion. Cela veut bien dire que l’indicateur majeur qui doit permettre de juger la politique sanitaire, c’est bien le nombre de personnes en situation de soins intensifs. Et que donc, l’épidémiologie, seule science à même de faire des prédictions sur ce nombre, doit avoir le dernier mot dans toute analyse scientifique de la situation. Lourde responsabilité, quand on a compris toutes les difficultés qu’elle rencontre…</p>
<h2>La danse des épidémiologistes</h2>
<p>Entre le confinement et le déconfinement, les objectifs sont différents. L’éditorialiste <a href="https://medium.com/@tomaspueyo/coronavirus-the-hammer-and-the-dance-be9337092b56">Tomas Pueyo</a> a fait mouche avec on image du « coup de marteau » et de la « danse ». Dans un premier temps, pour éviter l’écroulement du système de santé, on assène un énorme coup de marteau à l’épidémie, le confinement, pour faire brutalement descendre le coefficient R bien en dessous de 1, et obtenir le temps de se reprendre. Dans un deuxième temps, une fois que tous les outils sont au point, on relâche le confinement pour placer le coefficient au voisinage de 1, juste en dessous, quitte à jouer par essai et erreur, pour endiguer l’épidémie tout en sacrifiant le moins possible sur notre mode de vie.</p>
<p>Et pour préparer cette phase de « danse », c’est aux épidémiologistes d’avoir le regard final, en intégrant dans leurs réflexions tout l’arsenal médical. Mais c’est bien au politique qu’il revient d’avoir le dernier mot : devant l’abondance de paramètres à régler, avec des répercussions sur nos modes de vie et notre économie, la science devrait seulement présenter des possibles et laisser le politique arbitrer. Thomas Pielke l’a très bien exposé dans son ouvrage <a href="https://www.cambridge.org/core/books/honest-broker/A41AD4D7D14077165807DBE057B5FAF9"><em>The Honest Broker</em></a> : le choix éclairé est celui qui est décidé par le politique, éventuellement grâce au débat citoyen, parmi les options cohérentes et acceptables fournies par le scientifique.</p>
<p>On l’a bien vu ces dernières semaines : ce n’est pas ainsi que les choses se sont passées. Tous les scénarios des épidémiologistes faisaient des hypothèses qui ont été battues en brèche depuis : fermeture des écoles pendant plusieurs mois, et confinement prolongé des catégories à risque. Sur le confinement prolongé, le politique a commencé par suivre la recommandation des scientifiques : on l’a vu dans les déclarations du Président Macron, de la Présidente Van der Leyen, du Président du Conseil scientifique…</p>
<p>Mais le très mauvais débat public qui s’est ensuivi, avec des seniors furieux d’être infantilisés, a forcé les autorités à reculer. <em>Seniors, ce sera à vous de choisir</em>, titrait <a href="http://www.leparisien.fr/">Le Parisien</a> en couverture. Choisir entre quoi et quoi ? Personne ne le sait vraiment, et personne ne pouvait le savoir avant que l’on ait défini des options acceptables. Sur l’ouverture des écoles, le politique a choisi de passer outre l’avertissement des scientifiques, et les scientifiques ont pris acte de cette décision (rapport du Conseil scientifique du Président). À la fin, que prédisent les épidémiologistes avec ces nouvelles données ? Juste rien : attendons les nouvelles simulations des experts. Et souvenons-nous qu’à la fin, ce dont nous avons besoin c’est d’un plan global de solidarité, qui permette de limiter la propagation de l’épidémie en deçà du niveau de saturation des hôpitaux.</p>
<p>Heureusement, l’épidémiologie ne fonctionne pas seulement sur les équations différentielles ; elle tire aussi quantité d’enseignements de la méthode expérimentale, et des comparaisons – en particulier les comparaisons entre pays. Revenons sur les courbes de propagation de l’épidémie, telles que nous les avons contemplées plus haut. Pour l’instant, en dehors de la Chine, deux groupes de pays ont réussi à contenir l’épidémie, et on le voit très bien sur les courbes. D’abord la Corée du Sud et Hongkong (que l’on peut considérer ici comme un pays). Dans ces deux cas, pas de confinement généralisé, mais une discipline de port de masque et une politique très rigoureuse de traçage, tests et traitement (TTT) visant à isoler énergiquement les personnes contagieuses du reste de la population. Et puis le deuxième groupe est constitué de pays occidentaux, Europe de l’ouest et États-Unis, qui se sont d’abord retrouvés submergés par la croissance exponentielle, forcés à des confinements généralisés pour éviter la rupture de leur système de santé. Là encore, le parallélisme des courbes est impressionnant. Impressionnant aussi de voir ces gigantesques efforts résumés en la baisse ou la hausse d’un paramètre mathématique…</p>
<p>Je parlais plus haut de l’universalité du profil des courbes épidémiologiques. Pour moi elle ne reflète pas seulement la puissance des modèles mathématiques : elle illustre aussi à quel point nous sommes tous liés dans cette crise – tous dans le même bateau. Il y a une vision politique derrière cela.</p>
<p>En l’occurrence, c’était un pêché d’orgueil de plusieurs pays que de croire qu’ils allaient pouvoir échapper au sort commun. Encore au 12 mars, certains de nos meilleurs experts pariaient que la France, grâce à une gestion médicale plus efficace que celle de l’Italie, échapperait au confinement. Quatre jours plus tard, notre pays était pris au piège de l’exponentielle, comme les autres, et confiné comme les autres. Il est bon de le rappeler aussi à ceux qui voient dans la fermeture des frontières nationales un appel aux replis nationalistes : ce que le confinement surprise a démontré, ce n’est pas que nous devions nous fermer aux autres, mais que nous ne devions pas nous croire meilleurs que les autres, que nous devions nous coordonner avec les autres, apprendre de leurs expériences. Et c’est ensemble que nous devons sortir de la crise, de façon coordonnée, parce que nous sommes tous liés ; en partageant les résultats, les analyses, les expériences, le savoir-faire, les soins.</p>
<p>En prenons-nous le chemin ? À voir les pays décider en ordre dispersé de leur stratégie de déconfinement, entrer en compétition pour des ressources rares, se dégager sans crier gare de grands projets collaboratifs tels que des essais ou des logiciels, on peut en douter. À tout le moins, les scientifiques, au-delà de leurs saines controverses, se chargeront de comparer les expériences de différents pays, et d’en tirer tous les enseignements. Attentifs à rester fidèles, dans toutes les situations, à l’idéal humaniste et universaliste qui sous-tend toute la science.</p>
<p>À l’heure où les tensions internationales s’exacerbent rapidement, où les régimes autoritaires se renforcent, où les organisations supranationales s’effritent, où l’Europe est incapable de définir sa politique, où la coopération internationale peine, il est de notre devoir, plus que jamais, de soutenir ces valeurs en politique. Pour notre survie à tous.</p><img src="https://counter.theconversation.com/content/138272/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Cédric Villani est membre du think tank EuropaNova, ex-LREM, député (député du groupe LREM).</span></em></p>
Comment concilier controverse scientifique et décision politique ? Le regard d’un mathématicien-député.
Cédric Villani, Mathématicien, Professeur de l'universite Claude Bernard , Université de Lyon
Licensed as Creative Commons – attribution, no derivatives.