tag:theconversation.com,2011:/us/topics/statistiques-20962/articlesstatistiques – The Conversation2024-02-07T15:42:30Ztag:theconversation.com,2011:article/2191512024-02-07T15:42:30Z2024-02-07T15:42:30ZUne croissance moins polluante ? Encore faut-il savoir ce que l'on entend par croissance…<p>À mesure que le changement climatique se fait une place dans le débat politique et économique, les discussions se polarisent de plus en plus autour de la possibilité ou non d’un « découplage ». Derrière ce terme, une question simple : la réduction des impacts environnementaux peut-elle avoir lieu en même temps que l’on continue à faire croître les systèmes économiques ? Un récent <a href="https://www.sciencedirect.com/science/article/pii/S092180092300263X">article de Gregor Semieniuk</a>, économiste à la Banque mondiale en aborde un aspect crucial et sous-discuté : mesurons-nous correctement l’activité économique ?</p>
<p>Le « découplage » est celui de deux courbes, dont on veut savoir si elles peuvent se séparer, voire évoluer, de manière contraire : celle des <a href="https://theconversation.com/topics/emissions-de-co2-63765">émissions de gaz à effet de serre</a>, et celle de la croissance économique, c’est-à-dire la variation du <a href="https://theconversation.com/topics/produit-interieur-brut-pib-48857">produit intérieur brut</a> (PIB) réel : peut-on voir croître la courbe du PIB réel dans le temps, tandis que celle des émissions augmente moins vite (« découplage relatif »), voire baisse (« découplage absolu ») ? On considère ici le PIB réel car il rend les différentes années comparables en tenant compte de l’inflation (contrairement au PIB nominal). C’est toujours le PIB réel dont il est question lorsque l’on manipule des séries temporelles.</p>
<p>Le plus souvent dans le débat sur le découplage, la focale est portée sur la question des émissions de gaz à effet de serre (EGES) ou de l’énergie et donc sur le seul problème climatique. Or, il ne s’agit que d’une seule des <a href="https://www.stockholmresilience.org/research/planetary-boundaries.html">neuf limites planétaires</a> identifiées aujourd’hui par la communauté scientifique. Il y a théoriquement autant de débats sur le « découplage » que d’indicateurs environnementaux dont on regarde l’évolution dans le temps : consommation d’énergie, extraction de matière première, empreinte environnementale générale, etc.</p>
<p>Chacun de ces indicateurs environnementaux, il faut le souligner, fait l’objet de questionnements sur la pertinence de la mesure, sur sa fiabilité, sur sa construction. Les scientifiques cherchent à savoir si l’on mesure bien ce que l’on espère mesurer et si les phénomènes sont bien captés par la statistique. Entend-on, par exemple, par émissions d’un pays celles liées à ce qui est produit sur son territoire ou bien à ce qui est consommé par ses habitants, ce qui inclut les émissions liées aux biens importés ?</p>
<p>Le PIB, lui, est à l’inverse toujours pris comme allant de soi. L’usage de cet indicateur reste <a href="https://books.openedition.org/pressesmines/928">rarement interrogé</a>. Or, à quel point les séries de PIB donnent-elles une représentation « juste » de nos économies ? Le fait est que lorsque l’on prend en compte l’incertitude statistique liée à la « bonne » mesure de l’activité économique, la marge d’erreur sur l’identification d’un « découplage » augmente. Et avec elle, l’incertitude ou la prise de risque, liée aux stratégies de « croissance verte », par opposition aux <a href="https://www.dila.premier-ministre.gouv.fr/actualites/presse/communiques/faut-il-attendre-la-croissance-1500">paradigmes de sobriété, de post-croissance ou de décroissance</a>. L’article récemment publié par Gregor Semieniuk aborde justement la question de cette manière : mesure-t-on correctement l’activité économique ou, dit autrement, le PIB est-il un indicateur fiable pour cela ?</p>
<h2>Des conventions et des erreurs qui se cumulent</h2>
<p>On peut identifier différentes étapes critiques dans le calcul du PIB, qui pourraient mener à une incertitude quant à sa valeur dans le cadre du débat sur le découplage. Premièrement se pose la question du périmètre. Au fil du temps, les conventions comptables ont <a href="https://www.editionsladecouverte.fr/les_nouveaux_indicateurs_de_richesse-9782707190635">élargi les domaines d’activités dans le calcul</a>, pour des raisons souvent techniques mais aussi sociopolitiques. Par exemple, les activités financières n’ont été ajoutées qu’en 1968 aux recommandations de calcul de comptabilité nationale. Avant cela, elles ne « comptaient » pas dans l’indicateur, car considérées comme improductives. De même en 1977, ce sont les services rendus par les administrations publiques qui ont été incluses au périmètre du PIB, témoignant de changements importants, en particulier dans l’idée que les activités publiques produisent des richesses.</p>
<p><iframe id="dLvle" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/dLvle/1/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<p>Deuxièmement, certaines productions n’ont pas de prix de marché, et leur valeur est, par convention, associée à leur coût de production. C’est le cas précisément de ces services non marchands fournis par les administrations publiques. Une production assurée par un service public vaut ainsi en général moins que la même production assurée par une entreprise privée, le coût de production étant inférieur au prix de marché, qui intègre, quant à lui, le profit.</p>
<figure class="align-left zoomable">
<a href="https://images.theconversation.com/files/563372/original/file-20231204-21-ms2mxo.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/563372/original/file-20231204-21-ms2mxo.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/563372/original/file-20231204-21-ms2mxo.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=956&fit=crop&dpr=1 600w, https://images.theconversation.com/files/563372/original/file-20231204-21-ms2mxo.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=956&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/563372/original/file-20231204-21-ms2mxo.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=956&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/563372/original/file-20231204-21-ms2mxo.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1201&fit=crop&dpr=1 754w, https://images.theconversation.com/files/563372/original/file-20231204-21-ms2mxo.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1201&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/563372/original/file-20231204-21-ms2mxo.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1201&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p>Troisièmement, et c’est une étape absolument décisive, on calcule le PIB « réel », aussi appelé « en volume », en le corrigeant de l’évolution des prix pour permettre une analyse dans le temps. En France, l’Insee reste relativement <a href="https://laviedesidees.fr/Derriere-les-chiffres-de-l-inflation">discret sur ses méthodes de calcul de l’inflation</a>. Les biens et services composant le panier sur lequel l’indicateur des prix est construit sont, par exemple, toujours secrets. Cela est notamment l’héritage d’enjeux et de pressions politiques très fortes sur sa valeur : le lecteur ou la lectrice imagineront sans peine l’intérêt que pourrait avoir un gouvernement à mesurer une inflation faible quand les prestations sociales, les pensions ou autres salaires minimums y sont indexés.</p>
<p>La philosophie elle-même du calcul de l’inflation a drastiquement évolué dans le temps, passant d’un indicateur représentatif d’une famille ouvrière « type » de la région parisienne, à un indicateur qui ambitionne de représenter le coût de la vie pour un consommateur « moyen » théorique. Ces conventions ont chacune leur légitimité, mais il faut avoir conscience que l’inflation dans sa définition actuelle mesure une sorte de coût de la vie qui n’est ressenti par personne <em>stricto sensu</em>.</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/wkiW49D1g4o?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<p>Outre la composition du panier de biens et services, le calcul de l’inflation fait aussi l’objet de conventions quant à la manière de tenir compte de variations dans la composition du panier de biens et services, en particulier les variations de qualité. Les débats sont toujours actifs autour de sa « bonne » mesure, et certaines estimations varient, au niveau international, du simple au double, souvent à la baisse.</p>
<p>Imaginons bien ce que cela représente : si l’inflation est plus forte ou plus basse de X points de pourcentage, alors le PIB déflaté, celui que l’on manipule tous les jours et pour toutes les comparaisons historiques, accuse une erreur dans les mêmes proportions chaque année, et donc de manière cumulative ! Sans même mentionner le <a href="https://www.researchgate.net/publication/332798819_Real_GDP_The_Flawed_Metric_at_the_Heart_of_Macroeconomics">problème des prix relatifs</a> qui changent dans le temps et qui modifient sensiblement les valeurs des séries historiques selon le point de référence.</p>
<h2>Découplage ou recouplage ? Cela dépend en partie de la définition</h2>
<p>Dans cette discussion sur la confiance que l’on peut accorder au PIB dans le débat sur le découplage, les <a href="https://www.sciencedirect.com/science/article/pii/S092180092300263X">travaux</a> de Gregor Semieniuk sont les premiers, à notre connaissance, à regarder l’impact des différentes définitions du PIB, élaborées au fil du temps, sur les résultats de découplage. L’auteur retrace ainsi les différentes séries de PIB proposées au fil du temps et les « révisions structurelles » adoptées, et qui concernent la méthode de calcul, son périmètre ou l’année de référence pour l’inflation.</p>
<p>La tendance est claire : plus les définitions sont récentes, plus le PIB actuel est élevé, et plus la croissance passée est forte (le graphique présenté plus haut dans l’article, tiré de l’étude de Semieniuk, en donne une illustration pour les définitions de 1978 et de 2018). Cela pose cependant la question redoutable de la « bonne » définition pour se représenter notre histoire économique : celle de 1950 ou celle de 2020 ? Celle de 1950 était assurément jugée plus pertinente à l’époque pour décrire l’économie. Chaque version est heuristique au moment où elle a été élaborée.</p>
<p><iframe id="fnrW4" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/fnrW4/1/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<p>Or, les résultats de « découplage » ou de « recouplage » varient grandement selon les séries de PIB utilisées. Avec les définitions récentes, la croissance historique est plus forte qu’avec une définition plus « industrielle » du PIB, et il est donc plus aisé pour la courbe associée de s’écarter de celle des impacts environnementaux. Ce second graphique, tiré aussi de l’étude de Semieniuk, illustre cela avec l’énergie : dans un cas, les statistiques renvoient l’image d’une économie qui a besoin de 50 % de moins d’énergie pour produire une unité de richesse. Dans l’autre, le progrès n’a été que de 30 %. Le seul changement est la définition de l’indicateur de mesure de l’économie – le PIB.</p>
<p>On peut ainsi comparer les différents résultats de « découplage » selon les définitions du PIB dans le temps. En changeant simplement la mesure de l’activité économique, que l’on prend d’habitude pour évidente, Semieniuk transforme pour certains pays des découplages en recouplages, et vice-versa (!). Plus la définition est ancienne, plus les pays passant à la situation de découplage sont nombreux, mais en moyenne ce sont 10 à 30 pays qui passent d’une situation à son opposé en termes de découplage lorsque l’on change la définition du PIB, alors qu’on peut considérer qu’il s’agit là d’un artefact statistique.</p>
<h2>Comparer dans le temps et dans l’espace</h2>
<p>Un degré supplémentaire de confusion s’ajoute lorsque l’on souhaite comparer différents pays. Idéalement, les séries de PIB doivent être comparables d’un pays à l’autre et ne pas dépendre des différences induites par les monnaies nationales. L’idée est qu’un même PIB par habitant représente un même niveau de vie, c’est-à-dire l’accès à un même ensemble de biens et services « types ». Pour cela, on recourt aux données en « parité de pouvoir d’achat » (PPA), dont la méthodologie est encore plus délicate que celle de la mesure de l’inflation : comment comparer rigoureusement les « pouvoirs d’achat » dans tous les pays du monde, alors que les cultures de consommation sont peu comparables ?</p>
<p>À nouveau, on retrouvera différentes mesures dont les conventions ont évolué au fil du temps. Et lorsque l’on analyse les données pour un même pays, les taux de croissance et la valeur du PIB en PPA dans leurs différentes versions produisent des résultats parfois sensiblement éloignés. A priori, le principe de la PPA est plus juste pour les comparaisons internationales qu’une simple conversion des monnaies nationales en dollar car les taux de change varient selon les années et pour des raisons parfois simplement spéculatives. Cependant, il demande un certain numéro d’équilibrisme méthodologique.</p>
<p>Cela nous amène à une autre conséquence, notamment pour les pays où les statistiques sont fragiles : si les taux de croissance des pays du Sud sont sur ou sous-estimés, cela implique des changements majeurs dans la crédibilité des réductions d’émissions qu’on leur demande dans les scénarii de lutte contre le changement climatique. Un PIB surévalué porte un regard très optimiste sur les tendances passées de performance environnementale comparée à la performance économique, et les tendances vont être prolongées dans les modèles de transition, utilisés notamment par le GIEC.</p>
<p>Rappelons, pour finir, que l’étude de Gregor Semieniuk ne regarde qu’un seul des différents aspects de la définition du PIB (celui des prix relatifs). Mettre sur la table la question de la crédibilité du calcul du PIB et, surtout, celle de sa nécessaire et si délaissée interprétation, ouvre la porte à davantage de remises en question de la manière dont on se représente le chemin parcouru par nos économies, et celui qui nous reste à parcourir vers l’atténuation du changement climatique. Sa signification, si souvent présentée comme évidente, est en réalité un délicat problème. Plus généralement encore se pose la question de ce que la croissance du PIB peut réellement dire sur la santé et l’évolution de l’activité économique. Dans quelle mesure nous racontons-nous des histoires ?</p><img src="https://counter.theconversation.com/content/219151/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Que les émissions de CO₂ ne suivent plus l’évolution du PIB, pourquoi pas ? Les conclusions en la matière varient néanmoins du tout au tout selon la façon dont on appréhende cet indicateur économique.Albert Bouffange, Doctorant en économie, Sciences Po LyonBaptiste Andrieu, Doctorant en sciences de la terre et de l'environnement, Université Grenoble Alpes (UGA)Florence Jany-Catrice, Professeur d'économie à l'Université de Lille, co-titulaire de la chaire Reconversion écologique, travail, emploi et politiques sociales du Collège d'études mondiales, FMSH., Fondation Maison des Sciences de l'Homme (FMSH)Pierre-Yves Longaretti, Chercheur CNRS dans l'équipe "Soutenabilité, Territoires, Environnement, Économie et Politique", InriaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2213752024-01-21T14:39:35Z2024-01-21T14:39:35Z« La génération Z ceci, la génération Z cela… » : mais au fait, qu’est-ce qu’une génération ?<p><a href="https://theconversation.com/topics/generation-z-46146">« Génération Z »</a> compte sans doute parmi les mots les plus utilisés dans le monde du travail ces derniers temps. Les difficultés de recrutement ont mis les entreprises au défi d’attirer et de fidéliser les jeunes « talents » et de nombreuses analyses ont tenté de cerner les attentes de cette nouvelle génération. Celle-ci serait hyperconnectée aux réseaux sociaux, militante du genre et du climat, avide de sens… mais aussi individualiste, désengagée et matérialiste.</p>
<p>Pourtant, comme toutes les classes d’âge, celle-ci qui a récemment fait son entrée sur le marché du travail est profondément hétérogène. Difficile d’en faire un portrait uniforme, ce que le sociologue Pierre Bourdieu soulignait déjà en 1978 avec sa formule <a href="https://www.radiofrance.fr/franceculture/podcasts/le-pourquoi-du-comment-economie-et-social/pourquoi-la-jeunesse-n-est-elle-qu-un-mot-1625396">« La jeunesse n’est qu’un mot »</a>. Et si, pour mieux comprendre ces jeunes, on commençait d’abord par interroger le concept de « génération » ?</p>
<h2>Un seul et même groupe ?</h2>
<p>On définit la génération Z comme un groupe d’individus nés entre la fin des années 1990 et le début des années 2010. Les dates peuvent varier d’une classification à l’autre : la plupart des définitions de la génération Z la font débuter en 1997, mais d’autres mentionnent également 1996 ou encore 1995. Et il en va de même pour les autres générations, comme celle des Y qui peut débuter à partir de 1980 ou 1984 ou encore la génération X qui désigne des individus nés entre 1965 et 1976, mais parfois bornée par 1961-1981 ou encore 1962-1971.</p>
<p>Même si ces variations sont légères, elles révèlent la fragilité de ces concepts dont les professionnels du marketing et les médias usent et abusent. L’auteure de cet article, par exemple, née en 1980, ne sait toujours pas si elle appartient aux X ou aux Y. Pourtant, selon que l’on prenne l’une ou l’autre hypothèse, les caractéristiques qui lui seront attribuées seront assez différentes, notamment pour ce qui concerne son rapport au travail… Pour essayer d’y voir plus clair, revenons donc à la racine du concept : la notion de génération.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1584217232145457152"}"></div></p>
<p>D’un point de vue démographique, une génération désigne un ensemble de personnes nées sur une même période, qui s’étale sur une vingtaine d’années environ et qui renvoie à l’origine <a href="https://www.universalis.fr/encyclopedie/generation/">« au nombre d’années séparant l’âge du père de celui du fils »</a>. Cette vision simpliste sera récusée en particulier par le sociologue Karl Mannheim, dans un <a href="https://www.1000dokumente.de/pdf/dok_0100_gen_de.pdf">article</a> fondateur de 1928 : les individus ne sont pas membres d’une même génération juste parce qu’ils partagent une date d’anniversaire, ils doivent également partager « une identité de réponses, une certaine affinité dans la manière dont ils évoluent, vivent et sont façonnés et formés par leurs expériences communes ».</p>
<p>Mannheim propose ainsi de définir une génération comme une classe d’âge partageant un destin commun et manifestant une cohésion sociale, c’est-à-dire la conscience d’appartenir à un même groupe. Il nous invite donc à considérer trois variables en parallèle : la dimension biologique de l’âge mais aussi les dimensions historique et sociale.</p>
<h2>Effet d’âge, effet de génération, effet d’époque ?</h2>
<p>En statistique, l’effet de génération, le fait d’être né à telle ou telle date ou d’avoir connu tel ou tel événement, doit être distingué de l’effet d’âge. Les recherches qui s’intéressent à l’évolution des valeurs des personnes du même âge à différentes périodes (par exemple, les attentes professionnelles des jeunes de 20 ans nés en 1960, 1980 ou 2000) n’identifient <a href="https://www.lemonde.fr/idees/article/2023/05/12/les-certitudes-liberales-et-technocratiques-ont-enfante-bien-des-troubles-actuels-dans-le-monde-du-travail_6173077_3232.html">pas de ruptures culturelles opposant des générations</a>.</p>
<p>On retrouve ainsi dans les discours actuels sur la génération Z, la <a href="https://www.sciencespo.fr/liepp/fr/content/camille-peugny-les-jeunes-sont-ils-des-travailleuses-et-travailleurs-comme-les-autres.html">même litanie</a> qu’il y a 20 ans sur la génération Y : « quête de sens, soif d’accomplissement personnel, souhait de ne pas “perdre sa vie à la gagner” ». Des valeurs qui se manifestaient déjà chez la « génération 68 », cherchant à briser les carcans sclérosants et les relations traditionnelles en entreprise pour faire du travail un vecteur d’épanouissement personnel et collectif. Plus que des « effets de génération », il pourrait donc y avoir un « effet d’âge » commun à toutes les générations : à 20 ans, on est plus susceptible de vouloir changer le monde. Et nous sommes (ou presque) tous passés par là.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1728822459422367903"}"></div></p>
<p>Outre l’âge, une génération doit aussi être replacée dans un contexte sociohistorique qui lui confère un destin commun et la dote d’une réelle consistance, d’une « identité générationnelle ». On parle ainsi de la génération qui a connu la guerre, de la « génération 68 » et aujourd’hui parfois de « génération Covid ». Les jeunes ont en effet particulièrement mal vécu les confinements et l’isolement social, ainsi que la restriction des distractions qui en a découlé, à un âge où le désir de contacts sociaux et d’activités en groupe est souvent le plus développé. Plus que les autres classes d’âge, ils ont témoigné de <a href="https://www.etmaintenant-lequestionnaire.fr/et_maintenant_rapport_sociologique.pdf">troubles psychosociaux</a> qui perdurent encore aujourd’hui, comme le constatent les <a href="https://www.santepubliquefrance.fr/maladies-et-traumatismes/sante-mentale/depression-et-anxiete/documents/article/l-impact-de-la-pandemie-Covid-19-sur-la-sante-mentale-des-francais">psychiatres</a>. S’y ajoutent les mutations climatiques à l’origine d’une <a href="https://unric.org/fr/eco-anxiete-quand-les-changements-climatiques-impactent-la-sante-mentale/">écoanxiété</a> qui touche particulièrement les jeunes.</p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>Toutefois, ici encore, l’hypothèse d’une spécificité générationnelle semble fragile. En effet, l’angoisse suscitée par les crises sanitaire et écologique n’est pas propre aux Z. D’autres franges de la population sont aussi impactées par ces deux crises, bien au-delà des jeunes : <a href="https://www.cairn.info/avoir-20-ans-en-2020%E2%80%939782738153753.htm">femmes, précaires et chômeurs pour la première</a> ; personnes particulièrement sensibilisées aux enjeux climatiques (<a href="https://unric.org/fr/eco-anxiete-quand-les-changements-climatiques-impactent-la-sante-mentale/">scientifiques, agriculteurs par exemple</a>) ou soumises à des conditions de travail dangereuses ou travaillant dans des <a href="https://www.cairn.info/avoir-20-ans-en-2020%E2%80%939782738153753.htm">secteurs polluants</a> pour la seconde. Les évolutions dans la sensibilité et les valeurs sont souvent poreuses entre les classes d’âge d’une même époque, notamment via les transmissions familiales. Ces constats témoignent de la pertinence d’une grille de lecture en termes d’effets d’époque plutôt que de génération.</p>
<h2>Des travailleurs comme les autres</h2>
<p>Si ni l’âge ni l’époque ne permettent de faire émerger la spécificité de la génération Z, la dernière variable, à savoir la dimension sociale, nous permettra-t-elle enfin d’y parvenir ? Il semble que la réponse soit à nouveau négative et frappe encore une fois par son évidence. À toutes les époques, la jeunesse n’a <a href="https://www.cairn.info/avoir-20-ans-en-2020%E2%80%939782738153753.htm">jamais été une catégorie homogène</a>, particulièrement dans son rapport au travail. </p>
<p>Une multitude de facteurs sont en effet susceptibles de l’influencer : le niveau de diplôme, le secteur d’activité, les conditions socio-économiques, ainsi que le lieu de résidence (ville/zone rurale/zone périurbaine), le contexte organisationnel spécifique à l’entreprise dans laquelle la personne officie, mais également des facteurs plus subjectifs (traits de personnalité et expériences antérieures de travail plus ou moins positives). Une diversité de situations qui explique certainement l’ambivalence des caractéristiques attribuées aux « nouvelles générations », celles d’hier comme d’aujourd’hui.</p>
<figure class="align-left zoomable">
<a href="https://images.theconversation.com/files/569906/original/file-20240117-29-xa6s9u.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/569906/original/file-20240117-29-xa6s9u.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/569906/original/file-20240117-29-xa6s9u.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=840&fit=crop&dpr=1 600w, https://images.theconversation.com/files/569906/original/file-20240117-29-xa6s9u.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=840&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/569906/original/file-20240117-29-xa6s9u.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=840&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/569906/original/file-20240117-29-xa6s9u.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1056&fit=crop&dpr=1 754w, https://images.theconversation.com/files/569906/original/file-20240117-29-xa6s9u.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1056&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/569906/original/file-20240117-29-xa6s9u.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1056&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p>De multiples portraits se cachent ainsi derrière la catégorie englobante des « jeunes », avec autant d’aspirations différentes au travail et de difficultés particulières : du <a href="https://www.cairn.info/revue-agrh1-2023-1-page-13.htm">jeune peu qualifié</a>, avant tout à la recherche d’un emploi lui permettant de subvenir à ses besoins matériels jusqu’aux élites de Harvard ou Polytechnique en <a href="https://www.la-fabrique.fr/fr/publication/les-jeunes-elites-face-au-travail-regards-croises-entre-polytechnique-et-harvard/">« quête d’excellence »</a> en passant par les diplômés du supérieur issus de familles de cadres détenant un fort capital culturel et à la recherche d’un <a href="https://www.institutmontaigne.org/ressources/pdfs/publications/une-jeunesse-plurielle-enquete-aupres-des-18-24-ans-rapport.pdf">« métier passion »</a>.</p>
<p>Sans vouloir complètement gommer quelques traits qui pourraient être plus marqués chez les jeunes d’aujourd’hui que dans les autres classes d’âge, la thèse selon laquelle la génération la plus récente formerait une cohorte homogène animée par des aspirations distinctes des autres classes d’âge dans son rapport au travail n’est soutenue par aucune preuve. Elle persiste pourtant, du fait des interprétations approximatives qui entourent le concept de génération, mais peut-être aussi de stéréotypes tenaces sur « les jeunes ». </p>
<p>Ces constats invitent avant tout à voir dans <a href="https://www.chairefit2.org/wp-content/uploads/2023/11/livre-les-jeunes-travailleurs-comme-les-autres-chaire-fit2-web_planches-1.pdf">« Les jeunes, des travailleurs comme les autres »</a>, titre d’un ouvrage que nous avons récemment publié, et à ne pas tomber dans le piège d’approches générationnelles qui empêchent de développer une réflexion approfondie sur l’expérience collaborateur au profit d’étiquettes simplistes. La <a href="http://www.chairefit2.org/">Chaire Futurs de l’industrie et du travail</a> de l’école des Mines invite ainsi à creuser d’autres pistes, cherchant à réponde aux attentes de l’ensemble des salariés.</p><img src="https://counter.theconversation.com/content/221375/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Suzy Canivenc est chercheure à la chaire Futurs de l'Industrie et du travail de Mines Paris-PSL, membre de l'Observatoire de l'Infobésité et de la Collaboration Numérique et enseignante à l'Université Catholique de l'Ouest</span></em></p>À revenir aux racines du concept de génération, peut-être se rendra-t-on compte que la génération Z n’a peut-être ni la cohérence ni les spécificités qu’on lui prête souvent bien volontiers.Suzy Canivenc, Chercheure associée à la Chaire Futurs de l'Industrie et du Travail, Mines Paris - PSLLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2119262023-08-22T20:50:33Z2023-08-22T20:50:33ZHausse des températures : les sueurs froides du décompte de la mortalité<figure><img src="https://images.theconversation.com/files/543715/original/file-20230821-15-cud3ag.jpg?ixlib=rb-1.1.0&rect=34%2C1%2C1164%2C741&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Selon une étude, la chaleur pourrait causer plus de 17 millions de décès additionnels dans le monde d'ici 2100.
</span> <span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Europe_2006_Heatwave.png">Wikimedia commons</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Cette année, déjà marquée par le <a href="https://www.ouest-france.fr/environnement/rechauffement-climatique/video-juillet-2023-est-le-mois-le-plus-chaud-jamais-enregistre-sur-terre-8def79f7-1c0e-419f-9c58-6bf2f46e13e2">mois de juillet le plus chaud jamais enregistré sur Terre</a>, les décès liés à la chaleur dépasseront encore de loin la centaine de milliers dans le monde. En 2022 en Europe seule, la saison estivale, avait déjà causé <a href="https://www.bfmtv.com/meteo/canicule/les-fortes-chaleurs-ont-cause-la-mort-de-plus-de-60-000-personnes-en-europe-l-ete-dernier_AD-202307100575.html">près de 60 000 victimes sur le continent</a> dont 5 000 en France.</p>
<p>Tentons pourtant de gommer nos émotions et de voir les choses de très loin, du balcon de Sirius aurait dit Voltaire. Avec hauteur mais sans donner de leçon. Et puis, cela tombe bien : Sirius portait le nom de <em>Canicula</em> chez les Romains en référence à la petite chienne du dieu chasseur Orion dont l’astre est voisin.</p>
<p>Reconnaissons alors que l’élévation de température due aux émissions de gaz à effet de serre réduit aussi la mortalité liée au froid ; qu’il convient de compter les morts par tonne de CO<sub>2</sub>, en plus ou en moins – mais aussi d’inclure les décès dans le coût social du carbone ; et enfin, bonne nouvelle, que nos efforts d’atténuation et d’adaptation permettront de sauver des vies humaines par millions.</p>
<h2>Des morts liés à la chaleur mais aussi au froid</h2>
<p>La <a href="https://theconversation.com/fr/topics/surmortalite-101352">surmortalité</a> du réchauffement est manifeste depuis plusieurs décennies. Un <a href="https://www.nature.com/articles/s41558-021-01058-x">demi-pourcent de la mortalité totale mondiale</a> est en effet attribuable à l’effet du changement climatique sur les hautes températures. Un tiers en somme de tous les décès de chaleur.</p>
<p>Mais attention la relation entre élévation de la température et <a href="https://theconversation.com/fr/topics/mortalite-54989">mortalité</a> n’est pas à sens unique. Le réchauffement diminue aussi les journées et les pics de grand froid, et donc la mortalité qui leur est associée. Celle-ci ne se réfère pas spécifiquement au fait que des personnes meurent de froid par hypothermie. De même que la mortalité liée à la chaleur ne se résume pas aux décès par hyperthermie. Les températures plus basses ou plus hautes fragilisent les constitutions et accentuent les troubles pathologiques et, finalement, réduisent l’espérance de vie.</p>
<p>Le réchauffement entraîne donc plus de morts d’un côté mais moins aussi d’un autre. Ce second phénomène qui complique le décompte de la mortalité des nouvelles températures peut être très significatif. Au Mexique, par exemple, il a été calculé qu’une journée à plus de 32 °C se solde par un demi-millier de morts mais <a href="https://www.aeaweb.org/articles?id=10.1257/pol.20180594">qu’une journée à moins de 12 °C par dix fois plus</a>. Très peu d’habitations y disposent en effet de chauffage.</p>
<p>Il convient donc de tenir compte aussi de cette sous-mortalité. Mais dans quelle mesure compense-t-elle la surmortalité de chaleur ? <a href="https://www.thelancet.com/journals/lanplh/article/PIIS2542-5196(21)00081-4">En totalité pour les trente dernières années</a>, selon une étude publiée dans <em>The Lancet</em> en 2021. Un résultat à prendre toutefois avec des pincettes à cause de la méthode suivie qui se fonde sur une température dite optimale, celle correspondant au minimum de décès observés.</p>
<p>Pour le futur, il n’y a en revanche pas de doute sérieux sur le caractère seulement partiel de la compensation.</p>
<p>Une illustration en est donnée par la figure ci-dessous extraite d’un <a href="https://www.nature.com/articles/s41598-021-99156-5">article</a> publié en 2021 dans la revue <em>Scientific Reports</em>.</p>
<p>Citons également une <a href="https://academic.oup.com/qje/article/137/4/2037/6571943">étude</a> qui permet de chiffrer à 17,6 millions les décès additionnels en 2100 liés à l’élévation des températures – en prenant bien en compte la sous-mortalité liée au froid. Ce chiffre repose sur l’hypothèse d’une planète comptant 8 milliards de Terriens et sur l’estimation d’une augmentation nette de la mortalité qui s’élèverait à 220 décès pour 100 000 habitants, soit le ratio d’aujourd’hui pour les décès d’accidents cardiovasculaires. C’est considérable.</p>
<p>La sous-mortalité du froid doit être prise en compte sans fard et sans états d’âme car elle jette une lumière crue sur les inégalités face au réchauffement. Elle accentue les écarts de mortalité au sein d’un même État ou union d’États : entre la population des régions froides et des régions chaudes du Mexique, de l’Inde, des États-Unis ou de l’Europe, par exemple. Elle renforce les inégalités entre régions du monde : les États-Unis et l’Europe devraient connaître à l’horizon 2100 une surmortalité liée à l’élévation des températures légèrement positive et même négative.</p>
<p>La moyenne citée plus haut de 220 décès pour 100 000 habitants masque en effet une très grande hétérogénéité avec un ratio de +14,8/100 000 et de – 14,3/100 000 pour respectivement les États-Unis et l’Europe, tandis qu’il atteint +334/100 000 pour l’Union indienne.</p>
<p><iframe id="NC3fY" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/NC3fY/2/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<p>Selon une <a href="https://pubmed.ncbi.nlm.nih.gov/35073249/">étude de synthèse</a> publiée en 2022 sous l’égide de <em>l’American Thoracic Society</em>, la mortalité liée au froid représente la moitié de la mortalité liée à la chaleur en Europe mais seulement le quart pour la région du Moyen-Orient et du nord de l’Afrique.</p>
<p>Les inégalités plus tranchées dès lors que l’on tient compte de la sous-mortalité liée au froid risquent de renforcer les égoïsmes et rendre plus difficiles encore les discussions politiques nationales et internationales sur les efforts d’atténuation. Mais rien ne sert de faire l’autruche. Ni l’expression ni l’animal n’existent sur Sirius.</p>
<h2>Une jauge à utiliser vous-même</h2>
<p>Le développement des travaux sur la mortalité des températures procure une nouvelle vision et apporte de nouveaux résultats sur le coût des émissions de carbone. Ils permettent de calculer les effets du réchauffement en décès additionnels par tonne d’émission nouvelle et d’intégrer la mortalité dans la détermination du coût social du carbone.</p>
<p>Explications de ce baragouin d’un Sirien :</p>
<p>Il faut compter 0,000226 décès associé à l’émission d’une tonne supplémentaire de dioxyde de carbone. Dit autrement et plus précisément, réduire les émissions de ce gaz d’un million de tonnes épargnerait 226 vies humaines entre 2020 et 2100.</p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>Faisons plus parlant encore : les émissions de quatre Américains au cours de leur vie correspondent à un décès en plus sur la planète. Ce <a href="https://www.nature.com/articles/s41467-021-24487-w">chiffre choc</a> ainsi que les précédents sont issus d’un article du chercheur Daniel Bressler récemment paru dans <em>Nature Communications</em>. Ils reposent sur l’hypothèse d’une augmentation des températures de +4,1 °C en 2100 par rapport à l’ère préindustrielle et d’une estimation d’une surmortalité de chaleur cumulée au cours de cette période de près de 100 millions de personnes.</p>
<p>Cette métrique de la mortalité additionnelle par tonne de carbone en plus ou en moins offre une façon simple d’évaluer les effets des projets d’investissement qui émettent de nouvelles émissions ou les réduisent. Vous pouvez vous-même l’utiliser comme jauge lorsque vous hésitez à prendre le train ou l’avion ! De plus, contrairement à la métrique canonique du coût social du carbone, c’est-à-dire du coût monétaire pour la société d’une tonne en plus ou en moins, elle évite deux contraintes : celle de choisir un taux d’actualisation et celle de donner une valeur en dollar ou en euro à une vie humaine.</p>
<h2>Combien vaut une vie ?</h2>
<p>Vous vous souvenez peut-être d’une controverse entre un économiste américain, William Nordhaus, et un économiste anglais Nicolas Stern, le second aboutissant à un coût social du carbone incomparablement supérieur au premier. Leur divergence s’explique principalement par une position radicalement différente sur le taux d’actualisation à retenir, un paramètre nécessaire pour comparer des dollars ou des euros d’aujourd’hui avec des dollars ou des euros de demain. Un choix acrobatique et périlleux quand demain veut dire en 2100.</p>
<p>L’affectation d’une valeur monétaire à une vie humaine en moins ou en plus est un choix plus délicat et polémique encore. En témoignent les innombrables travaux économiques depuis plus d’un demi-siècle sur la valeur statistique d’une vie ainsi que la farouche opposition que cette démarche rencontre auprès de Terriens qui ne parlent pas le Sirien. La prise en compte d’une vie en moins ou d’une année de vie en moins est un premier choix à trancher que j’ai discuté ailleurs.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/les-politiques-publiques-doivent-elles-sauver-des-vies-ou-des-annees-de-vie-en-plus-206423">Les politiques publiques doivent-elles sauver des vies ou des années de vie en plus ?</a>
</strong>
</em>
</p>
<hr>
<p>Il est décisif car les décès de mortalité liés aux températures <a href="https://www.thelancet.com/journals/lanplh/article/PIIS2542-5196%2823%2900023-2/fulltext">concernent principalement des personnes âgées</a>. Un second choix crucial est d’opter pour une valeur universelle ou pour une valeur dépendante du revenu. En termes crus, le décès d’un Indien vaut-il moins que celui d’un Américain ? Discuter de ce choix nous entraînerait trop loin ici.</p>
<p>Surtout qu’il ne remet pas en cause le résultat que je veux souligner : la prise en compte de la mortalité des températures modifie considérablement la donne sur les effets économiques du réchauffement, la perte des vies humaines devenant le <a href="https://media.rff.org/documents/20220901_SCC_Event.pdf">premier poste des dommages du réchauffement</a>.</p>
<p>Prenons l’exemple du modèle climat-économie de William Nordhaus de 2016. La mortalité y représente seulement quelques pourcents des dommages. Les décès pris en compte se limitent en effet essentiellement à ceux occasionnés par le travail en extérieur des ouvriers agricoles et du bâtiment. Le coût social de la tonne de carbone s’élève à 38 euros.</p>
<p>En moulinant le même modèle mais en y ajoutant l’ensemble des décès liés à la chaleur, Daniel Bressler aboutit à un coût social du carbone égal à 258 dollars la tonne. Ce chiffre repose sur une valeur universelle d’une année de vie égale à quatre fois la moyenne globale de la consommation par habitant de la planète en 2020, soit 48 000 dollars. Bien entendu, le coût de mortalité du carbone est très sensible à cette valeur. Deux fois plus petite, le coût social de carbone devient 177 dollars/t, tandis qu’une valeur double conduit à 414 dollars/t.</p>
<p>Ce résultat a été confirmé par d’autres travaux. Un modèle récent intégrant un module complet sur les dommages de mortalité parvient à un coût social du carbone à 185 dollars/t dont 90 pour le <a href="https://www.nature.com/articles/s41586-022-05224-9">seul poste de la mortalité</a>.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/pourquoi-les-temperatures-pourraient-battre-des-records-au-cours-des-prochains-mois-210935">Pourquoi les températures pourraient battre des records au cours des prochains mois</a>
</strong>
</em>
</p>
<hr>
<p>Un autre article s’intéressant uniquement à ce poste l’estime <a href="https://academic.oup.com/qje/article/137/4/2037/6571943">à 144 dollars/t</a> sur la base d’hypothèses de valeur d’une vie et de taux d’actualisation comparables à ceux du travail de Daniel Bressler. Ses auteurs se livrent par ailleurs à de multiples analyses de sensibilité du coût social de mortalité du carbone à ces deux variables. Il faut par exemple diviser les 144 euros/t à peu près par 3 en passant d’un taux d’actualisation de 2 % à 3 % ou bien en passant d’une valeur d’une vie universelle à une valeur d’une vie variable selon le revenu per capita des pays. Le passage en années de vie correspond de son côté à une division par deux.</p>
<p>Le futur coût social du carbone en discussion aujourd’hui aux États-Unis devrait tenir compte pleinement des pertes de vies humaines. C’est une décision importante car cette donnée est utilisée pour évaluer les décisions d’investissement public. Il est proposé par <a href="https://www.npr.org/2023/02/16/1157550402/the-social-cost-of-carbon-a-powerful-tool-and-ethics-nightmare">l’Agence pour l’Environnement</a> et <a href="https://www.rff.org/events/rff-live/an-updated-scc/">divers experts</a> qu’il passe des 51 dollars/t d’aujourd’hui à 185 dollars/t. De façon générale, l’intégration de la mortalité dans le coût social du carbone en l’augmentant significativement justifie des actions de réduction de beaucoup plus grande ampleur. Elle les rend bénéfiques aux Terriens.</p>
<h2>La grande inconnue de l’atténuation</h2>
<p>Les chiffres sur la mortalité liée aux températures à l’horizon du siècle prochain qui ont été mentionnés jusque-là reposent sur une vision pessimiste de l’avenir. Ils correspondent au scénario d’une poursuite des émissions de gaz à effet de serre au rythme actuel – le <a href="https://www.drias-climat.fr/accompagnement/sections/175">scénario dit RCP 8.5</a> des travaux du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC).</p>
<p>Leur réduction autorisant une élévation moins forte des températures permettrait de limiter considérablement les dommages de mortalité. Reprenons le ratio des 220 décès pour 100 000 habitants en 2100. Dans le cas d’une stabilisation des émissions à un niveau faible (Scénario dit RCP 4.5) le ratio tombe <a href="https://academic.oup.com/qje/article/137/4/2037/6571943">à 40 décès, soit plus de cinq fois moins</a> ! Si on reprend le coût cité plus haut de mortalité d’une tonne de carbone de 0,000226, l’effet est moins considérable mais reste impressionnant : une élévation de température de 2,4 °C au lieu de 4,1 °C le <a href="https://www.nature.com/articles/s41467-021-24487-w">divise par plus de deux</a>.</p>
<p><iframe id="RgeiT" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/RgeiT/2/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<p>Les efforts d’atténuation que nous réaliserons permettent donc de sauver des vies humaines en très grand nombre. Cette conséquence positive de la transition n’est pas assez mise en avant. Vue de Sirius, elle offre pourtant une motivation et une justification simples aux Terriens à consentir des efforts de décarbonation d’envergure.</p>
<h2>L’impossible équation de l’adaptation</h2>
<p>Quelles que soient les températures futures considérées, les projections de mortalité ne tiennent pas compte d’un autre puissant levier de réduction des décès : les marges d’adaptation des hommes et de la société face à la chaleur. Or, là encore, les effets peuvent être conséquents.</p>
<p>Ils sont toutefois difficiles à quantifier globalement. À ma connaissance, une seule étude s’y est essayée. Elle aboutit à une baisse de l’ordre de 15 % du risque de décès. Ce résultat repose cependant sur un jeu d’hypothèses très restrictives en particulier sur l’absence de politiques publiques d’adaptation. Or elles jouent un rôle clef. Ne serait-ce qu’à travers la mise en place d’alertes aux <a href="https://theconversation.com/fr/topics/canicules-109244">canicules</a> et de diffusion de messages sur les règles de conduite à adopter pour s’en protéger. S’ajoutent de nombreux investissements publics, en particulier en ville pour lutter contre les îlots de chaleur.</p>
<p>L’été 2022 a été la seconde année la plus chaude que la France ait connue – presque autant que celui de 2003. Il totalise pourtant <a href="https://www.santepubliquefrance.fr/presse/2022/bilan-canicule-et-sante-un-ete-marque-par-des-phenomenes-climatiques-multiples-et-un-impact-sanitaire-important">cinq fois moins de décès en excès</a>.</p>
<figure class="align-right ">
<img alt="Affichage municipal de Paris après la canicule européenne de 2003, place Saint-Augustin, à Paris, 27 août 2003" src="https://images.theconversation.com/files/543693/original/file-20230821-21-2r2jvn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/543693/original/file-20230821-21-2r2jvn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=800&fit=crop&dpr=1 600w, https://images.theconversation.com/files/543693/original/file-20230821-21-2r2jvn.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=800&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/543693/original/file-20230821-21-2r2jvn.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=800&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/543693/original/file-20230821-21-2r2jvn.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=1005&fit=crop&dpr=1 754w, https://images.theconversation.com/files/543693/original/file-20230821-21-2r2jvn.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=1005&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/543693/original/file-20230821-21-2r2jvn.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=1005&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Affichage municipal de Paris après la canicule européenne de 2003, place Saint-Augustin, à Paris, 27 août 2003.</span>
<span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Affiche_canicule_Paris_plstaugustin_27082003.JPG">Sebjarod/Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Cet écart donne à penser que la société a réalisé des progrès dans son adaptation aux vagues de chaleur à répétition. Ce constat est confirmé par à un modèle mis au point par des épidémiologistes et des météorologues. Appliqué à la canicule de 2006 en France, il montre qu’elle se serait soldée sans adaptation par <a href="https://pubmed.ncbi.nlm.nih.gov/18194962/">trois fois plus de décès</a>.</p>
<p>Outre l’action publique, les progrès observés s’expliquent également par la diffusion de la climatisation. On en connaît les effets délétères à travers son apport au réchauffement de l’atmosphère par sa consommation d’énergie fossile, ses fuites de gaz frigorigènes et, localement, ses propres rejets d’air chaud. On parle moins de ses effets conséquents sur de la diminution de mortalité.</p>
<p>Une étude américaine a montré que la diffusion de la climatisation aux États-Unis entre 1960 et 2004 a permis <a href="https://www.journals.uchicago.edu/doi/abs/10.1086/684582">d’éviter près d’un million de décès prématurés</a>. A contrario, le moindre usage des climatiseurs au Japon lié à l’augmentation du prix de l’électricité et aux campagnes d’économie d’énergie consécutives à l’accident nucléaire de Fukushima Daïchi a entraîné <a href="https://www.aeaweb.org/articles?id=10.1257/app.20200505">près de 10 000 décès en excès</a>.</p>
<p>Citons enfin comme moyen d’adaptation les migrations vers des régions aux températures moyennes moins élevées. Il est cependant potentiellement limité car les coûts de changer de lieu de résidence sont substantiels pour les personnes qui l’envisagent et les frontières entre États dressent de formidables <a href="https://www.pnas.org/doi/10.1073/pnas.1910114117">contraintes politiques, culturelles et administratives</a>. Les mouvements migratoires liés au réchauffement climatique ont plus de chances de se produire au sein du même pays. Par exemple pour les pays riches des métropoles vers le littoral ou la montagne, ou pour les pays pauvres des zones rurales vers les capitales.</p>
<p>Il n’est plus acceptable d’ignorer tous les Terriens dont la vie sera raccourcie alors que l’on dispose de données de plus en plus complètes et fiables sur la mortalité liée à l’élévation des températures. Compter les personnes manquantes en cas d’inaction face au changement climatique nous met face à nos responsabilités et justifie des investissements ambitieux d’atténuation et d’adaptation.</p>
<p>Avant de retourner sur Sirius, Micromégas a laissé un livre aux habitants de la Terre. Il doit leur permettre de voir « le bout des choses ». Quand les hommes l’ouvrent, ils découvrent des pages blanches. Voltaire rappellera que « L’homme n’est point fait pour connaître la nature intime des choses, qu’il peut seulement <a href="https://gallica.bnf.fr/ark:/12148/btv1b8622062t/f11.image">calculer, mesurer, peser</a> […] ». Ce n’est déjà pas si mal !</p><img src="https://counter.theconversation.com/content/211926/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>François Lévêque ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Une vision précise du nombre de décès supplémentaires liés au réchauffement climatique implique la prise en compte de paramètres pas toujours faciles à établir…François Lévêque, Professeur d’économie, Mines Paris - PSLLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2064232023-05-30T16:11:42Z2023-05-30T16:11:42ZLes politiques publiques doivent-elles sauver des vies ou des années de vie en plus ?<p>Les dépenses publiques pour réduire la mortalité doivent-elles tenir compte de l’âge ? Par exemple, à la suite d’une intense vague de chaleur ou d’une violente épidémie, convient-il d’éviter d’abord le décès d’enfants, d’adultes ou de vieilles personnes ? Dit autrement, pour un budget donné doit-on chercher à sauver le plus grand nombre de vies possibles, sans opérer de distinction d’âge parmi elles, ou sauver le plus grand nombre d’années de vie possibles en privilégiant la population qui bénéficie d’une espérance de vie plus longue car plus jeune ?</p>
<p>La question est vivement débattue chez les économistes. Elle y prend la forme d’un choix de l’emploi de la valeur d’une vie humaine uniforme ou de la valeur d’une année de vie humaine, deux notions qui peuvent être mises en regard des dépenses publiques pour évaluer leur pertinence et les comparer. Nous préconisons de compter selon les années de vie gagnées – donc selon l’âge – lorsque les aléas frappent avant tout les personnes âgées. Comme dans le cas des canicules ou du Covid-19. Rappelons qu’en France <a href="https://www.inserm.fr/wp-content/uploads/2017-11/inserm-rapportthematique-surmortalitecaniculeaout2003-rapportfinal.pdf">86 % des décès de la canicule de 2003</a> et <a href="https://www.insee.fr/fr/statistiques/5432505?sommaire=5435421">83 % des décès de l’épidémie du SARS-CoV-2</a> ont affecté des personnes de 70 ans et plus.</p>
<h2>Quelle est la « valeur statistique d’une vie » ?</h2>
<p>Avant d’argumenter ce choix, nous devons revenir à quelques notions et principes de base du calcul économique. Afin de mieux répartir les dépenses publiques pour sauver des hommes, l’économie appliquée a besoin de chiffres. Pour décider quelles actions mener contre les accidents de la route ou contre le tabagisme, il est nécessaire de comparer leurs coûts aux bénéfices en termes de vies humaines épargnées. Et comme le coût s’exprime en euros, il faut bien aussi exprimer les bénéfices en euros.</p>
<p>On arrive ainsi à la notion consacrée de « valeur statistique d’une vie ». Attention, il ne s’agit pas du prix d’une vie : depuis la fin de l’esclavage, il n’y a plus de marché, donc de prix des vies humaines. Il ne s’agit pas plus d’une valeur de <em>la</em> vie, et encore moins de <em>la</em> valeur de <em>la</em> vie. Il s’agit d’une valeur statistique à double titre. En premier lieu, elle reflète la diminution d’un risque individuel de décès qui résulte d’une politique publique. À ce titre, elle ne doit pas être confondue avec une valeur des vies humaines. En second lieu, elle concerne un individu non identifié.</p>
<p>Imaginons une société de 100 000 individus qui envisagent de financer un projet public de sécurité. Supposons que chacun soit prêt à payer 100 euros en moyenne pour réduire la probabilité de décès de 3/100 000 à 1/100 000, soit 2 décès en moins pour l’ensemble de cette société. On en déduira une « valeur statistique d’une vie » de 5 millions d’euros (100.000x100/2). Ou, selon une formulation bien meilleure mais plus longue, « le coût d’évitement d’une mort anonyme additionnelle » de 5 millions d’euros.</p>
<p>Cette approche statistique constitue un instrument d’aide à la décision publique visant à réduire le risque de mortalité et à le faire le plus intelligemment possible. L’État ne peut pas consacrer exclusivement son budget à sauver des vies humaines. Il est important d’estimer s’il convient de dépenser un peu plus pour prévenir les maladies cardio-vasculaires que pour les soigner, pour lutter contre l’alcool et l’héroïne, ou encore pour réduire les accidents de la route et d’avion. L’enjeu est d’épargner le plus de vies possible avec un budget donné.</p>
<p>Bien entendu, la mort ne peut pas être perpétuellement évitée. Intuitivement, la valeur d’un individu pour retarder sa mort dépend du temps gagné – un an c’est mieux qu’une semaine – et de l’âge – un an de plus à 40 ans c’est mieux qu’un an de plus à 80 ans. D’où la seconde notion, celle de « valeur statistique d’une année de vie », pour désigner la perte d’une année de vie en moins.</p>
<h2>Trois millions d’euros en moyenne pour une vie sauvée en plus</h2>
<p>Une des méthodes largement utilisées pour estimer ces valeurs consiste à demander aux individus eux-mêmes ce qu’ils sont prêts à payer pour une réduction du risque. Les montants déclarés sont ensuite agrégés et les moyennes calculées.</p>
<p>Le recensement le plus complet des études portant sur la valeur d’une vie humaine sauvée est celui produit par l’Organisation de coopération et de développement économiques (OCDE) en 2012. Il couvre les quelque 1000 études académiques faites sur le sujet ; il les classe selon le type de risque pris en compte (transports, santé, environnement), selon le type d’enquêtes (questionnaire administré face à face, par téléphone, par échanges de courriels, etc.), selon la méthode (analyse contingente dans laquelle on demande à l’interviewé la somme d’argent qu’il est prêt à consacrer pour une réduction de X de son risque de décès au cours de l’année prochaine ; ou l’analyse conjointe où on demande à l’interviewé son choix entre deux situations qui lui sont proposées et qui diffèrent par le risque et par la somme d’argent qu’il doit payer). Ce recensement a abouti à une <a href="https://www.oecd-ilibrary.org/fr/environment/la-valorisation-du-risque-de-mortalite-dans-les-politiques-de-l-environnement-de-la-sante-et-des-transports_9789264169623-fr">valeur moyenne statistique d’une vie de 3 000 000 euros</a> pour l’ensemble de l’OCDE.</p>
<p>À côté de ces nombreuses estimations de la valeur statistique d’une vie, celles qui portent sur l’année de vie sont plus rares. Citons comme exemple une étude, portant sur plus d’un millier de personnes interrogées en 2010 dans plusieurs pays européens, qui aboutit à un montant de <a href="https://www.sciencedirect.com/science/article/abs/pii/S1470160X10002116">40 000 euros pour la valeur d’une année de vie</a>. La question portait sur leur consentement à payer pour un gain d’espérance de vie de 3 mois ou de 6 mois selon un scénario de réduction de la pollution plus ou moins ambitieux.</p>
<p>Derrière ce type de résultats, il faut imaginer des protocoles aussi précis que complexes (en particulier pour expliquer les difficiles notions de risque et de probabilité) et des jeux de questions testées avec rigueur et formulées avec soin. Il faut savoir aussi que les valeurs obtenues dans les réponses sont dispersées parmi les individus soumis à la même enquête.</p>
<p>[<em>Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://memberservices.theconversation.com/newsletters/?nl=france&region=fr">Abonnez-vous aujourd’hui</a>]</p>
<p>Plus élevée pour les individus plus riches, par exemple. Idem pour les valeurs moyennes obtenues d’une enquête à l’autre selon les protocoles choisis et les questions posées. Elles sont plus élevées pour un programme de santé que pour un projet d’aménagement routier. Pour tenir compte des progrès théoriques et de la multiplication des travaux appliqués, les valeurs officiellement recommandées ou adoptées par les administrations évoluent d’ailleurs avec le temps.</p>
<p>En France, la valeur statistique d’une vie est ainsi passée de la première référence en1970 à la plus récente en 2013 <a href="https://jeromemathis.fr/livre/">d’un peu moins de 300 000 d’euros d’aujourd’hui à un peu plus de trois millions</a> d’aujourd’hui. L’un des auteurs de cet article a d’ailleurs dirigé les réflexions et les travaux qui ont abouti en 2013 au choix de ce montant ainsi qu’au montant de 160 000 euros pour la valeur statistique de l’année de vie. Le <a href="https://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/archives/Elements-pour-une-r%C3%A9vision-de-la-valeur-de-la-vie-humaine.pdf">rapport</a> qui justifie ces valeurs précise qu’il est utile de recourir à l’année de vie perdue pour compléter les analyses et les calculs quand « la question de l’âge se pose ». Il ne recommande pas toutefois dans ce cas d’employer uniquement cette valeur. Il convient désormais de trancher ce ni oui ni non.</p>
<h2>Fair innings</h2>
<p>Pourquoi proposons-nous d’opter en faveur d’une valeur tenant compte de l’âge ?</p>
<p>Examinons d’abord les conséquences d’un tel choix. Les personnes âgées ayant moins d’années à vivre devant elles, le passage d’une comptabilité en valeur d’une vie perdue à une comptabilité en année de vie perdue conduit à retenir proportionnellement moins de projets de réduction du risque de mortalité en leur faveur. Par exemple, dans le choix entre un projet qui évite des décès de canicule et un projet qui évite des décès d’accident de la route et donc bénéficie à une population plus équilibrée en âge, le premier sera économiquement plus avantageux, toutes choses égales par ailleurs.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/528259/original/file-20230525-21-nbbprx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/528259/original/file-20230525-21-nbbprx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/528259/original/file-20230525-21-nbbprx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/528259/original/file-20230525-21-nbbprx.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/528259/original/file-20230525-21-nbbprx.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/528259/original/file-20230525-21-nbbprx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/528259/original/file-20230525-21-nbbprx.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/528259/original/file-20230525-21-nbbprx.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">En France, la valeur statistique d’une vie est ainsi passée de la première référence en1970 à la plus récente en 2013 d’un peu moins de 300 000 d’euros d’aujourd’hui à un peu plus de trois millions d’aujourd’hui.</span>
<span class="attribution"><a class="source" href="https://www.wallpaperflare.com/label-tag-string-shape-card-space-paper-mockup-design-space-wallpaper-awxrs">Wallpaperflare</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span>
</figcaption>
</figure>
<p>Le choix d’une valeur ou d’une autre relève ainsi d’un souci de justice intergénérationnelle, soit celui de privilégier les vieilles générations soit celui de privilégier les jeunes générations.</p>
<p>Privilégier ces dernières et non l’inverse repose sur l’idée que chacun disposerait d’une durée d’existence semblable égale à l’espérance de vie de sa classe d’âge. Toute personne qui décèderait plus tôt subirait une injustice que la collectivité devrait prévenir. Ce <a href="https://www.jstor.org/stable/27504067">principe</a> est défendu par un économiste de la santé anglais, Alan Harold Williams. Il s’est inspiré des réflexions d’un <a href="https://philpapers.org/rec/HARTVO-4">philosophe compatriote</a>. En référence au sport national de l’Angleterre, il porte le nom d’argument du <em>Fair innings</em>, ce dernier terme désignant une manche du jeu de cricket pour l’équipe du batteur.</p>
<p>Il pose que l’évitement de décès de personnes ayant franchi ou s’approchant du cap de la vieillesse n’est pas acceptable s’il peut seulement être obtenu en coûtant des vies à ceux qui en sont loin. Une telle situation apparaît quand la société s’est fixé un budget contraint pour les dépenses de santé et de sécurité civile. Plus largement, l’argument du <em>Fair innings</em> rejoint l’idée d’une <a href="https://hal-univ-paris-dauphine.archives-ouvertes.fr/halshs-03670001/">réduction légitime des inégalités de durée de vie</a> entre les individus.</p>
<p>Observons que ce principe n’est pas sans références imagées. Par exemple à travers la formulation populaire « d’années de bonus » pour qualifier celles au-delà de l’espérance de vie. Ou même dans la Bible spécifiant que « Les jours de nos années <a href="https://lire.la-bible.net/76/detail-traduction/chapitres/verset/Psaumes/90/10/SEG">s’élèvent à 70 ans</a> » et suggérant que ceux qui vivent plus longtemps n’ont pas à en tirer orgueil car <a href="https://www.bibliaplus.org/fr/commentaries/4/commentaire-biblique-par-albert-barnes/psaume/90/10">ils n’y sont pour rien</a>.</p>
<h2>Courbe en U renversé</h2>
<p>Dès lors, quelle valeur du coût d’une année de vie en moins évitée choisir ?</p>
<p>Une première façon consiste à la déterminer à partir de la « valeur statistique d’une vie » en la saucissonnant. Pour un individu de 40 ans bénéficiant d’une espérance de vie de 78 ans, la valeur d’une tranche d’une année de vie est égale à la « valeur statistique d’une vie » divisée par 38 (i. e., 78 – 40). Mais pour tenir compte dans le temps de l’arbitrage entre consommer aujourd’hui ou demain, il est nécessaire d’actualiser le nombre d’années de vie au dénominateur. C’est l’approche suivie dans le rapport cité plus haut qui aboutit au montant de 160.000 euros en prenant un taux d’actualisation de 3 %.</p>
<p>Cette façon de faire est très commode car on dispose d’un beaucoup plus grand nombre de travaux qui déterminent directement la valeur statistique « d’une vie » plutôt que « d’une année de vie ». Une de ses principales faiblesses est que le résultat est très sensible au taux d’actualisation alors qu’il n’a pas été observé. Il résulte d’un choix des experts et ce choix comporte donc une part d’arbitraire.</p>
<p>Une seconde méthode repose encore sur la « valeur statistique d’une vie » mais considère qu’elle n’est pas indépendante de l’âge. Un grand nombre d’enquêtes et de modèles laissent penser en effet que c’est bien le cas. Ils montrent que la valeur d’une vie en fonction de l’âge prend approximativement la forme d’un U renversé. Elle augmente rapidement au cours des jeunes années, se stabilise à l’âge adulte et diminue plus ou moins vite au cours de la vieillesse. La forme précise du U renversé et donc la valeur d’une année de vie selon l’âge, qui n’est donc plus constante contrairement à la première méthode, diffère cependant beaucoup selon les études.</p>
<p>Une troisième façon consiste à repérer à travers des questions auprès des individus comment leur déclaration sur la valeur d’années de vie additionnelles varie selon leur âge. Il existe cependant extrêmement peu de travaux en France ou ailleurs procédant de cette façon.</p>
<p>En attendant que ce type d’enquêtes directes se développent ou d’autres avancées de la recherche, nous suggérons d’employer l’une des deux autres méthodes. Mais nous recommandons que la présentation des résultats pour évaluer telle ou telle dépense publique soit accompagnée d’une étude de sensibilité au taux d’actualisation et courbes de U renversés choisies.</p>
<p>Concluons par deux observations qui rejoignent les débats et réflexions actuelles sur la fin de vie. En premier lieu, la pondération des vies sauvées par le nombre d’années de vie gagnées doit naturellement tenir compte de la qualité de vie au cours de ces années gagnées. C’est un autre pan bien fourni de la recherche économique qui prolonge ceux mentionnés ici. Il s’est notamment développé dans le secteur de la santé. En second lieu, notre proposition doit être discutée et débattue au-delà des experts de la question et de l’administration. Il ne s’agit pas d’un choix technocratique. Les citoyens doivent y être associés et en délibérer.</p><img src="https://counter.theconversation.com/content/206423/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Plusieurs travaux ont tenté d’apporter des réponses à ce dilemme qui reste largement débattu chez les économistes.François Lévêque, Professeur d’économie, Mines Paris - PSLEmile Quinet, Professeur émérite Ecole des Ponts-ParisTech et membre associé de Paris School of Economics, École des Ponts ParisTech (ENPC)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2056032023-05-21T15:01:07Z2023-05-21T15:01:07ZPourquoi le lien entre immigration et délinquance est une illusion<p>L’immigration suscite des craintes persistantes, en partie liées à la perception qu’immigration et délinquance <a href="https://www.cambridge.org/core/books/does-immigration-increase-crime/9EA41FA9831C2F52433874FC9B1D5C7B">vont de pair</a>. La Commission nationale consultative des droits de l’homme rappelait ainsi, en 2022, que 52 % des Français considéraient l’immigration comme la principale cause d’insécurité.</p>
<p>Plus récemment, le projet de loi repoussé sur l’<a href="https://theconversation.com/fr/topics/immigration-21314">immigration</a> proposait de « rendre possible l’éloignement d’étrangers constituant une menace grave pour l’ordre public ». Pourtant, les recherches en <a href="https://theconversation.com/fr/topics/sciences-sociales-25550">sciences sociales</a> montrent que l’immigration n’est pas la cause de la <a href="https://theconversation.com/fr/topics/delinquance-27123">délinquance</a>. C’est ce décalage entre réalités et perceptions que nous avons cherché à comprendre dans la <a href="http://www.cepii.fr/CEPII/fr/publications/lettre/abstract.asp?NoDoc=13737">lettre d’avril 2023</a> du Centre d’études prospectives et d’informations internationales (<a href="https://theconversation.com/institutions/cepii-2912">CEPII</a>).</p>
<p>La perception d’un lien entre immigration et délinquance repose principalement sur l’observation d’une surreprésentation des étrangers (immigrés n’ayant pas acquis la nationalité française) dans les <a href="https://theconversation.com/fr/topics/statistiques-20962">statistiques</a> sur la délinquance. En France, la proportion d’étrangers dans la population totale était, en 2019, de 7,4 %, mais s’élevait à 14 % parmi les auteurs d’affaires traitées par la justice, à 16 % dans ceux ayant fait l’objet d’une réponse pénale et <a href="http://www.justice.gouv.fr/art_pix/Trim_2004.pdf">à 23 % des individus en prison</a>.</p>
<p>De nombreux facteurs, certains quasi mécaniques, peuvent expliquer cette surreprésentation sans que le statut d’immigré ne soit en lui-même lié à une probabilité plus forte de commettre une infraction.</p>
<h2>Une probabilité́ de contrôle plus forte</h2>
<p>Tout d’abord, certains délits ne peuvent, par définition, être commis que par des étrangers (soustractions à l’exécution d’une mesure de reconduite à la frontière, travail sans titre de séjour, etc.). De plus, ces infractions sont résolues lorsqu’elles sont constatées puisque l’auteur de l’infraction est identifié sur-le-champ. De ce fait, elles peuvent faire l’objet d’un ciblage particulier lors de pressions politiques à l’amélioration des statistiques, comme lors de la mise en place de la « politique du chiffre » <a href="https://www.editionsladecouverte.fr/la_fabrique_des_jugements-9782348067983">entre 2002 et 2012</a>.</p>
<p>Ensuite, les immigrés présentent des caractéristiques individuelles qui les rendent plus susceptibles d’être en infraction avec la loi. Les hommes, jeunes, sont ainsi surreprésentés dans la population immigrée, deux caractéristiques systématiquement associées à des niveaux de délinquance <a href="https://www.jstor.org/stable/42705620">plus élevés</a>.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/immigration-comment-favoriser-un-imperatif-equilibre-des-sexes-dans-les-flux-202085">Immigration : comment favoriser un impératif équilibre des sexes dans les flux</a>
</strong>
</em>
</p>
<hr>
<p>Surtout, les immigrés sont en moyenne plus pauvres que les natifs. Or, la <a href="https://www.aeaweb.org/articles?id=10.1257/jel.20141147">précarité économique</a> reste un des principaux déterminants de la délinquance. Ce n’est donc pas le fait d’être immigré en soi qui conduit à plus de délinquance, mais des caractéristiques qui, lorsqu’elles se retrouvent chez les natifs, conduisent également à plus de délinquance.</p>
<p><strong>À caractéristiques similaires, les étrangers sont plus souvent et plus longtemps condamnés que les Français</strong></p>
<p><iframe id="Uv0iV" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/Uv0iV/1/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<p><iframe id="lGNZp" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/lGNZp/1/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<p>Enfin, les immigrés subissent un <a href="https://pubmed.ncbi.nlm.nih.gov/32367028/">traitement différencié́</a> à toutes les étapes du système pénal : de la probabilité́ d’arrestation à celle <a href="https://www.cairn.info/revue-population-2012-3-page-423.html">d’être incarcéré</a>. Ainsi, les minorités visibles issues de l’immigration ont une probabilité́ plus forte d’être contrôlées, mais aussi de recevoir des peines plus lourdes. En moyenne, pour un même délit avec les mêmes antécédents judiciaires, en ayant suivi la même procédure et avec les mêmes caractéristiques individuelles (âge, sexe, lieu et date de jugement), les étrangers ont non seulement une <a href="https://www.editionsladecouverte.fr/la_fabrique_des_jugements-9782348067983">probabilité plus forte</a> (de 5 points de pourcentage) que les Français d’avoir une peine de prison ferme, mais sa durée est également plus longue, de 22 jours.</p>
<h2>Dynamiques locales</h2>
<p>Ce traitement différencié entre immigrés et natifs se retrouve aussi dans les <a href="https://theconversation.com/fr/topics/medias-20595">médias</a>. Des recherches ont montré que la <a href="https://direct.mit.edu/rest/article-abstract/doi/10.1162/rest_a_01152/108836/Anti-Muslim-Voting-and-Media-Coverage-of-Immigrant?redirectedFrom=fulltext">presse pouvait renforcer les croyances initiales</a> sur le lien entre immigration et délinquance en reportant plus systématiquement les infractions commises par les immigrés ou en <a href="http://www.cepii.fr/CEPII/fr/publications/lettre/abstract.asp?NoDoc=13737">divulguant</a> de manière plus fréquente l’origine des suspects lorsqu’ils sont immigrés.</p>
<p>La perception d’un lien entre immigration et délinquance provient aussi de l’observation par les natifs d’un plus grand nombre d’infractions reportées dans les zones où les immigrés sont majoritairement installés. Or, pour évaluer l’impact de l’immigration sur la délinquance, il est nécessaire de dépasser cette simple comparaison qui ignore que les immigrés ne se répartissent pas de manière uniforme sur le territoire national. Leur présence est en effet plus concentrée près des frontières, zones plus propices aux trafics, ou dans des quartiers où les logements sont plus abordables et qui concentrent le plus souvent des populations pauvres ou marginalisées.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>De plus, les vagues migratoires, plus soudaines et perceptibles que des changements démographiques de long terme, augmentent le <em>nombre</em> d’infractions, dans la mesure où il y a plus d’habitants, mais sans nécessairement augmenter le <em>taux</em> de délinquance par habitant. Et quand bien même on adopterait le bon raisonnement en taux, l’augmentation simultanée de la part de la population immigrée et des infractions ne vaut pas preuve que les immigrés en sont la cause car des dynamiques locales peuvent être à l’œuvre.</p>
<p>Par exemple, le départ de natifs d’une zone dans laquelle la délinquance et la pauvreté sont en augmentation peut libérer des logements sociaux et attirer de nouveaux immigrés. Immigration et délinquance augmentent alors de concert sans que l’immigration n’en soit la cause.</p>
<p>Face à ces difficultés, les recherches en sciences sociales se sont penchées sur la question du lien entre immigration et délinquance en prenant soin d’éliminer les bais précédemment évoqués. La conclusion de ces études est sans appel. L’immigration n’est pas à l’origine d’une augmentation des taux de délinquance.</p>
<h2>La régularisation entraîne une baisse des infractions</h2>
<p>Au Royaume-Uni, une étude a examiné l’effet de deux vagues migratoires récentes, la première liée aux guerres d’Irak, d’Afghanistan et de Somalie à la fin des années 1997-2002, la seconde, à l’entrée de huit anciens pays de l’Est dans l’Union européenne entre 2004 et 2008. Pour les deux vagues, les localités ayant accueilli plus d’immigrés <a href="https://direct.mit.edu/rest/article-abstract/95/4/1278/58317/Crime-and-Immigration-Evidence-from-Large">n’ont pas vu leur taux d’infractions moyen évoluer plus rapidement</a> que dans le reste du pays.</p>
<p>En revanche, une légère augmentation des atteintes aux biens a été observée pour la première vague des années 2000. Cette différence provient d’un accès au marché du travail différent : là où les nouveaux citoyens de l’Union européenne avaient le droit d’exercer un emploi, les demandeurs d’asile ne pouvaient pas travailler légalement la première année de leur arrivée sur le sol britannique.</p>
<p>Ce constat est confirmé par d’autres travaux. En Italie, un dispositif de décembre 2017 permettait aux immigrés en situation irrégulière de faire une demande de régularisation en ligne. Les permis de travail étaient accordés dans l’ordre des demandes et jusqu’à épuisement de quotas préalablement définis.</p>
<p>Avec ce dispositif, des immigrés s’étant connectés au site à quelques minutes, voire à quelques secondes d’intervalle, se sont trouvés dans des situations très différentes : ceux ayant demandé un visa juste avant l’épuisement des quotas ont acquis le droit de travailler et de résider légalement en Italie, tandis que ceux ayant posté leur dossier l’instant d’après sont restés sans-papiers. En comparant ces deux groupes, il apparaît que les immigrés ayant obtenu un visa ont eu une <a href="https://www.aeaweb.org/articles?id=10.1257/aer.20150355">probabilité deux fois plus faible de commettre une infraction</a> au cours de l’année suivante. Une différence qui s’explique entièrement par une baisse significative des infractions générant des revenus, telles que les vols et les trafics.</p>
<p>Immigration et délinquance ne sont donc pas liées, une fois les raisonnements simplificateurs écartés. Au contraire, si la surreprésentation quasi mécanique des immigrés dans les statistiques peut créer l’illusion d’une relation entre immigration et délinquance, les études rigoureuses montrent qu’il n’en est rien. Des résultats à garder en tête lors des discussions autour de la loi immigration à venir pour traiter le sujet sans passion et au plus près des réalités.</p><img src="https://counter.theconversation.com/content/205603/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Des études démontrent que les vagues migratoires n’augmentent pas le taux de délinquance par habitant.Arnaud Philippe, Senior Lecturer, School of Economics, University of BristolJérôme Valette, Économiste, CEPIILicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/2055342023-05-19T10:11:52Z2023-05-19T10:11:52ZDe Cambridge Analytica à ChatGPT, comprendre comment l’IA donne un sens aux mots<p>Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’<a href="https://arxiv.org/html/cs/9906002">« ancrage du symbole »</a>.</p>
<p>Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens.</p>
<p>En revanche, comment faire faire cette analyse à une IA ? La technique dite de <a href="https://fr.wikipedia.org/wiki/Plongement_lexical">« plongement lexical »</a>, si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.</p>
<h2>Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches</h2>
<p>Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.</p>
<p>Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (<em>oreilles</em>, <em>moustache</em> ou <em>avion</em>).</p>
<figure class="align-center ">
<img alt="pieds d’un plongeur" src="https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=446&fit=crop&dpr=1 600w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=446&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=446&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=560&fit=crop&dpr=1 754w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=560&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/526759/original/file-20230517-25-y20u44.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=560&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT.</span>
<span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/Gck455DlpPI">Amy Lister/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p>Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.</p>
<p>Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.</p>
<h2>Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension</h2>
<p>C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).</p>
<p>Leurs méthodes reposent sur une <a href="https://www.pnas.org/doi/10.1073/pnas.1418680112">publication scientifique parue en 2014 dans la revue PNAS</a>, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.</p>
<p>L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.</p>
<p>Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet. </p>
<p>Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.</p>
<h2>Être conscients de ce que nos « likes » disent sur nous</h2>
<p>Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.</p>
<figure class="align-center ">
<img alt="likes peints sur un mur argenté" src="https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=450&fit=crop&dpr=1 600w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=450&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=450&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=566&fit=crop&dpr=1 754w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=566&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/526762/original/file-20230517-15-jo99co.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=566&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence.</span>
<span class="attribution"><a class="source" href="https://unsplash.com/fr/photos/f-PH16nZHKI">George Pagan III/Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span>
</figcaption>
</figure>
<p><a href="https://fr.wikipedia.org/wiki/Cambridge_Analytica">Cambridge Analytica</a> est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.</p>
<p>Notons que c’est <a href="https://www.lemonde.fr/pixels/article/2022/12/23/affaire-cambridge-analytica-facebook-accepte-de-payer-725-millions-de-dollars_6155532_4408996.html">uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice</a>, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.</p>
<h2>Calculer avec des mots en prenant en compte leur signification</h2>
<p>En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.</p>
<p>Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot <em>roi</em>, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot <em>homme</em>, de lui ajouter le vecteur représentant le mot <em>femme</em>, pour obtenir un vecteur très proche de celui représentant le mot <em>reine</em>. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il <a href="https://theconversation.com/chatgpt-et-intelligences-artificielles-comment-deceler-le-vrai-du-faux-200181">ajoute d’autres techniques</a>.</p>
<p>Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?</p>
<p>Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.</p><img src="https://counter.theconversation.com/content/205534/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Frédéric Alexandre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>L’exemple de Cambridge Analytica peut nous aider à comprendre comment ChatGPT donne un « sens » aux mots qu’il utilise.Frédéric Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, InriaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1976342023-01-24T19:09:03Z2023-01-24T19:09:03ZEn Nouvelle-Aquitaine, les dépenses en énergie varient de 1 984€ à 3 286€ par an selon le lieu de résidence<figure><img src="https://images.theconversation.com/files/506091/original/file-20230124-13-72sv0l.jpeg?ixlib=rb-1.1.0&rect=8%2C11%2C1908%2C1264&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Quelle est en moyenne, pour un individu, le montant de ses dépenses d’énergie pour ses déplacements ? Une étude en Nouvelle-Aquitaine montre les fortes disparités selon le lieu et type d'habitation. </span> <span class="attribution"><a class="source" href="https://pixabay.com/fr/photos/essence-de-l-essence-diesel-gaz-996617/">Pixabay/Skitterphoto</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span></figcaption></figure><p>Quel montant une personne allant chaque jour travailler en voiture consacre-t-elle à ses dépenses de carburant sur une année ? Quel montant dépense-t-elle par ailleurs pour l’énergie utilisée dans son logement ? A quel montant total parvient-on quand on additionne ces dépenses d’énergie et combien cela représente-t-il en pourcentage de ses revenus d’activité ?</p>
<p>C’est à toutes ces questions que nous avons voulu répondre, sous l’angle particulier de la géographie : il s’agit pour nous de savoir non seulement quel est en moyenne, pour un individu, le montant de ses dépenses d’énergie pour ses déplacements et son logement, mais aussi de mesurer comment ces dépenses varient selon le lieu où il habite.</p>
<p>L’exercice est complexe, car il suppose de disposer de tout un ensemble de données sur les lieux de résidence des personnes et leur lieu de travail, le nombre de kilomètres parcourus pour le travail et pour les autres motifs, le type de carburant utilisé et son prix, le taux d’occupation des véhicules, etc., côté déplacements, mais aussi le type de logement de résidence (appartement ou maison), sa superficie, son ancienneté, le type d’énergie utilisé pour se chauffer, son prix, etc., côté logement.</p>
<p>Nous y sommes parvenus en nous focalisant sur les intercommunalités de la région Nouvelle-Aquitaine et en combinant différents jeux de données issus du recensement de l’Insee sur les <a href="https://www.insee.fr/fr/statistiques/5393835">mobilités professionnelles</a> et les <a href="https://www.insee.fr/fr/information/2383228">logements</a>, de <a href="https://www.statistiques.developpement-durable.gouv.fr/resultats-detailles-de-lenquete-mobilite-des-personnes-de-2019">l’enquête mobilité</a> du SDES, des <a href="https://www.ceren.fr/publications/les-publications-du-ceren/">données de consommation unitaire d’énergie</a> du CEREN, <a href="https://www.statistiques.developpement-durable.gouv.fr/donnees-mensuelles-de-lenergie">d’autres sur les prix de l’énergie</a> du SDES, etc., l’ensemble de la méthodologie étant précisée en annexe de <a href="https://cartes.nouvelle-aquitaine.pro/portal/sharing/rest/content/items/79a97c6c4986446992a68ed6514ec141/data">ce document de travail</a>.</p>
<h2>Les dépenses de carburant</h2>
<p>Au <a href="https://www.insee.fr/fr/information/5369871">recensement millésime 2018 (qui couvre la période 2016-2020)</a>, on dénombre en Nouvelle-Aquitaine 2,34 millions d’actifs occupés, dont 83 % se rendent au travail principalement en voiture, soit 1,95 million de néo-Aquitains. Ces actifs occupés travaillent en moyenne 207 jours par an, résident en moyenne à 10 km de leur lieu de travail, qui se situe pour 74 % d’entre eux dans une autre commune que leur commune de résidence. Sur une année, tous motifs confondus (déplacements domicile-travail et autres motifs), ils parcourent en moyenne 10 316 km, ce qui leur coûte en carburant, en retenant les prix moyens 2022 à la pompe, un peu moins de 1 200€ par an, soit 4,9 % des revenus médians d’activité.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Ces valeurs moyennes masquent des différences importantes à l’échelle des intercommunalités : la part des actifs occupés qui se rendent au travail en voiture varie entre 65 % à Bordeaux Métropole et 95 % dans la communauté de communes de Midi Corrézien. Le nombre total de kilomètres parcourus varie de 6 757 km pour les actifs occupés de la communauté urbaine de Limoges à 18175 km pour la communauté de communes Latitude Nord Gironde (petite intercommunalité de la couronne bordelaise, au nord de la métropole, entre Saugon et Saint-André de Cubzac). Le coût en carburant à l’année, en moyenne de 1 194€, varie de 835€ pour les actifs occupés de la communauté de communes de l’ile d’Oléron à 1 973€ pour ceux de la communauté de communes Latitude Nord Gironde.</p>
<p>Rapportées aux revenus médians d’activité de leur territoire, les dépenses de carburant varient entre 3 % des revenus d’activité pour les actifs occupés de la communauté de communes des Coteaux Bordelais (943 € de dépense moyenne par actif à l’année pour un revenu médian issu de l’activité, sur le territoire, de 31 292 €) et 9,1 % pour ceux des portes de Vassivière (1 523 € de dépense moyenne à l’année pour un revenu de 16 791€).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/504748/original/file-20230116-20-gkchcg.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/504748/original/file-20230116-20-gkchcg.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=767&fit=crop&dpr=1 600w, https://images.theconversation.com/files/504748/original/file-20230116-20-gkchcg.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=767&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/504748/original/file-20230116-20-gkchcg.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=767&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/504748/original/file-20230116-20-gkchcg.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=964&fit=crop&dpr=1 754w, https://images.theconversation.com/files/504748/original/file-20230116-20-gkchcg.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=964&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/504748/original/file-20230116-20-gkchcg.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=964&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Carte 1 : dépenses de carburant des actifs occupés, en euros par an et par actif : dépenses de carburant (€).</span>
</figcaption>
</figure>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/504749/original/file-20230116-26-tyyhx2.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/504749/original/file-20230116-26-tyyhx2.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=758&fit=crop&dpr=1 600w, https://images.theconversation.com/files/504749/original/file-20230116-26-tyyhx2.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=758&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/504749/original/file-20230116-26-tyyhx2.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=758&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/504749/original/file-20230116-26-tyyhx2.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=952&fit=crop&dpr=1 754w, https://images.theconversation.com/files/504749/original/file-20230116-26-tyyhx2.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=952&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/504749/original/file-20230116-26-tyyhx2.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=952&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Carte 2 : dépenses de carburant des actifs occupés, en % du revenu médian d’activité : dépenses carburant ( % revenus d’activité).</span>
</figcaption>
</figure>
<p>Les deux cartes ci-dessus diffèrent sensiblement, ce qui s’explique par les différences géographiques de revenu d’activité : les actifs occupés de certains territoires doivent assumer une même dépense de carburant mais avec des revenus sensiblement plus faibles, ce qui conduit à un poids dans les dépenses bien plus fort.</p>
<p>À titre d’illustration, la dépense de carburant est strictement la même sur la communauté d’agglomération de Saintes et sur la communauté de communes Vallée de la Dordogne et Forêt Bessède, à savoir 1 187€ par an, mais cette dépense pèse 4,9 % des revenus d’activité sur le premier territoire, contre 6,5 % sur le deuxième.</p>
<h2>Les dépenses d’énergie pour le logement</h2>
<p>Les dépenses de consommation d’énergie du secteur résidentiel en Nouvelle-Aquitaine, par actif occupé se déplaçant en voiture, sont de l’ordre de 1 273€ par an. Rapportées aux revenus d’activité, ces dépenses d’énergie pour le logement en représentent 5,3 % en moyenne.</p>
<p>De la même façon que pour les dépenses liées aux déplacements, ces moyennes régionales masquent des disparités géographiques importantes : la dépense d’énergie pour le logement varie de 969€ par actif occupé à Bordeaux Métropole à 1 845€ pour la communauté de communes de l’Ile-de-Ré.</p>
<p>Rapportées aux revenus d’activité des actifs occupés allant travailler en voiture, ces dépenses varient de 3,5 % pour Bordeaux Métropole (969€ de dépenses pour un revenu médian de 27 804€) à 8,4 % pour la communauté de communes de Domme-Villefranche du Périgord (1 553€ de dépenses pour un revenu de 18 526€).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/504750/original/file-20230116-12-8bpma.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/504750/original/file-20230116-12-8bpma.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=759&fit=crop&dpr=1 600w, https://images.theconversation.com/files/504750/original/file-20230116-12-8bpma.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=759&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/504750/original/file-20230116-12-8bpma.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=759&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/504750/original/file-20230116-12-8bpma.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=954&fit=crop&dpr=1 754w, https://images.theconversation.com/files/504750/original/file-20230116-12-8bpma.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=954&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/504750/original/file-20230116-12-8bpma.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=954&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Carte 3 : dépenses d’énergie pour le logement des actifs occupés, par actif et par an (€).</span>
</figcaption>
</figure>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/504751/original/file-20230116-24-ys0fjy.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/504751/original/file-20230116-24-ys0fjy.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=763&fit=crop&dpr=1 600w, https://images.theconversation.com/files/504751/original/file-20230116-24-ys0fjy.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=763&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/504751/original/file-20230116-24-ys0fjy.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=763&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/504751/original/file-20230116-24-ys0fjy.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=959&fit=crop&dpr=1 754w, https://images.theconversation.com/files/504751/original/file-20230116-24-ys0fjy.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=959&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/504751/original/file-20230116-24-ys0fjy.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=959&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Carte 4 : dépenses d’énergie pour le logement des actifs occupés, en % du revenu médian d’activité.</span>
</figcaption>
</figure>
<p>Comment expliquer ces différences ? Les dépenses énergétiques des logements sont directement liées aux consommations d’énergie des logements, qui dépendent elles-mêmes de leur période de construction, des vecteurs énergétiques utilisés, de leur surface, et de la rigueur climatique de la zone géographique, autant d’éléments pris en compte dans la modélisation et permettant d’estimer la facture moyenne par logement.</p>
<h2>Une estimation de l’ensemble des dépenses</h2>
<p>Quand on cumule les deux dépenses, on constate qu’elles s’élèvent en moyenne à 2 467€, soit 10,2 % des revenus d’activité. Elles s’échelonnent de 1 984€ par actif occupé dans la communauté d’agglomération Pau Béarn Pyrénées à 3 286€ pour ceux de la communauté de communes de Latitude Nord Gironde. Pour fixer les idées, une personne gagnant le smic devra consacrer entre 1,5 à 2,5 mois de travail pour gagner le salaire lui permettant de couvrir ces dépenses.</p>
<p>En pourcentage des revenus d’activité, ces parts cumulées varient de 6,9 % pour la communauté de communes Jalle-Eau-Bourde (2 271€ de dépenses pour un revenu médian de 32 736€) à 17,1 % pour la communauté de communes du Pays de Duras (3 018€ pour un revenu médian de 17 608€), soit un rapport de 2,5 pour 1.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/504752/original/file-20230116-16-jhmmdq.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/504752/original/file-20230116-16-jhmmdq.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=764&fit=crop&dpr=1 600w, https://images.theconversation.com/files/504752/original/file-20230116-16-jhmmdq.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=764&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/504752/original/file-20230116-16-jhmmdq.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=764&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/504752/original/file-20230116-16-jhmmdq.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=960&fit=crop&dpr=1 754w, https://images.theconversation.com/files/504752/original/file-20230116-16-jhmmdq.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=960&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/504752/original/file-20230116-16-jhmmdq.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=960&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Carte 5 : dépenses d’énergie pour les déplacements et pour le logement des actifs occupés, par actif et par an (€).</span>
</figcaption>
</figure>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/504753/original/file-20230116-16-ef1uf7.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/504753/original/file-20230116-16-ef1uf7.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=762&fit=crop&dpr=1 600w, https://images.theconversation.com/files/504753/original/file-20230116-16-ef1uf7.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=762&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/504753/original/file-20230116-16-ef1uf7.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=762&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/504753/original/file-20230116-16-ef1uf7.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=957&fit=crop&dpr=1 754w, https://images.theconversation.com/files/504753/original/file-20230116-16-ef1uf7.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=957&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/504753/original/file-20230116-16-ef1uf7.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=957&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Carte 6 : dépenses d’énergie pour les déplacements et pour le logement des actifs occupés, en % du revenu médian d’activité.</span>
</figcaption>
</figure>
<h2>Des disparités territoriales importantes</h2>
<p>Au total, notre modélisation montre que, dans le contexte actuel de crise énergétique, les dépenses d’énergie pour les déplacements et pour le logement sont très significatives, d’une part, et qu’elles varient fortement d’un territoire à l’autre, d’autre part. Que peut-on faire alors pour réduire ces inégalités ?</p>
<p>Il nous semble que la géographie des vulnérabilités énergétiques qu’on voit se dessiner pourrait orienter certains choix de politique publique. À titre d’illustration, on peut penser que les territoires pour lesquels les dépenses de carburant en pourcentage des revenus d’activité sont les plus fortes pourraient faire l’objet d’une attention particulière en matière de politique de transport, pour réduire le nombre de kilomètres parcourus. Les politiques de rénovation énergétique des logements et d’accompagnement des ménages en difficulté pourraient être également concernées.</p>
<hr>
<p><em>Cet article synthétise les <a href="https://cartes.nouvelle-aquitaine.pro/portal/sharing/rest/content/items/79a97c6c4986446992a68ed6514ec141/data">résultats d’une étude</a> menée par le service « études et prospective » du pôle DATAR de la Région Nouvelle-Aquitaine et l’Agence Régionale Evaluation Environnement Climat de Nouvelle-Aquitaine. Les résultats par intercommunalité sont également <a href="https://cartes.nouvelle-aquitaine.pro/portal/sharing/rest/content/items/2b048b74b06848449b42b4a60ce536e1/data">mis à disposition</a>.</em></p>
<hr>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/487264/original/file-20220929-18-btga69.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/487264/original/file-20220929-18-btga69.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=292&fit=crop&dpr=1 600w, https://images.theconversation.com/files/487264/original/file-20220929-18-btga69.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=292&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/487264/original/file-20220929-18-btga69.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=292&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/487264/original/file-20220929-18-btga69.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=367&fit=crop&dpr=1 754w, https://images.theconversation.com/files/487264/original/file-20220929-18-btga69.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=367&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/487264/original/file-20220929-18-btga69.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=367&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p><em>Science et Société se nourrissent mutuellement et gagnent à converser. La recherche peut s’appuyer sur la participation des citoyens, améliorer leur quotidien ou bien encore éclairer la décision publique. C’est ce que montrent les articles publiés dans notre série « Science et société, un nouveau dialogue », publiée avec le soutien du <a href="https://www.enseignementsup-recherche.gouv.fr/fr">ministère de l’Enseignement supérieur et de la Recherche</a>.</em></p><img src="https://counter.theconversation.com/content/197634/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Olivier Bouba-Olga est en charge du service « études et prospective » du pôle DATAR de la Région Nouvelle-Aquitaine et l’Agence Régionale Evaluation Environnement Climat de Nouvelle-Aquitaine.</span></em></p>Nos dépenses en énergie, carburant et logement, varient selon le lieu où nous habitons : une étude récente menée en Nouvelle-Aquitaine montre de très fortes disparités.Olivier Bouba-Olga, Economiste, Professeur des Universités en aménagement de l'espace et urbanisme, Université de Poitiers & chef du service "études et prospective", Région Nouvelle-Aquitaine, Université de PoitiersLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1797212023-01-17T14:21:11Z2023-01-17T14:21:11ZLes scientifiques doivent aborder différemment la recherche sur les cancers au stade précoce<figure><img src="https://images.theconversation.com/files/460406/original/file-20220428-16-o4xyn4.jpeg?ixlib=rb-1.1.0&rect=45%2C27%2C6015%2C3421&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La recherche préclinique – celle qui précède les essais sur les humains – oriente souvent le choix des traitements potentiels à poursuivre jusqu’aux essais cliniques. Mais les tentatives de reproduction de 50 études ont révélé que les chances d’arriver aux résultats obtenus auparavant n’étaient que d’environ 50 %.</span> <span class="attribution"><span class="source">(Pexels/Artem Podrez)</span></span></figcaption></figure><p>Les études précliniques, celles que les scientifiques effectuent avant les tests sur les humains, ne reçoivent pas autant d’attention que les essais cliniques. Pourtant, elles constituent la première étape vers d’éventuels traitements et remèdes. Il est important que les résultats précliniques soient fiables. Lorsqu’ils sont erronés, les chercheurs gaspillent des ressources en suivant de fausses pistes. Pire encore, des résultats incorrects peuvent mener à des <a href="https://doi.org/10.1186/s41231-019-0050-7">essais sur des humains</a>.</p>
<p>En décembre dernier, le Center for Open Science (COS) a publié les résultats inquiétants d’une <a href="https://doi.org/10.7554/eLife.71601">étude sur la reproductibilité, <em>Reproducibility Project : Cancer Biology</em></a>, qui a duré huit ans et coûté 1,5 million de dollars américains. En collaboration avec le marché de la recherche <a href="https://ww2.scienceexchange.com/s/about">Science Exchange</a>, des scientifiques indépendants ont découvert que les chances de reproduire les résultats de 50 expériences précliniques issues de 23 études publiées de premier plan ne dépassaient pas un tirage à pile ou face.</p>
<p>Des éloges et des controverses ont marqué le projet depuis le début. La revue <em>Nature</em> a applaudi les études de réplication en y voyant <a href="https://doi.org/10.1038/541259b">« ce qui se fait de mieux dans la pratique de la science »</a>. Mais la revue <em>Science</em> a noté que les réactions de certains scientifiques dont les études avaient été choisies allaient de « l’agacement à l’anxiété en passant par l’indignation », ce qui a nui aux réplications. Aucune des expériences originales n’a été décrite avec suffisamment de détails pour permettre aux scientifiques de la reproduire, un <a href="https://doi.org/10.7554/eLife.67995">tiers des auteurs ont refusé de coopérer</a>, et certains ont fait preuve d’<a href="https://www.sciencenews.org/article/cancer-biology-studies-research-replication-reproducibility">hostilité</a> lorsqu’on leur a demandé leur collaboration.</p>
<figure class="align-center ">
<img alt="Une personne portant un EPI utilisant une pipette multicanaux dans un laboratoire" src="https://images.theconversation.com/files/452293/original/file-20220315-15-60adun.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/452293/original/file-20220315-15-60adun.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=231&fit=crop&dpr=1 600w, https://images.theconversation.com/files/452293/original/file-20220315-15-60adun.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=231&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/452293/original/file-20220315-15-60adun.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=231&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/452293/original/file-20220315-15-60adun.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=291&fit=crop&dpr=1 754w, https://images.theconversation.com/files/452293/original/file-20220315-15-60adun.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=291&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/452293/original/file-20220315-15-60adun.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=291&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Il est important que les résultats précliniques soient fiables. Lorsqu’ils sont erronés, les scientifiques gaspillent des ressources en poursuivant de fausses pistes.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Brian Nosek, directeur général du COS, a avancé que ces résultats posent <a href="https://www.science.org/content/article/more-half-high-impact-cancer-lab-studies-could-not-be-replicated-controversial-analysis">« des défis pour la crédibilité de la recherche préclinique en biologie du cancer »</a>. Reconnaissant tacitement que la recherche biomédicale n’a pas été toujours parfaitement rigoureuse ou transparente, les Instituts nationaux de la santé (NIH) américains, plus grand bailleur de fonds de la recherche biomédicale au monde, ont annoncé qu’ils allaient <a href="https://www.chemistryworld.com/news/replication-failures-cast-doubt-on-some-cancer-studies/4014881.article">relever les exigences relatives à ces deux aspects</a>.</p>
<p>Depuis plus de 30 ans, je donne des cours et j’écris sur les bonnes pratiques scientifiques en psychologie et en biomédecine. J’ai évalué un nombre incalculable de demandes de subventions et de manuscrits pour des revues, et je dois dire que cela ne me surprend pas.</p>
<figure class="align-right ">
<img alt="Une pile d’articles de journaux, avec des passages surlignés dans celui du haut, avec un stylo posé dessus" src="https://images.theconversation.com/files/452304/original/file-20220315-21-1j5qntp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/452304/original/file-20220315-21-1j5qntp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/452304/original/file-20220315-21-1j5qntp.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/452304/original/file-20220315-21-1j5qntp.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/452304/original/file-20220315-21-1j5qntp.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/452304/original/file-20220315-21-1j5qntp.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/452304/original/file-20220315-21-1j5qntp.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Des scientifiques indépendants ont constaté que les chances de reproduire les résultats de 50 expériences précliniques issues de 23 études publiées de premier plan ne dépassaient pas celles d’un tirage à pile ou face.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Les <a href="https://royalsocietypublishing.org/doi/10.1098/rsos.160384">incitations à faire avancer sa carrière</a> au détriment de la crédibilité scientifique ébranlent les deux piliers d’une science fiable que sont la transparence et la rigueur impartiale. Il arrive trop souvent que les études précliniques proposées – et, étonnamment, les études publiées et évaluées par les pairs – <a href="https://doi.org/10.1161/CIRCRESAHA.114.303819">ne suivent pas la méthode scientifique</a>. Et, trop souvent, les <a href="https://doi.org/10.1089/bio.2020.0037">scientifiques ne partagent pas</a> leurs données financées par les fonds publics, même lorsque le journal qui les publie l’exige.</p>
<h2>Contrôler les biais</h2>
<p>De nombreuses expériences précliniques <a href="https://doi.org/10.1007/164_2019_279">ne prévoient pas de contrôles rudimentaires contre les biais</a>, que l’on enseigne dans les sciences sociales, <a href="https://www.cshlpress.com/default.tpl?cart=1646145461247203111&fromlink=T&linkaction=full&linksortby=oop_title&--eqSKUdatarq=1020">mais rarement dans les disciplines biomédicales</a> telles que la médecine, la biologie cellulaire, la biochimie et la physiologie. Le contrôle des biais est un élément clé de la méthode scientifique, car il permet aux scientifiques de distinguer les signaux expérimentaux des interférences procédurales.</p>
<p>Le biais de confirmation, c’est-à-dire la tendance à voir ce que l’on souhaite voir, est contrôlé habituellement par ce qu’on appelle la « mise en insu ». Pensez à la procédure à « double insu » des essais cliniques, dans laquelle ni le patient ni l’équipe de recherche ne savent qui reçoit le placebo et qui reçoit le médicament. Dans la recherche préclinique, le fait que les expérimentateurs ne connaissent pas l’identité des échantillons minimise le risque qu’ils modifient leur comportement, même subtilement, pour favoriser leur hypothèse.</p>
<p>Des différences apparemment insignifiantes, comme le fait qu’un échantillon soit traité le matin ou l’après-midi ou qu’un animal se trouve dans une cage de la rangée supérieure ou inférieure, peuvent influencer les résultats. Ce n’est pas aussi improbable qu’on pourrait le croire. Chaque petit changement dans le micro-environnement, pour l’exposition à la lumière ou la ventilation de l’air, par exemple, <a href="https://arriveguidelines.org/arrive-guidelines/randomisation#:%7E:text=Using%20a%20validated%20method%20of,valid%20%5B4%2C5%5D">peut modifier les réponses physiologiques</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/452275/original/file-20220315-15-39otqq.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Une rangée de cages pour animaux en acrylique transparent, chacune abritant un rat blanc" src="https://images.theconversation.com/files/452275/original/file-20220315-15-39otqq.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/452275/original/file-20220315-15-39otqq.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=420&fit=crop&dpr=1 600w, https://images.theconversation.com/files/452275/original/file-20220315-15-39otqq.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=420&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/452275/original/file-20220315-15-39otqq.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=420&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/452275/original/file-20220315-15-39otqq.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=527&fit=crop&dpr=1 754w, https://images.theconversation.com/files/452275/original/file-20220315-15-39otqq.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=527&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/452275/original/file-20220315-15-39otqq.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=527&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Des différences apparemment insignifiantes, comme le fait qu’un animal soit dans une cage de la rangée supérieure ou inférieure, peuvent modifier les résultats.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Si tous les animaux qui reçoivent un médicament sont placés dans une rangée et que tous les animaux qui ne le reçoivent pas sont dans une autre rangée, toute différence entre les deux groupes d’animaux peut être due au médicament, à leur emplacement ou à une interaction entre les deux. Vous ne pourriez pas savoir quelle est la vraie raison, et les scientifiques non plus.</p>
<p>Le fait de randomiser la sélection des échantillons et l’ordre de traitement minimise les biais de procédure, rend l’interprétation des résultats plus claire et augmente les chances qu’ils soient reproduits.</p>
<p>De nombreuses expériences de réplication ont été réalisées à l’insu et de manière randomisée, mais on ignore si c’était le cas pour les expériences originales. Tout ce que l’on sait, c’est que pour les 15 expériences sur animaux, une <a href="https://doi.org/10.7554/eLife.71601">seule parle de randomisation et aucune de mise en insu</a>. Il ne serait pas surprenant qu’un grand nombre d’études n’aient eu recours ni à la randomisation ni à l’insu.</p>
<h2>Plan d’étude et statistiques</h2>
<p>Selon une estimation, plus de la moitié du million d’articles publiés chaque année repose sur un <a href="https://doi.org/10.1016/S0140-6736%2809%2960329-9">plan d’étude biaisé</a>, ce qui contribue au gaspillage de 85 % des 100 milliards de dollars américains dépensés chaque année pour la recherche (principalement préclinique).</p>
<p>Dans un article largement diffusé, Glenn Begley, scientifique industriel et ancien chercheur, a indiqué qu’il n’avait pu reproduire les résultats que de <a href="https://doi.org/10.1038/483531a">six de 53 études</a> universitaires (11 %). Il a énuméré <a href="https://doi.org/10.1038/497433a">six pratiques</a> de recherche fiables, dont la mise en insu. Les six études qui ont été reproduites avaient toutes suivi ces six pratiques. Les 47 études qui n’ont pas pu être reproduites n’avaient suivi que peu de pratiques ou, dans certains cas, aucune.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/452283/original/file-20220315-19-vympx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="Trois personnes en blouse blanche avec un microscope au premier plan, superposé à des graphiques à barres et des points de données" src="https://images.theconversation.com/files/452283/original/file-20220315-19-vympx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/452283/original/file-20220315-19-vympx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=372&fit=crop&dpr=1 600w, https://images.theconversation.com/files/452283/original/file-20220315-19-vympx.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=372&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/452283/original/file-20220315-19-vympx.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=372&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/452283/original/file-20220315-19-vympx.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=468&fit=crop&dpr=1 754w, https://images.theconversation.com/files/452283/original/file-20220315-19-vympx.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=468&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/452283/original/file-20220315-19-vympx.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=468&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Un mauvais usage des statistiques est courant dans la recherche biomédicale, malgré les appels à de meilleures pratiques d’analyse des données.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Une autre façon de biaiser les résultats est de faire un mauvais usage des statistiques. Comme pour l’insu et la randomisation, on ne sait pas quelles études originales du projet de reproductibilité ont fait un usage abusif des statistiques, en raison de leur manque de transparence. Il s’agit là encore d’une pratique courante.</p>
<p>Un dictionnaire de termes décrit une série de mauvaises pratiques d’analyse des données qui peuvent produire des résultats statistiquement significatifs (mais faux), comme le <a href="https://doi.org/10.1207/s15327957pspr0203_4">HARKing</a> (<em>Hypothesizing After the Results are Known</em> ou émettre une hypothèse une fois les résultats connus), le p-hacking (<a href="https://doi.org/10.1177%2F0956797611417632">qui consiste à répéter des tests statistiques jusqu’à ce qu’un résultat souhaité se produise</a>) ou le fait de suivre une série de décisions d’analyse dépendantes des données qu’on appelle « <em>garden of forking paths</em> ou <a href="https://doi.org/10.1511/2014.111.460">jardin aux sentiers qui bifurquent</a> » pour obtenir des résultats publiables.</p>
<p><a href="https://link.springer.com/chapter/10.1007/164_2019_278#Sec4">Ces pratiques</a> sont <a href="https://acmedsci.ac.uk/policy/policy-projects/reproducibility-and-reliability-of-biomedical-research">courantes dans la recherche biomédicale</a>. <a href="https://doi.org/10.1136/bmj.308.6924.283">Des décennies de plaidoyers</a> de la part des <a href="https://doi.org/10.1371/journal.pmed.0020124">méthodologistes</a> et une <a href="https://magazine.amstat.org/blog/2021/08/01/task-force-statement-p-value/">déclaration sans précédent</a> de l’American Statistical Association demandant à ce qu’on change les pratiques d’analyse des données sont toutefois <a href="https://doi.org/10.1111/1740-9713.01505">restées lettre morte</a>.</p>
<h2>Un avenir plus rigoureux</h2>
<figure class="align-center ">
<img alt="Une femme portant un sarau, des lunettes de sécurité et des gants verts examine des échantillons de laboratoire" src="https://images.theconversation.com/files/452295/original/file-20220315-25-11qxmpb.jpg?ixlib=rb-1.1.0&rect=353%2C0%2C4871%2C3371&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/452295/original/file-20220315-25-11qxmpb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/452295/original/file-20220315-25-11qxmpb.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/452295/original/file-20220315-25-11qxmpb.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/452295/original/file-20220315-25-11qxmpb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/452295/original/file-20220315-25-11qxmpb.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/452295/original/file-20220315-25-11qxmpb.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Les incitations et les normes devraient soutenir les pratiques qui génèrent une science fiable et sanctionner celles qui ne le font pas, sans pour autant tuer l’innovation.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Les personnes hostiles à la science ne doivent pas se réjouir de ces résultats. Les réalisations de la science préclinique sont réelles et impressionnantes. Ainsi, des années de recherche préclinique ont conduit à <a href="https://www.nytimes.com/2022/01/15/health/mrna-vaccine.html">l’élaboration des vaccins à ARNm contre la Covid-19</a>. Et la plupart des scientifiques font de leur mieux dans un système qui récompense les <a href="https://www.theguardian.com/commentisfree/2013/dec/09/how-journals-nature-science-cell-damage-science">résultats rapides et spectaculaires</a> plutôt que ceux qui sont fiables, mais plus lents.</p>
<p>Cependant, la science est faite par des humains, avec toutes les forces et les faiblesses que cela suppose. Ce qu’il faut, c’est récompenser les pratiques qui génèrent une science fiable et sanctionner celles qui ne le font pas, sans pour autant tuer l’innovation.</p>
<p>La modification des mesures incitatives et l’application de normes sont les moyens les plus efficaces d’améliorer la pratique scientifique. Il s’agit de s’assurer que les scientifiques qui privilégient la transparence et la rigueur plutôt que la rapidité et le tape-à-l’œil puissent réussir. L’expérience a <a href="https://doi.org/10.1038/505612a">déjà été tentée</a>, avec un <a href="https://doi.org/10.1080/08989621.2020.1855427">succès limité</a>. Cette fois, les choses pourraient être différentes. L’étude <em>Reproducibility Project : Cancer Biology</em> et les changements de politique des NIH qu’elle a suscités pourraient bien constituer l’impulsion nécessaire pour que cela fonctionne.</p><img src="https://counter.theconversation.com/content/179721/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Robert Nadon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Les études précliniques constituent une partie importante de la recherche biomédicale. L’incapacité à reproduire les résultats de la recherche suggère la nécessité d’améliorer la qualité des études.Robert Nadon, Associate Professor, Department of Human Genetics, Faculty of Medicine, McGill UniversityLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1946822022-11-21T19:36:05Z2022-11-21T19:36:05ZDécryptage : le pouvoir d’achat, et si l’on se focalisait sur autre chose ?<figure><img src="https://images.theconversation.com/files/495718/original/file-20221116-16-kldrtj.jpg?ixlib=rb-1.1.0&rect=1%2C0%2C1276%2C845&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Le pouvoir d’achat, est-ce vraiment bien cela qui compte&nbsp;?
</span> <span class="attribution"><a class="source" href="https://pixabay.com/fr/photos/carte-de-cr%c3%a9dit-paiement-cr%c3%a9dit-1730085/"> Ahmad Ardity / Pixabay</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Depuis des décennies, c’est lui qui alimente la majeure partie des contenus des journaux télévisés, fait les titres de la presse écrite et vampirise les sujets des campagnes électorales. Sa baisse aurait provoqué le mouvement des « gilets jaunes » et il affole les gouvernants qui adoptent des « primes » successives et ciblées afin de le maintenir. En août dernier, une <a href="https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000046186723">loi</a> prévoyant des mesures d’urgence pour le préserver a été votée.</p>
<p>Lui, c’est le <a href="https://theconversation.com/fr/topics/pouvoir-dachat-33467">pouvoir d’achat</a> bien sûr… Est-il cette notion indépassable et incontournable pour identifier les besoins des individus dans nos sociétés occidentales ? Qu’est-ce que la centralité de ce terme signifie ? Notre pouvoir d’achat étant notre pouvoir d’acheter, sommes-nous réductibles à notre statut de consommateurs ? Serait-il possible d’utiliser d’autres notions équivalentes pour mesure les niveaux de vie des individus ?</p>
<p>Notre hypothèse est que cette référence n’est pas anodine et révèle beaucoup de la structuration de nos rapports sociaux, de nos modèles économiques et de nos démocraties.</p>
<h2>Des sources de controverses</h2>
<p>Une <a href="https://www.cae-eco.fr/staticfiles/pdf/073.pdf">note</a> du Conseil d’analyse économique (CAE) publiée en 2008 en proposait la définition suivante, une double définition plus précisément, proche de celle de l’<a href="https://www.clesdusocial.com/niveau-de-vie-et-pouvoir-d-achat-entre-realite-et-ressenti">Insee</a> :</p>
<blockquote>
<p>« Pour l’économiste, le pouvoir d’achat est la quantité de biens et de services que l’on peut acheter avec le revenu disponible. Il suffit donc que la hausse des revenus dépasse celle des prix pour que le pouvoir d’achat progresse. De façon plus empirique, l’homme de la rue raisonne différemment : “son” pouvoir d’achat représente “sa” capacité à acquérir les biens et les services qui forment les standards du moment ».</p>
</blockquote>
<p>Il y a là une notion économique qui a pour objectif de mesurer la <a href="https://www.toupie.org/Dictionnaire/Revenu.htm">quantité de biens et de services qu’un revenu donné permet d’acquérir</a>. Son évolution est liée à celle des prix et des revenus. Si les prix augmentent dans un <a href="https://www.toupie.org/Dictionnaire/Environnement.htm">environnement</a> où les revenus (salaire, rémunération du capital, prestations sociales) sont constants, le pouvoir d’achat diminue ; si la hausse des revenus est supérieure à celle des prix, le pouvoir d’achat pourra augmenter. Lorsque l’on dit « revenus », il s’agit du <a href="https://www.vie-publique.fr/fiches/270008-pouvoir-dachat-et-revenu-disponible-brut">revenu disponible brut</a> (RDB), c’est-à-dire de ce dont dispose un ménage pour consommer, épargner ou investir après avoir réglé ses cotisations sociales et impôts directs et avoir reçu d’éventuelles allocations.</p>
<p>Au-delà de sa définition, le calcul du pouvoir d’achat est également source de nombreux malentendus. Faut-il par exemple employer une méthode qui calcule en agrégeant le revenu de tous les ménages ou par tête ? Dans le premier cas, le pouvoir d’achat aurait <a href="https://www.economie.gouv.fr/facileco/comment-mesurer-pouvoir-achat">progressé en moyenne de 2,1 % par an</a> entre 1974 et 2006 mais que de 1,6 % dans le second qui tient compte de l’évolution de la taille de la population. Et si l’on calcule par unité de consommation, c’est-à-dire en attribuant un poids différent à un enfant et à un adulte, et en s’adaptant au nombre d’adultes dans un ménage, ce chiffre n’est plus que de 1,3 %.</p>
<p><iframe id="nG6W5" class="tc-infographic-datawrapper" src="https://datawrapper.dwcdn.net/nG6W5/1/" height="400px" width="100%" style="border: none" frameborder="0"></iframe></p>
<p>Les chiffres varient également selon la façon dont on prend en compte l’<a href="https://theconversation.com/fr/topics/inflation-28219">inflation</a>. On peut utiliser les prix de l’ensemble des biens de consommation mais aussi, parfois de façon plus pertinente, uniquement ce que l’on appelle les dépenses « non-pré-engagées », celles qui ne sont pas issues de contrats difficilement renégociables à court terme, telles que les dépenses liées au logement (loyer, eau, gaz, électricité), à son assurance ou son forfait téléphonique. On parle alors de « <a href="https://www.insee.fr/fr/statistiques/2385829">pouvoir d’achat arbitrable</a> ».</p>
<h2>Et pourquoi pas des notions alternatives ?</h2>
<p>Nous avons bien ici les ingrédients d’une instrumentalisation possible de cette notion et de multiples sources de malentendus. Comme le souligne la définition du CAE, une autre difficulté vient du <a href="https://www.lemonde.fr/les-decodeurs/article/2022/03/25/pourquoi-la-notion-de-pouvoir-d-achat-est-a-manier-avec-precaution_6119177_4355770.html">décalage entre l’évolution objective</a> du pouvoir d’achat et la perception qu’en ont les ménages.</p>
<p>Des notions différentes faisant appel à d’autres représentations sociétales pourraient être utilisées comme le <a href="https://www.economie.gouv.fr/facileco/comment-mesurer-pouvoir-achat">niveau de vie</a>, autrement appelé revenu disponible brut ajusté. On va, en quelque sorte, convertir en revenu dans le calcul une dépense non supportée par le ménage. Bénéficier de l’école gratuite, par exemple, revient à disposer du revenu pour la payer. Ce n’est de fait pas la même chose de disposer d’une somme identique dans le cas où les ménages ont à charge de payer l’école et dans le cas où ils ne l’ont pas. On obtient alors une croissance annuelle moyenne de 1,9 %.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd'hui</a>]</p>
<p>On pourrait aussi intégrer <a href="https://www.insee.fr/fr/outil%20interactif/5367857/details/30_RPC/31_RNP/31G_Figure7">l’indice de Gini</a> qui rend compte du niveau d’inégalité pour une variable et sur une population donnée. Il varie entre 0 (égalité parfaite) et 1 (inégalité extrême). Mobiliser l’indice mondial du bonheur par pays ne serait pas non plus sans pertinence. Pour 156 pays, un <a href="https://worldhappiness.report/">rapport</a> issu des <a href="https://www.gallup.com/178667/gallup-world-poll-work.aspx">données du Gallup World Poll</a> est publié chaque année par les Nations unies. Les répondants doivent évaluer leur vie de zéro à dix. Zéro représente la pire vie et dix la meilleure vie. <a href="https://fr.countryeconomy.com/demographie/indice-mondial-bonheur">Six facteurs</a> sont pris en compte : le PIB, l’espérance de vie, la générosité, le soutien social, la liberté et la corruption qui sont comparés à un pays imaginaire, appelé Dystopia.</p>
<p>Des niveaux de bien-être, également, sont calculés, y compris par <a href="https://www.oecd.org/fr/sdd/cn/37883038.pdf">l’OCDE</a>, institution pourtant rompue aux indicateurs économiques. En France, des <a href="https://www.cepremap.fr/publications/le-bien-etre-en-france-rapport-2021/%20-%20abstract">rapports annuels</a> tenant compte de différents facteurs sont publiés par des experts universitaires, comme Mathieu Perona et Claudia Senik, chercheurs au Cepremap.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/le-sentiment-de-bien-etre-des-francais-est-aujourdhui-suspendu-a-linflation-180921">Le sentiment de bien-être des Français est aujourd’hui suspendu à l’inflation</a>
</strong>
</em>
</p>
<hr>
<p>Étant donné ces alternatives, pourquoi camper sur la notion de pouvoir d’achat ? Sommes-nous sciemment réduits à notre statut de consommateurs, et non à celui de citoyens, d’individus, d’êtres humains ? La société de consommation est si centrale dans les pays occidentaux que la réponse tend à être positive et les <a href="https://www.agoravox.fr/tribune-libre/article/le-pouvoir-d-achat-expression-243080">critiques</a> de la notion restent minoritaires.</p>
<p>Or, l’urgence climatique et écologique nécessite une autre vision du monde pour sortir d’un modèle économique obsolète, fondé sur une production excessive et une surconsommation dont la centralité du pouvoir d’achat est le symbole. Rappelons ici, pour s’en convaincre, les propos de l’écrivain Pier Paolo Pasolini dans ses Écrits corsaires publiés en 1976 :</p>
<blockquote>
<p>« Je suis profondément convaincu que le vrai fascisme est ce que les sociologues ont trop gentiment nommé “la société de consommation”, définition qui paraît inoffensive et purement indicative. Il n’en est rien. Aucun centralisme fasciste n’est parvenu à faire ce qu’a fait le centralisme de la société de consommation. »</p>
</blockquote><img src="https://counter.theconversation.com/content/194682/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Emmanuelle Mazuyer a reçu des financements de l'ANR, du CNRS, du GIP justice pour des projets de recherche qui ont toujours été gérés par les universités d'affectation. </span></em></p>La notion de « pouvoir d’achat » peut assez facilement être instrumentalisée car différentes mesures sont possibles. Cependant, peu correspondent au ressenti réel des ménages.Emmanuelle Mazuyer, Directrice de recherche au CNRS en droit, Université Lumière Lyon 2 Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1841652022-10-06T18:29:27Z2022-10-06T18:29:27ZL’évolution est plus rapide qu’on ne le pensait chez les animaux sauvages<figure><img src="https://images.theconversation.com/files/488551/original/file-20221006-18-77ng4x.jpg?ixlib=rb-1.1.0&rect=0%2C0%2C4587%2C3435&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">La phalène du bouleau : un exemple d'adaptation rapide.</span> <span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Biston_betularia_couple.JPG">Siga/Wikimedia</a>, <a class="license" href="http://creativecommons.org/licenses/by-sa/4.0/">CC BY-SA</a></span></figcaption></figure><p>Quelle est la vitesse de l’évolution ? L’évolution adaptative se produit quand la sélection naturelle cause des changements génétiques favorisant la survie et la reproduction des individus.</p>
<p>Charles Darwin, le découvreur de ce phénomène, pensait qu’il était tellement lent qu’on ne pouvait l’observer que sur des échelles de temps géologiques. Cependant, au cours du siècle dernier, plusieurs exemples d’évolution adaptative se produisant sur seulement une poignée de générations ont été documentés. Ainsi, la <a href="https://planet-vie.ens.fr/thematiques/genetique/mutation-reparation/la-mutation-a-l-origine-du-melanisme-industriel-de-la">phalène du bouleau</a>, un papillon a changé de couleur en quelques décennies quand la pollution de l’air a noirci les murs et l’écorce des arbres. Ce papillon, qui était le plus souvent blanc, est rapidement devenu noir à cause de la sélection due aux prédateurs. En effet, les papillons noirs étaient mieux camouflés sur les surfaces salies, et les gènes produisant des papillons noirs sont devenus de plus en plus communs. Dans un autre exemple, la fréquences des <a href="https://www.sciencesetavenir.fr/animaux/biodiversite/les-braconniers-font-perdre-leurs-defenses-aux-elephants_158410">éléphants sans défenses</a> a augmenté en réponse au braconnage, les braconneurs tuant en priorité les animaux avec des défenses.</p>
<p>Cependant, il reste difficile de dire à quelle vitesse l’évolution adaptative se produit actuellement. Pourrait-elle être suffisamment rapide pour influencer la réponse des populations confrontées aux changements environnementaux actuels ? Jusqu’à maintenant on supposait plutôt que la réponse était non, sans toutefois avoir de données précises sur le sujet.</p>
<p>Pour mesurer la vitesse d’évolution adaptative dans la nature, nous avons étudié 19 populations d’oiseaux et de mammifères sur <a href="https://www.science.org/doi/10.1126/science.abk0853">plusieurs décennies</a>. Nous avons constaté qu’elles évoluaient deux à quatre fois plus vite que les travaux antérieurs ne le suggéraient. Cela montre que l’évolution adaptative peut jouer un rôle important dans la façon dont les traits et les populations d’animaux sauvages changent sur des périodes de temps relativement courtes.</p>
<h2>Les outils du biologiste de l’évolution : maths et jumelles</h2>
<p>Comment mesurer la vitesse de l’évolution adaptative ? Selon le « théorème fondamental de la sélection naturelle », énoncé par R.A. Fisher en 1930, la variance (une mesure des différences) génétique dans l’aptitude à survivre et à se reproduire entre les individus d’une population est égale au taux d’évolution adaptative de la population.</p>
<p>Ce « théorème fondamental » est connu depuis 90 ans, mais il est difficile à appliquer. Les tentatives d’utilisation du théorème dans les populations sauvages ont été rares et souffrent de problèmes statistiques.</p>
<p>Nous avons travaillé avec 27 instituts de recherche pour assembler les données de 19 populations sauvages qui ont été suivies pendant de longues périodes, certaines depuis les années 1950. Parmi les oiseaux et mammifères étudiés, on peut citer des mésanges bleues en Corse, des mouflons au Canada, des hyènes en Tanzanie ou encore des babouins au Kenya. Des générations de chercheurs ont recueilli des informations sur la naissance, l’accouplement, la reproduction et la mort de chaque individu de ces populations.</p>
<p>Au total, ces données représentent environ 250 000 animaux et 2,6 millions d’heures de travail sur le terrain. L’investissement peut sembler exorbitant, mais les données ont déjà été utilisées dans des milliers d’études scientifiques et le seront à nouveau.</p>
<h2>Les statistiques à la rescousse</h2>
<p>Nous avons ensuite utilisé des modèles de génétique quantitative pour appliquer le « théorème fondamental » à chaque population. Au lieu de suivre les changements dans chaque gène, la génétique quantitative utilise des statistiques pour capturer l’effet total résultant de changements dans des milliers de gènes.</p>
<p>[<em>Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde</em>. <a href="https://theconversation.com/fr/newsletters/la-newsletter-quotidienne-5?utm_source=inline-70ksignup">Abonnez-vous aujourd’hui</a>]</p>
<p>Nous avons également développé une nouvelle méthode statistique qui s’adapte mieux aux données que les modèles précédents. Notre méthode capture deux propriétés clés de la répartition inégale de la survie et de la reproduction entre les populations sauvages.</p>
<p>Premièrement, la plupart des individus meurent avant de se reproduire, ce qui signifie qu’il y a beaucoup d’individus avec aucun succès reproducteur. Deuxièmement, alors que la plupart des adultes se reproduisent peu, quelques-uns donnent naissance à un très grand nombre de descendants, ce qui conduit à une distribution asymétrique.</p>
<h2>La vitesse de l’évolution adaptative</h2>
<p>Parmi nos 19 populations, nous avons constaté qu’en moyenne, le changement génétique en réponse à la sélection était responsable d’une augmentation de 18,5 % par génération de la capacité des individus à survivre et à se reproduire.</p>
<p>Cela signifie que la progéniture est en moyenne 18,5 % « meilleure » que ses parents. Autrement dit, une population moyenne pourrait survivre à un changement environnemental qui réduit la survie et la reproduction de 18,5 % à chaque génération.</p>
<p>Compte tenu de cette vitesse, nous avons constaté que l’évolution adaptative pouvait expliquer la plupart des changements récents dans les caractéristiques des animaux sauvages (tels que la taille ou le moment de la reproduction). D’autres mécanismes sont également importants, mais ce résultat indique que l’évolution doit être considérée parallèlement à d’autres explications.</p>
<h2>Un résultat enthousiasmant pour un avenir incertain</h2>
<p>Qu’est-ce que cela signifie pour l’avenir ? À une époque où les environnements naturels changent radicalement partout dans le monde, en raison du changement climatique et d’autres forces, l’évolution aidera-t-elle les animaux à s’adapter ?</p>
<p>Malheureusement, c’est là que les choses se compliquent. Notre recherche n’a estimé que les changements génétiques dus à la sélection naturelle, mais dans le contexte du changement climatique, d’autres forces sont en jeu.</p>
<p>Premièrement, il existe d’autres forces évolutives (telles que les mutations, le hasard et la migration).</p>
<p>Deuxièmement, le changement environnemental lui-même est probablement un moteur plus important de la démographie de la population que le changement génétique. Si l’environnement continue de se détériorer, la théorie nous dit que l’évolution adaptative sera généralement incapable de compenser entièrement.</p>
<p>Enfin, l’évolution adaptative peut elle-même modifier l’environnement vécu par les générations futures. En particulier, lorsque les individus sont en compétition pour une ressource (comme la nourriture, le territoire ou les partenaires), toute amélioration génétique entraînera une plus grande compétition au sein de la population.</p>
<p>Notre travail seul est insuffisant pour formuler des prédictions. Cependant, il montre que l’évolution ne peut être ignorée si l’on veut prédire avec précision l’avenir proche des populations animales.</p>
<p>Malgré les défis pratiques, nous sommes émerveillés d’assister à l’évolution darwinienne, un processus autrefois considéré comme extrêmement lent, agissant de manière observable au cours de nos vies.</p><img src="https://counter.theconversation.com/content/184165/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Timothée Bonnet a reçu des financements de l'Australian Research Council. </span></em></p>Mais sera-t-elle suffisante pour s’adapter aux changements environnementaux majeurs à venir ?Timothée Bonnet, Researcher in evolutionary biology (DECRA fellow), Australian National UniversityLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1828342022-08-04T12:25:14Z2022-08-04T12:25:14ZPile ou face : ce que les modèles statistiques nous enseignent sur la probabilité de vivre au-delà de 110 ans<figure><img src="https://images.theconversation.com/files/466451/original/file-20220531-48537-gffx97.jpg?ixlib=rb-1.1.0&rect=7%2C2%2C991%2C663&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Est-ce qu'il existe une limite à l'espérance de vie humaine?</span> <span class="attribution"><span class="source">(Shutterstock)</span></span></figcaption></figure><p>La doyenne présomptive de l’humanité, la Japonaise Kane Tanaka, s’est éteinte au mois d’avril dernier dans son pays natal <a href="https://www.nytimes.com/2022/04/27/world/asia/kane-tanaka-japan-worlds-oldest-person.html">à l’âge de 119 ans</a>. Malgré sa longévité spectaculaire, elle n’a pas réussi à dépasser le record établi par la Française <a href="https://www.lemonde.fr/societe/article/2019/01/01/jeanne-calment-etait-elle-vraiment-la-doyenne-de-l-humanite_5404134_3224.html">Jeanne Calment</a>, il y a 25 ans jour pour jour.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/depasser-le-cap-des-100-ans-les-scientifiques-tentent-de-percer-le-mystere-172660">Dépasser le cap des 100 ans : les scientifiques tentent de percer le mystère</a>
</strong>
</em>
</p>
<hr>
<p>Jeanne Calment est décédée le 4 août 1997 à l’âge de 122 ans et cinq mois (ou précisément <a href="https://www.nytimes.com/1997/08/05/world/jeanne-calment-world-s-elder-dies-at-122.html">44 724 jours</a>).</p>
<p>Ce record a-t-il des chances d’être battu ?</p>
<p>Mon domaine d’expertise, une branche de la statistique qui traite de la modélisation d’événements rares, permet de fournir des éléments de réponse à ce type de questions.</p>
<h2>Combien de candidates pour un nouveau record du monde ?</h2>
<p>Il faut comprendre que le phénomène à l’étude est excessivement rare : selon le dernier recensement, seul 0,3 % de la population canadien serait centenaire, soit un peu plus de <a href="https://www12.statcan.gc.ca/census-recensement/2021/as-sa/98-200-X/2021004/98-200-X2021004-fra.cfm">9 500 personnes</a>. C’est moins qu’au Japon, qui compte le plus grand nombre de personnes âgées au monde. L’archipel nippon comptait en effet <a href="https://www.stat.go.jp/english/data/jinsui/tsuki/index.html">près de 87 000 personnes de plus de 100 ans en 2021</a>.</p>
<p>Seule une poignée de ces centenaires, moins d’un sur mille, atteindra 110 ans. Les personnes qui vivent au-delà de cet âge, les <a href="https://www.futura-sciences.com/sante/actualites/corps-humain-supercentenaires-chercheurs-ont-decouvert-secret-leur-longevite-78465/">« supercentenaires »</a>, sont donc exceptionnelles.</p>
<h2>Les modèles statistiques à la rescousse</h2>
<p>Afin de savoir si le record de longévité sera pulvérisé ou pas, il faut bâtir des modèles statistiques qui décrivent la mortalité au-delà de 110 ans.</p>
<p>Pour ce faire, nous avons besoin de <a href="https://doi.org/10.1007/978-3-030-49970-9">données de qualité</a>. L’âge au moment du décès des supercentenaires doit être validé en analysant les registres et les certificats de naissance, notamment, de manière à <a href="https://doi.org/10.1007/978-3-642-11520-2">relever des incohérences</a>. Cela implique un travail d’archiviste et les erreurs sont fréquentes (mauvaise transcription, usurpation d’identité, nécronymes). Plusieurs candidatures sont d’ailleurs rejetées, faute de preuves suffisantes pour établir de manière certaine leur identité ou leur date de naissance. Il y a <a href="https://supercentenarian.org">nettement plus de femmes que d’hommes supercentenaires</a>, mais ce déséquilibre tend à diminuer dans plusieurs pays, <a href="https://www.ons.gov.uk/peoplepopulationandcommunity/birthsdeathsandmarriages/ageing/bulletins/estimatesoftheveryoldincludingcentenarians/2002to2019">dont le Royaume-Uni</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/466651/original/file-20220601-20-exsvqb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="écriture à la main sur un papier très vieux et jauni" src="https://images.theconversation.com/files/466651/original/file-20220601-20-exsvqb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/466651/original/file-20220601-20-exsvqb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/466651/original/file-20220601-20-exsvqb.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/466651/original/file-20220601-20-exsvqb.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/466651/original/file-20220601-20-exsvqb.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/466651/original/file-20220601-20-exsvqb.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/466651/original/file-20220601-20-exsvqb.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Il est parfois ardu d’obtenir des données de qualité liées à l’âge réel des supercentenaires.</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>La principale source d’information pour mes travaux de recherche est la <a href="https://supercentenarians.org/">base de données internationale sur la longévité (IDL)</a>, fruit d’une collaboration de gérontologues et de démographes qui ont recensé l’âge au décès de plus de 1 041 supercentenaires de plusieurs pays d’Europe centrale, du Japon, du Canada et des États-Unis. La validation des données nécessite de remonter 150 ans en arrière, une période à laquelle l’administration et le recensement étaient de qualité variable. Les pays qui fournissent des données ont des équipes de démographes subventionnés qui travaillent activement sur la longévité, ainsi que des archives qui permettent la validation. Sans système rigoureux, impossible d’exploiter les données.</p>
<p>Une fois que nous avons acquis les données nécessaires, nous pouvons alors nous attaquer à la modélisation des durées de vie. Le modèle statistique le plus simple qui soit compatible avec les données liées aux personnes vivant au-delà de 110 ans équivaut grossièrement à un lancer d’une pièce de monnaie. Si la pièce tombe sur pile, ce qui arrive une fois sur deux, la personne survivra jusqu’à son prochain anniversaire ; autrement, elle décédera dans l’année.</p>
<p>Ce modèle implique aussi que le risque de mourir est stable et ne dépend pas de l’historique de la personne. <a href="https://doi.org/10.1098/rsos.202097">Selon nos calculs</a>, l’espérance de vie d’une personne supercentenaire serait d’environ un an et cinq mois, une période très courte.</p>
<p>Survivre de 110 jusqu’à 122 ans, comme Jeanne Calment, reviendrait donc à obtenir consécutivement 12 fois pile, un événement qui survient moins d’une fois sur un million quand on lance 12 pièces. À la lumière du nombre de supercentenaires vivants, il n’est pas surprenant que le record de Jeanne Calment tienne toujours après un quart de siècle.</p>
<h2>Jeanne Calment, indétrônable ?</h2>
<p>Notre question de départ est ainsi d’autant plus intrigante : le <a href="https://doi.org/10.1093/gerona/glz198">record de Jeanne Calment</a> sera-t-il brisé un jour et, le cas échéant, à quel âge s’établira-t-il ? Pour répondre à cette question, nous avons besoin des projections démographiques du nombre de supercentenaires qui tiennent compte de l’augmentation de la population mondiale.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/466652/original/file-20220601-48776-4z2nb3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="vieil homme sur fond noir" src="https://images.theconversation.com/files/466652/original/file-20220601-48776-4z2nb3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/466652/original/file-20220601-48776-4z2nb3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=399&fit=crop&dpr=1 600w, https://images.theconversation.com/files/466652/original/file-20220601-48776-4z2nb3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=399&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/466652/original/file-20220601-48776-4z2nb3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=399&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/466652/original/file-20220601-48776-4z2nb3.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=501&fit=crop&dpr=1 754w, https://images.theconversation.com/files/466652/original/file-20220601-48776-4z2nb3.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=501&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/466652/original/file-20220601-48776-4z2nb3.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=501&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">L’âge au décès record de Jeanne Calment sera-t-il un jour dépassé ?</span>
<span class="attribution"><span class="source">(Shutterstock)</span></span>
</figcaption>
</figure>
<p>Des chercheurs de l’Université de Washington ont conclu, sur la base du modèle du lancer de la pièce de monnaie et de ces projections, qu’il y a de fortes chances de voir le record de Jeanne Calment battu d’ici 2100, mais qu’il est peu plausible que la personne couronnée <a href="https://doi.org/10.4054/DemRes.2021.44.52">dépasse les 130 ans</a>.</p>
<h2>L’espérance de vie humaine est-elle limitée ?</h2>
<p>Plusieurs études scientifiques ont avancé, dans les dernières années, que la longévité humaine est limitée. <a href="https://doi.org/10.1146/annurev-statistics-040120-025426">Ces études ont souvent une caractéristique en commun</a> : elles ignorent la méthode selon laquelle les données sont collectées, ce qui biaise leurs conclusions. On peut d’office écarter tout seuil inférieur aux âges observés. Si l’espérance de vie varie d’un pays à l’autre, la longévité est une caractéristique intrinsèque à l’espèce humaine. Il est donc illogique qu’un Néerlandais ne puisse survivre au-delà de 114 ans alors qu’un Japonais a survécu jusqu’à 117 ans.</p>
<p>Si on compare la vie à une course de fond, une limite à la longévité serait l’équivalent d’un obstacle infranchissable en fin de parcours. Une explication plus logique d’un point de vue biologique est que la personne s’arrête en chemin une fois ses ressources épuisées.</p>
<p>L’extrapolation de l’âge maximum est entachée de beaucoup d’incertitude en raison du faible nombre de supercentenaires dont l’âge au décès a été validé. S’il existe une limite à l’espérance de vie, <a href="https://doi.org/10.1146/annurev-statistics-040120-025426">notre analyse de plusieurs bases de données fiables</a> suggère qu’elle se situe bien au-delà de l’âge de Jeanne Calment et qu’il serait étonnant qu’elle soit inférieure à 130 ans.</p>
<p>L’absence de limite ne veut pas dire qu’une personne pourrait vivre éternellement : s’il est concevable d’obtenir pile lors de n’importe quel tirage d’une pièce de monnaie, il est en revanche peu vraisemblable d’obtenir une longue séquence où chaque lancer tombe du même côté.</p>
<p>Même avec l’augmentation de la population mondiale, la faible espérance de vie des supercentenaires et le risque élevé de mortalité de ces derniers limitent la possibilité de fracasser le record de Calment.</p>
<p>Seul le temps nous dira si le record sera battu. Mais l’augmentation du nombre de centenaires et du nombre de pays offrant des données historiques fiables et validées sur leur population est néanmoins prometteuse pour la suite.</p><img src="https://counter.theconversation.com/content/182834/count.gif" alt="La Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Léo R. Belzile a reçu des financements du Conseil national de Recherches du Canada (CRSNG) et de l'Institut de valorisation des données (IVADO).</span></em></p>La doyenne de l’humanité, Kane Tanaka, est décédée en avril 2022 à 119 ans et 107 jours. Le record de la Française Jeanne Calment, décédée à 122 ans, tient depuis bientôt 25 ans. Est-il imbattable ?Léo R. Belzile, Professeur adjoint de sciences de la décision, HEC MontréalLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1823862022-06-23T20:20:20Z2022-06-23T20:20:20ZL’incroyable statistique des premiers chiffres<figure><img src="https://images.theconversation.com/files/461506/original/file-20220505-16-hbb8am.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Atelier sur la loi de Benford à la Fête de la Science</span> </figcaption></figure><p>Dès l’école primaire, vous avez appris à utiliser les chiffres de 0 à 9 pour représenter les nombres « en base 10 ». Depuis, cette écriture vous est sans doute devenue familière et vous pensez qu’elle n’a plus de mystère pour vous.</p>
<p>Pourtant, le phénomène dont nous allons parler est si inattendu qu’il vous faudra probablement le constater vous-même pour y croire !</p>
<h2>Expérimentez la loi de Benford</h2>
<p>Ouvrez au hasard des pages de journaux, de revues, de sites d’information ou de réseaux sociaux, et relevez tous les nombres que vous y trouvez. Puis intéressez-vous au premier chiffre significatif de chacun de ces nombres : c’est le chiffre le plus à gauche, qui n’est pas zéro. Ne tenez compte ni du signe ni de la place de la virgule : par exemple, le premier chiffre significatif des nombres 0,038 3,14159 et -32 est 3. On peut penser a priori que chacun des chiffres de 1 à 9 sera vu avec la même fréquence comme premier chiffre significatif. Pourtant, si vous relevez beaucoup de nombres d’origines variées, vous constaterez que le chiffre 1 apparaît au début de près d’un tiers des nombres, le chiffre 2 environ une fois sur 6, et que les fréquences diminuent jusqu’au chiffre 9 (moins d’une fois sur 20).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/461507/original/file-20220505-22-ypyak1.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461507/original/file-20220505-22-ypyak1.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=543&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461507/original/file-20220505-22-ypyak1.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=543&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461507/original/file-20220505-22-ypyak1.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=543&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461507/original/file-20220505-22-ypyak1.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=682&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461507/original/file-20220505-22-ypyak1.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=682&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461507/original/file-20220505-22-ypyak1.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=682&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Fréquences théoriques des premiers chiffres significatifs selon la loi de Benford.</span>
</figcaption>
</figure>
<p>Cette distribution du premier chiffre significatif est aujourd’hui connue sous le nom de <a href="https://www.jstor.org/stable/984802">« Loi de Benford »</a>, d’après l’ingénieur américain qui l’a vérifiée en 1938, en répertoriant plus de 20 000 nombres provenant de multiples sources (longueurs de fleuves, cours de la bourse, résultats de base-ball, poids des éléments chimiques, etc.).</p>
<p>Frank Benford propose même une formule précise pour décrire avec quelle distribution apparaissent les chiffres de 1 à 9 comme premier chiffre significatif : la fréquence du chiffre i (i variant entre 1 et 9) est donnée par le logarithme à base 10 de (1+i)/i. Par exemple lorsque i est le chiffre 2, vous pouvez vérifier sur une calculatrice que la fréquence donnée par la formule de Benford vaut :</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/461548/original/file-20220505-1494-ego7xx.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461548/original/file-20220505-1494-ego7xx.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=132&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461548/original/file-20220505-1494-ego7xx.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=132&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461548/original/file-20220505-1494-ego7xx.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=132&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461548/original/file-20220505-1494-ego7xx.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=165&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461548/original/file-20220505-1494-ego7xx.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=165&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461548/original/file-20220505-1494-ego7xx.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=165&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Formule donnant la fréquence du chiffre 2 en tant que premier chiffre significatif.</span>
</figcaption>
</figure>
<h2>Une découverte grâce à l’absence de calculatrice</h2>
<p>La fonction logarithme qui apparaît dans la formule ci-dessus a joué un grand rôle dans la découverte de cette étrange loi. Le logarithme était très utilisé avant l’avènement de l’ordinateur pour sa faculté à transformer les multiplications et divisions, opérations très compliquées à effectuer à la main, en additions et soustractions (un peu plus simples !). Pour effectuer des calculs, on avait donc couramment recours à des tables de logarithmes, petits livres qui donnaient les logarithmes des nombres que l’on voulait multiplier.</p>
<p>Ainsi, pour calculer rapidement le quotient 12 345 ÷ 6 789, on commençait par consulter la table pour obtenir les logarithmes de 12 345 et 6 789, qui valent respectivement 4,0915 et 3,8318. On calculait à la main la différence entre ces deux nombres, qui donne 0,2597, puis en utilisant dans l’autre sens la table de logarithmes, on trouvait le quotient, qui est le nombre dont le logarithme est égal à cette différence, soit environ 1,818.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/461553/original/file-20220505-24-u705ki.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461553/original/file-20220505-24-u705ki.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=141&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461553/original/file-20220505-24-u705ki.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=141&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461553/original/file-20220505-24-u705ki.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=141&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461553/original/file-20220505-24-u705ki.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=177&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461553/original/file-20220505-24-u705ki.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=177&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461553/original/file-20220505-24-u705ki.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=177&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">calcul d’un quotient en utilisant les tables de logarithmes.</span>
</figcaption>
</figure>
<p>C’est l’astronome américain Simon Newcomb qui a remarqué que les premières pages de ces tables de logarithmes étaient plus rapidement usées que les dernières, pour la raison que l’on utilisait plus souvent des nombres commençant par un 1 que par un 9. Newcomb publia le <a href="https://pdodds.w3.uvm.edu/files/papers/others/1881/newcomb1881a.pdf">premier article</a> sur cette surprenante distribution des premiers chiffres dès 1881, mais son travail est à l’époque passé inaperçu.</p>
<p>Près de 50 ans plus tard, en observant à nouveau l’usure irrégulière des tables de logarithmes, Benford refit la même découverte.</p>
<h2>Plus les données sont variées, mieux ça marche</h2>
<p>La distribution prédite par la loi de Benford se vérifie expérimentalement sur toute série de données issues du monde réel, pourvu que cette série soit assez « riche » (nombres d’origines variées et/ou réparties sur plusieurs ordres de grandeur).</p>
<p>En effet on comprend bien que, si par exemple on ne considère que des tailles d’individus exprimées en centimètres, le premier chiffre significatif sera presque tout le temps le 1 et donc la loi de Benford ne sera pas satisfaite. En revanche, la série constituée des nombres d’habitants par commune sur un territoire assez grand <a href="http://eljjdx.canalblog.com/archives/2007/02/03/3893284.html">se conforme plutôt bien à la loi de Benford</a>, car la taille des villes peut varier de quelques centaines à plusieurs millions d’habitants.</p>
<p>Ainsi, le graphique ci-dessous illustre les résultats obtenus en étudiant le premier chiffre significatif des <a href="https://www.insee.fr/fr/statistiques/6011060?sommaire=6011075">nombres d’habitants des communes de la région Normandie</a>. Globalement, on retrouve bien l’allure du diagramme en barres prévu par la loi de Benford.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/461961/original/file-20220509-24-ealemc.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461961/original/file-20220509-24-ealemc.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=417&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461961/original/file-20220509-24-ealemc.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=417&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461961/original/file-20220509-24-ealemc.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=417&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461961/original/file-20220509-24-ealemc.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=524&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461961/original/file-20220509-24-ealemc.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=524&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461961/original/file-20220509-24-ealemc.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=524&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Diagramme en barres du premier chiffre significatif des nombres d’habitants des communes normandes (Insee 2019).</span>
</figcaption>
</figure>
<h2>Pourquoi plus de 1 ?</h2>
<p>On peut se demander pourquoi le 1 et le 2 sont plus souvent utilisés comme premier chiffre significatif que le 8 ou le 9. Après tout, il y a autant de nombres dans l’intervalle [9 000, 10 000) (donnant un 9 comme premier chiffre) que dans l’intervalle [1 000, 2 000), qui vont donner un 1.</p>
<p>Mais l’erreur bien naturelle que l’on commet en comparant ainsi les tailles de ces deux intervalles consiste à les mesurer de manière additive : dans les deux cas, il faut ajouter 1 000 à la borne inférieure pour obtenir la borne supérieure. Or, comme le montre très bien Mickaël Launay dans <a href="https://editions.flammarion.com/le-theoreme-du-parapluie-ou-lart-dobserver-le-monde-dans-le-bon-sens/9782081427525">son livre</a> ce raisonnement « additif » n’est pas pertinent : quand on compare des nombres de la vie réelle, on le fait plutôt multiplicativement. La taille « multiplicative » du premier intervalle vaut 10 000 ÷ 9 000 soit environ 1,11, elle est beaucoup plus petite que celle du second, qui vaut 2 000 ÷ 1 000, soit 2.</p>
<p>Voici une situation très concrète pour montrer en quoi ce point de vue multiplicatif est beaucoup mieux adapté. Intéressons-nous aux prix de biens de consommation courante, et disons pour simplifier que ces prix suivent tous une même inflation lente et régulière. Prenons un prix dont le premier chiffre significatif est 1, disons la baguette de pain à 1 euro. Son premier chiffre significatif va rester 1 tant que le prix de la baguette n’aura pas atteint 2 euros, soit pendant tout le temps nécessaire pour obtenir une augmentation des prix de 100 %. Considérons en parallèle le prix d’un litre d’huile d’olive à 9 euros : son premier chiffre significatif restera 9 seulement le temps que l’inflation le fasse monter à 10 euros (augmentation de seulement 11 %).</p>
<p>En pensant ainsi multiplicativement, la distribution prédite par la loi de Benford devient beaucoup plus naturelle. Les intervalles [1,2), [2,4), [3,6), [4,8) et [5,10) ont la même taille multiplicative 2. Les sommes des fréquences des premiers chiffres significatifs vus dans chacun de ces intervalles sont alors égales :</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/461958/original/file-20220509-18-ahmmn9.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461958/original/file-20220509-18-ahmmn9.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=97&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461958/original/file-20220509-18-ahmmn9.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=97&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461958/original/file-20220509-18-ahmmn9.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=97&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461958/original/file-20220509-18-ahmmn9.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=122&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461958/original/file-20220509-18-ahmmn9.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=122&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461958/original/file-20220509-18-ahmmn9.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=122&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Sommes des fréquences des premiers chiffres significatifs prévues par la loi de Benford sur des intervalles de taille multiplicative 2.</span>
</figcaption>
</figure>
<p>Cette vision multiplicative se retrouve dans un autre argument couramment avancé pour expliquer la loi de Benford : la distribution du premier chiffre significatif doit être la même en France, où l’on mesure les distances en kilomètres et les prix en euros, qu’aux États-Unis où l’on utilise les miles et les dollars. Autrement dit elle ne doit pas dépendre du choix des unités utilisées pour mesurer les grandeurs. Ainsi les fréquences des premiers chiffres significatifs ne doivent pas changer si l’on multiplie toutes les données par un même nombre (ce qui correspond à un changement d’unité). Or la loi de Benford est la <a href="https://www.jstor.org/stable/2237922">seule distribution</a> qui satisfait cette invariance.</p>
<h2>Un détecteur de fraude</h2>
<p>La loi de Benford peut sembler n’être qu’une curiosité anecdotique. Cependant, au début des années 90, l’économiste <a href="https://en.wikipedia.org/wiki/Mark_Nigrini">Mark Nigrini</a> lui trouva une application très concrète : il eut l’idée de l’utiliser pour la détection de fraudes dans des données, et y a même consacré un <a href="https://www.wiley.com/en-us/Forensic+Analytics%3A+Methods+and+Techniques+for+Forensic+Accounting+Investigations-p-9781118386798">ouvrage en 2012</a>.</p>
<p>En effet, si une série de nombres variés provenant de données réelles suit théoriquement la distribution prédite par Benford, Nigrini montre que dans des données comptables falsifiées, la fréquence de nombres commençant par 5 ou 6 est largement plus élevée : la plupart des faussaires ignorent la loi de Benford ! Des experts-comptables peuvent ainsi mettre en évidence les fraudes des sociétés. Il semble courant aujourd’hui de se baser sur la loi de Benford (incluant des tests plus approfondis considérant également le second chiffre significatif des nombres) pour suspecter une fraude dans des données, qu’elles soient fiscales, comptables, électorales ou même scientifiques. Bien qu’un écart à la loi de Benford ne constitue pas une preuve de fraude, il peut orienter les experts vers des vérifications plus poussées.</p>
<p>Sans même être expert, ni avoir envie de débusquer des fraudes, la simple curiosité vous poussera peut-être à constater par vous même la loi de Benford quelles que soient vos prochaines lectures.</p><img src="https://counter.theconversation.com/content/182386/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Découvrez la loi de Benford : une curiosité mathématique utilisée notamment dans la lutte contre les fraudes fiscales.Thierry de la Rue, Chargé de recherche CNRS en mathématiques, Université de Rouen NormandieGaëlle Chagny, chargée de recherche CNRS en mathématiques (statistique), Université de Rouen NormandieLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1825352022-05-19T19:27:29Z2022-05-19T19:27:29ZTravailler à des horaires atypiques : de plus en plus fréquent chez les femmes peu qualifiées<figure><img src="https://images.theconversation.com/files/462033/original/file-20220509-18-wjdrr0.jpg?ixlib=rb-1.1.0&rect=0%2C83%2C1674%2C1099&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Les femmes exerçant des métiers peu qualifiés, notamment dans les entreprises de ménage, sont plus souvent tributaires d'horaires décalés.</span> <span class="attribution"><a class="source" href="https://pxhere.com/fr/photo/1241888">Pxhere</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span></figcaption></figure><p>Les horaires atypiques de travail, tôt le matin, le soir, la nuit, le samedi et/ou le dimanche, ont progressé <a href="https://www.legifrance.gouv.fr/dossierlegislatif/JORFDOLE000029883713/">ces dernières décennies</a> suite aux <a href="https://www.legifrance.gouv.fr/loda/id/JORFTEXT000032983213/">lois</a> et <a href="https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000035607311">ordonnances</a> favorisant la modulation du temps de travail et étendant le recours dérogatoire au travail dominical. Quelles catégories socioprofessionnelles ont été les plus touchées par cette évolution ? Les <a href="https://www.cairn.info/revue-population-et-societes-2022-4-page-1.htm">femmes</a> ont-elles été affectées de la même façon que les hommes ?</p>
<p>Les inégalités sur le marché du travail ont longtemps été examinées au travers du statut d’emploi, du salaire et du temps partiel. La répartition des <a href="https://www.insee.fr/fr/statistiques/2110925?sommaire=2110927">heures et jours de travail</a> dans la semaine soulève également d’importants défis pour les <a href="https://www.journals.uchicago.edu/doi/abs/10.1086/426487?journalCode=ssr">familles</a> et la <a href="https://www.researchgate.net/publication/290449000_Out_of_Time_The_Consequences_of_Non-standard_Employment_Schedules_for_Family_Cohesion">santé</a> des salariés.</p>
<h2>Les horaires standards de travail en recul</h2>
<p>Si la « journée de bureau » s’est progressivement imposée comme la norme de référence au cours du XX<sup>e</sup> siècle, les horaires standards sont numériquement en recul. En 2019, 37 % des salariés de l’Union européenne travaillent ainsi habituellement en <a href="https://ec.europa.eu/eurostat/web/products-datasets/-/lfsa_esegatyp">horaires décalés</a>.</p>
<p>Plusieurs évolutions ont favorisé le développement des horaires atypiques de travail : l’essor de l’économie numérique et du travail à la demande, aussi appelée <a href="http://journals.openedition.org/nrt/3797">« ubérisation »</a> de l’économie ; le <a href="https://www.ined.fr/fichier/rte/General/Publications/Population/2021/population-2/chronique-vieillissement-13-09.pdf">vieillissement de la population</a> et la hausse des besoins en santé ; les changements dans les modes de vie et de consommation ; la dérégulation du temps de travail.</p>
<p>En France, alors que les règles régissant la durée du travail sont fixées par le code du travail, une série de lois récentes – par exemple la Loi pour la croissance, l’activité et l’égalité des chances économiques (ou Loi Macron) de 2015, la loi relative au travail, à la modernisation du dialogue social et à la sécurisation des parcours professionnels (ou Loi Travail) de 2016) a favorisé la modulation du temps de travail par accord d’entreprise et étendu le recours dérogatoire au travail dominical. Ces transformations économiques et juridiques s’accompagnent-elles d’une progression des horaires atypiques de travail et, si oui, pour quels groupes de salariés ?</p>
<h2>Qu’entend-on par horaires atypiques de travail ?</h2>
<p>Au sens strict, les horaires atypiques de travail désignent les jours et horaires de travail non conventionnels, c’est-à-dire les horaires décalés dans la journée (le soir, la nuit, tôt le matin) et dans la semaine (le week-end). La mesure de ces horaires varie selon les réglementations nationales et les <a href="https://doi.org/10.34847/nkl.efafyj01">conventions statistiques</a>.</p>
<p>Un salarié est dit en horaires atypiques ici s’il déclare travailler habituellement selon au moins l’une des modalités suivantes : tôt le matin (5h-7h), tard le soir (20h-0h), la nuit (0h-5h), le samedi, le dimanche. Sont ainsi exclus les salariés qui travaillent occasionnellement en horaires atypiques pour ne retenir que les expositions les plus fréquentes, susceptibles d’avoir des répercussions importantes dans la sphère familiale.</p>
<p>En France métropolitaine, en 2019, 36 % des salariés travaillent habituellement en <a href="https://www.cairn.info/revue-population-et-societes-2022-4-page-1.htm">horaires atypiques</a>. Cette fréquence, qui situe la France dans la moyenne européenne, apparaît stable au cours de la dernière décennie. Toutefois, tandis que le travail du soir et de nuit a légèrement reculé entre 2013 et 2019, le travail du samedi, du dimanche et du matin (de 5h à 7h) a augmenté pour certaines catégories de salariés qui apparaissent plus exposées (figure 1).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/461755/original/file-20220506-12-ph28r1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461755/original/file-20220506-12-ph28r1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=542&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461755/original/file-20220506-12-ph28r1.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=542&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461755/original/file-20220506-12-ph28r1.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=542&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461755/original/file-20220506-12-ph28r1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=681&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461755/original/file-20220506-12-ph28r1.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=681&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461755/original/file-20220506-12-ph28r1.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=681&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Note sur l’enquête Conditions de travail de la Dares : créée en 1978, cette enquête constitue la principale source d’informations sur l’organisation et les rythmes de travail en France. Afin de décrire l’exposition des salariés aux horaires atypiques, nous utilisons le volet « individus » des enquêtes Conditions de Travail 2013 et 2019, qui posent des questions identiques sur l’organisation du temps de travail et permettent des comparaisons dans le temps.</span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<h2>Plus de femmes travaillent avec des horaires atypiques</h2>
<p>Les femmes sont désormais proportionnellement plus nombreuses que les hommes à travailler avec des horaires atypiques même si elles n’effectuent pas les mêmes types d’horaires. Elles travaillent plus souvent le samedi et le dimanche, et la part de femmes exposées à ce type d’horaires a augmenté au cours de la dernière décennie contrairement à celle des hommes. Ces derniers restent proportionnellement plus nombreux à travailler tôt le matin, le soir et surtout la nuit, mais leur exposition aux horaires atypiques tend à se réduire sur la période.</p>
<p>D’importantes différences existent également selon la catégorie socioprofessionnelle des salariés et les écarts entre groupes sociaux se creusent sur la période (figure 2).</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/461756/original/file-20220506-20-ph28r1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/461756/original/file-20220506-20-ph28r1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461756/original/file-20220506-20-ph28r1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=580&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461756/original/file-20220506-20-ph28r1.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=580&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461756/original/file-20220506-20-ph28r1.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=580&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461756/original/file-20220506-20-ph28r1.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=729&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461756/original/file-20220506-20-ph28r1.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=729&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461756/original/file-20220506-20-ph28r1.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=729&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption"></span>
<span class="attribution"><span class="license">Author provided</span></span>
</figcaption>
</figure>
<p>En 2019 comme en 2013, les horaires atypiques sont plus fréquents parmi les salariés peu qualifiés. En 2019, un cadre sur six travaille habituellement en horaires atypiques contre près de la moitié des ouvriers et plus de la moitié des employés non qualifiés, catégorie la plus exposée. Au sein de ce groupe, quatre salariés sur dix travaillent habituellement le samedi et un quart le dimanche. Mais entre 2013 et 2019, l’exposition aux horaires atypiques a diminué de 18 % chez les cadres tandis qu’elle stagnait ou augmentait pour les autres salariés. La nature des emplois (plus souvent télétravaillables) et le statut d’activité (CDI) ont pu constituer pour les cadres des facteurs favorables à la mise en œuvre d’accords d’entreprises visant à favoriser la conciliation des temps de vie, promue de longue date par <a href="https://www.cairn.info/revue-de-l-ires-2015-2-page-99.htm">l’Union européenne</a>.</p>
<p>En croisant la catégorie socioprofessionnelle et le sexe pour tenir compte de la ségrégation sexuée du marché du travail, il apparaît que l’exposition des femmes aux horaires atypiques se réduit au cours de la dernière décennie pour les plus qualifiées alors qu’elle augmente au contraire pour celles qui le sont le moins. La part des femmes cadres en horaires atypiques diminue de 23 % entre 2013 et 2019 tandis qu’elle augmente de 11 % pour les ouvrières non qualifiées, catégorie qui subit la plus forte dégradation. Chez les hommes, la polarisation sociale des horaires de travail est moins marquée. La part des cadres en horaires atypiques diminue de 14 % entre 2013 et 2019, tandis que celle des ouvriers non qualifiés stagne.</p>
<h2>Des contraintes temporelles qui se cumulent pour les moins qualifiées</h2>
<p>En matière de temps de travail, les horaires atypiques peuvent se combiner avec d’autres formes de <a href="https://dares.travail-emploi.gouv.fr/publications/le-travail-en-horaires-atypiques">contraintes temporelles</a>.</p>
<p>Parmi ces dernières, les horaires irréguliers (variables d’un jour à l’autre), les journées discontinues (périodes de travail séparées d’au moins 3h) et les horaires imprévisibles (connus un jour à l’avance ou moins) sont susceptibles d’affecter le bien-être et <a href="https://doi.org/10.34847/nkl.efafyj01">l’organisation familiale des salariés</a>.</p>
<p>Les salariés habituellement en horaires atypiques sont davantage concernés par ces contraintes temporelles que les salariés en horaires conventionnels : en 2019, 35 % des salariés travaillant habituellement en horaires atypiques ont également des horaires variables (contre 24 % des autres salariés), 12 % ne connaissent pas leurs horaires de travail à l’avance (contre 8 % des autres salariés) et 9 % effectuent des journées de travail discontinues (contre 3 % des autres salariés).</p>
<p>La proportion de salariés en horaires atypiques concernés par ces autres formes de contraintes temporelles varie toutefois selon le sexe et la catégorie socioprofessionnelle (tableau et figure 3).</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/461758/original/file-20220506-26-m0qeh4.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461758/original/file-20220506-26-m0qeh4.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=617&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461758/original/file-20220506-26-m0qeh4.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=617&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461758/original/file-20220506-26-m0qeh4.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=617&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461758/original/file-20220506-26-m0qeh4.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=775&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461758/original/file-20220506-26-m0qeh4.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=775&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461758/original/file-20220506-26-m0qeh4.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=775&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
<span class="attribution"><span class="source">« Horaires atypiques de travail », Population & Sociétés, n° 599</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>Les journées discontinues des ouvrières et employées peu qualifiées</h2>
<p>Les ouvrières et employées non qualifiées font plus souvent face à des journées discontinues et des horaires imprévisibles, dans des proportions identiques ou supérieures aux hommes de leur catégorie : elles sont parmi les plus exposées.</p>
<p>Au contraire, les femmes qualifiées apparaissent moins touchées par ces contraintes et sont toujours plus protégées que les hommes de leur catégorie.</p>
<p>En outre, comme pour les horaires atypiques, ces contraintes temporelles tendent à se réduire pour les plus qualifiés au cours de la dernière décennie, en particulier pour les femmes, alors qu’elles connaissent des évolutions contrastées pour les moins qualifiées (figure 3).</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/461759/original/file-20220506-14-1cnkdg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/461759/original/file-20220506-14-1cnkdg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/461759/original/file-20220506-14-1cnkdg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=299&fit=crop&dpr=1 600w, https://images.theconversation.com/files/461759/original/file-20220506-14-1cnkdg.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=299&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/461759/original/file-20220506-14-1cnkdg.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=299&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/461759/original/file-20220506-14-1cnkdg.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=375&fit=crop&dpr=1 754w, https://images.theconversation.com/files/461759/original/file-20220506-14-1cnkdg.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=375&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/461759/original/file-20220506-14-1cnkdg.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=375&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption"></span>
<span class="attribution"><span class="source">« Horaires atypiques de travail », Population & Sociétés, n° 599</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Chez les cadres en horaires atypiques, la part de femmes exposées aux horaires imprévisibles et aux journées discontinues diminue respectivement de -58 % et -49 % entre 2013 et 2019, la plus forte baisse observée. Au contraire, les employées non qualifiées sont de plus en plus exposées aux horaires imprévisibles (+ 18 %), tandis que les ouvrières non qualifiées en horaires atypiques ont moins de journées discontinues mais toujours autant d’horaires imprévisibles.</p>
<h2>Des horaires loin d’être marginaux</h2>
<p>L’exposition aux horaires atypiques de travail, loin d’être marginale en France, se recompose au cours de la dernière décennie plus qu’elle ne se diffuse à l’ensemble des salariés. Ce sont les femmes peu qualifiées qui pâtissent le plus de la montée des horaires atypiques, en particulier du travail habituel le samedi et le dimanche. Ce processus de polarisation sociale et de genre questionne la dynamique des inégalités à l’œuvre sur le marché du travail. Certes, des politiques de conciliation entre la vie professionnelle et familiale ont été mises en œuvre dans différentes grandes entreprises depuis le milieu des années 2000, mais les salarié·e·s sont inégalement concernés en fonction des secteurs d’activité et de leur poste de travail.</p>
<p>Les femmes peu qualifiées sont ainsi surreprésentées dans les métiers du commerce et de la distribution, où le travail dominical a progressé, ainsi que dans les métiers du soin et des services à la personne, où les horaires atypiques sont structurels et peu sujets à amélioration. En outre, les horaires atypiques ont des conséquences en chaîne sur différentes dimensions de la vie familiale et sociale des salarié·e·s, qu’il convient de mieux connaître et mesurer pour apporter les réponses adaptées.</p>
<hr>
<p><em>Ce texte est adapté d’un article publié par les autrices dans <a href="https://www.cairn.info/revue-population-et-societes-2022-4-page-1.htm">Population et Sociétés</a> n° 599, « Horaires atypiques de travail : les femmes peu qualifiées de plus en plus exposées »</em></p><img src="https://counter.theconversation.com/content/182535/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Anne Lambert a reçu des financements de l'Agence nationale de la recherche (ANR19-CE26-0013-01)</span></em></p><p class="fine-print"><em><span>Laetitia Langlois a reçu des financements de l'Agence nationale de la recherche (ANR19-CE26-0013-01).</span></em></p>Les résultats d’une étude récente montrent que les femmes sont plus souvent sujettes que les hommes aux horaires atypiques.Anne Lambert, Sociologue, directrice de l’unité de recherche Logement, Inégalités Spatiales et Trajectoires (INED), Institut National d'Études Démographiques (INED)Laetitia Langlois, chargée d'études statistiques, Institut National d'Études Démographiques (INED)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1777772022-04-06T21:15:52Z2022-04-06T21:15:52ZComment estimer l’évolution du Covid-19 malgré des données de contaminations de qualité limitée<p>La pandémie de Covid-19 a durement éprouvé l’ensemble de nos sociétés, mettant en évidence de nombreuses faiblesses et produisant des défis multiples et de natures très variées. Les mondes de la recherche et de l’université n’ont pas été épargnés par cette crise. Au-delà de la difficulté de faire fonctionner les structures d’enseignement, deux questionnements fondamentaux se sont imposés, relatifs à la pratique de la recherche interdisciplinaire, d’une part, et aux relations entre la science et la société d’autre part. Ainsi, nombres de chercheurs, bien au-delà des disciplines « naturellement » convoquées (épidémiologies, virologie…) se sont interrogés sur la façon de contribuer aux efforts entrepris par l’ensemble de la société pour lutter contre le fléau pandémique.</p>
<p>Dans ce contexte, notre équipe de chercheurs (physiciens, spécialistes de la théorie de l’information, informaticiens, cartographes, sociologues, philosophes…), rompus à l’exercice de la recherche interdisciplinaire par nos travaux antérieurs au sein de <a href="http://www.ixxi.fr/">l’Institut Rhône-Alpin des systèmes complexes</a>, a réfléchi à la construction d’un outil robuste de quantification de l’évolution spatio-temporelle de l’intensité de la pandémie et du rendu de cette estimation à destination du grand public et des citoyens.</p>
<p>Notre équipe n’était pas spécialisée en épidémiologie au moment de la survenue du premier confinement. Cependant, un intense travail de recherche bibliographique a rapidement permis d’imaginer que l’utilisation d’un modèle mis au point par des épidémiologistes durant les précédentes pandémies, combiné à des outils d’analyse du signal et de l’image, que nous avions récemment développés, et qui permettent de détecter les bulles de gaz dans un enregistrement filmé d’écoulement liquide, permettrait de mesurer l’intensité de la pandémie.</p>
<p>La surveillance de l’intensité d’une pandémie repose fondamentalement sur l’observation régulière du nombre de nouvelles infections. Les mesures réalisées pendant la pandémie de Covid-19 présentent cependant la particularité d’être de qualité très limitée, et ce dans tous les pays du monde. Elles sont, en effet, fortement corrompues par des comptes aberrants, parfois négatifs, des valeurs manquantes (les week-ends ou jours fériés), des comptes reportés les jours suivants.</p>
<p>Après deux ans de pandémie, la qualité des données reste limitée, induisant ainsi une des difficultés majeures pour réaliser une estimation fiable et robuste de l’évolution de l’intensité de la pandémie.</p>
<h2>La surveillance de la pandémie</h2>
<p>Quoique la surveillance d’une pandémie puisse être envisagée de <a href="https://arxiv.org/abs/2102.02457">multiples façons</a> par différentes sciences, l’épidémiologie recourt le plus souvent aux <a href="https://link.springer.com/book/10.1007/978-1-4939-9828-9">modèles à compartiments</a>. La population est répartie en « compartiments » (sains, malades, guéris, décédés…) dont les tailles évoluent au cours du temps selon un ensemble de lois « simples ».</p>
<p>Cependant, pour rendre compte d’une pandémie qui affecte toute la population mais par des canaux divers et avec des intensités différentes, il faut beaucoup de compartiments, ce qui complique significativement l’utilisation pratique et réelle de tels modèles pendant la pandémie et en présence de données de qualité réduite.</p>
<p>La surveillance dans un contexte intrapandémie est donc souvent réalisée à l’aide d’un modèle plus sommaire, on abandonne la découpe en compartiments, mais plus robuste, on se concentre sur un seul paramètre : <a href="https://pubmed.ncbi.nlm.nih.gov/15353409/">le taux de reproduction de la pandémie R</a>, qui mesure le nombre d’individus qui seront, en moyenne, infectés par une seule et même personne déjà infectée.</p>
<p>Le modèle épidémiologique développé dans <a href="https://academic.oup.com/aje/article/178/9/1505/89262?login=false">cette étude</a> et utilisé préserve le mécanisme fondamental de propagation d’une épidémie : le nombre de nouvelles infections aujourd’hui dépend du taux de reproduction, que l’on cherche à mesurer, multiplié par une moyenne des nombres d’infections de jours précédents, moyenne pondérée par la fonction sérielle d’intervalle. Pour les pandémies à coronavirus, cette fonction sérielle est connue, de valeur moyenne 7 jours et prenant des valeurs significatives de 3 à 12 jours. L’originalité de ce modèle est de rendre R dépendant du temps, R_t, et d’ainsi pouvoir suivre ses variations : plus R_t s’éloigne de 1 par valeurs supérieures plus la pandémie accélère, plus il se rapproche de 0 plus la pandémie ralentit.</p>
<p>C’est à l’estimation (c’est-à-dire l’évaluation de sa valeur à partir des données observées) de l’évolution en temps et en espace de ce R_t que <a href="https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0237901">nous nous sommes intéressés</a>.</p>
<p>À partir de ce modèle, il est aisé d’obtenir une expression théorique de l’estimation de R_t aujourd’hui. Cette estimation, mise en œuvre sur les données réelles de Covid-19, produit une mesure de l’intensité de la pandémie. Cette estimée est totalement inutilisable pour les épidémiologistes car fortement variable et très erratique d’un jour au suivant alors que R_t est, par nature, une quantité qui ne peut varier que faiblement et lentement au cours du temps. Cette piètre estimation résulte de deux causes, l’une structurelle, l’autre conjoncturelle : d’une part, on veut estimer R_t chaque jour à partir d’une seule nouvelle donnée, une situation peu robuste statistiquement. D’autre part, la faible qualité, les valeurs aberrantes biaisent l’estimation.</p>
<h2>Un modèle de physique appliqué à l’épidémiologie</h2>
<p>Ces difficultés d’estimation sont classiquement rencontrées dans d’autres contextes, ceux de la détection de bulles de gaz dans un écoulement liquide, par exemple, auquel nous nous intéressions avant la pandémie. Pour y faire face, il faut envisager des stratégies de régularisation. On adjoint au modèle épidémiologique des contraintes que l’estimée de R_t doit respecter. On lui impose donc ici naturellement d’être positif ou nul, d’être lentement variable en temps.</p>
<p>On impose également que les R_t mesurés sur des territoires « voisins », les départements français partageant une frontière terrestre par exemple, soient peu différents.</p>
<p>Prendre en compte la limitation conjoncturelle (faible qualité des données observées) se fait classiquement par un prétraitement des données. Dans le contexte temps réel et évolutif de la pandémie de Covid-19, la modélisation de ce prétraitement aurait été fastidieuse et délicate : elle aurait dû dépendre de chaque pays, et, pour un même pays, aurait dû varier au fur et à mesure de l’évolution du suivi de l’épidémie.</p>
<p>Nous avons construit une stratégie alternative qui consiste à réaliser en même temps et l’estimation de R_t et le traitement des données aberrantes, sans modélisation préalable de celles-ci. Nous avons alors « perturbé » de façon fine le modèle épidémiologique pour autoriser l’occurrence de valeurs aberrantes, tout en préservant les fondements du mécanisme épidémiologique.</p>
<h2>Nos résultats</h2>
<p>Nos outils permettent d’obtenir une estimation très réaliste de R_t : elle varie peu et lentement d’un jour à l’autre et est donc plausible vis-à-vis des mécanismes épidémiologiques. De plus, l’estimation des valeurs aberrantes permet une estimation des nombres réels de nouvelles infections.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/456603/original/file-20220406-7184-gw7t0.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/456603/original/file-20220406-7184-gw7t0.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=330&fit=crop&dpr=1 600w, https://images.theconversation.com/files/456603/original/file-20220406-7184-gw7t0.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=330&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/456603/original/file-20220406-7184-gw7t0.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=330&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/456603/original/file-20220406-7184-gw7t0.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=415&fit=crop&dpr=1 754w, https://images.theconversation.com/files/456603/original/file-20220406-7184-gw7t0.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=415&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/456603/original/file-20220406-7184-gw7t0.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=415&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Évolution de l’intensité de la pandémie de Covid-19 en France. Graphique supérieur : Nombres de nouvelles infections quotidiennes rapportées (noir) et nombres de nouvelles infections quotidiennes estimées(rouge). Graphique inférieur : Estimations du taux de reproduction de la pandémie R, robuste et réaliste (rouge)..</span>
</figcaption>
</figure>
<p>Nos outils sont mis en œuvre automatiquement et quotidiennement pour produire un estimé temps réel de la pandémie pour près de 200 pays ou territoires autonomes.</p>
<p>Avec pour objectif un transfert libre et direct d’information sur l’état de la pandémie vers la société et les citoyens, les graphiques, mis à jour quotidiennement et représentant l’évolution au cours du temps de la pandémie, sont accessibles <a href="https://perso.ens-lyon.fr/patrice.abry/">à cette adresse</a>. Ils sont complétés par des <a href="http://barthes.enssib.fr/coronavirus/cartes/Rmonde/">cartes interactives</a> (le pays d’intérêt peut être choisi) et animées (l’évolution en temps peut être activée) permettant de visualiser conjointement les évolutions en temps et en espace de la pandémie dans le monde.</p>
<p>Par ailleurs, l’évolution spatio-temporelle de la pandémie à travers les départements de France métropolitaine, estimée à partir des comptes de nouvelles infections ayant entraînées une hospitalisation, tels que mis en libre accès par Santé Publique- France, est <a href="https://perso.ens-lyon.fr/patrice.abry/">mise à jour quotidiennement</a> et rendue accessible sous forme d’une <a href="http://barthes.enssib.fr/coronavirus/cartes/RFrance/">carte interactive</a>.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/456611/original/file-20220406-16-mqlto.png?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/456611/original/file-20220406-16-mqlto.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/456611/original/file-20220406-16-mqlto.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=605&fit=crop&dpr=1 600w, https://images.theconversation.com/files/456611/original/file-20220406-16-mqlto.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=605&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/456611/original/file-20220406-16-mqlto.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=605&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/456611/original/file-20220406-16-mqlto.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=760&fit=crop&dpr=1 754w, https://images.theconversation.com/files/456611/original/file-20220406-16-mqlto.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=760&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/456611/original/file-20220406-16-mqlto.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=760&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Carte de France du taux de reproduction estimé R(T).</span>
<span class="attribution"><span class="source">Patrice Abry</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Ces estimées spatio-temporelles, graphiques et cartes ont un double intérêt. Rétrospectivement, elles permettent de quantifier l’impact de mesures sanitaires (confinement, couvre-feu…) sur l’évolution de la pandémie et de comparer ces impacts sur différents territoires, départements ou pays. Prospectivement, le choix de produire des estimées linéaires par morceaux, a pour conséquence de livrer non seulement une estimée de R aujourd’hui mais aussi de la tendance actuelle, et ainsi de prévoir l’évolution de la pandémie à l’horizon de l’échelle de temps imposée par la fonction sérielle, de quelques semaines seulement donc. L’outil ne permet ainsi pas de prévoir le long terme mais de donner la tendance à court terme, ce que la langue anglaise désigne efficacement par le terme de « nowcasting » (par opposition à « forecasting »).</p>
<p>Au-delà des publications dans des journaux scientifiques internationaux, cette méthodologie a été présentée à plusieurs reprises devant les communautés interdisciplinaires de recherche constituées par les organismes acteurs de la recherche, la structure <a href="https://modcov19.math.cnrs.fr">ModCov</a> du CNRS ou la cellule « Corona » de l’Académie des sciences. Ce travail a également donné naissance au séminaire interdisciplinaire <a href="http://www.ixxi.fr/agenda/seminaires/la-covid-19-regards-et-questions-interdisciplinaires">« La Covid-19 : regards et questions interdisciplinaires »</a> de l’Institut Rhône-alpin des systèmes complexes.</p><img src="https://counter.theconversation.com/content/177777/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Patrice Abry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Afin de mesurer l’évolution de la pandémie, les modèles se basent sur les contaminations quotidiennes. Ces données peuvent manquer certains jours de fermeture des laboratoires.Patrice Abry, Directeur de Recherche au CNRS, ENS de LyonLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1757682022-02-20T17:26:50Z2022-02-20T17:26:50Z« France périphérique », abstention et vote RN : une analyse géographique pour dépasser les idées reçues<figure><img src="https://images.theconversation.com/files/444336/original/file-20220203-23-bjf7b3.jpg?ixlib=rb-1.1.0&rect=0%2C11%2C798%2C519&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Zone commerciale La Croix-Blanche à Sainte-Geneviève-des-Bois en France.</span> <span class="attribution"><a class="source" href="https://commons.wikimedia.org/wiki/File:Zone_commerciale_La_Croix-Blanche_%C3%A0_Sainte-Genevi%C3%A8ve-des-Bois_en_France_le_16_mars_2017_-_16.jpg">Lionel Alorge</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span></figcaption></figure><p>En France, les commentaires qui ont ponctué la décennie 2010 sur la montée du vote pour le Front national (désormais Rassemblement national) et de l’abstention s’inscrivent dans une perspective plus large de crise des grandes démocraties occidentales.</p>
<p>Dans le cadre de cette crise, le vote populiste (a fortiori de droite) et l’abstention iraient de pair. Récemment, le géographe français Christophe Guilluy, en introduisant le <a href="http://www.slate.fr/story/92641/christophe-guilluy-france-peripherique">concept controversé</a> de « France périphérique », a tenté de fournir une clef de lecture géographique à ces maux. La mondialisation, en favorisant en Occident une économie des services dans laquelle les <a href="https://www.lemonde.fr/economie/article/2019/06/10/michel-lussault-les-villes-mondes-deviennent-des-acteurs-geopolitiques_5474271_3234.html">« villes-mondes »</a> ont la part belle, a conduit à fracturer chaque territoire national. Deux espaces se feraient désormais face. Dans chaque pays, aux grandes métropoles s’opposerait le reste du territoire. C’est cette périphérie qui serait le terreau de l’abstention et du vote nationaliste émanant de ceux qui ont fait sécession avec le système.</p>
<p>Les géographies de l’abstention et du vote Front national (devenu Rassemblement national en 2018) recoupent-elles toutes deux le concept de France périphérique ? Une analyse (publication à venir) de la dernière élection présidentielle permet de nuancer cette idée au moment où la force politique lepéniste <a href="https://www.lefigaro.fr/elections/legislatives/resultats-legislatives-2022-ensemble-sans-majorite-absolue-nupes-et-rn-font-le-plein-de-sieges-lr-en-embuscade-20220619">confirme sa dynamique au parlement</a>.</p>
<h2>La France périphérique selon Guilluy</h2>
<p>Pour vérifier la pertinence de l’approche de Guilluy pour l’analyse de l’abstention et du vote FN, nous avons pris la définition de la France périphérique donnée en 2015 dans <a href="https://editions.flammarion.com/la-france-peripherique/9782081312579">son livre éponyme</a>.</p>
<p>Celle-ci s’appuie sur une base communale. La France métropolitaine correspond aux communes des vingt-cinq plus grandes métropoles françaises en s’appuyant sur le <a href="https://www.insee.fr/fr/statistiques/1281191">zonage en aires urbaines 2010</a> de l’Insee. La France périphérique correspond au reste du pays auquel s’adjoignent les communes périurbaines les plus fragiles des vingt-cinq grandes métropoles françaises : Paris, Lyon, Marseille – Aix-en-Provence, Toulouse, Lille (partie française), Bordeaux, Nice, Nantes, Strasbourg (partie française), Grenoble, Rennes, Rouen, Toulon, Douai – Lens, Montpellier, Avignon, Saint-Étienne, Tours, Clermont-Ferrand, Nancy, Orléans, Caen, Angers, Metz et Dijon.</p>
<p>L’ajout de ces communes périurbaines a pour but de distinguer le périurbain pauvre du périurbain aisé des grandes villes et est réalisé en calculant pour chaque commune périurbaine un indice quantifiant le niveau de fragilité sociale de la population locale et combinant plusieurs grandeurs socio-économiques <a href="https://www.cairn.info/la-france-peripherique--9782081347519-page-25.htm">comme le taux d’ouvriers et d’employés ou le niveau de vie</a>.</p>
<p>Nous avons ainsi reconstitué la France périphérique et la France métropolitaine de Guilluy en utilisant les données communales socio-économiques de 2017.</p>
<p>Cette dichotomie territoriale est ensuite comparée aux géographies de l’abstention et du vote FN au premier tour de la présidentielle de 2017.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/443694/original/file-20220201-19-1fhss3f.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/443694/original/file-20220201-19-1fhss3f.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/443694/original/file-20220201-19-1fhss3f.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=559&fit=crop&dpr=1 600w, https://images.theconversation.com/files/443694/original/file-20220201-19-1fhss3f.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=559&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/443694/original/file-20220201-19-1fhss3f.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=559&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/443694/original/file-20220201-19-1fhss3f.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=702&fit=crop&dpr=1 754w, https://images.theconversation.com/files/443694/original/file-20220201-19-1fhss3f.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=702&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/443694/original/file-20220201-19-1fhss3f.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=702&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Figure 1 : La France périphérique (en bleue). Géographie de l’abstention VS géographie du vote RN. La visualisation des géographies de l’abstention et du vote RN pour le premier tour de la présidentielle de 2017 suggère que leur recoupement avec la France périphérique n’est pas immédiat.</span>
<span class="attribution"><span class="source">Outil « statistiques locales » de l’Insee</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/444668/original/file-20220206-17-wfj4gc.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/444668/original/file-20220206-17-wfj4gc.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/444668/original/file-20220206-17-wfj4gc.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=467&fit=crop&dpr=1 600w, https://images.theconversation.com/files/444668/original/file-20220206-17-wfj4gc.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=467&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/444668/original/file-20220206-17-wfj4gc.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=467&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/444668/original/file-20220206-17-wfj4gc.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=586&fit=crop&dpr=1 754w, https://images.theconversation.com/files/444668/original/file-20220206-17-wfj4gc.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=586&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/444668/original/file-20220206-17-wfj4gc.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=586&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Figure 2 : taux d’abstention par commune au 1ᵉʳ tour de l’élection présidentielle de 2017.</span>
<span class="attribution"><span class="source">Ministère de l’Intérieur, Observatoire des votes en France</span></span>
</figcaption>
</figure>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/444670/original/file-20220206-15-1w1hs00.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/444670/original/file-20220206-15-1w1hs00.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/444670/original/file-20220206-15-1w1hs00.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=435&fit=crop&dpr=1 600w, https://images.theconversation.com/files/444670/original/file-20220206-15-1w1hs00.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=435&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/444670/original/file-20220206-15-1w1hs00.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=435&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/444670/original/file-20220206-15-1w1hs00.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=547&fit=crop&dpr=1 754w, https://images.theconversation.com/files/444670/original/file-20220206-15-1w1hs00.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=547&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/444670/original/file-20220206-15-1w1hs00.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=547&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Figure 3 : taux d’abstention par région au 1ᵉʳ tour de l’élection présidentielle de 2017.</span>
<span class="attribution"><span class="source">Ministère de l’Intérieur, Observatoire des votes en France</span></span>
</figcaption>
</figure>
<p>La géographie de l’abstention à l’échelle communale montre des dynamiques spatiales diverses. Pour certaines aires métropolitaines (Paris et Lyon), il semble effectivement se dessiner un gradient kilométrique positif : l’abstention semble plus forte autour du centre métropolitain, sans pour autant que cela soit très net.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/444662/original/file-20220206-17-1xoy7zv.PNG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/444662/original/file-20220206-17-1xoy7zv.PNG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/444662/original/file-20220206-17-1xoy7zv.PNG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=409&fit=crop&dpr=1 600w, https://images.theconversation.com/files/444662/original/file-20220206-17-1xoy7zv.PNG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=409&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/444662/original/file-20220206-17-1xoy7zv.PNG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=409&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/444662/original/file-20220206-17-1xoy7zv.PNG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=514&fit=crop&dpr=1 754w, https://images.theconversation.com/files/444662/original/file-20220206-17-1xoy7zv.PNG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=514&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/444662/original/file-20220206-17-1xoy7zv.PNG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=514&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Figure 4 : taux d’abstention par commune en région parisienne au 1ᵉʳ tour de l’élection présidentielle de 2017.</span>
<span class="attribution"><span class="source">Ministère de l’Intérieur, Observatoire des votes en France</span></span>
</figcaption>
</figure>
<p>Mais pour la majorité des métropoles (Bordeaux, Toulouse, Lille, Poitiers, Marseille, Clermont-Ferrand), la modalité dominante est celle de centres qui s’abstiennent plus que leurs alentours. Cela fait écho à la configuration « nord-américaine » des <a href="https://www.cairn.info/revue-gerontologie-et-societe-2010-1-page-47.htm">métropoles de province</a>, où la fragilité sociale se concentre plutôt dans le centre et les couronnes proches, du fait notamment de la présence de quartiers d’habitat social et de populations immigrées.</p>
<p>Surtout, une géographie régionale apparaît. L’abstention est très forte en Corse, dans le Nord et dans l’Est. Elle l’est moins en Bretagne et dans le Sud-Ouest, même si l’on repère quelques poches abstentionnistes (par exemple, le Médoc également connu pour être une terre frontiste). La géographie régionale de l’abstention (sur la base des grandes régions de 2015) permet de révéler plus clairement ce phénomène en retrouvant le fameux axe <a href="https://www.cairn.info/revue-francaise-de-science-politique-2007-3-page-411.htm">Le Havre-Marseille</a> qui sépare la France de l’Est historiquement industrielle, plus dense et territoire d’immigration de la France de l’Ouest historiquement moins dense et plus rurale.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/gilets-jaunes-une-fracture-nord-sud-126962">« Gilets jaunes » : une fracture nord-sud ?</a>
</strong>
</em>
</p>
<hr>
<h2>Une analyse de la variance</h2>
<p>Nos constats visuels sont précisés par une analyse de la variance (<a href="https://fr.wikipedia.org/wiki/Test_de_Fisher_d%27%C3%A9galit%C3%A9_de_deux_variances">test de Fisher</a>). Cette méthode statistique permet d’estimer le poids de différentes échelles spatiales dans l’abstention. Elle indique aussi quelles échelles sont significatives. Nous la déployons ici pour deux échelles : les régions de 2015 et la France périphérique.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/443705/original/file-20220201-25-12llt47.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/443705/original/file-20220201-25-12llt47.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/443705/original/file-20220201-25-12llt47.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=141&fit=crop&dpr=1 600w, https://images.theconversation.com/files/443705/original/file-20220201-25-12llt47.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=141&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/443705/original/file-20220201-25-12llt47.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=141&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/443705/original/file-20220201-25-12llt47.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=177&fit=crop&dpr=1 754w, https://images.theconversation.com/files/443705/original/file-20220201-25-12llt47.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=177&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/443705/original/file-20220201-25-12llt47.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=177&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Tableau 1 : contribution à la variation de l’abstention de chaque échelle spatiale significatif au seuil de 5 % selon un test de Fisher.</span>
<span class="attribution"><span class="source">F. Luciardi</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Les données électorales sont pondérées par la population des communes pour gommer au mieux les différences de taille. Il apparaît ainsi dans nos analyses statistiques que la France périphérique a un poids bien inférieur à celui des régions.</p>
<p>Par ailleurs, sa significativité pourrait tout aussi bien renvoyer à l’abstention forte dans plusieurs centres urbains par rapport à leurs alentours, dichotomie inverse de celle de Guilluy. Enfin, nous constatons qu’une grande partie de l’abstention (résidus), et donc de la participation, reste à éclairer par d’autres échelles, qui pourraient être par exemple la concentration de retraités, au comportement électoral souvent assidu, sur certains littoraux, notamment <a href="https://www.laprovence.com/actu/en-direct/6403619/elections-participation-contrastee-dans-les-alpes-du-sud.html">dans le Sud</a>, ou la haute participation dans les <a href="https://www.lagazettedescommunes.com/774333/les-petites-communes-epargnees-par-la-chute-de-la-participation/">petites communes rurales</a>.</p>
<p>Si le concept de France périphérique n’explique que peu l’abstention, il en est autrement pour le vote FN.</p>
<h2>Des espaces régionaux bien identifiés</h2>
<p>En visualisant la géographie du vote FN à l’échelle communale, on observe, plus clairement que pour l’abstention, une concurrence entre une géographie régionale et une géographie distinguant les grandes métropoles de leurs alentours.</p>
<p>Nous retrouvons les espaces régionaux qui constituent les traditionnelles zones de force du FN : le <a href="https://theconversation.com/des-terrils-bleu-marine-quelle-place-pour-le-rassemblement-national-dans-le-bassin-minier-164668">Nord et l’Est</a>, où l’industrie a été mise en difficulté, et le littoral méditerranéen.</p>
<hr>
<p>
<em>
<strong>
À lire aussi :
<a href="https://theconversation.com/le-rassemblement-national-par-ses-electorats-161836">Le Rassemblement national par ses électorats</a>
</strong>
</em>
</p>
<hr>
<p>Nous retrouvons également ses zones de faiblesse comme l’ancien Limousin, le Sud-Ouest (excepté une implantation FN dans la vallée de la Garonne) et la Bretagne. En effet, <a href="https://hal.archives-ouvertes.fr/file/index/docid/872387/filename/Campagnes_rouges_de_Bretagne.pdf">l’ouest de la France</a> a été, à partir des années 1970, une zone d’implantation pour le Parti socialiste (PS), tandis que le <a href="https://www.causecommune-larevue.fr/l_histoire_du_communisme_en_zone_rurale">Limousin</a> renvoie au passé des « campagnes rouges » où des structures agricoles coopératives favorisaient un communisme rural. La Bretagne et l’extrême Sud-Ouest (le Béarn) font aussi penser à l’implantation historique de la démocratie chrétienne. Les zones de faiblesse du RN témoignent donc de la persistance de cultures politiques régionales qui font que l’échelle régionale continue de compter dans la géographie électorale française.</p>
<h2>Une nouvelle géographie frontiste</h2>
<p>Mais face à cette géographie régionale, le concept de France périphérique semble aussi avoir de l’intérêt dans la géographie frontiste. On repère assez clairement les aires d’influence des grandes métropoles françaises (Paris, Lyon, Marseille, Bordeaux, Rennes, Nantes…) dont le vote FN est faible et entourées par des territoires plus favorables à ce parti.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/444671/original/file-20220206-21-o0k7ez.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/444671/original/file-20220206-21-o0k7ez.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/444671/original/file-20220206-21-o0k7ez.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=420&fit=crop&dpr=1 600w, https://images.theconversation.com/files/444671/original/file-20220206-21-o0k7ez.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=420&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/444671/original/file-20220206-21-o0k7ez.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=420&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/444671/original/file-20220206-21-o0k7ez.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=528&fit=crop&dpr=1 754w, https://images.theconversation.com/files/444671/original/file-20220206-21-o0k7ez.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=528&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/444671/original/file-20220206-21-o0k7ez.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=528&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Figure 5 : vote RN par commune au 1ᵉʳ tour de la présidentielle 2017 ( % des inscrits).</span>
<span class="attribution"><span class="source">Ministère de l’Intérieur, Observatoire des votes en France</span></span>
</figcaption>
</figure>
<p>L’analyse de la variance réalisée sur le vote FN montre cette fois-ci que la France périphérique est un facteur significatif dans ce phénomène. Sa contribution n’est pas négligeable bien qu’inférieure à l’échelle régionale. De plus, en répétant ce traitement statistique pour les présidentielles de 2002 et 2012 (2007 est mise de côté du fait de <a href="https://www.cairn.info/revue-francaise-de-science-politique-2007-3-page-411.htm">l’affaiblissement du FN</a> dû à Sarkozy) nous constatons que l’échelle de la France périphérique n’a fait que gagner en puissance sur la période 2002-2017.</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/443707/original/file-20220201-25-1sdbpfi.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/443707/original/file-20220201-25-1sdbpfi.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/443707/original/file-20220201-25-1sdbpfi.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=241&fit=crop&dpr=1 600w, https://images.theconversation.com/files/443707/original/file-20220201-25-1sdbpfi.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=241&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/443707/original/file-20220201-25-1sdbpfi.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=241&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/443707/original/file-20220201-25-1sdbpfi.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=303&fit=crop&dpr=1 754w, https://images.theconversation.com/files/443707/original/file-20220201-25-1sdbpfi.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=303&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/443707/original/file-20220201-25-1sdbpfi.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=303&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Tableau 2 : contribution à la variation du vote RN de chaque échelle spatiale pour plusieurs présidentielles, *significatif au seuil de 5 % selon un test de Fisher.</span>
<span class="attribution"><span class="source">F. Luciardi</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<h2>Deux comportements électoraux à distinguer</h2>
<p>L’abstention et le vote extrémiste, bien que présentés comme deux symptômes de la crise des démocraties occidentales, sont deux comportements très différents tant politiquement, que socialement et spatialement. C’est le constat qui ressort de l’analyse par le prisme de la France périphérique.</p>
<p>L’abstention est équivoque et procède de multiples mécanismes à la fois spatiaux et sociaux (régions en difficulté, pauvreté dans les centres urbains, déclassement social, défiance vis-à-vis du politique).</p>
<p>À l’inverse, la France périphérique semble compter davantage dans la structuration du vote FN. Une logique centre-périphérie semble ainsi gagner en puissance dans la structuration de ce comportement. Reste à savoir si cette logique s’enracine plutôt dans une opposition centres urbains <em>vs</em> périurbain ou grandes métropoles <em>vs</em> périphéries déclassées (y compris des centres urbains), comme l’invite à réfléchir le récent mouvement des « gilets jaunes ».</p>
<hr>
<p><em>L’auteur effectue sa thèse sous la direction de Gilles Van Hamme (Université Libre de Bruxelles, faculté des sciences) et Jean-Michel De Waele (Université Libre de Bruxelles, faculté de philosophie et sciences sociales).</em></p><img src="https://counter.theconversation.com/content/175768/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>François Luciardi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Les géographies de l’abstention et du vote RN recoupent-elles toutes deux le concept de France périphérique ? Les résultats de l’analyse statistique montrent autre chose.François Luciardi, Doctorant, Université Libre de Bruxelles (ULB)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1711302022-01-12T20:38:40Z2022-01-12T20:38:40ZQuand partager les données issues des essais cliniques permet de mieux soigner les patients<p>Dans le domaine de la santé, les essais cliniques sont nécessaires afin d’évaluer l’intérêt des nouveaux traitements et ainsi de justifier leur commercialisation et leur utilisation à grande échelle.</p>
<p>Un essai clinique débute principalement par la rédaction d’un protocole et la réalisation de démarches réglementaires. Des patients sont ensuite recrutés pour y participer, et leurs caractéristiques telles que leur âge, leur sexe, et les données de santé relatives à l’essai sont collectées et enregistrées pour constituer une base de données. C’est à partir de cette base de données que seront menées les analyses statistiques qui permettront de répondre aux questions posées par le protocole. Les résultats seront compilés dans un rapport, et sont normalement publiés sous la forme d’un article dans un journal scientifique qui assurera une diffusion large des résultats de cet essai. Cet article sera appelé « primaire » ou « initial », car il sera le premier article issu de l’essai clinique et de l’analyse de sa base de données.</p>
<p>Le prérequis d’un essai clinique rigoureux est donc un recueil de données de qualité strictement encadré par une équipe de recherche. Ainsi, la base de données est vérifiée et validée avant la réalisation des analyses statistiques. Ce recueil de données constitue une étape longue et onéreuse. L’essai clinique nécessite par ailleurs des moyens humains importants : une équipe de recherche pour la rédaction du protocole, le suivi et la réalisation de l’essai, des médecins ou professionnels de santé qui recrutent les patients lors de consultations, et bien sûr des patients qui consentent à participer à l’essai, c’est-à-dire à prendre des risques pour faire progresser les connaissances sur leur pathologie.</p>
<h2>Maximiser le bénéfice des données cliniques</h2>
<p>Devant ces investissements humains, temporels et financiers, il semble judicieux de vouloir maximiser le bénéfice obtenu grâce aux données recueillies, par exemple en les réutilisant ultérieurement pour d’autres finalités que celles de l’essai initial. Schématiquement, ces réutilisations peuvent être regroupées en trois catégories : les réanalyses, les analyses secondaires et les méta-analyses sur données individuelles.</p>
<p>Lorsqu’un chercheur souhaite vérifier les résultats d’un essai clinique, il peut demander les données pour effectuer lui-même à nouveau les analyses statistiques, on parle alors d’une réanalyse. Si les résultats du nouveau chercheur sont concordants avec ceux de l’article primaire, la réanalyse peut contribuer à élever le niveau de confiance accordé aux résultats, surtout si elle est réalisée par une équipe de recherche indépendante de celle de l’essai clinique initial. </p>
<p>En revanche, une réanalyse aboutissant à une conclusion différente de celle de l’article primaire peut avoir d’importantes conséquences sur les recommandations et la commercialisation des traitements évalués. C’est ce qui est arrivé pour l’essai clinique appelé « étude 329 » qui évaluait la place d’un antidépresseur (paroxétine ou imipramine) dans le traitement de la dépression chez les adolescent·e·s. Contrairement aux résultats de <a href="https://www.jaacap.org/article/S0890-8567(09)60309-9/fulltext">l’article primaire</a> publié en 2001, la <a href="https://www.bmj.com/content/351/bmj.h4320">réanalyse de 2015</a> n’a pas montré d’intérêt à l’utilisation de paroxétine ou d’imipramine dans les conditions décrites par le protocole.</p>
<p>Au-delà des réanalyses, il est possible d’aller plus loin avec le même jeu de données, en voulant répondre à des questions de recherche qui n’ont pas été explorées au moment de l’analyse statistique initiale. Les nouvelles analyses du jeu de données sont appelées des analyses secondaires. Elles peuvent s’intéresser à un sous-groupe de personnes, par exemple pour évaluer l’intérêt du traitement chez les personnes de plus de 65 ans seulement, ou étant diabétiques, etc. Les analyses secondaires peuvent aussi répondre à des questions totalement nouvelles, en réutilisant tout ou partie de la base de données, comme dans le <a href="https://www.nejm.org/doi/full/10.1056/NEJMp1705323">SPRINT Challenge</a> en 2016. Ce challenge, organisé par la reue scientifique <em>New England Journal of Medicine</em>, proposait d’explorer les bénéfices du partage des données en mettant à disposition la base de données de l’essai <a href="https://www.nejm.org/doi/full/10.1056/NEJMoa1511939">SPRINT</a> dans le but de trouver des résultats pouvant améliorer les connaissances médicales.</p>
<p>L’essai SPRINT comparait la prise en charge intensive de la pression artérielle (objectif d’une pression de moins de 120 mmHg) par rapport à la prise en charge standard (objectif d’une pression de moins de 140 mmHg) ; les résultats concluaient à l’intérêt de la prise en charge intensive. Ce résultat n’est vrai qu’à l’échelle d’une population : il vaut mieux en traiter l’intégralité que pas du tout. Cependant, certains individus de cette population n’obtiendront peut-être pas de bénéfices avec la prise en charge intensive. Les analyses secondaires occasionnées par le challenge ont notamment permis la conception d’un outil d’identification de ces personnes, permettant d’individualiser au mieux le traitement.</p>
<p>Enfin, si les bases de données de plusieurs essais cliniques sont disponibles, elles peuvent être réunies pour réaliser une méta-analyse à partir des données individuelles. Une méta-analyse est un regroupement de plusieurs essais cliniques similaires qui permet d’émettre une synthèse quantitative et exhaustive des résultats de tous les essais portant sur le traitement évalué. Cette synthèse est utile pour fournir une conclusion globale à partir d’essais ayant des résultats divergents. Habituellement, les chercheurs peuvent réaliser une méta-analyse en utilisant les valeurs moyennes rapportées dans les articles primaires (données agrégées), mais cette approche n’est pas toujours suffisante, et ce, tout particulièrement dans les situations où la prescription pourrait être individualisée. </p>
<p>Il faut alors utiliser directement les bases de données des essais cliniques et réaliser une « méta-analyse sur données individuelles ». Par exemple, dans certains cancers du poumon traités par radiothérapie, il a été démontré que l’ajout d’une chimiothérapie séquentielle (en alternance avec la radiothérapie) ou concomitante (en même temps que la radiothérapie) améliore la survie de certains patients, mais aucun essai ne permet d’affirmer l’intérêt d’une des approches sur l’autre. Sans recruter un patient de plus, grâce à une <a href="https://ascopubs.org/doi/10.1200/JCO.2009.26.2543">méta-analyse sur données individuelles</a>, l’Institut Gustave-Roussy a réussi à montrer que la chimiothérapie concomitante est plus efficace que le schéma séquentiel.</p>
<h2>Des réutilisations de données encore trop peu nombreuses</h2>
<p>Bien que les réanalyses, les analyses secondaires et les méta-analyses sur données individuelles présentent de belles promesses, les réutilisations sont encore trop peu nombreuses. Il est possible que les bases de données soient disponibles, mais ne soient pas suffisamment demandées par de nouvelles équipes de recherche. Pendant longtemps, la culture de la recherche clinique n’a pas encouragé le partage des données et cela n’évolue que progressivement. Il est aussi possible que les données soient demandées, mais que les auteurs de l’article primaire refusent de les partager (le partage n’étant pas obligatoire). Dans les deux cas, la lourdeur réglementaire et les moyens humains requis pour partager les données dans de bonnes conditions peuvent être un frein. Le partage est donc compliqué à mettre en œuvre en respectant les besoins et contraintes des équipes de recherches et les droits des patients.</p>
<p>Heureusement, les règles nationales et internationales supportent de plus en plus les pratiques de science ouverte, notamment en encourageant le partage des données. Par exemple, en France, le groupe de travail <a href="https://www.ouvrirlascience.fr/plan_de_partage_des_donnees_issues_des_essais_cliniques/">« Déclaration de partage des données issues des essais cliniques »</a>, porté par le ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation, a pour objectif de ne laisser aucun chercheur sans solution pour partager ses données, notamment en lui fournissant un guide et des documents types pour prévoir un partage responsable des données des essais cliniques.</p>
<hr>
<figure class="align-right ">
<img alt="" src="https://images.theconversation.com/files/328409/original/file-20200416-192725-wmbl1n.png?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/328409/original/file-20200416-192725-wmbl1n.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=484&fit=crop&dpr=1 600w, https://images.theconversation.com/files/328409/original/file-20200416-192725-wmbl1n.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=484&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/328409/original/file-20200416-192725-wmbl1n.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=484&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/328409/original/file-20200416-192725-wmbl1n.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=609&fit=crop&dpr=1 754w, https://images.theconversation.com/files/328409/original/file-20200416-192725-wmbl1n.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=609&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/328409/original/file-20200416-192725-wmbl1n.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=609&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption"></span>
</figcaption>
</figure>
<p><em>Cet article fait partie de la série « Les belles histoires de la science ouverte » publiée avec le soutien du ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation. Pour en savoir plus, visitez le site <a href="https://www.ouvrirlascience.fr/">Ouvrirlascience.fr</a>.</em></p><img src="https://counter.theconversation.com/content/171130/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Florian Naudet a reçu des financements de l' ANR / ministère de l'enseignement supérieur et de la recherche / ministère de la santé (PHRC)</span></em></p><p class="fine-print"><em><span>Claude Pellen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>En analysant à nouveau d’anciennes études, il est parfois possible de mieux personnaliser le traitement des patients.Claude Pellen, Doctorant en méta-recherche et pharmacien au CHU de Rennes, Université de Rennes 1 - Université de RennesFlorian Naudet, Professeur en thérapeutique, Université de Rennes 1 - Université de RennesLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1744782022-01-09T17:12:26Z2022-01-09T17:12:26ZIllettrisme : y a-t-il autant de jeunes concernés que le disent les politiques ?<p>Invitée sur RTL le 3 janvier 2022, la candidate des Républicains à l’élection présidentielle Valérie Pécresse <a href="https://www.rtl.fr/actu/politique/invitee-rtl-presidentielle-2022-l-ecole-francaise-est-la-plus-inegalitaire-d-europe-selon-pecresse-7900110576">a évoqué « l’un des deux points noirs de notre système éducatif »</a>, à savoir « l’illettrisme » en arguant qu’« aujourd’hui, aux journées citoyennes d’appel à la défense, vous avez 25 % de jeunes Français qui n’arrivent pas à lire le texte qu’on leur donne à lire ».</p>
<p>Parmi les 437000 participants de la <a href="https://www.education.gouv.fr/journee-defense-et-citoyennete-2020-pres-d-un-jeune-francais-sur-dix-en-difficulte-de-lecture-323603">session 2020</a>, 78,6 % ont été considérés comme des « lecteurs efficaces », 11,9 % comme des « lecteurs médiocres », et 9,5 % comme des lecteurs ayant de réelles difficultés à lire. Sur l’ensemble, 4,6 % des jeunes testés sont en « situation d’illettrisme » selon les données du ministère de l’Éducation nationale.</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/439643/original/file-20220106-13-1fou5nk.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/439643/original/file-20220106-13-1fou5nk.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=223&fit=crop&dpr=1 600w, https://images.theconversation.com/files/439643/original/file-20220106-13-1fou5nk.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=223&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/439643/original/file-20220106-13-1fou5nk.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=223&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/439643/original/file-20220106-13-1fou5nk.JPG?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=280&fit=crop&dpr=1 754w, https://images.theconversation.com/files/439643/original/file-20220106-13-1fou5nk.JPG?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=280&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/439643/original/file-20220106-13-1fou5nk.JPG?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=280&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Tableau extrait de la Note d’information 0°21.27 de juin 2021 de la Direction de l’évaluation, de la prospective et de la performance (DEPP).</span>
</figcaption>
</figure>
<p>Le taux de 25 % indiqué par Valérie Pécresse a été obtenu par soustraction des 78,6 % de « lecteurs efficaces », soit 21,4 %, arrondi à 25 % pour faire bonne mesure et frapper les esprits. On se croirait revenu une trentaine d’années en arrière lorsque le thème de « l’illettrisme » a fait irruption sur la scène politico-médiatique, avec le même type d’opération.</p>
<h2>Approximations statistiques</h2>
<p>À partir d’une étude de la Direction de l’évaluation et de la prospective qui avait conclu qu’entre 72 % et 80 % des élèves de CM2 sont capables, selon le degré de difficulté des textes qui leur sont présentés, d’en saisir globalement le sens et d’y prélever des informations pertinentes, le recteur Michel Migeon avait choisi dans un <a href="https://www.lemonde.fr/archives/article/1989/03/25/pour-lutter-contre-l-echec-scolaire-le-rapport-migeon-propose-un-apprentissage-continu-de-la-lecture-de-la-maternelle-au-college-un-sur-cinq_4112730_1819218.html">rapport publié en 1989</a> de faire une lecture « par défaut » des données de l’étude.</p>
<p>« Par soustraction, affirmait-il, on peut déduire qu’un minimum de 20 % de jeunes quitte l’école primaire sans savoir lire ». Il en tirait la conclusion spectaculaire, et alarmiste, qu’un cinquième des jeunes quittent l’école sans savoir lire et sont « illettrés ».</p>
<p><a href="https://www.reseau-canope.fr/musee/collections/fr/museum/mne/les-politiques-scolaires-mises-en-examen-douze-questions-en-debat/73419d44-d16b-4a94-b376-5adadc7587ae">Succès garanti</a> sur la scène politico-médiatique, avec un emballement et une surenchère dans le gonflement statistique (ou l’approximation à géométrie variable). Dans une déclaration au <em>Monde</em> du 3 mai 1993, François Bayrou indique ainsi qu’« il faut engager une politique ambitieuse pour réduire de moitié en cinq ans le nombre des enfants – 30 % actuellement – qui ne savent pas comment lire et comprendre un texte simple ».</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1478020455093223425"}"></div></p>
<p>Le 29 mars 1995, au cours de la campagne des présidentielles, Jacques Chirac proclame qu’il ne se résout pas « à accepter une situation où près d’un enfant sur deux entre en sixième sans comprendre ce qu’il lit ». La même année, il évoque « 40 % d’illettrés fonctionnels ». Le 21 janvier 1996, dans un point de vue publié dans Le Monde, il met en exergue l’interrogation suivante : « Doit-on rappeler que 30 % des élèves admis en sixième ne savent pas correctement lire ? »</p>
<h2>Familles de lecteurs</h2>
<p>On perçoit bien ici les <a href="https://www.cairn.info/l-invention-de-l-illettrisme--9782707131546-page-193.htm?contenu=plan">ambiguïtés qui sont en jeu</a> dans la notion d’« illettrisme ». De quoi s’agit-il au juste ? De quoi parle-t-on ?</p>
<p>Pour mieux comprendre le phénomène, il faut en revenir au rapport de mission d’Alain Bentolila, nommé en 1996 « chargé de mission nationale sur l’illettrisme et l’échec scolaire » par le président de la République Jacques Chirac. Depuis 1990, il collabore aux enquêtes du ministère de la Défense sur le niveau de lecture des conscrits, et <a href="https://www.lemonde.fr/archives/article/1997/09/11/un-jeune-sur-dix-rencontre-des-difficultes-en-lecture-selon-une-etude-de-l-insee_3780510_1819218.html">son rapport daté de juin 1997</a> mérite d’être longuement cité : il marque à la fois un certain tournant historique tout en commençant par une mise en garde toujours d’actualité :</p>
<blockquote>
<p>« Ceux-là mêmes qui ont eu la charge de définir et de mettre en œuvre une stratégie cohérente de lutte contre l’illettrisme ont accumulé erreurs et approximations dans l’indifférence d’un monde politique plus préoccupé de se servir de l’illettrisme que de veiller à son éradication ».</p>
</blockquote>
<p>Pour sa part, Alain Bentolila considère avoir mis au point un test fiable, fidèle et probant pour évaluer et classer les performances en lecture des conscrits. Il souligne que, depuis que cette évaluation a commencé, en 1990, les résultats au test obtenus chaque année n’ont varié que dans des proportions insignifiantes.</p>
<p>Cinq « familles » de « lecteurs » ont pu être distinguées qui correspondent chacune à un même seuil de performance.</p>
<ul>
<li><p>La famille A regroupe des individus qui se situent en deçà de la lecture de mots simples et isolés ; on peut considérer que l’on a affaire à des personnes en situation d’analphabétisme.</p></li>
<li><p>La famille B comprend ceux qui sont en deçà de la lecture de phrases simples et qui ne sont capables que d’identifier des mots isolés.</p></li>
<li><p>La famille C rassemble les personnes qui se trouvent en deçà de la lecture de textes courts, même s’ils sont capables de lire des phrases simples.</p></li>
<li><p>La famille D regroupe les individus qui sont certes capables de lire des textes courts, mais qui se situent en deçà de la lecture approfondie d’un texte ; ils ne sont capables que d’en extraire quelques informations explicites.</p></li>
<li><p>La famille E rassemble les personnes qui sont capables d’une lecture approfondie d’un texte.</p></li>
</ul>
<p>En 1995, les résultats sont les suivants : « 1 % des jeunes adultes sont analphabètes (famille A) ; 3 % ne dépassent pas la lecture d’un mot simple isolé (famille B) ; 4 % sont limités à la lecture de phrases simples isolées (famille C) ; 12 % ne sont capables que de la lecture superficielle d’un texte court et simple (famille D) ; 80 % ont la capacité de lire un texte de façon approfondie (famille E) ».</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/jKH2wRqkFsM?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Zoom sur l’illettrisme (Vie Publique, 2021).</span></figcaption>
</figure>
<p>Il est bien sûr possible de mettre en question tel ou tel aspect de ce test. Mais il a apporté au moins quelque raison d’ordre technique dans une question diablement confuse, traitée trop souvent de façon sauvage, voire furieuse. Il a été à la base de la « cotation » des tests de lecture des conscrits ; et il l’est resté pour l’essentiel pour ceux des « journées citoyennes d’appel à la défense ».</p>
<h2>Une évaluation complexe</h2>
<p>Il reste que l’acte de lecture est éminemment complexe, difficile à saisir et à évaluer. Beaucoup dépend non seulement des « types » de lecteurs, mais aussi de la variété des textes, des exigences et des modes d’activité de lecture. À cet égard, les modalités d’activité de nos cerveaux réservent bien des surprises et l’on est certainement loin de les avoir toutes recensées. On peut en citer certaines, parmi bien d’autres, juste pour voir.</p>
<p>Par exemple, pouvez-vous lire ce qui suit, malgré l’inversion des lettres ? « is vuos pvueoz lrie ccei, vuos aevz asusi nu dôrle de cvreeau. Puveoz-vuos lrie ceci ? Seleuemnt 55 porsnenes sur cnet en snot cpalabes. »</p>
<p>Selon une recherche menée à l’Université de Cambridge, il n’y a pas d’importance dans la manière dont les lettres d’un mot apparaissent, l’essentiel étant que la première et la dernière lettre du mot soient à la bonne place. La raison serait que le cerveau humain ne lit pas les mots lettre par lettre mais <a href="https://www.huffingtonpost.fr/2013/03/15/mots-dans-le-desordre-pou_n_2884011.html">plutôt comme un tout</a>.</p>
<p>On bien que lisez vous dans « J’a.me ma fe.me » ? « J’aime ma femme », ou bien « j’aime ma ferme » ou bien « j’arme ma ferme », ou bien « j’arme ma femme » ? Ce qui « saute aux yeux », ne serait-il pas avant tout « ce que l’on a en tête » ?</p>
<p>In fine, il s’avère que « l’illettrisme » – dans le débat public – est plutôt une façon de s’exprimer (souvent dramatisante, pour des raisons politiques) qu’une réalité évaluée de façon rigoureuse, précise et délimitée.</p><img src="https://counter.theconversation.com/content/174478/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Le sujet de « l’illettrisme » a fait irruption sur la scène politico-médiatique il y a une trentaine d’années et souffre régulièrement d’approximations et de gonflements statistiques.Claude Lelièvre, Enseignant-chercheur en histoire de l'éducation, professeur honoraire à Paris-Descartes, Université Paris CitéLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1738422021-12-19T21:26:25Z2021-12-19T21:26:25ZBalance commerciale : ce qu’une lecture « poste par poste » ne nous dit pas<p>Le 7 décembre dernier, Haut Commissariat au Plan (HCaP) a publié un <a href="https://www.gouvernement.fr/sites/default/files/contenu/piece-jointe/2021/12/reconquete_de_lappareil_productif_-la_bataille_du_commerce_exterieur_.pdf">rapport</a> sur la balance commerciale française qui met en évidence un déficit annuel moyen des importations des biens par rapport aux exportations de quelques 75 milliards ces dernières années, alors que le solde était équilibré au début des années 2000.</p>
<p>Ce déficit commercial concerne une grande majorité des quelque 9300 types de produits recensés. Pour redresser la barre, les experts concluent en préconisant de mener une « reconquête de l’appareil productif », en définissant une stratégie nationale « champ de bataille par champ de bataille ».</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1468126590248931332"}"></div></p>
<p>Ces chiffres peuvent semer de l’inquiétude, mais cette stratégie visant à porter les efforts « poste par poste » ignore la complexité de la production industrielle mondialisée et n’est pas sans risque, comme l’illustre le précédent américain. En effet, la guerre commerciale menée sous le mandat du président Donald Trump, qui passait par des hausses des tarifs douaniers sur des catégories de produits ciblées, a eu des impacts majeurs sur les exportations américaines.</p>
<p>Les partenaires commerciaux, dont la France, ont exercé des représailles, et les efforts pour forcer la Chine à acheter davantage de produits américains <a href="https://www.piie.com/blogs/trade-and-investment-policy-watch/anatomy-flop-why-trumps-us-china-phase-one-trade-deal-fell">ont échoué</a>. En fin de compte, elle n’a guère contribué à résoudre le <a href="https://www.brookings.edu/blog/order-from-chaos/2020/08/07/more-pain-than-gain-how-the-us-china-trade-war-hurt-america/">problème du déficit</a>.</p>
<p>Ce n’est pas sans ironie qu’un des critères que le HCaP propose d’ores et déjà d’appliquer pour la sélection des postes sur lesquels faire porter les efforts de reconquête est le potentiel d’exportation des produits. Or, si d’autres pays adoptent la même approche que la France, les opportunités se tariront. On récolte ce que l’on sème.</p>
<h2>Une production fragmentée mondialement</h2>
<p>La boussole que représente la balance commerciale nous renseigne également peu sur la capacité de production française, ni sur les besoins pour soutenir l’effort sur les secteurs ciblés – une question pourtant cruciale dans le contexte de <a href="https://theconversation.com/le-mystere-de-la-grande-demission-comment-expliquer-les-difficultes-actuelles-de-recrutement-en-france-173454">pénurie de main-d’œuvre actuelle</a>. Il n’y a pas de chiffres de production dans le rapport, donc nous ne savons pas si la France produit déjà beaucoup d’un bien donné pour son marché intérieur et en importe pour couvrir un excès de demande, ou si elle dépend simplement beaucoup des importations pour sa consommation.</p>
<p>Une telle approche ne tient pas compte non plus de la réalité industrielle. La production est aujourd’hui fragmentée mondialement parce que les pays disposent des avantages différents sur différents maillons des chaînes de globales de valeur (CGV), comme le souligne la vaste <a href="https://link.springer.com/article/10.1057/s41267-020-00304-2">littérature</a> sur le sujet depuis plus de deux décennies. Or, les effets positifs des importations liés, notamment, à l’intégration de la France dans ces chaînes de valeur mondiales, restent délaissés par la lecture « poste par poste » de la balance commerciale.</p>
<p>Pour ne prendre qu’un exemple tiré des données du HCaP, le solde commercial positif le plus élevé de la France en 2019 concerne les avions de grande taille (33,34 milliards d’euros), alors qu’elle est déficitaire en pièces d’avion (-5,47 milliards d’euros). C’est une réalité dont nous sommes témoins à Toulouse, alors que des cargos Belugas livrent des intrants de l’étranger au constructeur Airbus, le maillon suivant de la chaîne de valeur des avions. Il semble que personne ne se plaint de cette situation.</p>
<p>D’autres CGV fonctionnent différemment. Il est vrai qu’en 2019 la France a exporté par exemple beaucoup de lin brisé ou peigné (balance commerciale de 476 millions d'euros) et, bien qu’elle ait une balance commerciale légèrement positive pour les textiles de lin (3 millions d’euros), le solde est négatif pour les fils de lin (-9 millions d’euros) et les textiles de maison (-2,1 millions d’euros).</p>
<p>Dans une chaîne de valeur qui s’est progressivement déplacée <a href="https://www.sciencedirect.com/science/article/abs/pii/S0022199698000750">vers des pays à faible coût de main-d’œuvre</a>, ces flux ne sont pas surprenants. La production textile, bien qu’à forte intensité de capital, a eu tendance à se rapprocher des grands centres de production de l’industrie de l’habillement en Asie. Si le retour de la production de vêtements et de textiles en France est considéré comme un impératif politique, les Français devront payer leurs vêtements beaucoup plus cher. Ils seront peut-être disposés à le faire, mais on ne voit pas bien ce que le gouvernement peut faire pour garantir un tel résultat en se focalisant sur le commerce.</p>
<p>À moins, bien sûr, d’augmenter le coût des importations en imposant de nouveaux tarifs douaniers afin de rendre la production locale plus compétitive face aux importations étrangères. Précisément ce qu’a fait Donald Trump aux États-Unis…</p>
<p>Finalement, cette approche ciblée sur les échanges de biens ignore un autre facteur important des CGV : les investissements directs étrangers. Comme le rappelle le rapport par ailleurs, la France reste la première destination en Europe pour ces investissements. Ce statut risque d’être mis en péril par une approche trop interventionniste.</p>
<h2>Refonder l’analyse</h2>
<p>Comme le mentionne brièvement le rapport, la prise en compte de la réalité des coûts environnementaux du commerce pourrait constituer une piste pour refonder l’analyse. Si l’empreinte carbone du transport reste relativement faible pour un produit individuel, l’impact carbone global du commerce mondial apparaît significatif, avec près de 7 % des émissions des gaz à effets de serre. Et certains biens importés en France ont sans aucun doute des niveaux plus élevés de carbone intégré que la production locale équivalente.</p>
<p>Cependant, la question de savoir si le commerce de certains produits doit être réduit parce qu’il est mauvais pour la planète constitue une question empirique qui, comme l’ont récemment souligné deux économistes du Centre d’études prospectives et d’informations internationales (CEPII), est plus complexe qu’on ne pourrait le penser. Dans leur exemple, les salades de plein champ importées d’Espagne émettent moins de GES que celles cultivées localement dans des serres chauffées en France.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1470319037393649664"}"></div></p>
<p>Certes, l’importation de kiwis de Nouvelle-Zélande aura une importante empreinte carbone comparée à la production locale, mais il n’est pas envisageable que la France soit toute l’année autosuffisante pour un fruit saisonnier. Les consommateurs doivent donc certainement changer leurs habitudes d’achat pour lutter efficacement contre le changement climatique.</p>
<p>Pour y parvenir, il faut un ensemble de mesures et, de fait, l’Union européenne commence à s’attaquer au problème avec, entre autres, sa proposition de <a href="https://ec.europa.eu/commission/presscorner/detail/fr/qanda_21_3661">mécanisme d’ajustement carbone aux frontières</a> (MACF). Dans un premier temps, ce mécanisme (CBAM en anglais) ne s’appliquera qu’à certains produits à forte intensité de carbone, mais il constitue un début de réponse à la « fuite de carbone » liée à l’importation de ces produits. Même <a href="https://www.veblen-institute.org/Les-conditions-d-un-mecanisme-efficace-et-juste-d-ajustement-carbone-aux.html">s’il y a débat</a>, cette réponse reste plus conforme aux règles de l’Organisation mondiale de commerce (OMC) que des interventions nationales pour forcer les industrielles à apporter leurs chaînes de valeurs en France.</p><img src="https://counter.theconversation.com/content/173842/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Louise Curran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>La mesure du solde entre les importations et les exportations ne tient pas compte de la complexité des chaînes globales de valeur et de l’insertion de la France dans celles-ci.Louise Curran, Professor of International Business, TBS EducationLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1710262021-11-04T19:16:38Z2021-11-04T19:16:38ZJeux d’argent, la fabrique de l’addiction<p><em>Les Français ont été pris ces dernières années d’une véritable fièvre ludique : paris sportifs, poker, lotos, jeux à gratter, machines à sous, le jeu envahit nos quotidiens et nos écrans. Une personne sur deux s’y adonne et chez les plus jeunes le nombre de parieurs est en pleine explosion. Chaque année, ce sont plus de 50 milliards d’euros qui sont misés dans l’hexagone ! Ce phénomène interroge : Pourquoi croyons-nous en nos chances de gagner malgré les pertes répétées ? The Conversation publie un extrait de l’ouvrage du sociologue Thomas Amadieu, <a href="https://www.editionsbdl.com/produit/la-fabrique-de-laddiction-aux-jeux-dargent/">La fabrique de l’addiction aux jeux d’argents</a>, publié le 5 novembre aux éditions du Bord de l’eau.</em></p>
<hr>
<p>Les clients des jeux à gratter, paris sportifs ou machines à sous ne jouent pas principalement parce que c’est amusant, ils jouent pour gagner de l’argent. Dès lors pourquoi persistent-ils à miser alors même que ces investissements sont conçus pour qu’ils perdent ? Une des clés pour comprendre cette apparente irrationalité réside dans le fonctionnement de notre cerveau. Confronté au hasard, l’esprit humain est bien souvent démuni : il voit des causalités là où il n’en existe pas, il croit déceler la chance et l’habileté là où règnent les lois implacables des probabilités. Les jeux de hasard sont donc naturellement un milieu propice à l’épanouissement de l’erreur. C’est d’ailleurs grâce à des jeux de hasard réalisés en conditions expérimentales que les sciences cognitives ont fait la plupart de leurs découvertes sur les biais cognitifs et les limites de la rationalité humaine. Ce que la psychologie cognitive a théorisé, les opérateurs de jeu l’ont mis en pratique.</p>
<p>Pour les designers de jeu, il faut créer des produits suscitant un désir de jouer sans s’arrêter, en dépit des pertes qui s’accumulent et entretenir l’espoir de gain. Aussi ont-ils développé une expertise dans la manipulation cognitive et comportementale des clients. Afin d’induire ces distorsions dans nos jugements, les firmes ont recours à tout un arsenal de techniques. Ce faisant elles entretiennent une sorte de culture superstitieuse chez les Français.</p>
<p>Si les biais cognitifs et la réceptivité à la dopamine caractérisent le cerveau humain, c’est l’architecture même des jeux d’argent et l’exploitation commerciale de ces biais qui constitue l’originalité de la situation actuelle. Décryptons l’ingénierie de l’erreur mise en place par les opérateurs.</p>
<h2>Court-circuiter nos cerveaux</h2>
<p>Savoir anticiper les besoins et désirs des consommateurs pour mieux vendre ses produits est le B-A Ba du marketing. Mais on observe un raffinement croissant dans l’anticipation des comportements qui, dans certains cas, confine à l’instrumentalisation. Internet facilite la collecte de données sur les habitudes du consommateur, avec une précision considérable. Davantage que les autres secteurs de l’économie l’industrie des jeux maîtrise l’analyse comportementale. La collecte d’informations sur les joueurs est cruciale pour optimiser le potentiel addictif d’un jeu. C’est ce qu’a montré l’anthropologue Natasha Schüll au sujet des machines à sous de Las Vegas dans son ouvrage <a href="https://press.princeton.edu/books/paperback/9780691160887/addiction-by-design">Addiction by design</a>.</p>
<p>En remontant la chaîne de production des machines à sous, l’anthropologue démontre de façon spectaculaire que l’addiction aux jeux n’est pas seulement une conséquence malheureuse, mais bien un but conscient et recherché par les concepteurs de jeux. Les machines électroniques sont spécifiquement conçues pour créer un état hypnotique que les joueurs eux-mêmes décrivent comme la « zone ». Une sorte d’état de transe – de perte de repère et de conscience des sommes perdues. Le design des machines et de l’environnement des casinos est étudié avec minutie, selon des principes théorisés afin de maximiser le temps passé sur les machines (« time on device » dans le jargon des constructeurs). Pourquoi ? Parce que plus un joueur passe de temps devant la machine plus il a de chances de <a href="https://press.princeton.edu/books/paperback/9780691160887/addiction-by-design">repartir les poches vides</a>.</p>
<h2>Un labyrinthe</h2>
<p>Concrètement, comment cela fonctionne ? L’architecture intérieure des casinos est conçue pour créer une sorte de labyrinthe, qui favorise un sentiment d’isolement du joueur sur sa machine et bloque la vue. La notion du temps disparaît : ni horloge ni lumière du jour, aucun repas servi à heure fixe mais la possibilité de dîner à toute heure. Même technique utilisée jadis dans les pubs ou les fumeries d’opium. Les outils du marketing sensoriel sont mobilisés. Un ancien joueur explique : « Tout ce dont je me souviens, c’est d’avoir vécu dans une transe pendant quatre ans. » Le rythme répétitif et mécanique de la machine procure une sorte de plaisir née de l’oubli de la réalité. Certaines personnes jouent pour rester dans « la zone de la machine où plus rien d’autre ne compte ».</p>
<p>Comme pour l’addiction aux drogues, l’idée de passer une journée dans le temps réel paraît vide et sans relief. Les machines sont arrangées de sorte à donner l’apparence de gains réguliers, souvent ce sont des pertes déguisées en gains. Toutes ces recettes évoquent furieusement la notion de « dark nudge », employée pour désigner les techniques de manipulations mobilisées pour nous faire agir contre notre propre intérêt.</p>
<p>[…] dans le cas des jeux d’argent, le nudge consiste à exploiter les erreurs des joueurs et les mécanismes de conditionnement afin de les conduire à agir contre eux-mêmes et perdre le plus d’argent possible. Dans un article intitulé « Dark nudge dans les jeux d’argent » Philip Newall a étudié les publicités <a href="http://behavioralscientist.org/gambling-dark-side-nudges/,">pour des bookmakers anglais</a> : il montre comment ceux-ci mettent en avant systématiquement des paris complexes, afin d’inciter les joueurs à miser de façon bien plus risquée qu’ils ne le feraient normalement. La raison : les probabilités de victoire sont bien moins importantes pour le joueur et les cotes moins intéressantes.</p>
<p>Par exemple, <a href="https://www.tandfonline.com/doi/full/10.1080/16066359.2018.1474206">« victoire de Manchester et les deux équipes marquent »</a> plutôt que « victoire de Manchester ». On retrouve la même stratégie avec les paris en ligne français, où sont toujours mis en avant les paris combinés, hautement improbables, mais affichant des jackpots attractifs.</p>
<p>Ils sont surtout bien plus rémunérateurs pour les bookmakers. Les jeux d’argent sont devenus la référence en matière d’addiction comportementale fabriquée par l’homme. C’est d’ailleurs pour cette raison que les inquiétudes croissantes relatives à l’addiction aux réseaux sociaux comparent ceux-ci à des jeux d’argent. Un ancien responsable de chez Google comparait même les smartphones à des « machines à sous de poche ».</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/430003/original/file-20211103-27-153fdfe.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/430003/original/file-20211103-27-153fdfe.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=400&fit=crop&dpr=1 600w, https://images.theconversation.com/files/430003/original/file-20211103-27-153fdfe.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=400&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/430003/original/file-20211103-27-153fdfe.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=400&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/430003/original/file-20211103-27-153fdfe.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=503&fit=crop&dpr=1 754w, https://images.theconversation.com/files/430003/original/file-20211103-27-153fdfe.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=503&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/430003/original/file-20211103-27-153fdfe.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=503&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Si les jeux sont des investissements et la recherche d’argent la motivation principale, comment attirer les joueurs alors que les jeux proposent des espérances mathématiques négatives et des probabilités de toucher le jackpot infinitésimales ?.</span>
<span class="attribution"><a class="source" href="https://www.piqsels.com/fr/public-domain-photo-fksji">Piqsels</a>, <a class="license" href="http://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND</a></span>
</figcaption>
</figure>
<p>La fabrique de l’addiction aux jeux peut désormais bénéficier de nouvelles technologies puissantes, à savoir les algorithmes, permettant de déceler finement les comportements les plus profitables et de cibler à l’échelle individuelle le marketing. Ainsi le marché peut-il être segmenté selon les habitudes de jeu.</p>
<p>Les joueurs en perte de contrôle peuvent être sollicités par des messages ciblés ou des bonus incitatifs à revenir sur le site. Et ce directement sur leur téléphone. L’irruption des jeux d’argent sur nos écrans de smartphones a accru la puissance de ces systèmes de manipulation. Grâce aux techniques de surveillance des utilisateurs et à la collecte de masse de l’information (les big data) les opérateurs de jeu disposent de tous les outils nécessaires pour cibler les joueurs problématiques et les sursolliciter par des notifications « push ».</p>
<h2>Déformer les probabilités et façonner notre disponibilité mentale</h2>
<p>Si les jeux sont des investissements et la recherche d’argent la motivation principale, comment attirer les joueurs alors que les jeux proposent des espérances mathématiques négatives et des probabilités de toucher le jackpot infinitésimales ? Les opérateurs de jeu ont heureusement la solution : déformer nos perceptions des probabilités. Difficile voire impossible de se représenter une chance sur 139 millions – soit la probabilité de remporter le gros lot à la loterie européenne. Le site Internet du Wall Street Journal a proposé une représentation visuelle de la probabilité de remporter le jackpot du Powerball, la loterie américaine : 1 point vert et 292 millions de points rouges, c’est spectaculaire et tout simplement impossible à reproduire dans ce livre 5 ! Il faudrait acheter 146 millions de tickets pour avoir une chance sur deux de gagner – une stratégie pour le moins risquée. Face aux probabilités infinitésimales l’esprit humain est désemparé. Lorsque des probabilités sont faibles (1 sur 10 000 et moins), <a href="https://econpapers.repec.org/article/ecmemetrp/v_3a66_3ay_3a1998_3ai_3a3_3ap_3a497-528.htm">elles sont en moyenne perçues comme 10 à 15 fois supérieures</a>.</p>
<p>Or surévaluer les gains à faible probabilité ou sous-évaluer les pertes à forte probabilité est associé à une plus grande intensité de la pratique de jeu dans les douze études incluses dans une <a href="https://pubmed.ncbi.nlm.nih.gov/30047179/">récente méta-analyse</a> ».</p>
<p>C’est pourquoi les opérateurs cherchent à renforcer ces distorsions des jugements en créant l’illusion du probable. Cette technique classique consiste à créer une disponibilité mentale du gain. En d’autres termes il s’agit de créer l’illusion que le jackpot est à portée de main. Comment s’y prennent-ils ? […] Le moyen le plus évident consiste à faire la publicité des gagnants.</p>
<p>Lorsqu’on se rend dans un point de vente, des pancartes affichent fièrement les gros lots remportés au cours des semaines, mois ou années précédentes. Lorsqu’un gros lot est emporté, un reportage sur le gagnant ou le bureau de tabac où ont été cochés les numéros gagnants est souvent diffusé dans la presse, à la radio ou à la télévision. Les reportages sur les gagnants suscitent la sympathie, parce qu’ils montrent des gens ordinaires à qui la fortune sourit. Chacun peut s’identifier à ces gagnants que la vie n’avait pas forcément gâtés avant leur brusque revirement de fortune. […] La mise en avant des gagnants produit des effets concrets sur la vente de jeu. <a href="http://graphics.wsj.com/lottery-odds">Une étude</a> parue dans l’<em>American Economic Review</em> montre qu’un détaillant augmente ses ventes de tickets d’un jeu donné de 12 à 38 % après qu’un client y a gagné le gros lot.</p>
<p>Les buralistes témoignent généralement de ce type d’effet : après un gros gain, ils observent une recrudescence des ventes, bien que la probabilité de gagner dans ce point de vente n’augmente pas. L’enquête montre en outre que cet effet est d’autant plus fort que l’on se situe dans un <a href="https://www.bondyblog.fr/societe/dans-les-quartiers-les-paris-sportifs-font-des-ravages/">quartier</a> où la population locale comprend des personnes en échec scolaire, des personnes âgées et des ménages ayant recours à l’assistance publique.</p>
<p>Plus subtil, dans un casino les machines à sous et jeux électroniques sont conçus de sorte à produire des sons puissants lorsqu’un joueur obtient une récompense. De cette façon les autres joueurs de la salle seront avertis qu’un autre joueur a gagné, ce qui attestera à leurs yeux de l’imminence de leur propre victoire. Ces bruits et lumières artificiels permettent de renforcer la disponibilité mentale du jackpot auprès des autres joueurs, tout en renforçant le retour positif auprès de l’heureux gagnant. Sous le capot des cartes à gratter on trouve une véritable machinerie qui peut être modulée en fonction des effets que l’on souhaite produire sur les consommateurs : c’est ce que l’on appelle le tableau des gains ou « pyramide des gains » (cf. Figure 2.2).</p>
<p>Elle ressemble à une structure pyramidale avec en son sommet un nombre très faible de jackpots, puis des lots de plus en plus nombreux à mesure que l’on descend la structure des gains ; la majorité des tickets étant bien entendu perdants. Le grand nombre de tickets permettant de gagner une petite somme est destiné à exercer une sorte de conditionnement opérant, au sens de la psychologie comportementale : en produisant des récompenses fréquentes le comportement est renforcé. Le joueur se comporte comme les pigeons de Skinner et reproduit le comportement qu’il pense être la cause d’une récompense. […]</p>
<h2>Donner l’illusion du contrôle […]</h2>
<p>Il existe sur Internet de nombreux sites proposant les résultats des derniers tirages et évaluant les chances qu’un numéro donné sorte prochainement ; prédiction prétendument rendue possible par le calcul du temps écoulé depuis son dernier tirage – plus ce dernier est long, plus le chiffre aurait de chances de sortir. La FDJ propose par exemple à ses clients sur son site de télécharger un fichier Excel répertoriant toutes les combinaisons sorties lors des précédents tirages au cours des années passées de sa loterie instantanée Amigo.</p>
<p>À raison d’un tirage toutes les cinq minutes, de 5h05 du matin à 1h55 le soir, cela représente 223 tirages par jour, tous les jours de la semaine, soit des centaines de milliers de combinaisons compilées dans des fichiers gigantesques. La feuille compilant les combinaisons de 2011 à 2019 s’allonge sur 635 902 lignes !</p>
<p>Pour le joueur souhaitant lire les astres et percer dans cet amoncellement de chiffres le mystère de la combinaison gagnante, cela fait beaucoup de données à analyser. Fort heureusement, la FDJ nous propose un outil plus facile d’accès pour nous permettre à coup sûr de l’emporter ; sur le site Internet de l’entreprise on peut remplir sa grille et voir les dernières occurrences de nos chiffres préférés. Toutes ces informations n’ont bien évidemment d’autre utilité que d’abreuver le joueur de données qui lui laisseront l’impression qu’avec pas mal de malice il trouvera la martingale. Il n’est pas rare de voir des joueurs s’accrocher à cet <a href="https://www.aeaweb.org/articles?id=10.1257/aer.98.1.458">espoir illusoire</a> et quasi magique pour rechercher la combinaison qui les rendra riches. L’illusion de pouvoir développer une stratégie gagnante conduit alors à surévaluer les chances de gain et donc à jouer davantage. Pour nous laisser croire que nous sommes habiles les opérateurs de jeu usent d’une autre technique dite du quasi gain (« near-miss » disent les Anglo-Saxons).</p>
<p>Ainsi dans la plupart des jeux on laissera croire au participant qu’il n’est pas passé loin de la victoire – un chiffre au-dessus ou en dessous, deux télés au lieu de trois, à un match près dans un combiné de paris sportifs. En somme une défaite de peu – transformée en quasi-victoire – semble augurer d’une victoire future, soit parce que l’on a gagné en habileté soit parce que l’on est « en veine ». De nombreuses expériences ont démontré l’effet de ce type d’illusion, des pertes de peu vont conduire les joueurs à augmenter significativement <a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2658737/">leur consommation de jeux</a>.</p>
<p>Là encore, l’expression de ce type de distorsion mentale est facilitée par la structure même du jeu. […] Face à de tels raffinements dans la conception des jeux il convient de relativiser l’espace de décision dont disposent les joueurs. On peut difficilement parler de consommateur libre et informé. Si les joueurs achètent bien volontairement ces produits, ils n’en sont pas moins en grande partie dupés par les industriels du jeu. Nul paternalisme à constater que les joueurs français sont insuffisamment protégés des pièges cognitifs qu’on leur tend. Inviter le joueur à modérer sa pratique ou à se montrer raisonnable n’a pas grand sens si dans le même temps tout est mis en œuvre pour l’inciter à jouer toujours plus.</p>
<hr>
<p><em>L’auteur vient de publier <a href="https://www.editionsbdl.com/produit/la-fabrique-de-laddiction-aux-jeux-dargent/">« La Fabrique de l’addiction aux jeux d’argent »</a>, publié le 5 novembre aux éditions du Bord de l’eau.</em></p><img src="https://counter.theconversation.com/content/171026/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Thomas Amadieu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.</span></em></p>Pourquoi croyons-nous en nos chances de gagner malgré les pertes répétées ? Bonnes feuilles de l’ouvrage « La fabrique de l’addiction aux jeux d’argents ».Thomas Amadieu, Sociologue, professeur associé ESSCA Ecole de Management, chercheur associé au Gemass (CNRS/Sorbonne Université), Sorbonne UniversitéLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1701592021-11-03T19:22:34Z2021-11-03T19:22:34ZLe paradoxe de Simpson illustré par des données de vaccination contre le Covid-19<figure><img src="https://images.theconversation.com/files/429323/original/file-20211029-17-ixzmi8.jpg?ixlib=rb-1.1.0&rect=70%2C60%2C6639%2C4406&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Quand on compare les statistiques concernant deux groupes différents (par exemple deux catégories de la population : vaccinés/non vaccinés), il faut faire attention à savoir si leurs caractéristiques ne sont pas trop éloignées, pour ne pas interpréter les résultats de manière erronée.</span> <span class="attribution"><a class="source" href="https://unsplash.com/photos/wQLAGv4_OYs">Lucas Benjamin, Unsplash</a>, <a class="license" href="http://creativecommons.org/licenses/by/4.0/">CC BY</a></span></figcaption></figure><p>L’utilisation de statistiques peut être la source de résultats complètement contre-intuitifs, bien que démontrés rigoureusement. C’est ce que l’on appelle des <em>paradoxes</em> : un paradoxe n’est pas un résultat faux ou incompatible avec un autre résultat mais un résultat incompatible avec notre intuition.</p>
<h2>Le paradoxe de Simpson</h2>
<p>L’un des paradoxes de statistique les plus troublants est le <a href="https://fr.wikipedia.org/wiki/Paradoxe_de_Simpson">paradoxe de Simpson</a>, qui stipule qu’il est possible qu’un même phénomène ait lieu à l’intérieur de différents groupes, mais que ce phénomène s’inverse lorsque les groupes sont rassemblés. Il est à l’origine de nombreuses erreurs d’interprétations, même pour des mathématiciens aguerris.</p>
<p>En voici un exemple marquant, que nous avons trouvé <a href="https://www.gov.uk/government/publications/investigation-of-novel-sars-cov-2-variant-variant-of-concern-20201201">dans les données d’hospitalisation et de vaccination en Angleterre</a>.</p>
<p>Dans ces rapports, qui donnent les statuts de vaccinations des personnes hospitalisées du variant Delta du Covid entre juin et septembre 2021 (les données, les références complètes et les calculs sont donnés dans cet <a href="https://www.lpsm.paris/pageperso/bergerq/ParadoxeSimpson.pdf">annexe</a>), on observe que :</p>
<ol>
<li><p>parmi les moins de 50 ans, le taux de mortalité est environ 1,8 fois <em>plus</em> élevé chez les non-vaccinés que chez les vaccinés (ou partiellement vaccinés) ;</p></li>
<li><p>parmi les plus de 50 ans, le taux de mortalité est environ 6,3 fois <em>plus</em> élevé chez les non-vaccinés que chez les vaccinés (ou partiellement vaccinés) ;</p></li>
<li><p>par contre, dans la population prise dans son ensemble, le taux de mortalité est environ 1,3 fois <em>moins</em> élevé chez les non-vaccinés que chez les vaccinés (ou partiellement vaccinés).</p></li>
</ol>
<p>Deux observations s’imposent. Premièrement, la dernière affirmation semble contredire les deux précédentes : comment expliquer que le vaccin abaisse le taux de mortalité à la fois parmi les plus de 50 ans et parmi les moins de 50 ans, mais l’augmente si l’on considère la population dans son ensemble ?</p>
<p>Deuxièmement (et de manière plus inquiétante), si l’on se base sur les moins de 50 ans et les plus de 50 ans séparément (c’est-à-dire si on regarde les points 1 et 2) ou si l’on considère la population prise dans son ensemble (c’est-à-dire si on regarde le point 3, sans différencier les plus ou moins de 50 ans), on aboutit à des conclusions complètement opposées quant à l’efficacité du vaccin. Plus précisément, si on regarde les points 1 et 2, le vaccin semble efficace pour réduire la mortalité, à la fois chez les moins de 50 ans et chez les plus de 50 ans. Tandis que si l’on considère la population dans son ensemble (c’est-à-dire le point 3), il paraît tout à fait légitime de conclure que le vaccin n’est pas du tout efficace, voire dangereux.</p>
<h2>Explication du paradoxe</h2>
<p>Les chiffres précis que l’on a donnés plus haut sont présentés en <a href="https://www.lpsm.paris/pageperso/bergerq/ParadoxeSimpson.pdf">annexe</a>, mais donnons ici une explication générale de la façon dont ce paradoxe peut se produire.</p>
<p>L’idée principale est que la proportion de personnes vaccinées est très différente chez les plus de 50 ans (<a href="https://www.england.nhs.uk/statistics/statistical-work-areas/covid-19-vaccinations/covid-19-vaccinations-archive/">environ 95 % sur la période juin-septembre</a> d’après la NHS) et chez les moins de 50 ans (<a href="https://www.england.nhs.uk/statistics/statistical-work-areas/covid-19-vaccinations/covid-19-vaccinations-archive/">environ 50 % sur la période juin-septembre</a>).</p>
<p>En effet, parmi les personnes non vaccinées, une grande proportion a moins de 50 ans et possède un taux de mortalité faible (en <a href="https://www.gov.uk/government/publications/covid-19-reported-sars-cov-2-deaths-in-england/covid-19-confirmed-deaths-in-england-to-31-august-2021-report">raison de leur âge</a>). En revanche, parmi les personnes vaccinées une grande proportion a plus de 50 ans et possède un taux de mortalité plus élevé (même en étant vacciné). Cela explique que, dans la population totale, le taux de mortalité des non-vaccinés puisse être inférieur au taux de mortalité des vaccinés.</p>
<p>Voici une représentation visuelle où le paradoxe apparaît de manière claire, avec des données caricaturales pour rendre le phénomène plus apparent :</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/427760/original/file-20211021-23-2wngwp.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/427760/original/file-20211021-23-2wngwp.png?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=252&fit=crop&dpr=1 600w, https://images.theconversation.com/files/427760/original/file-20211021-23-2wngwp.png?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=252&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/427760/original/file-20211021-23-2wngwp.png?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=252&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/427760/original/file-20211021-23-2wngwp.png?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=317&fit=crop&dpr=1 754w, https://images.theconversation.com/files/427760/original/file-20211021-23-2wngwp.png?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=317&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/427760/original/file-20211021-23-2wngwp.png?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=317&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Illustration du paradoxe de Simpson avec des données caricaturales : chaque personne est représentée par un carré, la couleur du carré correspondant à une classe d’âge, la teinte foncée ou claire au statut de vaccination ; une petite croix représente un décès. On peut comparer facilement les taux de mortalité dans chaque classe d’âge et par statut de vaccination.</span>
<span class="attribution"><span class="source">Quentin Berger et Francesco Caravenna</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Si l’on considère les personnes de moins de 50 ans ou de plus de 50 ans comme deux groupes séparés, il est clair que les taux de mortalité sont moins élevés dans la population vaccinée :</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/429318/original/file-20211029-27-3wa2s0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/429318/original/file-20211029-27-3wa2s0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=221&fit=crop&dpr=1 600w, https://images.theconversation.com/files/429318/original/file-20211029-27-3wa2s0.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=221&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/429318/original/file-20211029-27-3wa2s0.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=221&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/429318/original/file-20211029-27-3wa2s0.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=278&fit=crop&dpr=1 754w, https://images.theconversation.com/files/429318/original/file-20211029-27-3wa2s0.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=278&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/429318/original/file-20211029-27-3wa2s0.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=278&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Pour le groupe des moins de 50 ans (bleu), le taux de mortalité est plus élevé chez les non-vaccinés (2,2 %) que chez lez vaccinés (0 %). Pour le groupe des plus de 50 ans (rouge), le taux de mortalité est plus élevé chez les non-vaccinés (40 %) que chez les vaccinés (13,3 %).</span>
<span class="attribution"><span class="source">Quentin Berger et Francesco Caravenna</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Toutefois, si l’on considère la population dans son ensemble, le taux de mortalité devient plus élevé parmi les vaccinés que parmi les non-vaccinés, comme on le voit sur la figure suivante :</p>
<figure class="align-center ">
<img alt="" src="https://images.theconversation.com/files/429316/original/file-20211029-15-1j1pqma.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/429316/original/file-20211029-15-1j1pqma.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=221&fit=crop&dpr=1 600w, https://images.theconversation.com/files/429316/original/file-20211029-15-1j1pqma.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=221&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/429316/original/file-20211029-15-1j1pqma.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=221&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/429316/original/file-20211029-15-1j1pqma.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=278&fit=crop&dpr=1 754w, https://images.theconversation.com/files/429316/original/file-20211029-15-1j1pqma.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=278&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/429316/original/file-20211029-15-1j1pqma.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=278&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Pour la population dans son ensemble, le taux de mortalité est plus élevé parmi les vaccinés (bleu foncé et rouge foncé, 12 %) que parmi les non-vaccinés (bleu clair et rouge clair, 6 %).</span>
<span class="attribution"><span class="source">Quentin Berger et Francesco Caravenna</span>, <span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>On voit que cela est dû au fait que parmi les personnes vaccinées, la plupart sont âgées de plus de 50 ans.</p>
<h2>Quelles conclusions en tirer ?</h2>
<p>Que conclure alors de ce paradoxe et de son explication ? Tout d’abord, qu’il faut prendre des précautions lorsque l’on manipule des statistiques et notamment lorsque l’on considère des groupes aux caractéristiques très différentes. En quelques mots, le paradoxe de Simpson tient dans le fait que le taux de vaccination est très variable d’une classe d’âge à l’autre : il est donc important de comparer l’efficacité du vaccin à l’intérieur de chaque classe d’âge, qui possède des caractéristiques plus homogènes.</p>
<p>Rassembler les différentes classes d’âge introduit ce que l’on appelle un « biais de sélection » : la population vaccinée est biaisée du côté de la population fragile (plus âgée) tandis que la population non vaccinée est biaisée du côté de la population moins fragile (plus jeune). Par conséquent, comparer le taux de mortalité chez les vaccinés et chez les non-vaccinés revient de facto à comparer une population plutôt âgée et une population plutôt jeune. L’affirmation que le taux de mortalité dans la population est plus élevé chez les vaccinés est donc foncièrement faussée par la grande variabilité du taux de vaccination pour les différentes tranches d’âge.</p>
<h2>De la difficulté d’interpréter les statistiques</h2>
<p>De façon plus générale, la problématique du biais de sélection est bien connue en statistique et fait partie des erreurs d’interprétation les plus courantes.</p>
<p>Un exemple classique est celui du statisticien Abraham Wald qui, durant la Seconde Guerre mondiale, après avoir observé tous les avions revenus du combat, recommanda de blinder les endroits où ceux-ci avaient été le <em>moins</em> touchés par des impacts de balles… Le raisonnement était que ces endroits constituaient les points les plus critiques pour le fonctionnement des avions et que ceux qui y étaient touchés avaient moins de chance de revenir du combat. Il s’agissait d’une manière de corriger ce qui est connu comme le <a href="https://fr.wikipedia.org/wiki/Biais_des_survivants">« biais des survivants »</a>, qui consiste à faire des statistiques en ne conservant que les données de ceux qui survivent.</p>
<p>Les biais de sélection, qu’ils soient conscients ou non, font d’ailleurs souvent partie intégrante du procédé de récolte de données statistiques, ce qu’on voit bien dans l’exemple précédent. Il est important de savoir quels biais sont présents, pour corriger leur effet. Ainsi, le fait de comparer les taux de mortalité parmi les non-vaccinés et parmi les vaccinés comporte des biais d’âge, comme expliqué plus haut : une façon de corriger ce biais est de considérer les taux de mortalité pour les non-vaccinés et pour les vaccinés pour des tranches d’âge restreintes, à l’intérieur desquelles le taux de vaccination est stable.</p>
<p>Pour conclure, les paradoxes sont là pour nous rappeler, de manière particulièrement saisissante, les écueils à éviter. Grâce à leur côté surprenant, ils nous marquent et nous aident à aiguiser notre intuition, ou au moins à s’en méfier. Ils nous rappellent que personne n’est infaillible et qu’il n’est pas toujours facile ni immédiat de démêler certains problèmes, même simples : ils nous poussent à entraîner et approfondir notre réflexion, avec humilité.</p>
<hr>
<p><em>Pour les amateurs de paradoxes, en voici quelques-uns parmi les plus classiques dans le domaine des probabilités : le <a href="https://fr.wikipedia.org/wiki/Paradoxe_des_anniversaires">paradoxe des anniversaires</a>, le <a href="https://fr.wikipedia.org/wiki/Paradoxe_de_Bertrand">paradoxe de Bertrand</a>, le <a href="https://fr.wikipedia.org/wiki/Probl%C3%A8me_de_Monty_Hall">problème de Monty Hall</a>, le <a href="https://fr.wikipedia.org/wiki/Paradoxe_des_prisonniers">paradoxe des prisonniers</a>, le <a href="https://fr.wikipedia.org/wiki/Paradoxe_des_deux_enfants">paradoxe des enfants</a>…</em></p><img src="https://counter.theconversation.com/content/170159/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>Les paradoxes défient notre intuition, mais possèdent des explications logiques. Ici, le paradoxe de Simpson éclaircit ce qui peut paraître étrange dans les données de vaccination Covid.Quentin Berger, Maître de conférence, Sorbonne UniversitéFrancesco Caravenna, Full Professor of Mathematics (Probability and Statistics), University of Milano-BicoccaLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1702962021-10-25T17:48:22Z2021-10-25T17:48:22ZEt si les mathématiques nous aidaient à gagner à l’Euromillions ?<p>Vendredi 15 octobre, un heureux français a gagné <a href="https://www.rtl.fr/actu/debats-societe/euromillions-les-resultats-du-vendredi-15-octobre-2021-7900086254">220 millions d’euros</a> à l’Euromillions, soit le plus gros jackpot de l’histoire de la loterie européenne. N’est-ce pas le bon moment pour se demander si les maths ne peuvent pas donner les numéros gagnants ?</p>
<p><a href="https://www.universalis.fr/encyclopedie/loto/1-genes-et-la-naissance-du-loto/">Le Loto fut inventé à Gênes</a> au XVI<sup>e</sup> siècle. Le principe était de tirer cinq numéros parmi 90, correspondant aux cinq conseillers pris au hasard parmi les 90 sénateurs pour former le conseil de la ville. On pariait sur le résultat de ce tirage au sort.</p>
<p>Deux questions se posent aux joueuses et aux joueurs : certains numéros apparaissent-ils plus souvent ? Certains numéros rapportent-ils plus que d’autres ?</p>
<h2>Comment gagner plus en jouant autant ?</h2>
<p>La première question est donc de savoir si la Française des jeux « triche » alors que la deuxième question permet de se demander s’il existe une meilleure stratégie de jeu que de jouer des numéros au hasard. Nous allons voir que la réponse à la première question est non, et que la réponse à la deuxième question est oui.</p>
<p>Il y a un consensus chez les statisticiens pour estimer qu’il n’y a pas de tricherie dans les tirages. Le tirage au hasard implique que certains numéros apparaissent un peu plus que d’autres, mais dans des limites considérées comme normales. Le numéro qui est le plus sorti entre le 19 mai 1976 (date du premier tirage) et le 1<sub>er</sub> octobre 2014 est le 1 avec 834 occurrences et le numéro le moins sorti (sur la même période) est le 29 avec 651 occurrences.</p>
<p>Notons que la Française des jeux n’a pas vraiment intérêt à trafiquer les tirages, car c’est prendre le risque de tuer la poule aux œufs d’or.</p>
<p>Dire qu’il n’y a pas tricherie implique que la probabilité qu’un numéro donné sorte au prochain tirage est toujours la même quel que soit le numéro et en particulier quel que soit le nombre de fois où il est sorti avant.</p>
<p>Tous les sites, journaux et autres bonimenteurs qui prétendent le contraire ne sont donc que des menteurs. Si tous ces diseurs de bonne aventure croyaient réellement détenir le secret pour gagner il serait surprenant qu’ils le partagent.</p>
<p>Pour illustrer le propos, rappelons que les Shadoks avaient construit une fusée qui avait une chance sur 1 million de fonctionner. Ils se dépêchèrent donc de rater les 999 999 premières fois pour enfin réussir. D’où leur devise : « plus ça rate, plus on a de chances que ça marche ».</p>
<p>On peut aussi penser à Rita Mae Brown : « La folie consiste à faire la même chose encore et encore et à attendre des résultats différents ». La citation est souvent attribuée à tort à Albert Einstein.</p>
<p>Faut-il donc jouer les numéros au hasard ? C’est un peu moins simple qu’il n’y paraît. Certains numéros sont plus souvent joués (par exemple les dates d’anniversaire) et donc toutes les grilles ne sont pas jouées le même nombre de fois. Les grilles les plus jouées rapportent donc moins quand elles sortent, car il faut diviser le gain entre plus de gagnants. Donc pour paraphraser les Shadoks : « plus une grille est jouée moins elle rapporte ».</p>
<h2>Les numéros gagnants</h2>
<p>Il est donc tentant de jouer les numéros que les autres ne jouent pas… Malheureusement la Française des jeux ne publie aucune statistique sur les combinaisons jouées. On voit cependant que les gains sont très variables et donc que toutes les grilles ne sont pas jouées le même nombre de fois.</p>
<p>L’absence de données est évidemment propice à tous les fantasmes de martingale. De plus, si le jeu pouvait être rationnel, toutes les combinaisons seraient à peu près autant jouées et donc le nombre de gagnants sera moins variable entre les différents tirages et les gains seraient à peu près les mêmes toutes les semaines. Le nombre de gains élevés chuterait donc et cela limiterait l’attractivité du jeu.</p>
<p>La situation est-elle désespérée ? Pas tout à fait. <a href="https://www.tandfonline.com/doi/abs/10.1080/02664760701236889">Des chercheurs</a> ont proposé une méthode statistique pour estimer la fréquence d’utilisation des numéros dans les grilles des joueurs de Loto. Pour cela ils utilisent les nombres de gagnants aux divers rangs. Si tous les numéros étaient autant joués leur fréquence d’apparition serait de 1/49=0,0204. Le numéro 7 est le numéro favori des joueurs et il est joué 1,7 fois plus qu’il ne le serait si les joueurs choisissaient au hasard. La grille la moins jouée et donc la plus rentable était en 2014 la grille 32-38-39-40-41-43. A vous de voir si vous voulez tenter votre chance.</p>
<h2>Dingue de maths</h2>
<p>Au-delà du Loto, des ordinateurs ou des réseaux sociaux et de leurs algorithmes, les mathématiques permettent de prévoir les marées, de décoder des messages secrets, de créer des mélodies musicales, et même de multiplier les nœuds de cravate. En révélant la beauté cachée des théorèmes jusqu’au cœur de notre quotidien, le livre <a href="https://www.editionsepa.fr/epa/nature-et-animaux/dingue-de-maths-9782376711773"><em>Dingue de maths</em></a> éclaire d’un jour nouveau les concepts mathématiques et leurs usages. Vous y découvrirez la face visible des mathématiques, celle sans équation.</p><img src="https://counter.theconversation.com/content/170296/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Avner Bar-Hen est co-auteur de l'ouvrage "Dingue de maths" cité dans l'article.</span></em></p>Les statistiques démontrent que tous les numéros ont la même chance de sortir et donc que les tirages ne sont pas truqués. Cependant nous allons voir que certains tirages peuvent être plus lucratifs.Avner Bar-Hen, Professeur du Cnam, Conservatoire national des arts et métiers (CNAM)Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1635592021-09-08T19:33:35Z2021-09-08T19:33:35ZDébat : Comment repenser les comparaisons internationales en éducation ?<p>Comment connaître le niveau des élèves d’un pays en mathématiques ou en lecture, en résolution de problème ? Le niveau des petits Anglais baisse-t-il ? Monte-t-il ? Tout le monde, aujourd’hui, dispose des points de repère nécessaires pour se faire une idée assez juste des performances des systèmes d’éducation : les rapports de comparaison internationale établis par des organisations telles que l’Unesco (notamment l’<a href="http://uis.unesco.org/fr">Institut de statistiques de l’Unesco</a>), l’Union européenne ou l’Organisation de Coopération et de Développement Economique (<a href="https://www.oecd.org/pisa/">OCDE</a>) sont accessibles au grand public, les méthodes connues et présentées.</p>
<p>Ces rapports sont même harmonisés en sorte que ces grandes organisations se sont entendues sur ce qu’elles mesurent, et comment. Certes, tout n’est pas parfait et la critique des <a href="https://laviedesidees.fr/PISA-une-enquete-bancale.html">indicateurs internationaux</a> existe ; il est de bonne démocratie qu’elle puisse s’exercer si tant est que les chercheurs puissent avoir un accès aux systèmes d’information des administrations scolaires devenues de véritables citadelles. Si les rapports sont bien accessibles au grand public, les informations nécessaires à ces rapports (par exemple, les résultats des enquêtes avant synthèse) restent confidentiels.</p>
<figure class="align-left ">
<img alt="" src="https://images.theconversation.com/files/418880/original/file-20210901-13-1pr5pyv.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=237&fit=clip" srcset="https://images.theconversation.com/files/418880/original/file-20210901-13-1pr5pyv.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=718&fit=crop&dpr=1 600w, https://images.theconversation.com/files/418880/original/file-20210901-13-1pr5pyv.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=718&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/418880/original/file-20210901-13-1pr5pyv.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=718&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/418880/original/file-20210901-13-1pr5pyv.jpeg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=902&fit=crop&dpr=1 754w, https://images.theconversation.com/files/418880/original/file-20210901-13-1pr5pyv.jpeg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=902&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/418880/original/file-20210901-13-1pr5pyv.jpeg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=902&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px">
<figcaption>
<span class="caption">Marc-Antoine Jullien de Paris (1827)</span>
<span class="attribution"><a class="source" href="https://upload.wikimedia.org/wikipedia/commons/thumb/5/59/Marc-Antoine_Jullien_de_Paris_-_1827.jpg/1024px-Marc-Antoine_Jullien_de_Paris_-_1827.jpg">Wikimedia</a></span>
</figcaption>
</figure>
<p>Le lecteur aura déjà compris que les analyses internationales portent essentiellement sur l’école, très peu sur l’éducation familiale, presque jamais sur l’éducation non formelle (qui n’entre pas dans les systèmes d’information nationaux). Il reste donc des pans entiers d’explication des traditions éducatives méritant d’être explorés au sein de la discipline de l’éducation comparée, science née au XIX<sup>e</sup> siècle grâce au français <a href="http://www.inrp.fr/edition-electronique/lodel/dictionnaire-ferdinand-buisson/document.php?id=2971">Marc Antoine Jullien de Paris</a>. Il est au reste significatif que de nombreuses <a href="https://doi.org/10.3917/dec.vigou.2005.01">disciplines de la comparaison</a> soient nées au cours du XIX<sup>e</sup> siècle comme l’a montré Cécile Vigour : le droit comparé, la littérature comparée, et d’autres encore, l’anthropologie notamment.</p>
<h2>Des indicateurs à remettre en contexte</h2>
<p>C’est bien cet enchâssement de l’éducation comparée dans un ensemble plus vaste qu’il conviendrait de saisir tant la dynamique actuelle, au plan national et international, semble réduire l’analyse internationale à l’utilisation d’indicateurs chiffrés dont l’usage est légitime mais insuffisant. La mise en lumière des progressions ou des régressions chiffrées, tout utile qu’elle puisse être, s’inscrit dans un temps très bref qui ne correspond en réalité pas au temps long, voire très long de l’éducation. C’est bien là tout le problème.</p>
<p>Une dimension connexe à l’éducation comparée s’est invitée au sein de la discipline : l’anthropologie culturelle et les travaux liés à l’interculturalité, <a href="https://www.persee.fr/doc/tiers_0040-7356_1988_num_29_114_3556_t1_0457_0000_3">ceux de Carmel Camilleri</a> notamment ont fait école. L’ethnologie et <a href="https://www.cairn.info/revue-education-et-societes-2006-1-page-7.htm">l’anthropologie de l’éducation</a> se sont en effet souvent mêlées à la discipline de l’éducation comparée. Souvent suspecté d’une forme de complaisance vis-à-vis de l’anti-républicanisme voire même de <a href="https://www.cairn.info/l-ecole-a-l-epreuve-des-cultures--9782130571445-page-19.htm">compromission avec le relativisme culturel</a>, cet aspect est difficilement dissociable de la discipline.</p>
<p>Mais il est une autre dimension qui semble devoir être mieux mise en œuvre au sein de la discipline comparative en éducation, car elle présente de nombreux avantages pour comprendre certains enjeux contemporains en éducation. Il s’agit d’une approche civilisationnelle. Le terme d’approche est nécessaire car il ne s’agit pas, pour comprendre l’éducation d’aujourd’hui, de connaître toutes les civilisations dont la moindre des caractéristiques est la longue durée, l’étendue des productions et la complexité de leur développement. Il ne s’agit pas, non plus, pour la personne qui tente la comparaison de limiter ses centres d’intérêt à la philologie, à l’anthropologie religieuse, à l’histoire du droit, à la psychologie comparée, etc.</p>
<p>De quoi s’agit-il ? Il s’agit de faire humblement bonne place à la connaissance des civilisations. On peut sans rougir nommer cela « culture générale » et y placer comme l’on voudra l’histoire, les arts, la littérature, les systèmes de droit, les religions, les traditions culinaires et musicales, le soin du corps, la maladie, l’apprentissage, l’amour et les sciences, l’étude et la lecture… la liste est longue. Pourquoi ? Sans doute d’abord parce que la recherche de sens oblige à ce détour de fréquentation du temps long.</p>
<h2>L’océan des civilisations</h2>
<p>Présentez un cours à des étudiants consacré à des indicateurs internationaux en éducation et proposez un cours à ces mêmes étudiants sur l’histoire des civilisations et de l’éducation, je laisse au lecteur le soin de deviner quel est le cours le plus recherché : la demande est là, les jeunes souhaitent parler du temps long.</p>
<p>Parlons de bienveillance en éducation et voyons comment la notion de faute, de pardon, de réparation, de chance ou de risque peut être abordée dans différentes civilisations. Pourquoi, dans la tradition juive, au moins à partir du premier siècle de l’ère vulgaire, est-il plus important de <a href="https://www.cairn.info/revue-archives-juives1-2002-2-page-4.htm">construire une école</a> qu’une synagogue ? Quel est le <a href="https://www.seuil.com/ouvrage/des-mille-et-une-facons-d-etre-juif-ou-musulman-delphine-horvilleur/9782021349306">statut de l’étude</a>, de la contradiction dans l’exégèse juive, chrétienne, musulmane ? Que signifie le fait d’étudier dans ces traditions ? Et dans le monde occidental ? Et au fait, qu’est-ce que l’Occident ? Et l’Orient ?</p>
<p>Que faut-il pour que l’éducation comparée se resaisisse enfin de ces dimensions ? Il ne faut pas nécessairement abandonner l’usage des indicateurs et de la mesure, mais il convient également de faire recours aux grands récits. On sait que l’océan des civilisations est vaste et que l’eau y est profonde, mais on peut apprendre à nager et devenir un bon nageur sans traverser les mers et sans être soumis au chronomètre.</p>
<p>Si l’on devait scruter un indicateur de mesure d’accès à l’éducation scolaire, celui de la parité garçon-fille par exemple pour le calcul des taux de scolarisation, indicateur peu contestable du point de vue de son utilité, on pourrait sans doute mieux comprendre par l’étude de certaines grandes traditions religieuses pourquoi les filles demeurent reléguées hors de l’école et mariées si jeunes. Dans ce contexte, l’idée que le levier du changement peut être la transformation de l’exégèse religieuse n’apparaît pas clairement, or c’est bien de cet aspect-là dont il faut s’emparer et pas seulement des dispositifs scolaires. Les sociétés peuvent changer lorsqu’on rediscute des points de doctrine que l’on croit éternels ou figés, mais faut-il encore pouvoir prendre le temps de les chercher.</p>
<h2>Une autre échelle temporelle</h2>
<p>On doit à <a href="http://www.leseditionsdeminuit.fr/auteur-L%C3%AA_Th%C3%A0nh_K%C3%B4i-1592-1-1-0-1.html">Lê Thành Khôi</a> d’avoir tardivement ouvert la voie à l’étude de l’éducation dans les civilisations dans deux ouvrages importants : Éducation et civilisations (<a href="https://journals.openedition.org/ries/1829">Tome 1 : Sociétés d’hier</a>, <a href="https://www.erudit.org/fr/revues/rse/1997-v23-n2-rse1842/031925ar.pdf">Tome 2 : Genèses du monde contemporain</a>. L’apport de Lê Thanh Khoï est assez exemplaire d’une démarche intellectuelle qu’il conviendrait de rendre plus générale.</p>
<p>D’abord intéressé par le caractère politique de l’éducation, il s’est ouvert à la question des civilisations après avoir pris conscience des limites de la mesure internationale en éducation. La commande de ses travaux par l’Unesco a été salutaire. Pourquoi l’éducation comparée ne fait-elle pas plus de cas de cette ouverture-là ?</p>
<p>Les urgences de la mesure de l’efficacité et de l’efficience des systèmes semblent l’avoir emporté. Mais que sont les évolutions des indicateurs au cours de dix années au regard d’une culture et d’une civilisation ? Nos existences sont-elles si importantes et si centrales qu’il faille tout ramener à notre durée de vie ?</p>
<p>Dans un article paru en Italie, Andrea Canevaro et moi-même <a href="https://www.corriere.it/scuola/universita/21_aprile_22/uscire-dall-emergenza-l-esempio-dell-ottimismo-possibile-b40d9fde-a361-11eb-8b99-a42a4f90039f.shtml">nous interrogeons sur l’optimisme</a>, cette dimension psychologique et civilisationnelle qui semble souvent devoir être mise en brèche dans les systèmes d’éducation où la peur, le stress, la contrainte et le tri font interminablement leur œuvre.</p>
<p>Si l’on veut comprendre aujourd’hui les enjeux de la géopolitique et de l’éducation, l’étendue du pouvoir d’influence d’une civilisation sur une autre, le rejet d’une civilisation par une autre, avons-nous d’autres choix que de replacer la discipline dans cette orbite ? Les questions pédagogiques ne sont pas uniquement scolaires, elles font aussi appel à de longues traditions où philosophie, histoire, droit, esthétique, littérature et sciences tissent une toile dont il serait bon qu’on puisse en comprendre un peu mieux les motifs.</p><img src="https://counter.theconversation.com/content/163559/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>j'ai travaillé jusqu'en 2000 dans des ONG en éducation dans de nombreux pays</span></em></p>On dispose aujourd’hui d’indicateurs chiffrés et d’enquêtes internationales pour situer les performances des systèmes éducatifs. Mais cette approche n’est-elle pas réductrice ?Denis Poizat, Professeur des universités, laboratoire Education, Cultures, Politiques, Université Lumière Lyon 2 Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1636542021-06-30T20:08:10Z2021-06-30T20:08:10ZTirs au but : les gardiens, stratèges ignorés auxquels les économistes devraient s’intéresser de près<p>« (Kylian) Mbappé se sent coupable mais <a href="https://www.leparisien.fr/sports/football/mbappe-se-sent-coupable-mais-il-na-pas-a-letre-affirme-didier-deschamps-apres-lelimination-des-bleus-a-leuro-29-06-2021-G4ILEVEAA5ADZJVXD46L567MLE.php">il n’a pas à l’être</a> », affirmait le sélectionneur français Didier Deschamps en conférence de presse après la défaite des Bleus aux tirs au but, lundi soir face à la Suisse, en huitième de finale de l’Euro de football, à Bucarest en Roumanie. Quelques considérations issues de travaux d’économie comportementale tendent à lui donner raison.</p>
<p>Pour cause, il semble que ce n’est pas tant l’attaquant qui ait raté son penalty, que le gardien helvète, Yann Sommer, qui a sauvé ce but. Plutôt que d’incriminer le joueur français, il semble donc plus pertinent de se pencher sur l’exploit de son adversaire suisse. Celui-ci avait en effet quelque chose de prévisible…</p>
<p>Lorsque l’on commente les séances de tirs au but, on a pour habitude de regarder les statistiques de réussite des tireurs. On se tourne moins du côté des exploits des gardiens de but, à tort. Mbappé avait plus de 80 % de chances de transformer un penalty. Sur 16 tentatives au cours de sa carrière, il en avait réussi 13 (un sur deux en équipe de France).</p>
<p>Avec ce score de 80 %, il reste à peu près dans la moyenne des professionnels. En effet, des <a href="https://academic.oup.com/restud/article-abstract/70/2/395/1586790?redirectedFrom=fulltext">chercheurs</a> ont montré que les tireurs ont statistiquement 79 % de chance de voir le ballon finir au fond des filets.</p>
<p>Quels sont les cas, peu nombreux, dans lesquels un tireur est susceptible de rater son but ? Les <a href="https://www.frontiersin.org/articles/10.3389/fcomp.2021.661466/full">recherches en activité cérébrale</a> ont montré que, en ce qui concerne les tireurs, mieux vaut ne pas trop calculer les conséquences de son tir : plus on est stressé, moins on va réussir. Ces recherches, cependant, ne se sont pas intéressées à ce qu’il se passe dans la tête du gardien de but.</p>
<h2>Raisonnement de second ordre</h2>
<p>Or, c’est dans la tête du gardien de but que le vrai calcul stratégique a lieu : l’issue d’une tentative ne dépend que de la capacité du gardien, et non des tireurs, à mettre en place ce que l’on appelle un <a href="https://www.cairn.info/revue-economique-2006-2-page-281.htm">raisonnement de second ordre</a>. Plus le gardien est capable de faire un raisonnement de type « je sais que tu sais », plus l’équipe a des chances de gagner.</p>
<p>Sur ce point, la plupart des gardiens de but subissent notamment « le <a href="https://www.sciencedirect.com/science/article/pii/S0167487006001048?casa_token=VdX7v9SLWLMAAAAA:LNUB6KoOgLsCogh8iS-rJsIgnVANlMVcHnj8WUEv798X2dZtoflCUg0AVNVcI_TH_uJDC5f9ad4">biais de l’action</a> » qui fait qu’ils n’emploient pas la stratégie optimale. Ils vont tenter de plonger d’un côté ou de l’autre pour se montrer agissants alors qu’il semble statistiquement que la stratégie optimale est de rester au milieu des cages.</p>
<p>Certains font preuve néanmoins de beaucoup de malice.</p>
<p>Souvenez-vous par exemple de <a href="https://www.dailymotion.com/video/x75q393">l’exploit du gardien Mickaël Landreau</a> en 2002, lors du 16<sup>e</sup> de finale de la Coupe de la Ligue entre le PSG et le FC Nantes, face à l’un des meilleurs joueurs au monde à ce moment, le Brésilien Ronaldinho.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1273669559652888582"}"></div></p>
<blockquote>
<p>« Je me suis dit, puisque le penalty est décisif, il faut que je crée quelque chose qui puisse toucher un petit peu Ronaldinho émotionnellement ou psychologiquement. Je me suis dit qu’il tirait très très bien sur mon côté gauche, et donc qu’il fallait que je l’amène à tirer sur mon côté droit. Mais de quelle manière ? C’est pour ça que je me suis placé de cette manière-là et je suis rentré dans son jeu. Je savais qu’il levait la tête à un moment donné. Il fallait qu’au moment où il lève la tête, il pense que j’irai à fond sur son côté fort, pour qu’au moment où il rebaisse la tête je puisse repartir de l’autre côté. »</p>
</blockquote>
<p>Dans une situation similaire, en mai 2021, le gardien de Brest Gautier Larsonneur a, lui, poussé, par son placement, la star brésilienne Neymar à frapper à côté des cages. L’attaquant du Paris-Saint-Germain affiche pourtant parmi les <a href="https://www.lequipe.fr/Football/Article/Les-penalties-de-neymar-sont-ils-impossibles-a-arreter/1220309">meilleures statistiques d’Europe</a> dans l’exercice.</p>
<p><div data-react-class="Tweet" data-react-props="{"tweetId":"1396548176501481472"}"></div></p>
<p>Souvenez encore, en 1986, de la finale de la Coupe des clubs champions européens qui oppose le Steaua de Bucarest au FC Barcelone. Le gardien du club roumain, Helmuth Duckadam, entrera dans l’histoire : non seulement il n’encaisse pas de but durant toute la rencontre face au favori de la compétition, mais surtout, pendant la séance des tirs au but, <a href="https://www.youtube.com/watch?v=tlKeAHGuwfg">il arrête 4 penalties d’affilée</a> !</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/PsXRVZevzHs?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
</figure>
<p>Interrogé sur son exploit, Helmuth Duckadam déclare d’une <a href="https://www.sofoot.com/helmuth-duckadam-le-heros-de-seville-200581.html">interview</a> accordée au site de l’UEFA :</p>
<blockquote>
<p>« Alexanko était le premier tireur. J’ai choisi de me déplacer vers la droite et il a tiré vers la droite, j’ai donc réussi à sauver le premier tir. Le deuxième penalty était moins simple. J’ai essayé de penser comme Pedraza. Il devait penser que comme j’avais fait un arrêt à droite, je devais plonger à gauche. Il a donc tiré vers la droite et j’ai réussi à arrêter le deuxième penalty également. Le troisième penalty de Pichi Alonso était plus simple. Un gardien qui a fait deux arrêts sur sa droite va forcément aller à gauche pour le troisième. Il a tiré à droite et je me suis à nouveau déplacé à droite et j’ai également arrêté le troisième penalty. Pour le quatrième penalty, j’ai eu un problème. Je me demandais sérieusement ce que Marcos allait faire – s’il allait copier les trois autres ou tirer à gauche. J’ai décidé de changer de côté et je me suis déplacé vers la gauche. Marcos a également choisi ce côté ».</p>
</blockquote>
<p>Et c’est ainsi que Helmut Duckadam a sauvé quatre penalties.</p>
<h2>Messages trompeurs et stratégiques</h2>
<p>Le raisonnement est ici d’ordre divinatoire (de « deviner ») : il conduit à éliminer les unes après les autres les stratégies qui ont le moins de chances de me faire gagner (en économie, dans la théorie des jeux très présente en microéconomie, on parle de « stratégies dominées »). Il repose aussi sur la mise en œuvre d’une empathie cognitive : « je me mets à ta place tout en gardant en tête que toi aussi, tu te mets à ma place ». Ou, dit autrement : je sais, que tu sais, que je sais, que tu sais, etc. ».</p>
<p>Si le gardien sait que le joueur en face est plus susceptible de jouer « au niveau zéro » de cette série de « je sais », car il est fatigué, a fait des erreurs au cours du match, ou n’a tiré un penalty que deux fois avec l’équipe de France auparavant, comme c’était le cas de Mbappé, il est plus facile de défendre.</p>
<p>Il paraît donc important et indispensable d’analyser de plus près les décisions des gardiens de but, des stratèges ignorés. Ceux-ci pourraient nous apprendre des choses essentielles en termes d’empathie cognitive.</p>
<p>« Le comportement d’un individu sur un marché est rationnel dans la mesure où il est adapté à la structure de son environnement », disait Vernon Smith, prix « Nobel » d’économie en 2002. L’existence de ce type de rationalité spécifique contribue à expliquer comment des individus aux intelligences différentes s’adaptent à leur situation. C’est-à-dire que les individus ont la capacité de découvrir l’intelligence contenue dans les règles et la structure de la situation.</p>
<p>Saluons donc la performance de Yann Sommer et arrêtons de culpabiliser Kylian Mbappé !</p><img src="https://counter.theconversation.com/content/163654/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Angela Sutan a reçu des financements de l' ANR a travers le dispositif ISITE-BFC International Coach program (ANR-15-IDEX-003, PI URI Gneezy).</span></em></p><p class="fine-print"><em><span>Antoine Malézieux a reçu des financements de l'ANR à travers le dispositif ISITE-BFC International Coach program (ANR-15-IDEX-003, PI URI Gneezy).</span></em></p>Les meilleurs à ce poste adoptent des stratégies du type « je sais que tu sais que je sais… ». La théorie des jeux et l’économie expérimentale permettent notamment d’en rendre compte.Angela Sutan, Professeur en économie comportementale, Burgundy School of Business Antoine Malézieux, Professeur en économie comportementale et marketing, Burgundy School of Business Licensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1635832021-06-29T20:43:42Z2021-06-29T20:43:42ZTirs au but : la France aurait-elle eu plus de chances de battre la Suisse en tirant en premier ?<p><a href="https://www.lequipe.fr/Football/Actualites/La-france-eliminee-en-8es-par-la-suisse-aux-tirs-au-but-apres-un-match-de-folie/1266688">Éliminée par la Suisse</a> au stade des huitièmes de finale à Bucarest en Roumanie, la France se voyait sans doute continuer son parcours plus loin dans l’Euro-2020. D’autant qu’une qualification pour le tour suivant semblait acquise alors que les tricolores menaient 3 buts à 1. Rattrapés à quelques minutes de la fin, les Bleus ont dû jouer les prolongations. Personne n’ayant fait la différence à l’issue de ces trente minutes supplémentaires, il a fallu départager les deux équipes avec une séance de tirs au but.</p>
<p>Au cours d’une séance de tirs au but, chaque équipe tire alternativement. L’arbitre tire au sort le capitaine qui décidera laquelle sera la première à se présenter face au gardien adverse. Lundi soir, ce fut la Suisse. L’équipe qui a réussi le plus de ses cinq penalties est qualifiée. L’échec de Kylian Mbappé, cinquième tireur français face au gardien Suisse Yann Sommer a ainsi envoyé la sélection helvétique en quart de finale.</p>
<p><a href="https://www.sciencedirect.com/science/article/abs/pii/S0899825621000117">Notre étude</a> publiée dans la revue <em>Games and Economic behavior</em> s’intéresse à la question suivante : l’équipe qui tire le premier penalty bénéficie-t-elle ainsi d’un avantage ? La théorie reste plausible et attrayante. Elle s’accorde avec la simplicité du format d’une séance de tirs au but, un concours simple dans lequel les deux équipes essaient tour à tour de marquer depuis un point fixe situé à 11 mètres de la ligne de but.</p>
<p>Nous montrons qu’il ne s’agit toutefois pas de l’élément le plus décisif.</p>
<h2>Avantage au premier tireur ?</h2>
<p>Le résultat de chaque tentative lors d’une séance de penalties demeure sans ambiguïté – c’est un but ou pas – et on sait clairement quelle équipe est en tête. Étant donné qu’environ <a href="https://www.doi.org/10.1257/00028280260344678">75 % des penalties</a> finissent au fond des filets, l’ordre des tireurs peut donc avoir de l’importance car il influence sur les scores intermédiaires. Le fait d’être à la traîne peut mettre tellement de pression sur les joueurs qu’ils commencent à tergiverser.</p>
<p><a href="https://www.sportbible.com/football/news-bruno-fernandes-panned-for-letting-villarreal-take-first-penalty-in-eu-20210527">Nombreux</a> semblent ceux qui adoptent ce <a href="https://punditarena.com/football/daniel-hussey/bruno-fernandes-penalty-man-united-villarreal/">point</a> de <a href="https://www.caughtoffside.com/2021/05/27/bruno-fernandes-penalty-error-gave-villarreal-edge-over-man-united/">vue</a>. Le sujet a inspiré de nombreuses recherches au fil des ans et des partisans des deux camps existent. Un papier publié dans la prestigieuse <em>American Economic Review</em> tend ainsi à montrer que le fait de tirer en premier augmente considérablement les chances de victoire d’une équipe, alors que des <a href="https://doi.org/10.1287/mnsc.1120.1516">enquêtes</a> <a href="https://doi.org/10.1016/j.joep.2018.10.008">ultérieures</a> n’ont pas identifié pareil effet.</p>
<p>Dans d’autres sports, les conclusions concernant cette idée d’« avantage au premier tireur » (« first-mover advantage » en anglais) restent également mitigées. Au hockey, par exemple, a été défendue l’idée que le fait de tirer le premier dans une séance de tirs au but n’apporte <a href="https://doi.org/10.1111/kykl.12073">pas d’avantage significatif</a>. Au cricket, il semble que le fait de frapper le premier peut même avoir un <a href="https://doi.org/10.1111/j.1468-0297.2008.02203.x">effet négatif</a> sur l’issue du match.</p>
<p>Dans notre récente étude, nous nous sommes demandé si ce n’est pas plutôt le droit de déterminer la séquence des coups dans une séance de tirs, celui de pouvoir choisir quelle équipe tire en premier, qui importe et non simplement le fait de pouvoir tirer en premier.</p>
<h2>Pile ou face</h2>
<p>Pour donner suite à notre questionnement, nous avons analysé 207 séances de tirs au but dans 14 tournois internationaux de football entre juillet 2003 et août 2017, dont la Coupe du monde de la FIFA (10 séances de tirs au but) et l’Euro organisé par l’UEFA (9) pour les sélections nationales, et, pour ce qui est des clubs, les deux coupes d’Europe : la Ligue des Champions (30) et l’Europa League (68).</p>
<p>Avant chaque séance de tirs au but, les deux capitaines d’équipe choisissent pile ou face et l’arbitre jette une pièce en l’air. Le capitaine gagnant peut alors choisir de tirer en premier ou en second. En théorie, le fait de passer en deuxième position pourrait être un choix stratégique si le gardien de but est considéré comme meilleur que celui de l’autre équipe et plus susceptible de faire un arrêt.</p>
<p>En accédant aux séquences vidéo officielles, nous avons pu déterminer quel capitaine avait gagné le tirage au sort et quelle décision il avait prise pour 96 séances.</p>
<p>De manière surprenante peut-être, il s’est avéré que le choix de passer en premier n’est pas une option résolument dominante. Seuls 56 % des capitaines ont décidé de tirer en premier, tandis que les 44 % restants ont envoyé leur gardien dans le but en premier dans l’espoir d’un arrêt précoce, croyant peut-être à un « second mover advantage », un « avantage du second venu ». Lors de l’Euro, organisé en France en 2016, la décision de tirer en second a même été prise dans les trois séances de tirs au but du tournoi.</p>
<p>L’équipe dont le capitaine a gagné le tirage au sort a remporté environ 60 % des tirs au but suivants. C’est nettement mieux que les 50 % de chances que l’on pourrait attendre si les décisions des capitaines ne faisaient aucune différence.</p>
<p>De plus, comme la plupart des <a href="https://doi.org/10.1287/mnsc.1120.1516">recherches précédentes</a>, nous n’avons constaté aucun avantage à être la première équipe à tirer un penalty, la fréquence de victoire des premières équipes à tirer un penalty n’étant que d’environ 51 % dans ces compétitions internationales de football.</p>
<p>L’ordre des penalties ne semble donc pas avoir d’importance quand le droit de déterminer la séquence, lui, en revêt une. Cela peut être dû au fait que les capitaines qui gagnent à pile ou face sont en mesure d’évaluer les forces relatives des gardiens et des tireurs des deux équipes, puis de décider de la séquence la plus favorable.</p>
<p>Lors de France-Suisse, c’est d’ailleurs le capitaine de la sélection helvète Granit Xhaka qui avait gagné le tirage au sort.</p><img src="https://counter.theconversation.com/content/163583/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Matthias Sutter a reçu des financements de Deutsche Forschungsgemeinschaft. </span></em></p><p class="fine-print"><em><span>Dominik Schreyer et Sascha L. Schmidt ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.</span></em></p>Une étude portant sur une centaine de séances de tirs au but disputées lors de tournois majeurs montre que le fait de tirer en premier importe moins que le fait de pouvoir choisir qui tire en premier.Dominik Schreyer, Assistant Professor of Sports Economics, WHU – Otto Beisheim School of ManagementMatthias Sutter, Professor of Economics, Behaviour and Design, Max Planck Institute for Research on Collective GoodsSascha L. Schmidt, Professor and Director, Center for Sports and Management, WHU – Otto Beisheim School of ManagementLicensed as Creative Commons – attribution, no derivatives.tag:theconversation.com,2011:article/1601992021-06-20T17:04:51Z2021-06-20T17:04:51ZLes probabilités n’existent pas… mais on vous explique quand même comment vous en servir<figure><img src="https://images.theconversation.com/files/407327/original/file-20210620-35088-jxbiqo.jpg?ixlib=rb-1.1.0&rect=8%2C8%2C5455%2C3628&q=45&auto=format&w=496&fit=clip" /><figcaption><span class="caption">Dispositif d'illustration du paradoxe de Monty Hall</span> <span class="attribution"><span class="license">Fourni par l'auteur</span></span></figcaption></figure><p>Nous devons chaque jour, dans notre vie personnelle ou professionnelle, prendre des décisions tout en n’ayant qu’une connaissance partielle des informations relatives à la situation : si je choisis cet itinéraire, vais-je me retrouver bloqué dans un embouteillage et arriver en retard ? Dans quelle station-service sur ma route le carburant sera-t-il le moins cher ? Ce chapitre du programme que je n’ai pas encore révisé a-t-il des chances de tomber à l’examen ? </p>
<p>Les exemples sont innombrables où, consciemment ou non, nous parions quotidiennement sur des événements dont nous ne savons pas s’ils vont se réaliser ou non. Dans de telles situations, nous ne pouvons donc pas être certains de faire le bon choix : au final, le résultat relèvera aussi du hasard. Malgré cette part d’incertitude, il nous faut tenter d’optimiser nos chances de succès, et cela passe par le calcul ou l’estimation de la probabilité des événements incertains. Cette probabilité est un nombre entre 0 et 1, d’autant plus proche de 1 que l’événement a des chances de se produire. Mais quels sont les mécanismes mis en jeu dans le calcul de ce nombre ?</p>
<p>Le mathématicien <a href="https://fr.wikipedia.org/wiki/Bruno_de_Finetti">Bruno de Finetti</a> (1906-1985) a passé sa vie à étudier la théorie des probabilités, dont il était un grand spécialiste. Pourtant il clame <a href="https://www.wiley.com/en-us/Theory+of+Probability%3A+A+critical+introductory+treatment-p-9781119286370">dans un ouvrage qui leur est consacré</a> que « Les probabilités n’existent pas ! »</p>
<p>Voilà qui commence mal : comment pouvons-nous mettre en pratique la théorie de quelque chose qui n’existe pas ? En fait, par cette provocation, de Finetti voulait souligner que la probabilité d’un événement n’est pas une réalité objective : elle dépend de la personne qui l’estime et évolue en fonction des informations que celle-ci reçoit. Voyons cela concrètement sur un exemple.</p>
<h2>Le « problème de Monty Hall »</h2>
<p>Le <a href="https://fr.wikipedia.org/wiki/Probl%C3%A8me_de_Monty_Hall">« problème de Monty Hall »</a> se présente sous la forme d’un jeu de hasard inspiré de l’émission télévisée américaine <em>Let’s make a deal</em> (dont Monty Hall était le présentateur). Le candidat a devant lui trois portes fermées, notées A, B, C, derrière lesquelles sont cachées deux chèvres et une voiture réparties au hasard. Son but est de trouver la porte dissimulant la voiture. Il commence par désigner l’une des trois portes, sans l’ouvrir (disons que c’est la porte A). Le présentateur, qui connaît la répartition, annonce alors qu’il va montrer une chèvre cachée derrière l’une des deux autres portes (c’est toujours possible : puisqu’il n’y a qu’une voiture, au moins une des deux autres portes cache une chèvre). Après avoir ainsi dévoilé une chèvre (disons derrière la porte B), il demande au candidat si celui-ci maintient son choix initial, ou si il préfère aller vers l’autre porte encore fermée (la porte C dans notre exemple). À votre avis, le candidat a-t-il intérêt à changer de porte ?</p>
<figure>
<iframe width="440" height="260" src="https://www.youtube.com/embed/5-pEPE4LCFE?wmode=transparent&start=0" frameborder="0" allowfullscreen=""></iframe>
<figcaption><span class="caption">Let’s Make a Deal (1972)/Sam Mitchell.</span></figcaption>
</figure>
<p>Au départ du jeu, le candidat ne sait strictement rien sur la position de la voiture et des deux chèvres. Lorsqu’il choisit sa première porte, il a donc une chance sur trois d’avoir choisi celle qui cache la voiture. Mais en montrant la chèvre derrière la porte B, le présentateur apporte une nouvelle information au candidat : ce dernier, qui ignorait tout au début, sait maintenant que la porte B dissimulait une chèvre. En quoi cette nouvelle donnée pourrait-elle l’amener à réviser son choix initial ?</p>
<p>À ce point deux raisonnements s’opposent qui aboutissent à deux conclusions contradictoires. Voici la première façon d’aborder le problème : il reste deux portes fermées, A et C, l’une cache une chèvre et l’autre une voiture. Il y a alors une chance sur deux que la voiture soit derrière la porte A, et donc le candidat aurait autant de chances de gagner en gardant la porte A qu’en choisissant la C. Mais le second raisonnement consiste à remarquer que la voiture n’a pas changé de place depuis le début du jeu. Comme il y avait une chance sur trois qu’elle soit derrière la porte A, elle a maintenant deux chances sur trois d’être cachée derrière la porte C. Selon ce second raisonnement, le candidat doublerait ses chances de gagner en changeant de porte. Quel est parmi ces deux arguments celui qui fournit la bonne stratégie pour le candidat ?</p>
<p>On trouve très facilement en ligne des <a href="http://sorciersdesalem.math.cnrs.fr/Hall/hall.html">simulations du jeu</a>, et nous l’avons expérimenté en situation réelle lors de la Fête de la Science avec un grand nombre de visiteurs. Les résultats sont sans appel : lorsque le candidat conserve la porte qu’il avait choisie initialement, il gagne environ dans 33 % des cas, alors que la stratégie de changer de porte aboutit à environ 66 % de succès. C’est donc bien le second raisonnement qui semble être correct. Mais alors, qu’est-ce qui cloche dans le premier ?</p>
<figure class="align-center zoomable">
<a href="https://images.theconversation.com/files/407328/original/file-20210620-35174-1i1txxj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=1000&fit=clip"><img alt="" src="https://images.theconversation.com/files/407328/original/file-20210620-35174-1i1txxj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&fit=clip" srcset="https://images.theconversation.com/files/407328/original/file-20210620-35174-1i1txxj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=600&h=343&fit=crop&dpr=1 600w, https://images.theconversation.com/files/407328/original/file-20210620-35174-1i1txxj.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=600&h=343&fit=crop&dpr=2 1200w, https://images.theconversation.com/files/407328/original/file-20210620-35174-1i1txxj.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=600&h=343&fit=crop&dpr=3 1800w, https://images.theconversation.com/files/407328/original/file-20210620-35174-1i1txxj.jpg?ixlib=rb-1.1.0&q=45&auto=format&w=754&h=431&fit=crop&dpr=1 754w, https://images.theconversation.com/files/407328/original/file-20210620-35174-1i1txxj.jpg?ixlib=rb-1.1.0&q=30&auto=format&w=754&h=431&fit=crop&dpr=2 1508w, https://images.theconversation.com/files/407328/original/file-20210620-35174-1i1txxj.jpg?ixlib=rb-1.1.0&q=15&auto=format&w=754&h=431&fit=crop&dpr=3 2262w" sizes="(min-width: 1466px) 754px, (max-width: 599px) 100vw, (min-width: 600px) 600px, 237px"></a>
<figcaption>
<span class="caption">Expérience illustrant le paradoxe de Monty Hall.</span>
<span class="attribution"><span class="license">Fourni par l'auteur</span></span>
</figcaption>
</figure>
<p>Imaginons qu’avant le début du jeu, l’une des trois portes ait été mal fermée et qu’un courant d’air ait permis au candidat d’entrevoir une chèvre derrière cette porte. Compte tenu de cette information, il peut légitimement estimer que la chèvre restante et la voiture ont chacune une chance sur deux de se trouver derrière chacune des deux autres portes. Mais en quoi cette situation est-elle différente de celle du jeu décrit juste avant ?</p>
<p>L’erreur dans le premier raisonnement vient de la mauvaise appréciation de l’information effectivement apportée au candidat : contrairement au courant d’air qui dévoile une chèvre de façon fortuite, le présentateur choisit intentionnellement laquelle des deux autres portes il va ouvrir. Ainsi, non seulement le candidat sait qu’il y a une chèvre derrière la porte B, mais il doit également tenir compte du fait que le présentateur a délibérément choisi cette porte. Dans le cas où la voiture est derrière la porte A, le choix du présentateur ne dit rien de plus (il peut avoir tiré à pile ou face quelle porte il dévoile), mais dans le cas où la porte A cache une chèvre, ce qui arrive deux fois sur trois, le présentateur choisit la porte B parce qu’il sait que la voiture est derrière la C.</p>
<p>On voit dans cet exemple comment la probabilité de l’événement « La voiture est derrière la porte C » change selon le point de vue. Pour le candidat qui arrive en ne connaissant rien d’autre que les règles du jeu, elle vaut 1/3. Si le candidat a entrevu de manière fortuite une chèvre derrière la porte B, elle passe à ½. Pour le candidat qui a d’abord désigné la porte A et qui a vu le présentateur montrer la chèvre derrière la porte B, elle est égale à 2/3. Et pour le présentateur qui sait tout, elle vaut 1 ou 0, suivant que la voiture est ou n’est pas derrière la porte C.</p>
<p>On mesure ici combien la probabilité d’un événement incertain dépend subtilement des informations dont dispose la personne qui l’estime. Si on néglige une partie de notre connaissance de la situation (par exemple, si on ne prend en compte que l’information brute « il y a une chèvre derrière la porte B » en oubliant que cette information résulte d’un choix intentionnel du présentateur dans un contexte précis), on risque d’aboutir à une mauvaise estimation et au final réduire nos chances de succès.</p>
<h2>Les probabilités conditionnelles</h2>
<p>Pour tenir compte de l’information partielle dont nous disposons dans l’évaluation de la probabilité d’un événement, on fait appel au concept de « probabilité conditionnelle » : la probabilité conditionnelle d’un événement C sachant l’événement B s’interprète comme la probabilité que C se réalise pour une personne qui dispose exactement de l’information que B est réalisé. Elle se calcule comme le quotient de la probabilité que les événements B et C soient réalisés en même temps par la probabilité a priori de l’événement B :</p>
<p>P(C sachant B) = P(B et C)/P(B)</p>
<p>Cette notion revêt une importance capitale pour toute la théorie des probabilités. Elle permet de réviser nos estimations, nos chances de succès, en tenant compte d’informations additionnelles.</p>
<p>Or cela peut tout changer : confondre la probabilité d’un événement avec la probabilité d’un événement conditionnellement à certaines informations est une erreur fréquente, qui peut modifier totalement l’appréciation d’une situation. Prenons un exemple d’actualité en démographie. En 2020, <a href="https://www.insee.fr/fr/statistiques/2416631#tableau-figure1">l’espérance de vie des femmes à la naissance était de 85,1 ans</a>, selon l’Insee. Pour une femme de 80 ans, cela ne signifie pas qu’il lui reste en moyenne seulement 5 ans à vivre ! Pourtant cet argument, suivi d’une comparaison avec l’âge médian à la date du décès des personnes victimes du Covid-19 (84 ans), est souvent évoqué dans les médias. Or, l’Insee montre aussi que les femmes de 80 ans ont encore une <a href="https://www.insee.fr/fr/statistiques/4160025#tableau-Figure1_radio1">espérance de vie d’environ 11 ans</a>. La différence est que dans l’espérance de vie à la naissance, on ne tient pas compte de l’information additionnelle : « sachant que la personne atteint au moins 80 ans ».</p>
<p>La relative simplicité de la formule de l’espérance conditionnelle cache de nombreuses difficultés pratiques. Nous en avons déjà mis une en évidence : on doit d’abord parfaitement identifier l’information qui nous est connue, représentée ici par l’événement B. Le second problème, sur lequel nous n’insisterons pas davantage, est qu’il nous faut disposer au départ d’une « probabilité a priori » censée représenter l’absence d’information sur la situation, et qui nous sert à mesurer P(B et C) et P(B). La citation de Bruno de Finetti donne une idée de la difficulté de cette question.</p>
<p>Nous voudrions surtout ici mettre l’accent sur un troisième piège : si la notion de probabilité conditionnelle constitue un outil universel, sorte de « couteau suisse » pour survivre dans un monde aléatoire, il s’agit de l’utiliser dans le bon sens et de ne pas confondre le manche avec la lame ! Il existe en effet de nombreuses situations, dans lesquelles une mauvaise évaluation d’une probabilité a des conséquences autrement plus graves que pour le candidat du jeu de Monty Hall, et où il est si tentant d’utiliser les probabilités conditionnelles « à l’envers ». Nous illustrons ce phénomène à travers deux exemples concrets.</p>
<p>Le premier exemple, qui résonne malheureusement avec l’actualité de la
pandémie, considère un test de dépistage d’une maladie sur lequel nous
formulons les hypothèses suivantes : on suppose que si on teste une
personne infectée, le test sera positif dans 99% des cas (soit un taux
de faux négatifs égal à 1%), et qu’inversement si on teste une personne
non infectée, le résultat sera positif dans 1% des cas (le taux de faux
positifs est lui aussi supposé égal à 1%).</p>
<p>On fait subir le test à une personne prise au hasard dans la population, et le test est positif. Quelle est la probabilité que cette personne soit réellement porteuse de la maladie ? Nous sommes très tentés ici de répondre directement que cette probabilité est de 99 %. Cependant, ce nombre est donné comme la probabilité conditionnelle que le test soit positif sachant que la personne est infectée. Et ce qui nous intéresse ici est la probabilité conditionnelle « inverse » : celle que la personne soit infectée sachant que le test est positif. Or, en général les deux probabilités conditionnelles ne sont pas identiques, elles peuvent même être très différentes !</p>
<p><a href="https://royalsocietypublishing.org/doi/10.1098/rstl.1763.0053">C’est la célèbre formule de Bayes</a>, l’un des résultats les plus importants de toute l’histoire des probabilités, qui permet de relier les deux. Elle s’écrit sous la forme suivante :</p>
<p>P(C sachant B) = [P(B sachant C) × P(C)]/P(B)</p>
<p>Dans l’exemple du test de dépistage, B représente l’événement « le test est positif » et C l’événement « la personne est infectée ». Pour calculer la probabilité cherchée ici, celle de l’événement C sachant que l’événement B est réalisé, il nous manque une donnée essentielle qui s’interprète comme la probabilité a priori : le taux d’incidence de la maladie dans la population, c’est-à-dire la probabilité de l’événement C.</p>
<p>Supposons que cette maladie touche une personne sur mille. Sur un million de personnes, on compterait environ 1000 malades, dont 990 seraient détectés positifs par le test. Sur les 999 000 personnes non infectées, le test détecterait environ 9 990 faux positifs. Au total, la proportion de personnes malades parmi celles détectées positives au test serait donc 990/(9 990 + 990), soit environ 9 % ! Ainsi il y aurait moins d’une chance sur 11 que la personne testée positive soit réellement atteinte par la maladie. Notons toutefois que ce calcul suppose que l’on ne dispose d’aucune autre information sur la personne testée. Si par exemple la personne qui se fait tester présente des symptômes de la maladie, il faut intégrer cette information supplémentaire et cela fera certainement augmenter sa probabilité d’être réellement atteinte. Inversement, si on sait que la personne ne présente aucun symptôme, cela aboutira à une probabilité d’infection plus faible encore.</p>
<p>Dans le domaine judiciaire, l’emploi inversé de mauvaises probabilités conditionnelles constitue un piège classique appelé le « sophisme du procureur », qui peut aboutir à des conclusions dramatiques comme dans le second exemple que nous présentons. Dans les années 1990, un couple d’Anglais, Steve et Sally Clark, perdent successivement leurs deux bébés de mort subite du nourrisson (MSN, dans la suite). La mère est condamnée pour meurtre sur la base des conclusions d’un expert pédiatre. Celui-ci a convaincu les jurés du procès en tenant l’argumentation suivante : il estime (par des méthodes déjà très discutables) que la probabilité d’observer 2 MSN consécutives dans une même famille est de l’ordre de 1 sur 72 millions, et en conclut que ceci représente la probabilité que Sally Clark soit innocente. </p>
<p>Autrement dit, la mère est coupable avec une probabilité extrêmement proche de 1 ! L’erreur principale dans cet argument repose ici encore un mauvais usage des probabilités conditionnelles : la probabilité que la mère soit innocente sachant que ses deux enfants sont décédés est confondue à tort avec la probabilité que les enfants décèdent sachant que la mère est innocente. Le procès fut révisé quelque temps plus tard, avec notamment une intervention de la Royal Statistical Society, et Sally Clark fut libérée. Malheureusement elle ne se remit jamais de ces épreuves et décéda peu après.</p>
<p>Si les raisonnements probabilistes sont un outil incontournable pour structurer nos raisonnements quotidiens et nous guider dans nos choix, il convient toutefois d’être prudent dans leurs usages et leurs interprétations, pour se garder de toute erreur aux conséquences plus ou moins importantes.</p>
<p>Connaître les principes de base sur lesquels s’est développée la théorie des probabilités peut nous aider à déjouer les pièges posés par la tentation de la facilité.</p><img src="https://counter.theconversation.com/content/160199/count.gif" alt="The Conversation" width="1" height="1" />
<p class="fine-print"><em><span>Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.</span></em></p>En utilisant des exemples concrets, il est possible de comprendre les bases des probabilités et ne plus se faire avoir par les chiffres.Gaëlle Chagny, chargée de recherche CNRS en mathématiques (statistique), Université de Rouen NormandieThierry de la Rue, Chargé de recherche CNRS en mathématiques, Université de Rouen NormandieLicensed as Creative Commons – attribution, no derivatives.