Menu Close
Le Nouveau Front populaire promet, s'il obtient la majorité, d'augmenter le Smic à 14 % pour le porter à 1 600 euros nets mensuels. Shutterstock

Une inflation sous-estimée, un argument en faveur d’une hausse du smic ?

Répondre aux conséquences de l’inflation qui a sévi en France à la suite du Covid et de l’invasion de l’Ukraine et à une supposée baisse du pouvoir d’achat. La question est au cœur des programmes électoraux des élections législatives, les uns imaginant y répondre par une baisse de TVA sur certains produits, d’autres par une hausse du smic et une indexation des retraites sur le niveau des prix, d’autres encore par une réforme des aides aux entreprises et de la prime d’activité.

Théoriquement, l’inflation est une composante importante de la perte de pouvoir d’achat des ménages : plus l’inflation augmente, plus le pouvoir d’achat diminue, du moins tant que les salaires nominaux n’augmentent pas. Dans la réalité, les salaires sont négociés, généralement une fois par an, pour éviter le grignotage de ce pouvoir d’achat, ou pour tenter, dans le meilleur des cas d’en gagner. Ces négociations ont toujours comme point de référence décisif l’indice de l’inflation : si l’Insee a enregistré une inflation de 4,9 %, comme cela a été le cas en 2023, les organisations syndicales tentent d’obtenir des augmentations de salaires d’au moins 4,9 % pour maintenir le pouvoir d’achat des salariés. Dans les cas où les rapports de force sont en faveur des travailleurs (chez les cadres par exemple, ou dans les secteurs bien couverts par les syndicats), les augmentations pourront être supérieures.

Cette manière de voir les choses prend cependant pour acquis le fait que la mesure de l’inflation serait conforme à l’évolution du « coût de la vie » de chaque salarié. Or, on peut dire, avec très peu de chances de se tromper, que si les méthodologies étaient restées inchangées ces trente dernières années en matière de mesure de l’inflation, celle-ci serait aujourd’hui plus élevée que le chiffre produit par l’Insee, justifiant une hausse de certaines prestations indexées sur celui-ci, à l’instar du salaire minimum. Pourquoi ce delta ? Et pour quelles conséquences ?

Une affaire de conventions

De manière simple on peut dire que l’inflation est mesurée par l’évolution du prix d’un panier représentatif de la consommation des ménages. C’est une des raisons pour lesquelles on l’appelle en langage statistique non pas « inflation » mais « indice des prix à la consommation » (IPC). Le panier est composé de biens (par exemple les produits alimentaires ou l’équipement en technologie) de services (par exemple les services d’assurance et de restauration), et du loyer pour les ménages locataires. Cet IPC était originellement calculé comme une moyenne arithmétique des variations de prix des biens et services de ce panier, pondérée par les coefficients budgétaires, c’est-à-dire par la part de chacun de ces biens et services dans les dépenses globales des ménages.

Pour rassurante que soit cette référence à une formule statistique, celle-ci ne rend pas compte de l’ensemble des conventions qui ont présidé et continuent de présider à la construction de l’IPC et à ses métamorphoses. Comme nous l’observons dans nos travaux, les évolutions méthodologiques sont guidées, pour l’essentiel, par deux phénomènes.

D’une part, la statistique publique est en permanence challengée par les transformations du capitalisme. Elle l’est par le capitalisme tertiarisé, dans lequel la part des services dans la consommation ne cesse de progresser ; dans le capitalisme post-fordiste, qui valorise la singularité, renouvelle en permanence les produits, leurs fonctionnalités leur packaging, recrée des espaces de monopole pour les producteurs, et fait de la flexibilité des prix un enjeu majeur de ses modèles économiques ; dans le capitalisme financiarisé où la part des produits soumis à spéculation s’accroît sans référence à une quelconque valeur substantive.

Les évolutions méthodologiques sont, d’autre part, liées aux transformations dans le régime des idées et, dans notre cas d’espèce, à l’hégémonie de la microéconomie du consommateur comme seule référence légitime. Pour éclairer ce deuxième point, il nous faut convoquer l’histoire et revenir sur le tournant qu’a représenté le rapport Boskin en 1996.

Le tournant du rapport Boskin

Suscitée par Alan Greenspan, alors président de la Fed, une vive controverse sur les prix aux États-Unis émerge au milieu des années 1990. L’inflation serait-elle surestimée ? Greenspan avait commandé un rapport à une équipe d’économistes triés sur le volet, pour trouver des solutions à la hausse des dépenses publiques américaines et avait suggéré explicitement à Michael Boskin, ancien conseiller en politiques fiscales de Ronald Reagan, de réduire le chiffre officiel de l’inflation, à partir de réformes méthodologiques. Il avait en tête que ces réformes permettraient, par le jeu des indexations, de réduire les dépenses en prestations sociales, en minima sociaux, et, partant la dépense publique.

Boskin s’exécute. Après un an de travaux, il produit un rapport dans lequel il énonce que l’inflation officielle américaine aurait été surestimée de l’ordre de 1,3 % par an pendant les dix années précédant le rapport. La publication fait grand bruit du fait du hiatus important entre ce que devrait être, selon Boskin, le coût de la vie, et la mesure de l’inflation. Une succession de réformes méthodologiques suivent, allant dans le sens des propositions de Boskin. Pourtant à l’époque, cette controverse n’atteint pas complètement la France. L’Insee réagit en effet rapidement par deux publications importantes.

Alan Greenspan, président de la Fed de 1987 à 2006. Shutterstock

C’est d’abord Michel Glaude, alors Directeur des statistiques démographiques et sociales de l’Insee, qui rédige un article dans lequel il n’hésite pas à considérer que « le débat américain semble avoir dérapé ». Il y dénonce certaines critiques relevant « de l’opportunisme politique », et l’« excès d’habileté d’Alan Greenspan pour justifier une politique monétaire qui se contente, de fait, d’un glissement annuel des prix de détail de 2 à 3 % ».

Michel Glaude est suivi par François Lequiller, à l’époque « chef adjoint du département des prix à la consommation, des ressources et des conditions de vie de l’Insee, chargé de l’indice des prix à la consommation ». Dans un article d’Economie et Statistique qui servira de référence à la communauté française pendant une décennie, il considère que la France est plutôt à l’abri d’une telle surestimation. Il affirme en outre que Boskin aurait dû se dispenser de proposer une évaluation chiffrée du « biais » :

« Avancer un chiffre quelconque sur ce problème dans l’état actuel de nos connaissances n’est guère raisonnable. »

Il insiste même :

« Dans un cas comme celui-là, la réponse du statisticien doit être de reconnaître son ignorance et de travailler à la réduire et non à faire des estimations hasardeuses. »

Ces prises de position nuancées et étayées – et pour Glaude quelque peu inquiètes – ont cependant progressivement été renvoyées aux oubliettes : le rapport Boskin fait figure aujourd’hui, malgré l’intention politique explicite de Greenspan à l’époque, de rapport de référence.

Cette amnésie tient aux changements dans la sociodémographie des statisticiens de l’Insee : à partir des années 2000 en France, la référence dominante à toutes les transformations est d’une part celle de Boskin, et d’autre part la théorie microéconomique du consommateur, les deux se renforçant mutuellement. Depuis, toutes les réformes méthodologiques de la mesure de l’inflation prennent appui sur la théorie néoclassique pour modifier le calcul de l’indice.

Un indice devenu pleinement théorique

Progressivement l’indice des prix à la consommation n’a ainsi plus été un indice représentatif de la consommation de l’ouvrier parisien (1913), ni même du consommateur moyen (années 1970). Aujourd’hui l’indice des prix à la consommation est un indice de référence du coût de la vie d’un consommateur théorique, véritable Homo œconomicus, consommateur aux désirs idiosyncrasiques, être souverain et sans contrainte si ce n’est la contrainte du revenu, hyper rationnel dans ses consommations, parfaitement informé, aux préférences stables dans le temps, et donc s’orientant toujours vers les consommations les moins chères toutes choses égales par ailleurs. Chaque réforme méthodologique de l’indice s’appuie sur cette représentation du consommateur théorique. Chaque réforme méthodologique de l’indice conduit aussi incidemment à décoter l’inflation.

La manière dont est traitée la notion de « qualité » est assez révélatrice des limites de cette méthode. La statistique publique raisonne sur l’idée de « prix purs », débarrassés des bruits de variation de qualité : l’augmentation de prix occasionnée par l’augmentation de sa qualité ne sera pas enregistrée dans la mesure de l’inflation. Et ce même si pour le consommateur réel, le prix à l’achat a bien augmenté. Par ailleurs, les éléments caractéristiques de la qualité telle que peut l’objectiver l’Insee sont énoncés « à dires d’experts », ou sont documentés par les producteurs eux-mêmes, ou encore sont médiés par les agences marketing, avec tous les biais que cela peut comporter.

Symétriquement, on pourrait s’attendre à ce que chaque dégradation de la qualité provoque une surcote sur l’inflation. Cela n’est pas le cas : aucun statisticien ne documente les conséquences de la surconsommation de télécommunications ou encore de réseaux sociaux, de psychotropes, de produits gras et sucrés, ou encore de transport aérien sur la santé individuelle et collective. S’ils ne le font pas, c’est que dans leur cadre théorique, si les consommateurs achètent ces caractéristiques, c’est « qu’ils en ont pour leur argent », c’est qu’ils sont souverains de leur choix et qu’ils augmentent, par ces achats choisis, leur bien-être.

Des conséquences réelles sur le pouvoir d’achat

Ces constats n’ont pas comme unique effet de donner à déchiffrer des controverses picrocholines chez les économistes. Ils ont aussi comme conséquence de proposer des méthodologies qui viennent sous-estimer l’inflation par rapport à ce qu’elle aurait été s’il n’y avait pas eu ces transformations méthodologiques.

Mais alors de combien ? C’est évidemment une question d’autant plus complexe à documenter que, contrairement à ses homologues américains par exemple, ou britanniques, l’Insee ne propose pas d’études contrefactuelles. Il ne l’a pas fait quand a été introduit le passage de la moyenne arithmétique à la moyenne géométrique, quand ont été adoptés des profils de consommateurs pour rendre compte des variations de prix dans les télécommunications, ou encore quand, en 2020, ont été introduites les données de caisse.

Depuis le début des années 1990, l’inflation telle qu’on la mesure a connu une progression de 73,2 %. Si l’on fait l’hypothèse que le calcul l’inflation a pu être frappée d’une marge d’erreur de 10 % de sa valeur annuelle, alors le manque à gagner serait de 9,7 points… Et si suppose que les méthodologies ont pu conduire à réduire le niveau de l’inflation de 0,3 point par an, cela signifierait un manque à gagner de 13,2 points sur cette trentaine d’années.

Lorsque certains programmes politiques réclament une hausse des salaires minima de 14 %, on serait donc bien dans une fourchette raisonnable de justice statistique.

Want to write?

Write an article and join a growing community of more than 186,300 academics and researchers from 4,989 institutions.

Register now