L’inflation, une mesure fiable de l’augmentation des prix ?

L’inflation provient du latin ‘’inflare’’ qui signifie ‘’enfler’’ et sa définition officielle est la « hausse du niveau général des prix, auto-entretenue et fondée sur des mécanismes macro-économiques ». Cette notion a été amplement vulgarisée surtout depuis ce début d’année suite au record de mesure d’inflation dans tous les pays du monde. Fin juillet, l’inflation culminait à près de 8,9% au sein de la zone euro et 9,1% aux Etats-Unis. Malgré ce consensus, l’’inflation a de multiples origines et sa contexture peut être très différente, d’une époque à l’autre, d’un pays à l’autre comme on le verra ultérieurement.

 

L’Indice des Prix à Consommation

Avec le retour de l’inflation, le problème de la mesure de cette dernière devient cruciale. Alors, force est de remarquer que toute mesure objective, voire scientifique, de l’inflation n’en demeure pas moins délicate car il est de plus en plus difficile de comparer les prix de produits qui incorporent des technologies différenciées. En France, l’inflation est calculée à partir d’un indice des prix à la consommation (IPC) composé de 266 postes de consommation, chacun étant lui-même divisé en mille catégories. Ce sont 160 000 prix, qui sont ensuite collectés mensuellement par l’Insee, couvrant 95 % des dépenses de consommation. Les 5 % restants sont des services non marchands. A chacun de ces prix est appliqué une pondération correspondant à la part de chaque produit dans la consommation totale. Ces poids sont calculés par rapport à un ménage type. Depuis 1971, l’Insee utilise le panier type des ménages salariés ou ouvriers vivant en ville. Depuis 2006, la France est fixée à 1998 sur une base 100, c’est-à-dire que l’évolution des prix est calculée sur la base des prix de 1998. Cette date a été choisie parce que l’inflation était relativement faible en 1998 et qu’elle est antérieure à l’introduction de l’euro.

Lire plus : EDF, sur le chemin d’une retanationalisation ?

 

Les critiques de l’IPC

Dans l’IPC, ne sont pris en considération que les prix à la consommation, cela signifie que les statistiques de l’inflation négligent certaines dépenses pourtant essentielles notamment les dépenses immobilières. Or en France depuis 1994, les prix de l’immobilier ont été multipliés par plus de 2. Il y a donc une sous-estimation de l’inflation concernant l’ensemble des dépenses des ménages. Cela entraîne un partage de la valeur ajoutée invisible en défaveur des salariés, des locataires et en faveur des propriétaires immobiliers. De plus, on laisse totalement de côté l’inflation financière, seul le marché des biens et services est retenu. Cela induit un partage de la valeur ajoutée invisible en défaveur des entreprises mais en faveur de la finance. Enfin, l’imperfection de la mesure peut être source de danger. C’est ce que l’on appelle « l’effet BOSKIN ». En 1995, est publié le rapport BOSKIN aux États-Unis qui montre que de 1985 à 1995, l’inflation a été surestimée de 11,5 points. Cela correspond 1,1 point par an. En réalité l’inflation était plus faible que celle qui a été mesurée.

Lire plus : L’euro au plus bas depuis vingt ans face au dollar

 

Les dangers de la surestimation

Revenons sur l’effet Boskin, si la Banque Centrale Européenne a pour mission de maintenir l’inflation à 2% or, s’il y a un effet Boskin, alors l’inflation de 2% est en réalité de 0,9 % seulement, ce qui est mauvais pour la croissance. La principale raison de la surestimation est liée au problème d’intégration de l’innovation dans l’IPC. En effet, le panier de référence est toujours le panier de l’année de départ aux Etats-Unis, en Europe, le panier est revu tous les ans. Cela a une incidence sur de longues périodes, car avec l’innovation de produit, les produits de départ sont remplacés par de meilleurs produits plus chers. Il y a une rupture de qualité qui n’est pas prise en considération et qui provoque une surestimation de l’inflation. On ne peut donc pas logiquement comparer les prix de produits non comparables. Par exemple, il leur faut 10 ans pour répercuter l’amélioration de la qualité des téléphones portables dans l’IPC américain. En Europe, le biais inflationniste est plus faible : estimé à 0,25 point en France et à 0,5 point en Allemagne car le panier est revu tous les ans. Au fur et à mesure de la diffusion du produit le prix va baisser puis augmenter avec de nouveaux produits (nous faisons référence ici à la théorie du cycle de vie du produit de VINER). Mécaniquement on a une hausse des prix si l’année de référence est une année d’invention comme 1950. Si l’année de référence est pauvre en innovations, l’inflation de l’année de référence sera faible, donc nous avons un biais de surestimation pour les années suivantes. Or 1990 était une année de référence, où les nouvelles technologies avaient peu d’impacts sur les prix aux Etats-Unis.

Pour finir, la lenteur de l’outil statistique est un problème majeur puisque les innovations de procédés ne sont introduites dans l’indice des prix à la consommation que tardivement (il faut en général 10 ans aux Etats-Unis). Or ces nouveaux procédés font en général baisser les prix, une tendance à surestimer l’inflation se développe donc. Par exemple, dans le cas des nouveaux circuits de distribution, on a abandonné dans les années 1960 les épiceries pour le supermarché, mécaniquement les prix ont baissé mais cela n’a été répercuté que tardivement dans l’IPC.

Lire plus : Comment travailler l’ESH l’été ?

 

Pour conclure, on peut alors comprendre que le concept même d’inflation demeure une notion complexe, difficile à appréhender, et dont les évaluations sont inévitablement soumises à la contestation tant sont contradictoires les intérêts catégoriels et particuliers des diverses parties prenantes qui constituent la structure complexe de nos sociétés postmodernes.

 

Damien Copitet

Je suis étudiant à SKEMA BS après deux années de classe préparatoire au lycée Gaston Berger (Lille). Nous nous retrouvons toutes les semaines pour l'actualité en bref

Vous pourriez aussi aimer