Menu Close

Bienvenue en incertitude

Face à l’incertitude : les limites de la modélisation

The future starts now. Henry Söderlund/VisualHunt, CC BY

Cette chronique est publiée en partenariat avec le blog de Philippe Silberzahn.


La modélisation est l’une des approches utilisées pour anticiper l’avenir. Son utilisation est extrêmement courante, surtout en économie. Et pourtant elle souffre de limites très importantes et les ignorer nous expose à des surprises potentiellement très coûteuses.

Une représentation simplifiée

La modélisation consiste à construire une représentation simplifiée du système dont on souhaite étudier l’évolution sur la base d’un certain nombre de variables et de relations entre ces variables, c’est-à-dire de lois empiriques. C’est ce que fait typiquement l’Insee avec son modèle de l’économie française MESANGE qui comporte 500 équations. On fait ensuite « tourner » ce modèle pour prédire. Les modèles sont énormément utilisés en économie et en finance, et ils atteignent souvent un degré de sophistication important, surtout depuis que les puissances de calcul disponibles sont presque infinies.

Le problème est que, quelles que soient son ambition et la capacité de l’ordinateur qui va le faire « tourner », un modèle est nécessairement une simplification de la réalité. Il ne peut pas comprendre toutes les variables et leurs relations du système considéré. C’est en particulier vrai des systèmes complexes. De tels systèmes sont ouverts, c’est-à-dire que le nombre de variables qui les régissent est potentiellement infini. Il va donc falloir à un moment cesser d’inclure certaines règles et certaines variables.

C’est la fameuse distinction entre la carte et le territoire lui-même que celle-ci est censée représenter. La carte indique les chemins, les déclinaisons et les cours d’eau, mais pas les arbres et les fleurs qui sont considérées comme inutiles pour celui qui cherche sa route. La finalité du modèle amène donc à privilégier certaines variables et à en exclure d’autres. Cette simplification est la condition sine qua non de la réalisation du modèle.

Dans un système compliqué, une telle exclusion n’est pas très difficile car on est capable de déterminer les variables qui sont importantes et celles qui ne le sont pas. Plus on en inclut, mieux on représente le comportement du système, et au bout d’un moment le progrès devient marginal, l’inclusion d’une règle ou d’une variable supplémentaire n’améliore plus que marginalement la représentativité du système : il y a une progression linéaire vers l’optimum. C’est ainsi qu’un simulateur de vol peut remplir parfaitement son objet parce que l’avion est un objet compliqué.

Identifier les variables qui comptent vraiment

Mais dans le cas d’un système complexe, il en va tout autrement. Il est très difficile d’identifier les variables qui comptent et surtout les relations de causalité qui les relient. Imaginez que vous êtes un analyste chargé de rédiger un rapport sur la Tunisie à l’été 2010. Si vous devez modéliser l’évolution du pays, il est peu probable que vous incluiez un modeste vendeur de rue nommé Mohamed Bouazizi dans votre modèle de « risque pays ». Ce faisant, vous avez raté la variable-clé, et votre modèle s’effondre. Au contraire de l’approche modélisante, ce sont les incongruités qu’il faut rechercher. Comme le souligne le chercheur Philippe Baumard, discerner ce qui est stratégique implique leur étude systématique et l’on entre alors dans une confrontation entre la singularité (ou l’inédit) et le modèle.

Claude Shannon, un des pères de la théorie de l’information, estimait également que c’est à l’information nouvelle et surprenante qu’il faut faire attention car elle a plus de valeur que celle qui continue une suite existante. C’est une remarque profonde car elle contredit directement la pratique de la modélisation qui consiste, précisément, à supprimer les exceptions, considérées comme aberrantes.

La nature non-linéaire des systèmes auxquels nous sommes confrontés fait qu’une approximation oublie le détail important, celui précisément qui compte, ce que nous avons vu plus haut avec notre exemple tunisien. C’est ce que Nassim Taleb a capturé avec la notion d’Extrémistan : un tout petit détail (du moins ce qui est vu comme tel par le concepteur du modèle) peut faire basculer le système, qu’il est dès lors bien difficile de modéliser. Le prospectiviste Bertrand de Jouvenel notait ainsi :

« Il est assez vain de prévoir les conséquences de quelques facteurs artificiellement isolés lorsqu’ils auront à jouer en fait au milieu d’un grand nombre d’autres dont précisément l’étude abstraite n’a pas tenu compte. »

Comme le remarque pudiquement, et sans doute avec humour, l’article de Wikipedia sur le modèle MESANGE de l’Insee, dans sa rubrique « Limites », et qui vaut la peine d’être cité in extenso :

« Le comportement de l’économie dépend de plus en plus d’une spéculation financière mondialisée, du comportement des banques (cf. crise économique de 2008-2010) et le comportement des consommateurs comporte lui-même beaucoup d’incertitudes, et reste difficile à modéliser (par exemple en cas de crise prolongée (épargne de précaution, moindre investissement des ménages..), d’effet de lassitude à consommer, de guerre, de pandémie mondiale grave, en cas d’évènement grave (Ex : “Effet Tchernobyl” en Ukraine ou Belarus), ou au contraire en cas d’innovation inattendue (Ex : l’Internet et la téléphonie mobile n’avait pas été prévue par les prospectivistes et les modèles antérieurs). Des phénomènes nouveaux peuvent se poser, avec l’épuisement de ressources naturelles, la montée de la mer ou simplement dans le cadre d’un vieillissement de population (effet retard du “baby boom”, dit “papy boom”) qui devrait atteindre un pic en France vers 2030 avant de décroître). »

Un exercice sans espoir ?

N’en jetez plus ! En substance, l’immense partie de ce qui va conditionner le comportement du système, c’est-à-dire le résultat final, est totalement imprévisible et non modélisable ; l’exercice est sans espoir, les prévisions sont révisées ad infinitum, mais ça n’arrête nullement nos prévisionnistes. Gageons que grâce aux progrès de la technique, le prochain modèle de MESANGE aura non plus 500, mais 5 000 équations, et qu’il sera toujours aussi vain.

L’absurdité des modèles est également montré, sur une note d’humour noir, avec la démonstration par les ordinateurs du Pentagone que les États-Unis ont gagné la guerre du Vietnam en 1964 ici.

En conclusion, nous citerons l’économiste Georges Shackle, qui écrivait :

« Reconnaître qu’il y a de la nouveauté [novelty], au sens de choses fondamentalement non déductibles susceptibles d’être rencontrées pour la première fois, c’est reconnaître que nous ne pouvons pas construire des modèles qui présenteront le cours de l’histoire d’une société même sur une période limitée. »

Le faire malgré tout nous expose à de fortes déconvenues lorsque ce cours prendra une forme inattendue.

Want to write?

Write an article and join a growing community of more than 182,400 academics and researchers from 4,942 institutions.

Register now