Menu Close
Le EDSAC, un des premiers modèles d'ordinateur installé au département d'économie appliquée de l'université de Cambridge. Wikimedia, CC BY

Avant l’IA, les « révolutions » informatiques ont-elles vraiment bouleversé la recherche en économie ?

L’IA aurait, aux dires de prestigieuses revues, le « potentiel pour révolutionner la recherche » en économie. Mais qu’en a-t-il été de précédentes innovations informatiques pareillement présentées ?


Pouvez-vous nommer un métier qui, aujourd’hui, ne pourrait pas être réalisé, au moins partiellement, par un robot ou une intelligence artificielle ? Il y a encore peu de temps, la recherche scientifique était un bon candidat. Plus aujourd’hui : dans différents domaines de recherche, les outils d’intelligence artificielle participent à l’écriture des contributions scientifiques, à la création d’hypothèses… des activités que l’on pensait réservées à l’esprit humain.

En sciences économiques, le prestigieux Journal of Economic Literature prévient que les outils comme ChatGPT « ont le potentiel pour révolutionner la recherche ». Si cela paraît évident, encore faut-il souligner l’association du terme potentiel avec une rhétorique de la révolution – car entre les attentes et la réalité se dressent de nombreux obstacles.

Le travail de recherche que nous avons récemment coordonné propose sept « histoires » montrant que les « révolutions informatiques » en sciences économiques se heurtent parfois à des limites techniques inattendues, suscitant la déception – autant au début de l’informatique qu’à l’époque des big data. De même, les outils ne tombent pas du ciel ; ils sont acceptés (ou rejetés), adaptés, disséminés en fonction des stratégies et des choix de recherche, des normes et des valeurs des chercheurs. Ainsi, les « révolutions informatiques » ont pour protagonistes plutôt les chercheurs et leurs institutions que les outils informatiques. D’ailleurs, pour s’approprier ces outils, les économistes ont dû recourir au travail d’autres figures professionnelles (et, en particulier, des programmatrices). Ce besoin a d’ailleurs souvent amené à créer de nouveaux lieux de recherche, à la frontière entre universités et entreprises privées.

Prévisions économiques et premiers ordinateurs : la déception

Au début des années 1950, les économistes du National Bureau of Economic Research (NBER) placent beaucoup d’espoirs dans les premiers ordinateurs électroniques. Depuis le début du XXe siècle, ce think tank new-yorkais avait développé une tradition de collecte de données statistiques, permettant de décrire l’évolution cyclique de l’économie. L’analyse des données était réalisée par un « ordinateur humain », faisant des calculs à la main ou avec l’aide d’une machine à calculer mécanique. En moyenne, il faut une semaine de travail à temps plein à un ordinateur humain pour analyser dix ans de données d’une seule série statistique, établir le nombre de cycles et leur temporalité.

Extraits d’analyses de séries statistiques de 1937 au NBER. Wesley Mitchell et Arthur Burns. Timing at Reference Troughs. Box 51, Manuscript of Bulletin on Cyclical Timing, Arthur F. Burns Papers, Eisenhower Presidential Library

Cette lenteur brime l’ambition du NBER de produire des prévisions économiques tous les mois. Les ordinateurs électroniques pourraient résoudre ce problème – une série statistique serait traitée en quelques minutes ! Mais il n’en sera rien, comme le raconte l’historienne Laetitia Lenel, chercheuse à l’université Humboldt de Berlin : la programmation nécessaire pour utiliser les ordinateurs requiert plus de temps que le calcul à la main ! Plus problématique encore, l’ordinateur ne produit pas de résultats clé en main : ils doivent être réinterprétés par les économistes. L’ordinateur s’avère finalement une déception : il rajoute plus de travail qu’il n’en enlève.

Utiliser un ordinateur : plus facile à dire qu’à faire

Dans les années 1950, rares sont d’ailleurs les économistes qui touchent aux ordinateurs. Cela soulève des questions d’organisation du travail. Chung-Tang Cheng, chercheur à l’université de Taipei, traite de ce thème dans son histoire du Département d’économie appliquée (DAE) de l’Université de Cambridge. Il met en particulier en évidence le rôle des femmes – un thème abordé aussi par le best-seller Les Figures de l’ombre et son adaptation cinématographique.

Au DAE, jusqu’à la moitié des années 1940, la « salle des ordinateurs » joue un rôle fondamental : on y retrouve huit à dix femmes effectuant, avec crayon, papier et calculateur mécanique, les calculs nécessaires au travail des économistes.

Un calculateur mécanique Merchant 10FA de 1948. National Museum of American History

En 1946, l’économiste américain Guy Orcutt arrive à Cambridge, avec, dans ses bagages, une machine de son invention : un calculateur analogique, capable de réaliser en quelques minutes les calculs qui nécessitent des jours de calcul à la main. La machine d’Orcutt préfigure le remplacement des ordinateurs humains, qui s’achèvera au début des années 1950, lorsque le DEA aura accès au premier ordinateur électronique du Royaume-Uni, le EDSAC, pour Electronic Delay Storage Automatic Calculator.

Même avec le EDSAC, les économistes ne sont toutefois pas « autonomes » dans leur travail avec l’ordinateur. Ils dépendent maintenant des programmeurs. Une nouvelle figure deviendra incontournable au DAE : Lucy Slater, qui, pendant vingt ans, s’occupe de programmer la majorité des travaux des économistes du département. Lorsque le directeur du DAE, Richard Stone, recevra le prix Nobel d’économie en 1984, il confiera, en privé, qu’il aurait dû le partager avec Lucy Slater.

Ordinateurs, économistes et milieux des affaires : un nouveau business

Dans les années 1970, les économistes restent des usagers indirects des ordinateurs, dépendant d’autres professionnels, comme l’illustre le cas de Data Resources Inc. (DRI), une grande entreprise de conseil économique fondée en 1969 à Boston par l’économiste Otto Eckstein.

Nous sommes à l’époque des mainframe computers. DRI dispose de trois de ces « méga » ordinateurs, trois Burroughs 5500.

Extrait de la brochure présentant les Burroughs 5500 en 1964. Burroughs Corporation

À DRI, les économistes sont occupés à collecter et analyser des données, à produire des modèles mathématiques et à construire des prévisions. Pedro Duarte (Institut INSPER de Sao Paolo) et Francesco Sergi (Université Paris Est Créteil) documentent comment tout cela se passe loin de l’ordinateur, situé, lui, au sous-sol de l’entreprise et confié à d’autres figures professionnelles. On retrouve des ingénieurs électroniques, affairés au quotidien à entretenir le matériel à coups de fer à souder, des opérateurs informatiques, qui supervisent le fonctionnement du programme et qui s’occupent, tous les soirs, d’effectuer une sauvegarde sur bande magnétique de toutes les données de la journée, et enfin des ingénieurs software (de nouveau, essentiellement des femmes) qui essaient de mettre en place les solutions informatiques adaptées aux besoins des économistes.

Est-ce qu’un bon algorithme suffit à « révolutionner » la recherche en sciences économiques ?

L’histoire du logiciel Dynare montre qu’un « bon » algorithme est nécessaire pour soutenir un programme de recherche. Néanmoins, sa diffusion s’explique par d’autres facteurs.

En 1972, l’économiste américain Robert Lucas propose un nouveau cadre théorique pour la macroéconomie mais qui peine à être opérant. Il faudra attendre 1990 et le travail d’un économiste du Cepremap, Jean-Pierre Laffargue, pour l’élaboration d’un algorithme permettant de résoudre plus facilement des modèles macroéconomiques inspirés des principes de Lucas. Pourtant, le plus gros problème reste celui de la « portabilité » de cet algorithme, c’est-à-dire de sa capacité à circuler, à être saisi et utilisé par d’autres économistes.

Un nouveau venu au laboratoire, Michel Juillard, offre son aide. Juillard se lancera dans la création de Dynare, un logiciel qui permet d’écrire les modèles très simplement, « comme sur papier », dans un fichier texte. Dynare se charge ensuite « du reste ». La combinaison de deux facteurs, un algorithme adressant un problème de tractabilité mathématique, et un morceau de logiciel très « user-friendly », explique le succès de Dynare (aujourd’hui un des logiciels les plus utilisés en sciences économiques) et donc participe du succès de la macroéconomie inspirée des principes proposés par Lucas.

Et pour l’économie expérimentale ?

Les expériences, en sciences économiques, prennent leur envol grâce à la création de laboratoires d’économie expérimentale centrés autour des ordinateurs.

Dans les années 1980, les économistes en charge des tout premiers laboratoires essaieront plusieurs types d’agencements et d’interface informatique : Vernon Smith, à l’Université de l’Arizona, se reposera initialement sur l’usage partagé d’ordinateurs centraux ; Charles Plott, à Caltech (Californie) commencera, quelques années plus tard, directement sur des PC IBM, connectés en Ethernet. L’essor de l’ordinateur personnel fera pencher la balance du côté de la deuxième solution et il sera déterminant pour l’essor de la méthode expérimentale en économie, comme le montre Andrej Svorenčik, chercheur à l’université de Pennsylvanie.

Le recours à l’informatique fait plus que tout simplement « booster » la quantité d’expériences menées dans ces laboratoires ; elle transforme aussi le type d’expériences. Les ordinateurs facilitent notamment l’interaction entre les sujets de l’expérience et, donc, la mise en place d’expériences imitant les interactions de marché. Plus besoin de communiquer aux participants de l’expérience des instructions à l’oral, ou par des feuilles imprimées, et nul besoin non plus de faire circuler, au moyen de petits billets, les informations relatives au comportement des autres participants : tout se passe maintenant via l’écran de l’ordinateur, qui devient la seule interface par laquelle le sujet de l’expérience communique. En particulier, les designs expérimentaux du type « enchère » vont devenir très populaires.

Plus de données, est-ce toujours mieux ?

Comme les trois dernières années d’inflation nous l’ont rappelé, la mesure de l’évolution des prix est un enjeu politique essentiel. Pour mesurer cette évolution, l’idéal est de pouvoir accéder à tous les prix de toutes les marchandises en temps réel. Au début des années 1990, avec la généralisation des code-barres, et avec l’informatisation des caisses enregistreuses, il devient en principe possible d’atteindre cet idéal. Julien Gradoz de l’Université de Lille explique comment cette possibilité peine cependant à s’imposer.

Le premier problème lié à la mobilisation des données de caisse est l’accessibilité de l’infrastructure nécessaire au stockage et au traitement d’une telle masse de données. Même les instituts nationaux de statistiques ne sont aujourd’hui toujours pas équipés pour gérer le volume des données de caisse infiniment supérieur aux données de prix traditionnellement collectées par enquête.

Deuxièmement, certaines opérations de traitement des données nécessitent l’intervention d’un jugement humain. C’est le cas, par exemple, de la classification de chaque produit dans une catégorie plus large (« alimentaires », « habillement »). Si les données de caisse contiennent, certes, l’indication de la nature spécifique de chaque produit, cataloguer chacune de ces observations dans une nomenclature s’avère une tâche qui relève de l’humain.

Enfin, la nature des données de caisse pose un problème sur l’accessibilité, la protection et la confidentialité des données. Non seulement pour le consommateur (les données de caisses peuvent associer les achats avec, par exemple, une carte fidélité), mais surtout pour les entreprises privées, pour lesquels la valeur stratégique de ces données est très forte.

Les « tech economists » : l’économiste du XXIᵉ siècle ?

Et aujourd’hui ? Des économistes chez Facebook, chez Amazon, chez Google et Microsoft ? Oui ! Depuis les années 2000, les entreprises de la tech recrutent en masse parmi cette profession. Le phénomène a pris une telle ampleur qu’un label est apparu : les « tech economists ». Ceux-ci se spécialisent, explique Edward Nik-Khah (chercheur du Roanoke College) dans l’analyse et la conception des mécanismes d’enchère et des comportements de marché : comment concevoir des règles (« market design ») qui permettent, par exemple, une circulation optimale et transparente de l’information.

Ces idées trouvent, depuis les années 2000, une application naturelle notamment dans le secteur des plates-formes, que ce soit pour adjuger un canapé sur eBay ou pour fixer le prix d’un encart publicitaire sur Google. Pour les économistes, en retour, la mise en place de ces dispositifs est un terrain de collecte de données et d’expérimentation grandeur nature qui leur permet de nourrir, en retour, leur recherche.

On retrouve une continuité entre cet épisode et d’autres plus anciens, en particulier le cas DRI : dans les deux cas, l’informatique fait bouger la frontière entre la recherche (universitaire, publique) et le monde des affaires. Avec une contrepartie : les sujets de recherche et les données pour les aborder sont conditionnés par l’agenda des entreprises de la tech…

Want to write?

Write an article and join a growing community of more than 191,300 academics and researchers from 5,061 institutions.

Register now