File 20171205 23047 17o61cq.jpg?ixlib=rb 1.1

L’évaluation des chercheurs en gestion : du paradigme au « para-dogme »

Où ajouter son travail ? Cofrin Library / Flickr, CC BY

L’évaluation des chercheurs en gestion : du paradigme au « para-dogme »

Cet article fait écho à celui d’Aurélien Rouquet paru dans The Conversation France et vise à le prolonger.

L’évaluation au risque de la standardisation

Nombreux furent les candidats bacheliers à disserter sur ce libre propos du philosophe Alain : « la fonction de penser ne se délègue point. » Pour l’auteur de l’article publié par The Conversation France, plus que jamais cette pensée vaut d’être méditée, notamment par les académiques de la gestion face à l’évaluation par « étoiles » à laquelle ils sont soumis depuis une quinzaine d’années dans leurs institutions. Une évolution qui a fait passer du gouvernement par les pairs à une gouvernance par la bibliométrie.

On peut reconnaître dans celle-ci une forme du panoptique étudié par Foucault, ce « dispositif important, car il automatise et désindividualise le pouvoir » (1975, p. 235). L’évaluation par les étoiles permet « de mettre le monde académique sous la coupe des managers et de leurs dirigeants » (Rouquet, 2017) selon une logique semblable à celle du panoptique analysé par l’auteur de Surveiller et punir car « un individu quelconque, presque pris au hasard, peut faire fonctionner la machine. » (1975, p. 236).

Une situation qui conduit de surcroît à « une standardisation néfaste de l’écriture scientifique en gestion » maintes fois dénoncée (Rouquet, 2017). Pour se voir publiés dans une revue scientifique, les articles doivent se conformer à des figures imposées qui restreindraient la dynamique d’une pensée libre, l’empêcheraient de gagner les profondeurs, ce que seul un livre autoriserait.

De plus, la langue anglaise étant requise pour les revues les mieux cotées, les auteurs français se retrouvent handicapés non seulement par des contraintes financières liées aux frais de traduction mais également par l’appauvrissement de leur expression. Enfin, comme les revues jouissant du plus grand nombre d’étoiles sont celles des disciplines les mieux établies, elles brident le développement de publications sur des thèmes qui sont en phase d’émergence comme la logistique ou l’histoire de la comptabilité (Hopner et Unerman, 2012), ce qui a pour effet d’amoindrir la diversité des perspectives.

Au-delà de cette standardisation, dénoncée dès 2003 par Michel Berry dans sa lettre ouverte au CNRS, « Classement des revues : le CNRS va-t-il perdre son âme ? », la course aux étoiles a conduit à une division du travail entre les chercheurs pour spécialiser les uns dans les tâches de recueil des données et de la documentation, les autres dans le bon respect de la méthode, les troisièmes dans la rédaction…

À « ce démontage en kit de l’enseignant-chercheur » il faut ajouter « l’émergence de nouveaux ego-academicus qui ne pensent qu’à augmenter leur liste d’articles publiés » ce qui conduit « certains membres de la communauté à adopter des comportements détestables » (Rouquet, 2017).

L’évaluation par les étoiles : la pire des formules, à l’exception de toutes les autres ?

Le dispositif d’évaluation des chercheurs en gestion est apparu, nous l’avons dit, il y a une quinzaine d’années mais il est à replacer dans un processus qui s’inscrit dans une histoire débutant bien avant. Si l’on s’en tient au cas de la France, il est à mettre au regard de l’arrivée massive des étudiants dans l’enseignement supérieur, il y a un demi-siècle, une période au cours de laquelle les effectifs ont été multipliés par dix. Un phénomène encore plus marqué pour la gestion qui n’existait pas en tant que discipline universitaire il y a cinquante ans et dont le développement fut exponentiel.

Les effectifs d’enseignants-chercheurs ayant crû en proportion équivalente (Cyterman et Prost, 2010), on entrevoit le coût que cela constitue pour le budget de l’État, qui finance l’université, pour les élèves dans les business schools. On ne peut donc que se féliciter de ce qu’une politique d’évaluation de la recherche ait été menée et ceci partout dans le monde.

Celle-ci a trouvé dans la bibliométrie l’outil qui lui paraissait le plus efficient pour enregistrer, classer, comparer la multitude des publications scientifiques. S’il fallait relire les productions scientifiques des chercheurs à chaque évaluation, combien faudrait-il embaucher d’effectifs supplémentaires ? Dans un contexte de raréfaction des ressources, le choix s’est porté sur l’utilisation de proxy que sont les rankings. Faut-il les refuser systématiquement ?

Daniel Kahneman, le prix Nobel d’économie 2002, nous dit dans Système 1, Système 2 : les deux vitesses de la pensée : « Chaque fois qu’il est possible de remplacer le jugement humain par une formule, nous devrions l’envisager » (2016, p. 359). Cela ne signifie pas qu’il faille s’en remettre aveuglément à des algorithmes mais faut-il pour autant se priver de la contribution qu’ils peuvent apporter dans les évaluations, y compris pour celles des chercheurs ?

Quant à la standardisation, est-elle systématiquement néfaste dans la recherche scientifique ? Tant qu’un paradigme ne fait pas l’objet d’une remise en cause, nous dit l’épistémologue Thomas Kuhn dans La Structure des révolutions scientifiques (1962), la science peut/doit progresser en observant un ordre normal, en respectant une méthode conventionnelle. Le risque de l’évaluation par les étoiles étant, rappelons-le, d’accroître la menace qui pèse sur tout paradigme, celle de dégénérer en scolastique, en « para-dogme ».

Enfin, une variété de profils parmi les enseignants-chercheurs ne correspond-elle pas, dans une certaine mesure, à la diversité des aspirations, des compétences, de chacun ? C’est en tout cas ce que prône la Fnege. Bien sûr ce fonctionnement n’est pas sans effet pervers, nous en avons pointé les plus saillants en début de cet article.

Mais, comme l’écrivent Hoskin et Macve, historiens comptables foucaldiens, peu suspects de sympathie pour les dispositifs d’évaluation de tous ordres, « les sociétés modernes ne peuvent concevoir leur fonctionnement sans ces techniques et il nous est impossible, tout en étant conscient de leurs effets de pouvoir, de nous tenir extérieurs aux régimes de savoir qu’elles engendrent. Les ayant inventées nous ne pouvons ni les éviter ni simplement les transcender : il semble que le mieux que l’on puisse faire est d’essayer d’en améliorer le fonctionnement » (1986, p. 134).

Les améliorations nécessaires

C’est peu ou prou la conclusion à laquelle aboutit Aurélien Rouquet dans son article. Dans cet esprit il reprend les propositions faites par Franck Aggeri (2016) pour qu’à titre individuel, les chercheurs en gestion, quand ils se livrent à une évaluation, résistent aux facilités, à la paresse.

À ces propositions, on pourrait ajouter deux mesures. L’une, au profit des thésards, pour que nos écoles doctorales dispensent une formation qui les sensibiliserait à la mission d’évaluation qui, en plus de la compétence et du sérieux, fait appel à l’humilité, à la bienveillance. L’autre recommandation, au profit des chercheurs confirmés, serait de voir adopté par la communauté un code déontologique. La Société Française de Management pourrait s’en charger sous la forme d’un avis qui compléterait celui qu’elle a publié en 2009.

À ces considérations éthiques, s’ajoute une série de propositions au niveau collectif, auxquelles nous souscrivons, mais que nous souhaiterions compléter comme suit :

  • Que les instances de classement accordent une prime aux revues en langue française et portant sur les champs d’investigation d’ouverture récente.

  • Que les revues émergentes puissent bénéficier d’entrée de jeu d’un classement.

  • Que, pour accroître la légitimité et la visibilité des ouvrages, une reconnaissance soit apportée aux auteurs de recensions.

  • Que, dans l’évaluation des dossiers de HDR par les conseils scientifiques qui se prononcent sur l’autorisation de s’inscrire, le mémoire prévale sur le nombre d’étoiles des revues dans lequel le candidat a publié.

Pour ce qui est de « l’émergence de nouveaux ego-academicus », il est probable que le mécanisme des étoiles accentue les travers égoïstes et narcissiques des enseignants-chercheurs et conduise, plus particulièrement certains, à des comportements détestables, ridicules. Quel que soit le mode d’évaluation, sont-ils évitables ? L’étude menée par Élisabeth Badinter sur les coquetteries et susceptibilités des savants au XVIIIe siècle dans son livre Les passions intellectuelles : désirs de gloire (1735-1751) nous permet d’en douter.

En revanche, à la différence d’Aurélien Rouquet, nous pensons que le passage du format de l’article à celui du livre ne changerait pas grand-chose quant à la faible pertinence managériale et sociale des travaux académiques en gestion. Ce dernier point est sans doute le défi majeur auquel la recherche dans ce domaine est confrontée. Pour le relever, au-delà de la question de l’évaluation, c’est une réflexion épistémologique de fond qui serait à mener par la communauté, conjointement avec des philosophes.

We produce knowledge-based, ethical journalism. Please donate and help us thrive. Tax deductible.