Menu Close
Il semble nécessaire de se défaire des chaines des revues prédatrices. Pictrider/Shutterstock

Comment faire face aux revues scientifiques prédatrices ?

Le système de publication scientifique est sous tension : l’accès aux publications doit être libre et gratuit, mais publier a un coût. Historiquement, ce coût revenait aux lecteurs. Désormais, il incombe souvent aux auteurs, permettant un accès gratuit aux lecteurs, avec en 2019 31 % de tous les articles scientifiques publiés qui étaient accessibles à tous. La note, souvent réglée avec de l’argent public, peut atteindre plus de 10 000 euros par article. Ce marché juteux, avec des marges bénéficiaires pouvant atteindre 40 %, a conduit nombre de scientifiques à ne plus accepter que des maisons d’édition profitent d’un travail intellectuel qu’elles ne financent et ne rémunèrent pas.

Simultanément, le système d’évaluation conventionnel des scientifiques, fondé notamment sur le nombre de publications en général et dans des périodiques à haut facteur d’impact (IF, correspondant au nombre moyen annuel de citations des articles d’un périodique parus les deux années précédentes) en particulier, est remis en question depuis la Déclaration sur l’évaluation de la recherche de San Francisco (DORA). DORA est une déclaration collective internationale, initialement élaborée lors d’une réunion annuelle de la Société américaine de biologie cellulaire en 2012, et qui a été progressivement ratifiée par nombre d’universités et d’organismes de recherche, par exemple en France le CNRS et le CEA.

La collision de ces deux changements débouche sur de nouveaux questionnements :

  • Quels impacts ces transformations ont-elles sur la qualité de la science ?

  • Peut-on raisonner l’usage fait de l’argent public dans la publication académique ?

L’émergence des revues prédatrices

La transition actuelle du système lecteur-payeur vers le système auteur-payeur s’est accompagnée de l’émergence de maisons d’édition scientifique qualifiées « de prédatrices ». Développant des démarches commerciales agressives, notamment via quantité de numéros spéciaux, leur objectif principal étant de « faire du profit » en imposant des coûts de publication démesurés (article-processing charges ou APC), et non de promouvoir une science de qualité.

En effet, le processus d’évaluation des articles y est souvent médiocre (brefs délais d’évaluation, évaluateurs peu compétents), parfois inexistant, conduisant à une pollution massive de la littérature par des résultats mal, voire pas vérifiés. En 2015, déjà un cinquième de la production scientifique mondiale paraissait dans des maisons d’édition prédatrices.

Un effet secondaire est l’érosion de la confiance des scientifiques dans le processus d’évaluation par les pairs, pourtant robuste et éprouvé depuis plus d’un siècle.

À la racine du problème, un cercle vicieux : les chercheurs sont engagés dans une course frénétique à la publication et les évaluateurs disponibles, non rémunérés pour ce travail d’évaluation et devant eux-mêmes publier, deviennent une ressource limitante.

Quand des périodiques traditionnels s’échinent à dénicher des évaluateurs compétents et disponibles, les prédateurs se contentent d’évaluateurs peu compétents qui, contre des rabais sur des APC futurs, écriront de brefs rapports justifiant d’accepter au plus vite un article. Couper le robinet des évaluateurs et refuser d’y soumettre ses travaux, soit par décision personnelle, soit collectivement, permettrait de contrer l’émergence et le développement de ces maisons d’édition prédatrices.

Mais la volonté d’aller dans ce sens est-elle là ? Reconnaître les travers de ce système prédateur est nécessairement lent, en particulier lorsqu’on y a largement contribué.

Il est difficile de définir le caractère prédateur d’un éditeur et certaines revues vont donc se situer dans une zone grise, à la limite de la prédation. De plus, si l’objectif des revues prédatrices est avant tout le profit, le montant des APC n’est pas une condition suffisante pour qualifier un périodique de prédateur – les APC de revues liées à des sociétés savantes (à but non lucratif) sont parfois élevés, mais tout ou partie de ces APC leur sert à développer leur mission dont l’utilité sociale est avérée.

Couper les ailes de l’édition prédatrice passe aussi par une évaluation différente de l’activité des scientifiques, en s’écartant d’une évaluation actuellement trop quantitative, car largement fondée sur le nombre d’articles et sur l’IF des revues (une métrique mesurant leur audience et non leur qualité).

Un appel collectif pour de meilleures pratiques

DORA et l’appel de Paris vont dans ce sens en proposant la fin de l’utilisation de l’IF, mais aussi du nombre de publications, comme métriques centrales de l’évaluation. Ainsi, des institutions françaises, dont le CNRS, INRAE, l’ANR et l’Hcéres, demandent non pas la liste exhaustive des productions, mais une sélection que la personne évaluée souhaite mettre en avant, avec une explication détaillant les qualités, la signification et la portée de cette sélection dans son projet. Ce changement d’évaluation, simple à mettre en œuvre, permet de limiter une course aux publications faciles et coûteuses. Ces initiatives de réforme du système d’évaluation académique fleurissent dans d’autres pays, par exemple aux Pays-Bas et au Canada, ou encore au niveau européen avec la coalition CoARA.

Bien entendu, il est peu probable que les chercheurs évaluateurs des dossiers ou des projets de collègues jettent les indicateurs aux orties, IF ou autres, surtout quand l’évaluation, qui prend un temps considérable lorsqu’elle est menée sérieusement, est si mal valorisée en tant qu’activité dans l’évaluation des chercheurs. Mais combiner évaluation quantitative et qualitative à d’autres critères tels le prix des APC, les profits et leurs usages, la durabilité numérique, la transparence des évaluations ou la reproductibilité des résultats publiés, est souhaitable.

Les comités d’évaluation des chercheurs, par exemple au niveau national le Conseil national des universités et au Comité national de la recherche scientifique, doivent se saisir de ces nouveaux critères, les expliciter et les rendre publics. Il serait aussi souhaitable qu’ils statuent sur les maisons d’édition prédatrices ou semi-prédatrices, ou à la manière de la conférence des Doyens des facultés de médecine, sur les maisons d’édition non prédatrices.

Ils doivent se saisir au plus vite de la question de l’articulation entre modèles de publication et évaluation des chercheurs, pour ne pas se faire devancer par les maisons d’édition susceptibles de proposer elles-mêmes des outils d’évaluation ou de faire changer les règles du jeu.

Dans le contexte actuel de pénurie d’évaluateurs, les périodiques à IF élevé et coûteux jouent sur le prestige supposé d’être évaluateur. Un levier permettant d’attaquer cette situation serait l’assurance que les « lignes de CV » concernant l’évaluation des manuscrits ne soient pas appréciées à l’aune du prestige de périodique coûteux par les comités d’évaluation de l’activité des chercheurs. De cette manière, un scientifique aurait a priori autant intérêt à évaluer pour tout périodique qu’il estime de qualité, et non pas prioritairement pour le peloton de tête de l’IF.

Ainsi, on tarirait l’offre en évaluateurs pour ces périodiques ; ces évaluateurs seraient alors plus disponibles pour des périodiques aussi sérieux, mais moins onéreux. De plus, un processus d’évaluation transparent (c’est-à-dire public) permettrait la valorisation des évaluations, et aux comités de jauger qualitativement l’implication des scientifiques dans ce processus.

Contre la monétarisation de la publication scientifique, il faut séparer l’impératif de l’accès libre et le système de publications en accès libre avec APC obligatoires : les scientifiques doivent rendre leurs publications accessibles, mais sans payer pour cela. L’utilisation de plates-formes de textes non évalués pour rendre accessibles les travaux est une option possible. Cela permettrait de piéger les éditeurs prédateurs au jeu de leur argument de choc (« rendre accessible une publication sans restriction »). Reste alors à imaginer des modèles alternatifs, tel que Peer Community In, proposant un système d’évaluation transparent, exigeant et gratuit à partir d’articles déposés sur des serveurs en accès libre.

Nos actions, via le choix d’un support de publication ou de notre modèle d’évaluation, s’inscrivent dans un contexte politique national et européen parfois contradictoire : certains établissements suggèrent aux chercheurs d’éviter les APC tout en prônant l’accès libre à toutes les publications sortant de leurs laboratoires. D’autres initiatives, comme la création de Open Research Europe par l’Union européenne, révèlent en creux le poids de certains lobbys puisque les projets européens pourront de ce fait publier en accès libre tous leurs résultats dans des périodiques ad hoc et financés par l’UE. L’injonction à une « science ouverte » devrait plutôt encourager à l’utilisation des plates-formes de textes non évalués. Elle ne doit pas être un argument pour justifier la publication dans des revues avec APC, souvent prédatrices. Autrement dit : ne sacrifions pas la qualité sur l’autel de l’accès libre, et les plates-formes de textes non évalués sont là pour ça.

À nous, chercheurs, de retourner le jugement d’Yves Gingras pour démontrer que nous sommes capables d’actions collectives. Avec quelques règles, de la pédagogie et un système de valorisation pluriel de la qualité des périodiques scientifiques, nous pouvons endiguer le phénomène des maisons prédatrices.


Auteurs associés à cet article : Loïc Bollache (Université de Bourgogne), Denis Bourguet (INRAE), Antoine Branca (Université Paris-Saclay), Christopher Carcaillet (EPHE-PSL), Julie Crabot (Université Clermont-Auvergne), El Aziz Djoudi (Brandenburgische Technische Universität), Elisabeth Gross (Université de Lorraine), Philippe Jarne (CNRS & Université de Montpellier), Béatrice Lauga (Université de Pau et des Pays de l’Adour), Joël Meunier (CNRS & Université de Tours), Jérôme Moreau (Université de Bourgogne), Mathieu Sicard (Université de Montpellier), Julien Varaldi (Université Claude Bernard-Lyon 1)

Want to write?

Write an article and join a growing community of more than 191,400 academics and researchers from 5,063 institutions.

Register now