Actualité > Le billet
Le billet
Le classement des revues juridiques : bien mal classer, ne profite jamais !
Dans un contexte de globalisation et de concurrence entre les universités et les systèmes juridiques, les autorités semblent obnubilées par les classements (l’Academic Ranking of World Universities dit « classement de Shanghaï » ; le QS World University Ranking ; le classement entre les systèmes juridiques du rapport doing business, etc.). Ce sont aujourd’hui les revues juridiques que l’on veut, dans l’immédiat, répertorier et, dans un avenir proche, classer. Ce « classement » constituerait l’un des principaux instruments d’évaluation individuelle des enseignants-chercheurs. On le sait l’art du juriste est l’art de distinguer et il apparaît important aujourd’hui aux instances de l’enseignement supérieur de pouvoir distinguer les « publiants » des « non-publiants », voire les « bons publiants » « des mauvais publiants ». Le sujet est d’autant plus sensible que nous sommes actuellement en pleine constitution des dossiers d’évaluation des laboratoires de recherches par l’AERES, l’Agence d’évaluation de la recherche et de l’enseignement supérieur, agence créée par la loi de programme n° 2006-450 du 18 avril 2006, qui est à l’origine d’un premier inventaire des revues juridiques (http://www.aeres-evaluation.fr/Publications/Methodologie-de-l-evaluation/Listes-de-revues-SHS-sciences-humaines-et-sociales). Quel est l’objectif de ce classement entre les revues juridiques et quels en sont les dangers ?
Le classement entre les revues juridiques est un des moyens mis en œuvre afin de procéder à l’évaluation individuelle des enseignants-chercheurs. Dans un communiqué de notre nouveau président de la République, François Hollande, qui n’était encore qu’un simple candidat, il a rappelé son attachement à une évaluation juste et pertinente des enseignants-chercheurs. En quoi le classement des revues juridiques pourrait-il y contribuer ?
Le classement des revues juridiques est inspiré, une fois de plus dira-t-on, du modèle anglo-saxon. Ce ranking est une pratique largement répandue dans les sciences dures et permet d’évaluer les chercheurs afin de déterminer leur évolution de carrière et éventuellement de leur attribuer des financements. Ce mode d’évaluation est tellement à la mode que les classements ne cessent de pulluler : classement de l’ESSEC en économie, droit et finances, du CNRS, de l’AERES en sciences humaines et sociales, de l’European Science foundation (L’European reference Index for the Humanities (ERIH)).
Pour ne prendre que l’exemple de l’AERES, celle-ci a proposé en juin 2010, « sans commentaires », une liste des revues de droit qu’elle intègre dans la catégorie plus large des revues de sciences humaines et sociales. Cette liste n’est pas une hiérarchie entre les revues juridiques, elle « est un des instruments permettant d’identifier les publiants au sens que l’AERES prête à ce terme, mais cette identification ne saurait évidemment se limiter à une appréciation quantitative. Elle ne constitue toutefois pas un classement des revues et publications juridiques ».
Les premières listes de l’AERES ont été publiées sur son site en 2008 et ont été actualisées en juin 2010. Trois ensembles disciplinaires sont distingués par l’AERES : « sciences dures », « sciences du vivant », et « sciences humaines et sociales ». Les sciences humaines et sociales doivent, selon l’Agence, faire l’objet d’un traitement particulier en raison de l’inadéquation de la méthode de la bibliométrie qui est, selon ses propres termes, « peu adaptée à la production académique française en SHS ». Les autorités et les groupes de travail ont opportunément renoncé à la méthode de la bibliométrie qui consiste à prendre en considération le nombre de fois où l’auteur et ses contributions scientifiques sont cités. La « citation impact », notamment, consiste à mesurer le nombre de fois où un article est cité dans les autres revues. Cependant, ces procédés accordent une place trop importante à un mode d’évaluation purement quantitatif, par ailleurs, facile à manipuler.
Comme ces listes ne permettent qu’une évaluation quantitative des chercheurs, l’Agence a dû préciser qu’il ne s’agit pas « d’un cadre contraignant et l’appréciation de la qualité des travaux par les experts reste le critère primordial d’évaluation ». Les précautions prises pas l’AERES sont donc nombreuses. Elles ne sont cependant pas suffisantes.
La liste proposée par l’Agence pèche d’abord par défaut. En effet, le classement de la rubrique « Droit » ne reprend pas les grandes dichotomies qui structurent depuis de nombreuses années nos Facultés : aucune distinction entre droit public, droit privé, droit national ou international. Comment le « répertoire » des revues juridiques pourrait-il être opérationnel s’il ne se calque pas sur les distinctions qui structurent la recherche et l’enseignement en droit français ?
L’AERES pèche aussi par excès ; par excès de précaution. Le principe même du classement entre les revues juridiques est inéluctable. Pourtant, la position de l’AERES n’est pas encore très claire sur le sujet alors que les juristes, même s’ils sont nombreux à ne pas adhérer à l’idée, sont tout de même prêts à l’entendre et à en débattre dès lors que les objectifs sont clairement affichés : est-ce un moyen de sélectionner les bons et les mauvais auteurs ? Si le quantitatif doit rester l’accessoire du qualitatif, de quelle manière pourrait être réalisée une analyse qualitative objective ?
Le temps n’est plus à la contestation du principe du classement. Il faut désormais débattre des conditions de sa mise en œuvre.
Une idée simple peut être mise en exergue : un classement est dépendant de ses critères. Si les critères sont injustes, le résultat sera nécessairement injuste. Le classement proposé prêtera toujours le flanc à la critique. Il convient donc de se concentrer non pas sur le résultat mais sur les principes d’élaboration de ce classement, des principes procéduraux. L’antienne est célèbre : si on ne peut instaurer une justice substantielle, il faut se contenter de la mise en œuvre d’une justice procédurale.
Le premier principe est celui de transparence. Il faut faire preuve de transparence dans l’exposé des critères et dans leur mise en œuvre. La liste des critères retenus doit faire l’objet d’une publication et d’une large diffusion. La transparence concerne, également, la fonction attribuée à la liste ainsi dressée. Les revues juridiques répertoriées seront-elles considérées comme les « meilleures revues » et quelles en seront les conséquences sur l’évaluation des laboratoires et des enseignants-chercheurs ?
Le deuxième principe est celui de l’impartialité. Ainsi, par exemple, il conviendrait d’éviter que les comités de lecture et les comités scientifiques des différentes revues soient composés des mêmes personnes.
Le troisième principe est celui du pluralisme. Il n’y a rien de pire, surtout en la matière, qu’une situation monopolistique. Aussi faut-il encourager les classements et non un seul classement qui serait établi par une seule autorité. Peuvent coexister le classement du CNRS, celui de l’AERES et celui du CNU par exemple. Il faut multiplier les classements afin de pouvoir croiser les résultats. Si avec des méthodes d’évaluation différentes, on arrive à des classements à peu près similaires, cela renforcera la légitimité du classement lui-même mais aussi et surtout des revues répertoriées. Le pluralisme renvoie, également, à la multiplication des autorités d’évaluation, concernant spécialement les opérations de bibliométrie. Les sciences dures, par exemple, doivent subir le quasi-monopole du Web of science. La légitimité du classement suppose la pluralité des autorités d’évaluation afin, encore une fois, de pouvoir croiser les résultats obtenus.
Enfin, l’égalité de traitement et l’objectivité s’imposent au risque de voir certaines maisons d’édition, qui restent avant tout des entreprises, engager des actions en justice pour concurrence déloyale ou pratiques déloyales en raison de listes dans lesquelles elles ne figureraient pas sans raisons objectives.
Il ne faut pas se voiler la face, toute forme de classement, avec toutes les précautions d’usage, produira des effets pervers : difficulté pour les maîtres de conférences ou pour les jeunes professeurs de publier dans les revues « select », tentation des revues juridiques de ne plus rémunérer ce qu’elles considéreront comme une opportunité pour le publiant, difficulté à établir une liste pour des juristes, obéissant aux souhaits d’interdisciplinarité des instances de l’enseignement supérieur, amenés alors à publier dans des revues qui ne sont pas purement « juridiques »…
L’évaluation individuelle des enseignants-chercheurs est inéluctable. L’évaluation scientifique des laboratoires de recherches est, elle, déjà bien engagée. Dont acte ! Prenons garde, cependant, à ce que l’élaboration de ce classement se fasse dans la concertation et sans précipitation car, selon un adage qui n’existe pas encore : bien mal classer, ne profite jamais !
Autres Billets
-
[ 18 novembre 2024 ]
Crise en Nouvelle-Calédonie : sur la légalité des détentions subies dans l’Hexagone
-
[ 12 novembre 2024 ]
Le principe de neutralité du service public face aux collaborations avec des universités israéliennes dans le contexte de la guerre de Gaza et du Liban
-
[ 4 novembre 2024 ]
PLFSS 2025 : l’avenir des droits sociaux en débats
-
[ 21 octobre 2024 ]
Vingt ans déjà, une intégration réussie ?
-
[ 14 octobre 2024 ]
Implants cérébraux : pour une consécration de neuro-droits
- >> Tous les Billets