Sur quels critères les membres du CNU en psychologie sont-ils nommés? Une analyse bibliométrique de la section 16

A la suite des élections du Conseil National des Universités (CNU), qui fournissent deux tiers des membres de chaque section, le ministère de l’enseignement supérieur et de la recherche a procédé aux nominations du troisième tiers des membres, puis les sections se sont réunies et ont procédé à l’élection de leur bureau. En section 16 (psychologie et ergonomie), un petit débat a animé la communauté sur la question de la légitimité et de la représentativité des membres nommés, et sur les critères de choix de ces membres par le ministère. Dans cet article, je pose la question de savoir si la qualité de la recherche scientifique fait partie des critères utilisés par le ministère.

Le fait est que les critères de sélection des membres nommés sont relativement peu explicites. Le Décret n°92-70 du 16 janvier 1992 relatif au Conseil national des universités précise simplement que chaque section « a vocation à assurer la représentation équilibrée de la diversité du champ disciplinaire concerné, des établissements d'affectation des enseignants-chercheurs en relevant et de la répartition entre les femmes et les hommes qui la composent » (article 3), et que les nominations « concourent à l'objectif de représentation équilibrée » (article 4). On s’attend donc à ce que le ministère assure, via les nominations, un certain équilibre entre hommes et femmes, entre universités, et entre sous-disciplines de la psychologie. Cet ajustement par les nominations peut être important, car le système d’élections par listes ne garantit nullement qu’un tel équilibre soit atteint.

Par ailleurs, s’agissant d’une instance qui a pour rôle de se prononcer sur la qualification des enseignants-chercheurs, le suivi de leur carrière, l’attribution des primes d’encadrement doctoral et de recherche, et des congés pour recherches ou conversions thématiques, autrement dit de participer à l’évaluation des travaux des enseignants-chercheurs, il parait logique d’exiger un minimum de compétence. Là encore, les nominations peuvent jouer un rôle important. Les élections n’offrent aucune garantie concernant la compétence des personnes élues, les électeurs pouvant utiliser bien d’autres critères pour voter. Les CV des candidats annexés aux professions de foi des listes sont d’ailleurs très succincts, ne rendant pas la tâche aisée à l’électeur qui souhaiterait se faire une idée de leurs compétences professionnelles.

L’activité des enseignants-chercheurs est multidimensionnelle, comprenant des activités de recherche, d’enseignement, et des responsabilités administratives. Toutes ces activités sont prises en compte dans les évaluations faites par le CNU. Si on voulait garantir un minimum de compétence au sein même du CNU, il faudrait donc évaluer les candidats potentiels sur ces trois dimensions. Les responsabilités administratives sont en principe officielles et peuvent donc être prises en compte, il serait intéressant d’analyser si elles le sont. Les compétences d’enseignement, elles, sont la grande inconnue, elles ne sont à ma connaissance pas évaluées par les universités et sont donc impossibles à prendre compte par le ministère. Les compétences en matière de recherche, enfin, peuvent être évaluées sur la base des travaux publiés par les chercheurs. Je propose donc de tester l’hypothèse selon laquelle le ministère utilise également des critères de qualité scientifique pour sélectionner les membres nommés.

Bien évidemment, il est très difficile de classer rigoureusement la qualité des travaux des chercheurs, et on peut débattre longuement de la meilleure manière de le faire. Idéalement, l’évaluation des travaux d’un chercheur impliquerait la lecture critique complète de toutes ses publications (ou d’un « best of » choisi par l’auteur), par des experts au moins aussi compétents que lui sur le sujet. En pratique, ces conditions sont impossibles à réunir en dehors des jurys de thèse ou d’habilitation. La seule manière dont un petit nombre de chercheurs peut évaluer les travaux d’un plus grand nombre d’autres chercheurs dans un temps fini est de procéder à l’analyse de la liste de leurs publications : le plus souvent, leur nombre (productivité), et leur qualité inférée via les revues (plus ou moins exigeantes) dans lesquelles elles sont publiées, qualité parfois quantifiée par leur facteur d’impact (nombre moyen de citations reçus par les articles de la revue dans les deux années qui suivent la publication). Cela dit, la plupart des chercheurs s’accordent à dire que le facteur d’impact des revues est un indicateur trop grossier qui comporte de nombreux effets pervers. Quitte à utiliser le nombre de citations des publications pour inférer l’influence qu’elles ont sur les autres travaux scientifiques, autant analyser directement le nombre de citations reçues par les publications du chercheur évalué. C’est ce que fait le h-index, en combinant astucieusement le nombre d’articles publiés et le nombre de leurs citations : il est égal au nombre n de publications du chercheur qui ont recueilli chacune au moins n citations. C’est l’indicateur que je propose d’utiliser, tout en offrant la possibilité d’analyser d’autres indicateurs.

Méthode

Afin d’être le plus exhaustif possible, j’ai utilisé Google Scholar comme source d’information concernant les articles et leurs citations, ce qui permet d’inclure les articles dans les revues indexées ou non indexées, ainsi que les livres, les chapitres, les thèses, les brevets et même des rapports et mémoires non publiés, et ce quelle que soit la langue de publication. Afin d’automatiser le processus, j’ai utilisé le logiciel Publish or Perish, qui permet de collecter toutes les données de Google Scholar et calcule un grand nombre d’indices en plus du h-index.

J’ai ainsi collecté les publications et indices de tous les enseignants-chercheurs nouvellement élus ou nommés à la section 16 du CNU. Pour limiter le travail, je ne l’ai fait que pour les titulaires, pas pour les suppléants. Pour chacun, j’ai parcouru la liste des publications participant à son h-index (les n plus citées) pour vérifier s’il s’agissait bien de publications en psychologie ou dans un champ relié, et j’ai éliminé celles qui étaient de toute évidence dues à un homonyme travaillant dans un autre domaine. J’ai bien sûr pu en éliminer quelques-unes à tort ou en rater certaines. Les données brutes sont disponibles dans ce fichier. Je serai reconnaissant à toute personne me signalant des erreurs que je pourrais corriger.

Les données synthétiques qui ont servi à la production des figures sont dans ce fichier. Là encore, merci de me signaler d’éventuelles erreurs. Pour une explication détaillée de tous les indices rapportés et des multiples variantes du h-index, voir cet article. Si quelqu’un souhaite faire une analyse d’autres indices, il suffit de faire une copie personnelle du fichier (File / Make a copy ou Download). Je serais intéressé de savoir si d’autres analyses donnent des résultats différents.

Résultats

Les graphiques ci-dessous montrent les histogrammes de h-index, pour les membres élus (en bleu) et les membres nommés (en orange), séparément pour les collèges A (professeurs) et B (maîtres de conférences) puisqu’il s’agit de stades différents de la carrière (12 élus et 6 nommés titulaires dans chaque collège).

Histogramme des h-index des membres nommés et élus du Collège A de la section 16.

Histogramme des h-index des membres nommés et élus du Collège B de la section 16.

Malgré les faibles effectifs, la tendance semble suffisamment claire pour ne nécessiter aucune statistique : les membres nommés ont en moyenne un h-index supérieur aux membres élus.

Discussion

Ces résultats suggèrent donc que le ministère a bien pris en compte, d’une manière ou d’une autre, un critère de qualité des travaux de recherche (tel qu’il peut être quantifié par le h-index), pour procéder aux nominations. Même si les nominations ne semblent pas refléter une recherche de performance extrême, on peut soupçonner qu’il y a eu un filtre minimal, consistant à ne pas inclure des enseignants-chercheurs ayant une production scientifique jugée trop faible.

Comme je l’ai expliqué plus haut, ce critère parait tout à fait légitime, puisque le CNU est amené notamment à évaluer les travaux de recherche d’autres enseignants-chercheurs. Il poserait problème que les évaluateurs ne soient pas au moins aussi compétents dans ce domaine que les évalués. Par ailleurs, les données révèlent que les élections de listes ne garantissent effectivement pas un niveau minimal de qualité scientifique : peuvent être élus des enseignants-chercheurs qui ont une activité de publication très faible, quel que soit le critère que l’on considère. Le ministère n’y peut rien, il ne peut que tenter de compenser cela partiellement par les nominations.

Plus généralement, on peut se poser la question de savoir si une instance d’évaluation comme le CNU (et aussi le CoNRS) doit être élue ou nommée, et dans ce dernier cas, sur quels critères. Les défenseurs des assemblées élues revendiquent la démocratie et la représentativité, ce qui est tout à fait souhaitable dans le domaine politique ou syndical, mais peut sembler plus discutable concernant une instance d’évaluation, pour laquelle la compétence semble une condition sine qua non, et devrait donc primer sur tout autre critère.

La représentativité est, certes, une qualité des assemblées élues, mais elle peut également être un problème. Dans le cas d’une communauté scientifique de bon niveau, une section du CNU élue sera à son image et aura toutes les chances de bien remplir sa mission. A contrario, une communauté scientifique faible, décalée par rapport à l’état de l’art international de sa discipline, élira aussi une section à son image, et aura peu de chances de progresser, car cela supposerait d’utiliser des critères d’évaluation qui mettraient en difficulté les membres de la section eux-mêmes. Dans un cas intermédiaire de communauté scientifique de niveau hétérogène, élisant une section du CNU reflétant cette hétérogénéité, les luttes de clans, les trafics d’influence et les compromis donnant-donnant risquent de se substituer à toute démarche d’évaluation rationnelle et objective.

C’est pour cela qu’il est généralement préférable que les instances d’évaluations soient constituées uniquement de membres sélectionnés pour leur compétence, comme c’est le cas pour les comités de sélection par exemple. On peut lire dans ce dossier de la revue En Temps Réel un argumentaire plus complet sur ce sujet et sur d’autres.

Est-ce que la procédure de nomination par le ministère répond à cette exigence ? Pas vraiment. D’une part, le décret qui précise les conditions de nomination est totalement flou sur leurs critères, si ce n’est qu’elles « concourent à l'objectif de représentation équilibrée ». La compétence n’est mentionnée nulle part. D’autre part, quelles que soient la compétence et la bonne volonté des personnels de la DGESIP et de la DGRI qui suggèrent les enseignants-chercheurs à nommer, ces personnels sont en nombre restreint, s’occupent de champs disciplinaires vastes qu’ils ne peuvent connaître en détail, et opèrent donc en partie à l’aveugle, et dans la plus totale opacité du point de vue de la communauté scientifique concernée. Par ailleurs, leurs suggestions sont soumises au cabinet du ministre, qui n’a pourtant aucun avis pertinent sur la qualité scientifique des personnes à nommer, et qui peut être soumis à diverses pressions électorales ou corporatistes.

Face à ces problèmes, certains recommandent la suppression pure et simple du CNU, institution jugée archaïque, corrompue, embolisée par le pouvoir syndical, coûteuse (en budget mais aussi en temps d’enseignant-chercheur gaspillé à des tâches inutiles), et incapable de véritablement assurer sa mission de garantir le niveau de recrutement des enseignants-chercheurs (voir par exemple le livre Le dernier verrou de François Garçon). Peut-être la plupart des disciplines universitaires pourraient-elles se passer du CNU sans grand dommage. Mais en médecine ou en psychologie où l’enjeu n’est rien moins que la qualité des soins offerts aux Français, cette perspective peut légitimement inquiéter. L’alternative serait d’avoir un CNU renforcé, composé de membres ayant toute la compétence et la légitimité nécessaire pour appliquer des critères d’évaluation rigoureux.

Si l’on voulait avoir un CNU entièrement composé d’enseignants-chercheurs sélectionnés pour leur compétence, le meilleur moyen serait d’organiser un appel ouvert à candidatures, dans lequel les candidats soumettraient à la fois une lettre de motivation, et un dossier donnant un maximum d’éléments permettant d’évaluer leurs compétences dans les domaines de la recherche, de l’enseignement, et des responsabilités administratives. Ces candidatures pourraient être examinées par des comités d’experts étrangers, reconnus internationalement pour leur compétence et minimisant les conflits d’intérêt avec la communauté française.


20 commentaires pour “Sur quels critères les membres du CNU en psychologie sont-ils nommés? Une analyse bibliométrique de la section 16”

  1. Nicolas S. Répondre | Permalink

    Merci pour cette analyse et les données l'accompagnant.

    Je voudrais toutefois souligner qu'un problème avec le h-index, c'est qu'il est assez directement lié à la taille d'une communauté (si beaucoup de personnes travaillent sur un sujet, elles se lisent et se citent, augmentant d'autant les h-index individuels). Et n'est donc pas directement comparable d'un sujet d'étude à un autre.

    Si le découpage en sections était en bijection avec les différents sujets d'étude, ça n'aurait pas d'importance (pas de comparaison de choux et carottes), mais ce n'est pas le cas. Dès lors, se fonder uniquement sur une mesure à la sauce h-index introduirait un biais en faveur de spécialistes de sujets "trendy", ce qui n'est pas forcément un gage d'ouverture et de compétence sur /tous/ les sujets.

    J'entends bien toutes les problématiques que peuvent poser les élections ici ceci dit. Mais il n'existe probablement pas de solution miracle et c'est peut-être aussi pour cette raison qu'on se retrouve aujourd'hui avec une forme de compromis...

    • Franck Ramus Répondre | Permalink

      Vous avez raison, le h-index dépend de la taille de la communauté, de la durée de la carrière etc., donc les h-index bruts ne peuvent être comparés que ces facteurs égaux par ailleurs. C'est pour cela que différentes propositions ont été faites d'ajustement, de normalisation du h-index et d'autres indices. Cf. la page référencée plus haut.
      Pour préciser ma démarche, j'ai considéré que s'il y avait une différence de qualité scientifique moyenne entre les travaux des nommés et des élus, cela devrait se refléter (entre autres) sur le h-index, et j'ai testé l'hypothèse sur le h-index. En aucun cas je n'ai dit que les membres du CNU devraient être sélectionnés purement sur la base de l'analyse de leur h-index. Ni que les évaluations effectuées par le CNU devraient reposer essentiellement sur le h-index. Je pense qu'il y a un rôle pour de tels indicateurs, mais je suis bien conscient de leurs limites et je considère, comme la plupart des chercheurs, que l'évaluation de la recherche doit prendre en compte de multiples sources d'information.

  2. Rogalski Janine Répondre | Permalink

    Je réagis sur la proposition : "C’est pour cela qu’il est généralement préférable que les instances d’évaluations soient constituées uniquement de membres sélectionnés pour leur compétence". La compétence est toujours relative à un système de tâches. Dans le texte il s'agit de la production de recherche. Or rien n'empêche un chercheur brillant (ie très h-performant par exemple) d'être par ailleurs persuadé que seul son domaine de recherche a de l'intérêt en psychologie, et que ce sont les enseignants-chercheurs de ce domaine dont le rôle d'enseignants - chercheurs - responsables de l'administration de l'enseignement et de la recherche doit être reconnu par leurs promotions. Si elle se limite à la production de papiers de recherche la compétence peut être périlleuse pour une communauté scientifique. La compétence à transformer les étudiants en acteurs eux-mêmes compétents dans leurs domaine serait un attendu raisonnable. Enfin, la compétence à faire vivre la communauté est (au moins?) aussi importante pour l'avenir d'une discipline de recherche et d'enseignement. On a connu au cnrs des chercheurs certainement de très bon niveau scientifique manifestant un comportement destructeur dans leur discipline. Si on propose au ministère de fonder ses nominations sur un indice h-amélioré, il faut absolument laisser un mode d'élection qui permette de proposer des candidats en tenant compte des trois critères (au minimum). Même si la démocratie n'est pas toujours le meilleur système, c'est globalement le moins dangereux...

    • Franck Ramus Répondre | Permalink

      Oui, j'ai explicitement écrit que l'activité des enseignants-chercheurs était multi-dimensionnelle et que je me limitais à l'analyse des travaux de recherche car c'était la seule sur laquelle je pouvais disposer d'informations. J'aimerais aussi que l'on puisse mesurer la compétence à enseigner et le talent dans l'administration et le management de la recherche. Mais je n'ai pas de données à ce sujet.

      Je précise (encore une fois) que je n'ai jamais recommandé que le ministère se base exclusivement sur le h-index pour sélectionner les membres du CNU. C'est juste l'indicateur que j'ai choisi pour tester mon hypothèse.

      Après, je suis d'accord avec vous qu'il est bien difficile d'éviter de recruter des psychopathes, ou encore des gens qui sont là pour servir leur intérêt personnel plutôt que l'intérêt collectif, dans ces procédures où l'on ne voit que des dossiers. De ce point de vue, je ne suis pas sûr que les méthodes actuellement utilisées par le ministère et le CNU offrent de meilleures garanties qu'un simple critère sur h-index. Et je ne suis pas sûr non plus que les élections sur liste offrent de meilleures garanties sur ce point que les nominations (ou alors ça demanderait à être prouvé). Bref, c'est un risque quelle que soit l'option choisie.

  3. Schneider Répondre | Permalink

    Très bonne remarque de Nicolas.
    Bonne réponse de Franck Ramus.
    Mais on peut encore ajouter que les postes de MCF et PR ne sont pas, loin de là, des postes "recherche". L'université n'est pas le CNRS (d'où vous parlez en partie, M. Ramus). A l'université, je ne vous l'apprend pas, il y a des enseignants chercheurs. Leur mission principale, aujourd'hui, c'est l'enseignement (50 %), l'administratif (30 à 40 %) et il ne reste pour la recherche que 10 % à 20 % du temps.
    Si l'on posait des critères représentatifs du travail réellement effectué sur le terrain, le CNU devrait ainsi (à ajuster bien sûr), considérer une pluralité de critères, rendant justice à cette répartition. Au moment de nommer un MCF, on nomme un pédagogue aussi, et quelqu'un qui aura des compétences administratives et relationnelles. Donner la primauté à la recherche serait problématique. Ce qui est différent au CNRS.

    • Franck Ramus Répondre | Permalink

      Oui, c'est précisément ce que j'ai écrit, à plusieurs reprises dans l'article. Et vous noterez que je me suis bien gardé de comparer les membres du CNU avec des chercheurs ayant des statuts différents.

      J'aimerais beaucoup que le CNU puisse prendre en compte la qualité de l'enseignement, plutôt que de simplement compter des heures enseignées, ce qui ne dit strictement rien sur la compétence à enseigner. Malheureusement la mesure est complexe et les données n'existent pas à l'heure actuelle.

  4. Schneider Répondre | Permalink

    Vous avez raison, ce n'est pas facile.

    Mais une évaluation du travail administratif est faisable objectivement sur CV.

    Et une évaluation de la qualité d'enseignement pourrait être faite sur la base de l'évaluation des enseignements, aujourd'hui obligatoire, à la fin de chaque semestre.

    Il suffirait de collecter les données recueillies dans les universités, pour créer un indice supplémentaire.

  5. Odile Camus Répondre | Permalink

    Dans quelle mesure peut-on admettre le h-index comme indicateur de la "qualité scientifique" ? D'un point de vue épistémologique, je ne vois pas. Du point de vue de la sociologie de la connaissance, en revanche, j'entrevois quels profils scientifiques seraient favorisés par cet indicateur ; et lesquels passeraient à la trappe. Et j'ai le pressentiment que ceux qui m'intéresseront le plus, ce sont les "trappés".

    • Franck Ramus Répondre | Permalink

      Le h-index est un indice parmi d'autres de l'influence des travaux d'un chercheur sur les travaux des autres chercheurs. C'est un indicateur imparfait, parmi bien d'autres dont certains cherchent à en corriger les biais. Son seul intérêt dans mon article, c'est qu'il suffit à tester mon hypothèse, et en l'occurrence tout autre indicateur ferait aussi bien l'affaire. Il existe maintenant une immense littérature sur les avantages et inconvénients et sur le pouvoir prédictif de ces indicateurs: https://scholar.google.com/scholar?q=h+index

      On ne peut pas exclure que quelqu'un dont les écrits seraient totalement ignorés du reste du monde au point de n'être jamais cités soit en fait un génie incompris. Mais parmi tous les gens aux travaux très peu cités, comment distinguer les quelques génies potentiels? Gardons en tête que tous les charlatans s'estiment être des génies incompris, il y a de la concurrence dans cette catégorie! Ceux qui le sont vraiment ne peuvent être que d'infimes exceptions. Leur situation est peut-être très injuste pour eux, mais dans le cadre d'une analyse de groupe comme la mienne, ils ne font aucune différence.

  6. Marc Répondre | Permalink

    Je vous trouve courageux. Mais aussi un peu Don quichotte. Et c'est tres bien.
    Mais aussi dangereux pour votre carriere.
    Ici, dans un pays qui depasse de tres loin tous les budgets et les prix du monde entier (meme mis tous ensembles) et ou le futur peut se lire avec clarte, la competence n'est plus le critere de selection.
    Meme en Medecine, ou l'on attend un minimum de competence clinique.
    Non.
    Le critere principal de recrutement de nos jours est : la diversite.
    Par exemple essayez de postuler pour un titre de Prof de Medecine dans une Universite liee a un Etat, il vous sera demande un essai sur votre sensibilite et devouement a la diversite , c'est meme souvent obligatoire.
    Que cela veut il dire?
    En clair: discriminer activement contre les 1) hommes 2) blancs d'origine ethnique europeenne 3) non juifs 4) heteros 5) de plus de 45 ans.
    Ca me rappelle quelqu'un.
    Bon courage.

    • Franck Ramus Répondre | Permalink

      Vos affirmations demanderaient à être étayées par des sources crédibles. Où donc avez-vous vu que le recrutement comme professeur de médecine nécessitait "un essai sur votre sensibilité et dévouement à la diversité"? Je n'ai jamais vu une chose pareille.

      Quant à la discrimination active que vous mentionnez, on peine à en voir les effets. La seule chose que j'ai vue dans tous les comités auxquels j'ai pu participer, c'est la tentative d'équilibrer le nombre d'hommes et de femmes. Tous les autres critères que vous mentionnez sont de la pure invention. Et bien souvent, cette tentative échoue. La section 16 du CNU en est un bon exemple: sur 72 membres, 44% de femmes et 56% d'hommes. Alors que dans la communauté dont ces membres sont issus, il y a 59% de femmes et 41% d'hommes. Discrimination active contre les hommes, vous dites?

      On veut des faits, pas des fausses nouvelles!

  7. Aguert Répondre | Permalink

    De mon côté, je suis tenté de questionner l'opérationnalisation de la variable "compétence scientifique" par le niveau de publication (je ne parle même pas du h-index). Beaucoup publier suppose probablement d'être un minimum compétent, certes, mais pas seulement. Je fais l'hypothèse que ça suppose 3 autres caractéristiques importantes :
    1. Avoir du temps
    2. Bénéficier d'un environnement de travail "favorable"
    3. Faire de la recherche comme si notre discipline ne traversait pas une crise de la réplicabilité

    Je ne suis pas le plus à même de juger si je suis compétent. Mais je peux affirmer :

    1. Que j'ai très peu de temps pour faire de la recherche. J'ai une famille avec 2 enfants en bas âge et je prétends ne pas déléguer toutes les tâches domestiques à ma compagne. Je rechigne également à embaucher du petit personnel pour effectuer les basses tâches de la vie quotidienne. J'ai un passe-temps, je joue de la musique et j'aime ça, ça me détend. J'ai des responsabilités administratives et au moins 192h de cours que j'aime être bien ficelées et actualisées. Enfin, et ça me semble un paramètre crucial dans notre métier : à mon grand regret, j'ai besoin de dormir beaucoup, entre 8h et 9h par nuit en moyenne et ça j'ai beau chercher, je ne peux m'y soustraire. Je ne peux pas écrire mes papiers entre 22h et 1h du matin comme de nombreux.ses collègues, quand la maison est calme, car je dors.

    2. Un environnement de recherche "favorable". Je vais vite là-dessus, tout le monde voit à peu près de quoi je veux parler : des financements, les co-tutelles avec de grands organismes de recherche, des ingénieurs de recherche sous la main, quelques inspirants chercheurs émérites dans les parages, des chercheurs invités, etc. Si j'osais, je dirais : du capital économique, social et symbolique (le capital culturel étant lui compris avec la compétence).

    3. Depuis 2011, un grand nombre d'entre nous a pris conscience que nous ne faisions pas forcément de la "bonne" science. C'est en tout cas ce que laisse penser notre médiocre capacité à répliquer nos propres travaux. Depuis, beaucoup a été écrit sur ce que pourraient être les "nouvelles pratiques". Observer ces nouvelles pratiques me semble aussi crucial que difficile à concilier avec une haute fréquence de publication. Fini le HARKing (Hypothesizing After the Results are Known), fini le p-hacking, fini le saucissonnage, etc.

    Voilà, si on peut en effet défendre que les personnes ayant un fort h-index sont scientifiquement « compétentes » (quoique le point N°3 soulevé ci-dessus pose quelques questions à ce propos), je ne pense pas que l’inverse soit soutenable. Je suis donc gêné aux entournures par l’idée d’être évalué par des membres nommés (caractérisés comme vous le démontrez fort bien par un fort h-index (et probablement également un certain entregent)) dès lors que ceux-ci assimilent une faible production scientifique à de l’incompétence (je n’affirme pas que c’est le cas mais c’est ce que laisse penser votre tribune).

    Voilà, j’ai pris sur mon temps de déjeuner pour écrire ce message, je vais donc aller me chercher un sandwich que je vais manger devant mon ordinateur en traitant mes nombreux mails en retard,
    Cordialement,

  8. Marianne Jover Répondre | Permalink

    Merci pour votre analyse, dont les résultats ne sont malheureusement pas vraiment surprenants, concernant la stratégie de notre ministère pour former le CNU. On peut aussi voir pour finir de s'en convaincre, les propositions issues des groupes de travail sur la Loi de Programmation Pluriannuelle de la Recherche (https://www.enseignementsup-recherche.gouv.fr/cid145221/restitution-des-travaux-des-groupes-de-travail-pour-un-projet-de-loi-de-programmation-pluriannuelle-de-la-recherche.html).

    Merci aussi pour la mise en commun des données. Je me suis amusée à ajouter la variable sexe. Les résultats montrent que la course au h-index fait à nouveau des perdantes : https://www.dropbox.com/s/5ms8lcxrwbis3rk/Parit%C3%A9CNU.pdf?dl=0

    Le ministère est tellement sensible au h-index qu'il déséquilibre la parité obtenue à l’élection...!

  9. Philippe Chaumont Répondre | Permalink

    Cet article est très intéressant bien que les arguments discutés ici le soient depuis la création du CNU ou presque. Bien que tout le monde s'accorde à penser que la "compétence en tant que chercheur" devrait être le critère principal permettant d'évaluer un enseignant-chercheur, il ne faut cependant pas oublier que le CNU évalue également des gens dont l'activité principale est l'enseignement. Or ces enseignants-chercheurs très investis dans ces tâches administratives de gestion des enseignements présentent généralement un dossier de "recherche" très maigre pour ne pas dire inexistant. Certains voient leurs méritent reconnus au niveau local (dans leur Université) mais beaucoup d'entre eux ne peuvent pas bénéficier de telles promotions et leur carrière dépend donc totalement du CNU. S'il vous plaît, ne les oublions pas...

  10. marc Répondre | Permalink

    "je n'ai jamais vu une chose pareille" . La phrase antiscientifique par excellence.
    Ou le petit bout de la lorgnette comme dit ma concierge.
    Comme si vous saviez tout.
    D'autant plus que vous ne voyagez pas.
    Lisez, renseignez vous, apprenez et etendez vos sources au dela des vrais fake news.
    Ce qui arrive la bas, viendra chez vous.
    Et ce n'est pas vous qui deciderez.
    Don Quichotte...et gamin.
    https://www.wcpo.com/news/insider/university-of-cincinnati-debuts-policy-requiring-diversity-and-inclusion-statement-on-applications

    • Franck Ramus Répondre | Permalink

      Vous voyez, quand on vous demande vos sources, finalement ce n'est plus la même histoire. Vous disiez "ici, dans un pays...", mais en fait c'est aux USA. Vous parliez de médecine, il n'en est plus question.
      Cela dit, l'article est intéressant. Il parle de l'université de Cincinnatti et n'autorise aucune généralisation au-delà. Par ailleurs il n'est dit à aucun endroit que le critère de "diversité" doive primer sur celui de compétence. Merci donc d'en rester aux faits et de nous épargner les extrapolations hasardeuses et interprétations oiseuses.

      • tchaf Répondre | Permalink

        Si je peux me permettre la phrase "ici dans un pays..." suivi d'un commentaire sur le budget le plus éleve de la galaxie aurait pu (dû?) vous mettre la puce à l'oreille... En tout cas, lecteur inattentif, j'ai tout de suite tiqué - le budget de mon labo est en baisse constante depuis mon recrutement

        Bon réveillon néanmoins,

        • Franck Ramus Répondre | Permalink

          Vous avez raison, le commentaire faisait implicitement allusion aux USA, ce que je n'avais pas repéré.

Publier un commentaire