Academic precarity and the single PI lab model

Brilliant young scientists are struggling to obtain a stable faculty position, all over the world. It seems that “publish or perish” was actually quite hopeful. Now clearly, at least in biology, it is more like “publish in Science, Nature or Cell every other year or perish”. Only a small proportion of PhD holders manage to obtain a stable academic position, and only at an advanced age after multiple postdocs. Of course, this competition for publishing in certain venues also has a great impact on science; encouraging dishonesty and discouraging both long-term creative work and solid incremental science. Everyone complains about the situation.

What should we do about it? What I hear most frequently is that governments should increase the budget and create more faculty positions. That is certainly necessary but I think it is a reductionist view that largely misses the point. Of course, at the time when you start hiring more faculty, the proportion of young scientists who get a faculty position increases. However, if each of them then opens their lab and hire dozens of postdocs, then this proportion quickly reverts to what it was before.

What is at stakes is the general organization of research, in particular the “X lab” model (e.g. the Brette lab), with one group leader (the “PI”) surrounded by a number of graduate students and postdocs (I will discuss only the research staff here), with a complete turnover every few years. It seems that in many countries, to get a faculty position means to start their “own” lab. This is not the case yet in France, but this lab model is spreading very, very fast. With the new law on research currently in discussion (“discussion” might not be the appropriate word, though), it is planned that about 25% of all new recruitments will follow this model (a tenure-track system).

The math is easy. In a stable world, each faculty member will train on average one student to become a faculty member. For example, if a typical lab consists of 1 PI with 3 graduate students, rotating every 4 years, then over 40 years the PI will have trained 30 students, one of which would become a PI. The “success rate” would therefore be 1/30. Even with just one student at any given time, the chance for a student to end up getting a faculty position is 1/10.

Of course, one does not necessarily pursue a PhD with the goal of obtaining a faculty position. It is completely respectable to do a PhD then go to the industry. In many countries, holding a PhD is an asset. It is generally not the case in France, though. One may also want to do a PhD not for career, but because it is interesting in itself. This seems perfectly valid. Note that in that case, implementing a subtask of the PI’s project and doing all the tedious bench work might not be ideal. In any case, it must be emphasized that in this lab model, training students for research is only a marginal aim of a PhD.

How about postdocs? A postdoc is not a diploma. It typically doesn’t improve employability much. Of course, it could be done just for its own interest. But the experience I hear is mostly that of a highly stressful situation, because many if not most postdocs are hoping to secure a stable faculty position. Let us do the math again, with a simplified example. Suppose each lab has just 1 postdoc, rotating every 4 years. Compared to the above situation, it means that 1 out of 3 graduate students go on to do a postdoc. Then each of these postdocs has a 10% chance of getting a faculty position.

Let us have a look at funding questions now. What seems very appreciated is that when you start a lab, you get a “start-up package”. There is a blog post on Naturejobs entitled “The faculty series: Top 10 tips on negotiating start-up packages” that describes it. We can read for example: “There’s no point having equipment if you don’t have any hands to use it. One of the largest costs you can expect to come out of your start-up fund are the salaries of PhD students and postdocs. They’re the most crucial components of the lab for almost all researchers.”. It is very nice to provide the PI with these “components of the lab”, but as argued above, a direct consequence is to organize academic precarity on a massive scale. This remains true even if the entire budget of the State is allocated to research.

The same goes for the rest of the funding system. Project-based funding is conceived so that you hire people to implement your project, which you supervise. Part of these people are students and postdocs. For example, an ERC Starting Grant is 1.5 million euros for 5 years, or 300 k€ per year. In France, a PhD student costs about 30 k€ / year and a postdoc about the double. Of course, to that must be added the indirect costs (25%) and the grant also covers equipment and your own salary. But this is generally sufficient to hire a few students and postdocs, especially as in many countries graduate students are funded by other sources. Then the budget goes up to 2 million € for the consolidator grant and 2.5 million € for the advanced grant. The ERC has become a sort of model for good funding schemes in Europe, because it is so generous. But is it? Certainly it is for the PI who receives the grant, but a world where this mode of funding is generalized is a world where research is done by a vanishingly small proportion of permanent researchers. It is a world that is extremely cruel to young scientists, and with a very worrying demographic structure, most of the work being done by an army of young people with high turnover. You might increase the ERC budget several fold because it is such a great scheme, it will not improve this situation, at all.

Ending academic precarity is a noble cause, but one has to realize that it is inconsistent with the one PI - one lab model, as well as with project-based funding. I want to add a couple of remarks. Precarity is obviously bad for the people who experience it, but it is also bad more generally for the academic system. The excessive competition it generates encourages bad practices, and discourages long-term creative work and solid incremental science. We must also look beyond research per se. The role of academia in society is not just to produce new science. It is also to teach and to provide public expertise. We need to have some people with a deep understanding of epidemiology that we can turn to for advice when necessary. You would not just hire a bunch of graduate students after a competitive call for projects to do this advising job when a new virus emerges. But with a pyramidal organization, a comparatively low proportion of the budget is spent on sustaining the most experienced persons, so for the same budget, you would have much lower expertise than in an organization with more normal demographics. This is incredibly wasteful.

What is the alternative? Well, first of all, research has not always been organized in this way, with one PI surrounded by an army of students and postdocs. The landmark series of 4 papers by Hodgkin and Huxley in 1952 on the ionic basis of neural excitability did not come out of the "Hodgkin lab"; they came out from “the Physiological Laboratory, University of Cambridge”. The Hubel and Wiesel papers on the visual cortex were not done by graduate student Hubel under the supervision of professor Wiesel. Two scientists of the same generation decided to collaborate together, and as far as I know none of their landmark papers from the 1960s involved any student or postdoc. What strikes me is that these two experienced scientists apparently had the time to do the experiments themselves (all the experiments), well after they got a stable faculty position (in 1959). How many PIs can actually do that today, instead of supervising, hiring, writing grants and filling reports? It is quite revealing to read again the recent blog post cited above: “There’s no point having equipment if you don’t have any hands to use it.” - as if using it yourself was not even conceivable.

In France, the 1 PI - 1 lab kind of organization has been taking on gradually over the last 20 years, with a decisive step presumably coming this year with the introduction of a large proportion of tenure tracks with “start-up packages”. This move has been accompanied by a progressive shift from base funding to project-based funding, and a steady increase in the age of faculty recruitment. This is not to say that the situation was great 20 years ago, but it is clearly worsening.

A sustainable, non-pyramidal model is one in which a researcher would typically train no more than a few students over her entire career. It means that research work is done by collaboration between peers, rather than by hiring (and training) less experienced people to do the work. It means that research is not generically funded on projects led by a single individual acting as a manager. In fact, a model where most of the working force is already employed should have much less use of “projects”. A few people can just decide to join forces and work together, just as Hubel and Wiesel did. Of course, some research ideas might need expenses beyond the usual (e.g. equipment), and so there is a case for project-based funding schemes to cover for these expenses. But it is not the generic case.

One of the fantasies of competitive project-based funding is that it would supposedly increase research quality by selecting the best projects. But how does it work? Basically, peers read the project and decide whether they think it is good. Free association is exactly that, except the peers in question 1) are real experts, 2) commit to actually do some work on the project and possibly to bring some of their own resources. Without the bureaucracy. Peer reviewing of projects is an unnecessary and poor substitute for what goes on in free collaboration - do I think this idea is exciting enough to devote some of my own time (and possibly budget) on it?

In conclusion, the problem of academic precarity, of the unhealthy pressure put on postdocs in modern academia, is not primarily a budget problem. At least it is not just that. It is a direct consequence of an insane organization of research, based on general managerial principles that are totally orthogonal to what research is about (and beyond: teaching, public expertise). This is what needs to be challenged.

Update: a presentation in French on this topic.

Une analyse globale de la nouvelle politique de recherche (III) - Faut-il évaluer la recherche ?

Dans les billets précédents (1 et 2), j’ai exposé le contexte idéologique des réformes structurelles de la recherche qui sont en cours. J’ai tenté de montrer qu’il s’agit de théories bureaucratiques dont l’argumentation est essentiellement obscurantiste, c’est-à-dire que non seulement une série de poncifs (il vaut mieux financer les excellents que les mauvais) et d’analogies douteuses (les vertus supposées du « darwinisme ») tiennent lieu d’argumentation, mais en outre les éléments empiriques contradictoires sont tout simplement ignorés.

Face à ce type de critique, une réaction courante est : mais alors, vous refusez d’être évalués ? On convoque alors l’image du savant dans sa tour d’ivoire, ou pire, celle du fonctionnaire fainéant. En effet, un point central des réformes managériales en cours est la notion d’évaluation : il faudrait développer une « culture de l’évaluation », avec des « indicateurs de performance ». Faut-il évaluer la recherche ? Pour répondre à cette question, encore faut-il préciser ce que l’on entend par « évaluer » et quels sont précisément les sujets et objets de ce verbe (qui évalue, et qu’est-ce qui est évalué).

Pour cela, il me semble utile de faire une petite digression philosophique pour comprendre la nature de l’activité scientifique qu’il s’agit d’évaluer.


Digression philosophique

Qu’est-ce que la science ? Vaste question philosophique qui a été abordée par de nombreux angles et que je me propose de résumer en quelques paragraphes. Je me contenterai pour le sujet de ce billet d’une description assez grossière : la science, en tant qu’activité sociale, est la poursuite de la vérité. Description néanmoins un peu plus subtile qu’elle en a l’air : il s’agit bien de tendre vers un idéal de vérité sur le monde, mais c’est un idéal, c’est-à-dire quelque chose que l’on poursuit sans jamais vraiment atteindre.

Comment la science est-elle produite ? Une position philosophique historiquement importante, qui date du 19e siècle et début du 20e, est le positivisme : la science consiste à observer des faits élémentaires, puis à en déduire logiquement des lois de la nature. Il y a donc une méthode que l’on peut suivre pour produire des vérités scientifiques avec certitude. C’est en quelque sorte un modèle industriel de la science, et ce n’est sans doute pas un hasard si cette position est apparue au 19e siècle. De ce point de vue découle la conception naïve de la revue par les pairs comme certification des connaissances produites ou des méthodes employées. Point crucial, selon ce modèle de la science, il est trivial de distinguer la bonne science de la mauvaise science : la bonne science est tout simplement celle qui suit correctement la méthode scientifique (d’où le rôle présumé des journaux comme « gate-keepers » ; voir mon texte sur ce sujet). Dans ce modèle, on peut donc appliquer des méthodes industrielles de gestion, de « management » dirait-on aujourd’hui, parce qu’il existe des mesures objectives (externes) de qualité. Là est la justification de l’usage de la bibliométrie comme outil d’évaluation.

Or, si cette position reste populaire, en particulier chez les non chercheurs (mais pas seulement), elle a été essentiellement démolie par les travaux en philosophie et histoire des sciences au cours du siècle dernier. Le plus connu est sans doute Karl Popper, qui sous un angle logique a établi que l’on ne peut pas établir en science des vérités mais uniquement des faussetés - simplement parce qu’une proposition s’applique à une infinité de cas que l’on ne peut tous vérifier. Il s’agit alors de tester des théories, et non de déduire des vérités scientifiques. D’autres travaux, moins connus des scientifiques mais néanmoins très importants, ont montré que la difficulté est plus profonde que cela. Quine a montré que la notion même de fait élémentaire est une erreur conceptuelle. C’est une forme de réductionnisme de la connaissance (je reformule), l’idée que la connaissance est un ensemble de faits et lois indépendants les uns des autres. Or c’est impossible, car pour énoncer un fait il faut utiliser des concepts, c’est-à-dire des théories. Par conséquent, il n’y a pas de fait élémentaire mais plutôt un système (plus ou moins) cohérent de connaissances. Kuhn a montré historiquement que co-existent généralement des théories scientifiques contradictoires portant sur les mêmes observations, ou encore que différentes théories (ou écoles de pensée) considèrent comme pertinents des corpus d’observations différents. Lakatos (élève de Popper) a montré qu’une théorie scientifique est non seulement une théorie qui en principe doit être falsifiable, mais également qui en pratique est falsifiée, et que cette caractéristique n’est pas forcément dysfonctionnelle. C’est-à-dire qu’il arrive couramment que des observations inattendues semblent contredire la théorie dominante, mais pour autant la théorie n’est pas forcément remise en cause. A la place, l’observation est interprétée en postulant une hypothèse auxiliaire. C’est le cas presque systématiquement aujourd’hui dans de nombreuses branches de la physique parce que l’on considère les théories physiques bien établies. Par exemple : la trajectoire de telle planète dévie des prédictions des lois de Newton (ou Einstein), conclusion : il doit y avoir un satellite autour de cette planète (et non : les lois de Newton sont fausses).

Je pourrais citer de nombreuses autres contributions importantes. Pour le sujet qui nous occupe, le point important est qu’il n’existe pas de méthode scientifique que l’on pourrait appliquer pour produire des vérités scientifiques. Cela ne veut pas dire que la science est arbitraire, au contraire. Cela veut dire que la réflexion sur la méthodologie et plus globalement l’épistémologie font elles-mêmes partie intégrale de l’activité scientifique : il n’y a pas de norme objective externe à la communauté scientifique. Cela signifie que la science progresse non par la production et la certification des savoirs, mais par le débat scientifique. Ce point est crucial, car il fonde la justification fondamentale de la nécessaire autonomie scientifique. Il ne peut y avoir d’évaluation de la production scientifique selon des normes externes (notamment bibliométriques), tout simplement parce que ces normes n’existent pas.


Evaluer la recherche

Revenons donc à notre question : faut-il évaluer la recherche ?

Premièrement, commençons par la motivation de cette question. La motivation, c’est que l’argent public doit être bien utilisé, c’est-à-dire dans l’intérêt de la société. Cela implique sans doute que les politiques publiques doivent être évaluées, c’est-à-dire que lorsque l’on modifie la structure du système de recherche par des réformes, l’impact global de ces réformes devrait être analysé. Or c’est précisément le type d’évaluation utile qui n’est pas effectué, ou qui est ignoré. Les réformes engagées depuis 15 ans, introduisant des nouveaux modes d’organisation (financement par projets par exemple) n’ont manifestement pas donné les résultats escomptés. Il serait donc logique de revenir sur ces réformes et de les modifier. Or ce n’est pas le cas : au contraire, il s’agirait d’amplifier ces réformes.

Ce qui doit être évalué donc, c’est l’efficacité globale du système de recherche, en relation avec son organisation. Si le système global doit être évalué, est-ce qu’il en découle que les agents individuels de ce système doivent être évalués ? Il y a ici un glissement qui est tout à fait fallacieux. Bien sûr, si l’on veut connaître, disons, la production scientifique totale du pays, on va additionner la production scientifique de chacun des chercheurs. Du point de vue individuel, cette « évaluation » est donc faite dans un but de mesure uniquement ; c’est seulement au niveau du système global que cette mesure sert à influencer l’action publique. Mais quand on dit qu’il faut évaluer les chercheurs, ce dont on parle c’est une évaluation qui a une conséquence individuelle et qui est donc utilisée comme outil de gestion. Par exemple, on donne une prime aux chercheurs qui publient plus, de façon à les inciter à augmenter leur productivité. Il ne s’agit donc ici pas simplement d’évaluer les politiques publiques, ce qui semble assez consensuel, mais d’instaurer un mode de gestion bien particulier, à savoir une gestion bureaucratique managériale, reposant sur des indicateurs individuels objectifs.

Or comme je l’ai expliqué plus haut, il n’existe pas d’indicateurs objectifs de la qualité scientifique à un niveau individuel. On peut dire d’un pays qu’il produit plus ou moins d’articles scientifiques, ou mesurer différents indicateurs macroscopiques. Mais aucune bureaucratie ne peut dire ce qui est « vrai » ou « important » en termes de vérité scientifique, puisque c’est justement là le cœur de l’activité des chercheurs. Une conséquence immédiate de cet état de fait est qu’instaurer une gestion par objectifs est nécessairement contre-productif, puisque les agents vont alors être incités à optimiser des choses qui ne sont pas alignées avec la qualité scientifique, chose non mesurable. C’est d’ailleurs un phénomène tellement bien connu qu’il a un nom, la loi de Goodhart. Par exemple, demander aux chercheurs de produire davantage d’articles a pour résultat que les chercheurs produisent davantage d’articles. Par exemple en saucissonnant les articles, en faisant des articles bâclés, etc. Cela fonctionne pour toute métrique qu’un bureaucrate pourra inventer.

Mais alors, il ne faut pas évaluer ? Premièrement, l’évaluation, comme je l’ai expliqué, est un aspect central et quotidien de l’activité du chercheur, si l’on entend cela comme la discussion critique des productions scientifiques. C’est le métier du chercheur que d’évaluer ses pairs - le mot « évaluer » est sans doute mauvais, du fait qu’il ne s’agit bien sûr pas de mettre cinq étoiles à la loi de la relativité. Simplement, cette évaluation n’est pas un mode de gestion, mais de débat, et ce débat ne peut se faire qu’entre pairs, pas avec une bureaucratie.

Deuxièmement, l’évaluation des personnes (et non plus des énoncés scientifiques) est naturellement inévitable à au moins un moment de la carrière : le recrutement (et, sans doute, la promotion). Mais encore une fois, cette évaluation ne peut être faite de manière bureaucratique selon des métriques objectives pour les raisons déjà énoncées. Elle ne peut se faire que par des pairs, de manière subjective donc. De quel genre d’évaluation parle-t-on ici ? Le discours managérial parle de « culture du résultat » : il s’agirait d’évaluer la production des individus ; à charge des individus que faire en sorte que cette production soit bonne – d’où une forme de « sélection darwinienne ». D’où un certain nombre d’indicateurs (nombre de publications, prestige des journaux dans lesquels elles apparaissent, etc). Mais d’une part on retombe encore une fois dans l’erreur positiviste (il n’y a pas, surtout sur des résultats récents, de mesure consensuelle de l’« importance » de résultats scientifiques) et d’autre part on commet ce qu’on appelle en psychologie un biais de substitution, c’est-à-dire que le facteur que l’on cherche à évaluer est complexe et par conséquent on en utilise un autre plus simple (voir une série de textes que j’ai écrits il y a quelques années sur les biais cognitifs dans les recrutements académiques). Que cherche-t-on à évaluer lors d’un recrutement de chercheur permanent ? Il s’agit d’estimer si, au cours de sa carrière future, le chercheur produira des connaissances nouvelles et intéressantes. Bien sûr on ne connait pas sa carrière future, on doit donc la deviner. Et qu’est-ce qui détermine la qualité de la production scientifique d’un individu ? Un certain nombre de facteurs, dont certains sont propres à la personne, comme ses compétences et ses qualités (rigueur intellectuelle et intégrité par exemple), et d’autres sont contextuels (collaborateurs, conditions de travail, et bien sûr hasard puisqu’on parle de recherche, donc de choses non connues à l’avance). Ce que l’on doit donc déterminer, dans le contexte d’un recrutement, ce sont les facteurs propres, c’est-à-dire les compétences et qualités scientifiques de l’individu. La production passée est bien sûr corrélée à ces facteurs, mais ce n’est pas ce que l’on cherche à déterminer. Enfin il y a un risque bien connu à substituer un facteur indirect au facteur causal que l’on cherche à évaluer. En plus de l’erreur dans la sélection elle-même, cette substitution induit des changements de comportement des individus visant à optimiser ce facteur non causal, ce qui finit par rendre la sélection arbitraire (loi de Goodhart). Par exemple, un étudiant ira dans un laboratoire connu non parce qu’il pense y apprendre quelque chose, mais parce qu’il a plus de chances d’être co-auteur d’un article dans un journal prestigieux.

L’évaluation, donc, doit être une évaluation des compétences et non des résultats. Naturellement, les compétences ne peuvent être correctement évaluées que par des gens eux-mêmes compétents, et non par une bureaucratie.

Faut-il évaluer la recherche ? D’abord, il faut principalement évaluer les politiques publiques de recherche. Celles qui sont instituées depuis 15 ans sont manifestement mauvaises et il faut donc les repenser et non les amplifier. Voilà l’évidence. Ensuite, oui bien sûr, il est nécessaire d’évaluer les chercheurs, au moment du recrutement ou de la promotion, et non comme mode de gestion quotidien. Et ce sont les compétences qui doivent être évaluées et non les « résultats ». Ces compétences, enfin, ne peuvent être évaluées que par des gens eux-mêmes compétents et non par des bureaucrates. Voilà en quel sens on peut dire qu’il faut « évaluer la recherche ».

Une analyse globale de la nouvelle politique de recherche - (II) Préjugés psychologiques de l’idéologie managériale

J’ai souligné dans la première partie que l’idéologie managériale qui sous-tend les réformes actuelles de la recherche et de l’enseignement supérieur, et plus globalement la théorie du nouveau management public, est un obscurantisme. D’un point de vue scientifique, ce qui est frappant dans l’idéologie managériale, c’est la grossièreté des présupposés sur la psychologie humaine. Il ne s’agit que de carotte et de bâton : primes d’un côté, précarisation de l’autre. « Manager », c’est donc concevoir une structure d’incitations appropriées (« incentive structure »). La seule façon de faire travailler quelqu’un est de l’inciter financièrement à le faire, et de le sanctionner lorsqu’il ne le fait pas bien. En résumé, c’est de la psychologie béhavioriste dans sa version la plus grossière.

Il n’est apparemment pas venu à l’idée de ces gens qu’on puisse faire un travail parce qu’on l’aime, sans qu’il y ait pour autant une récompense extrinsèque, ou la menace d’une sanction. Ou qu’on puisse soigner correctement un patient, ou éviter de trafiquer ses données scientifiques, pour des raisons avant tout morales - comme le respect de son prochain et l’éthique intellectuelle. Ce n’est peut-être pas un hasard si ces idées sont théorisées principalement par des économistes, dont un certain nombre (heureusement, pas tous) semblent croire à la fable ridicule de l’« homo economicus ».

Or il se trouve (quelle surprise) que l’avidité et la peur ne sont pas les seules passions humaines. Il y a une littérature considérable en psychologie, par exemple, sur la motivation intrinsèque, comme la curiosité. Voir par exemple la théorie du flow de Mihály Csíkszentmihályi - mais pourquoi donc des gens font-ils du surf sans être payés ?! Et oui, les comportements moraux et altruistes existent, chez l’humain comme chez bien d’autres espèces (voir par exemple le travail de l’éthologue Frans de Waal). Il y a également une dimension morale dans une grande partie des activités sociales, et de manière évidente dans les métiers scientifiques et de santé : il s’agit de rechercher la vérité, ou de soigner des personnes (il ne peut pas y avoir de débat scientifique sans un minimum de confiance attribuée à ses acteurs). Ce que résume l’expression « conscience professionnelle ».

La motivation humaine est complexe, et si elle ne se réduit pas à l’altruisme, elle ne se réduit pas non plus à l’avidité et la peur. On se demande bien d’ailleurs quel degré d’inculture il faut avoir en face de nous pour que ce rappel soit nécessaire, tant une bonne partie de la littérature tourne autour de ce fait.

Le rôle des structures, par conséquent, est de permettre à certains aspects de la motivation humaine de s’exprimer, plutôt que d’autres. Ceci est très bien illustré par le discours poignant d’une diabétologue dans le contexte des politiques managériales de l’hôpital. Elle y explique l’effet d’une gestion bureaucratique fondée exclusivement sur la carotte et le bâton : « je devenais une espèce de robot », « je ne suis plus éthique ». Cette nouvelle organisation fondée exclusivement sur la récompense et la sanction (extrinsèques) la conduit à ne plus exercer correctement son métier. Or, le point crucial à relever, c’est qu’auparavant, les médecins n’avaient absolument pas besoin de cela pour soigner les patients. Ils soignaient parce que c’était leur métier. Pas parce que ça rapporte à l’hôpital et que du coup ils auront peut-être une prime. Il existe (existait) des structures sociales pour encourager cette attitude vertueuse. Par exemple la formation (comme l’internat) dans des structures où cette attitude est socialement valorisée. Peut-être aussi la sélection : pour être médecin hospitalier, il faut avoir fait ses preuves dans un service hospitalier, et donc être choisi par d’autres médecins hospitaliers selon des critères propres à l’éthique du métier, et non selon le taux de remplissage des lits.

Quelle drôle d’idée, lorsque l’on a un système qui fonctionne en permettant aux motivations humaines les plus vertueuses de s’exprimer, de le changer pour un système manifestement dysfonctionnel, précisément parce qu’il est organisé pour encourager le pire de l’humain - l’avidité et la peur. Cette drôle d’idée, on ne peut l’avoir que si l’on possède une vision caricaturale de la psychologie humaine. Une vision sectaire et, puisqu’en l’occurrence il s’agit de choses très documentées scientifiquement, une vision obscurantiste. Dans ce contexte, l’insistance des partisans du nouveau management public à instaurer une révolution culturelle (la fameuse « culture du résultat ») est particulièrement inquiétante. Il s’agit ni plus ni moins que d’expurger pratiquement tout ce qu’il y a d’humain en chacun de nous, et de nous transformer, en effet, en « une espèce de robot ».

Troisième partie: Faut-il évaluer la recherche?

Une analyse globale de la nouvelle politique de recherche (I) - le contexte idéologique

La communauté scientifique est en effervescence à l’approche de la mise en place de la « loi de programmation pluriannuelle de la recherche » (LPPR). Au programme, entre autres : un renforcement de la mise en compétition des structures et des personnes par l’intermédiaire d’appels à projets, un renforcement de la précarisation (déjà très importante) par l’implémentation de la « tenure track », c’est-à-dire CDD de 5-7 ans pouvant (ou pas) mener à une titularisation, un accroissement de l’évaluation bureaucratique (c’est-à-dire par des objectifs chiffrés) des institutions et des personnes, une différenciation des rémunérations et des conditions de travail notamment par une politique de primes généralisée, un temps d’enseignement des enseignants-chercheurs non plus statutaire (192h équivalent-TD) mais « négocié » avec la direction, un renforcement de la recherche « partenariale » (c’est-à-dire au profit d’une entreprise) au détriment de la recherche fondamentale, et, globalement, un affaiblissement considérable de l’autonomie scientifique et universitaire.

Naturellement, ce projet suscite une inquiétude considérable dans la communauté académique, et de nombreuses critiques ont déjà été formulées, par le biais des institutions (qui ignorent ces critiques) mais également dans la presse. En passant : je parlerai par la suite de projet, de politique ou d’idéologie plutôt que de loi, car il est vraisemblable que l’essentiel du projet se passe du débat parlementaire. Les « tenure-tracks » par exemple, qui signent la mort annoncée des statuts de chargé de recherche et maître de conférences, ont déjà été mis en place cette année avant même la discussion de la loi, grâce à une disposition législative elle-même non discutée au Parlement, le CDI de projet (passée par ordonnances en 2017).

Beaucoup de choses ont été dites et écrites, mais les discussions tournent généralement autour de points spécifiques, sur chacune des mesures prises individuellement, et donc de manière réductionniste. Par exemple, concernant l’ANR qui finance désormais les projets de recherche, une partie de la communauté se focalise sur le faible taux de succès (10-15% selon les années), source en effet d’un énorme gâchis. Des voix s’élèvent donc pour augmenter le budget de l’ANR de façon à augmenter ce taux de succès. Or l’ANR finance en grande partie des postdocs, et augmenter son budget va donc mécaniquement entraîner une précarisation, précarisation qui suscite pourtant l’inquiétude de cette même communauté. Concernant la tenure track, si la communauté y est généralement opposée, certains y voient une évolution potentiellement positive « si c’est bien fait », en permettant par exemple des rémunérations plus attractives, comme le pouvoir l’annonce. C’est oublier que ce qui permet une augmentation des rémunérations, c’est soit une augmentation du budget (qui pourrait se faire sans précarisation) soit une diminution du nombre de recrutements. D’autres se disent que la tenure track (CDD puis titularisation conditionnelle) est un progrès par rapport au postdoc (CDD puis concours). C’est négliger deux choses : d’une, que la tenure track n’exclut pas le postdoc, qui reste la norme dans tous les pays qui implémentent la tenure track ; d’autre part, que les chances de titularisation dépendent non des mots employés par les autorités pour faire la publicité de la réforme (« engagement moral »), mais du budget rapporté au nombre de candidats. Etant donné que le concours CNRS, pour prendre un exemple, a un taux de succès de 4%, de deux choses l’une : soit la tenure track va avoir un taux de sélection comparable, auquel cas la différence principale avec le système actuel sera la précarité du contrat ; soit le taux de titularisation sera comparable, auquel cas l’effet principal sera de reculer de 5-7 ans l’âge de la sélection pour un poste stable ; ou bien sûr, le plus probable, un intermédiaire : taux de sélection de 8%, taux de titularisation de 50%.

Enfin concernant les « CDIs de projet », c’est-à-dire une mesure essentiellement technique permettant de mettre en place des CDDs plus longs que ceux autorisés par la loi, nombreux sont ceux, en particulier en biologie, qui voient cette mesure d’un bon œil. La raison est la loi Sauvadet censée résorber la précarité, qui impose à l’employeur de titulariser les personnels en CDD depuis plusieurs années. Mais comme l’Etat ne veut pas titulariser, cela signifie que les institutions refusent de prolonger les CDDs au-delà d’une certaine limite. Cela est perçu à juste titre comme un gâchis par de nombreux chercheurs, car il se produit souvent une situation dans laquelle un laboratoire dispose des fonds pour prolonger le contrat d’un postdoc expérimenté, mais est contrainte administrativement de recruter à la place un postdoc inexpérimenté. Cependant, de manière plus globale, l’effet de la mise en place de CDIs de projet est mécaniquement un allongement de la durée des postdocs, donc une titularisation (ou non) plus tardive, assortie éventuellement d’une diminution du nombre de postdocs - à moins que le taux de succès de l’ANR augmente par une augmentation de budget.

En résumé, une analyse réductionniste ne permet pas de former une critique cohérente. Elle tend à naturaliser le fonctionnement des institutions, c’est-à-dire à considérer par exemple que le financement par projet de la recherche est une sorte de loi de la nature plutôt qu’une construction sociale (d’où la référence constante aux « standards internationaux »). Or il s’agit bien entendu de politiques choisies, et dans le cas de la France assez récemment. C’est pourquoi il me semble important de prendre un peu de recul pour analyser cette nouvelle politique de manière globale, y compris dans le contexte plus large des politiques publiques.


  1. L’idéologie générale : le nouveau management public

Antoine Petit, PDG du CNRS, a brillamment résumé l’inspiration idéologique de la LPPR: il s’agira d’une loi « darwinienne ». Cette terminologie n’a pas manqué de susciter de vives critiques de la part de la communauté scientifique (ici et ). Il s’agit de mettre en compétition des institutions et des personnes sur la base d’objectifs décidés par l’Etat, et « que le meilleur gagne ». Cette référence n’est absolument pas anecdotique, contrairement à ce que Mme Vidal et M. Petit ont essayé d’expliquer de manière peu convaincante par la suite. Il s’agit d’une forme de gestion publique qui n’est ni improvisée ni spécifique à la recherche, et qui a été théorisée sous le nom de nouveau management public. Il s’agit non plus d’organiser les services publics par la mise en place raisonnée d’infrastructures publiques, de manière spécifique à chaque mission (une approche perçue comme « soviétique » et donc inefficace), mais en mettant en compétition diverses institutions, qui sont « libres » de mettre en place les moyens qu’ils jugent nécessaires pour accomplir des objectifs chiffrés fixés par l’Etat. Ces objectifs peuvent être par exemple la position dans un classement international des universités, ou la durée moyenne de séjour dans les hôpitaux. C’est le sens du mot « autonomie » dans l’« autonomie des universités » instaurée par Nicolas Sarkozy en 2007. Naturellement, il ne s’agit pas d’autonomie scientifique, puisque celle-ci suppose précisément un financement inconditionnel (c’est-à-dire emploi garanti et budget récurrent), ni d’autonomie financière puisque les financements restent versés par l’Etat, sous condition d’objectifs fixés par l’Etat. Il s’agit d’une autonomie de méthode, pour accomplir des objectifs fixés préalablement par l’Etat.

Naturellement, cette mise en compétition au niveau des structures (e.g. universités) se décline de manière hiérarchique jusqu’à l’échelle individuelle, puisque pour survivre, la structure doit faire en sorte que les employés contribuent à la réalisation des objectifs. C’est pourquoi il est en permanence question d’instaurer une « culture du résultat » ou de l’évaluation. Cet appel à la révolution culturelle qui évoque le maoïsme est d’ailleurs tout à fait significatif, j’y reviendrai.

Cette idéologie n’est ni spécifique à la recherche, ni naturellement à la France. Son instigatrice la plus connue est Mme Thatcher, qui l’a mise en place au Royaume-Uni dans les années 80. Elle a également été mise en place par le régime nazi dans les années 1930, comme l’a montré l’historien Johann Chapoutot - j’y reviendrai. Son bilan, pour dire un euphémisme, n’est pas fameux (voir par exemple un compte rendu très récent dans Nature d’une étude dans le monde académique). Pour ce qui est de la santé, par exemple, sa mise en place en France par le biais de la tarification à l’activité (T2A) a conduit aujourd’hui à une situation dramatique - j’y reviendrai également.


  1. Une politique libérale ?

Il est important de bien situer cette idéologie sur l’échiquier politique. En effet, elle est souvent perçue (et présentée) comme une idéologie d’inspiration libérale. Il est d’ailleurs tout à fait plausible que ses défenseurs la pensent ainsi de manière sincère - bien sûr dans les démocraties libérales modernes, et peut-être pas au sein du IIIe Reich qui l’implémentait également. C’est un malentendu qui est source d’une grande confusion, et qui explique son soutien électoral de la part de citoyens de sensibilité centriste - que sont une bonne partie des chercheurs.

La filiation avec la pensée libérale se fait, on l’a compris, par l’idée de l’efficience du marché. Le marché serait un outil productif efficace en cela qu’il permettrait, par la libre opération des producteurs et la sélection par les consommateurs, de faire émerger les solutions les plus efficaces. D’où l’essence « darwinienne » de ces idées (dans le sens bien sûr des croyances populaires, et non du Darwinisme en biologie qui n’est absolument pas individualiste). Cette efficience émergerait naturellement de la libre opération des marchés dans un contexte marchand (j’invite néanmoins le lecteur à lire ce que pensent les anthropologues du présupposé naturaliste des économistes sur la monnaie et l’échange marchand). Le libéralisme économique, par conséquent, préconise de réduire l’intervention de l’Etat au strict nécessaire, et peut être associé (ou pas) au libéralisme politique, en particulier la protection des libertés individuelles. Le marché est vu comme un moyen optimal de distribuer l’information dans une économie - bien sûr, aucun économiste sérieux ne considère plus aujourd’hui que les marchés réels se comportent ou puissent se comporter comme les « marchés parfaits » de l’économie néoclassique (voir par exemple le travail de J. Stiglitz). Dans un contexte de guerre froide, ce type d’organisation économique se pense en opposition avec la planification soviétique, qui serait bureaucratique, « sclérosante ».

On touche ici à un problème épistémologique essentiel, sur lequel je reviendrai plus tard, qui constitue l’erreur intellectuelle fondamentale du nouveau management public. En effet, si l’on conçoit qu’un marché puisse exister naturellement dans le cadre d’échanges commerciaux où il existe une métrique objective, l’argent, ce n’est a priori pas le cas de la santé, la science, la justice ou la police. Il faut donc créer ces métriques, par exemple : la durée de séjour, le nombre de publications, le nombre de jugements, le nombre d’amendes. Ces métriques et les objectifs qui y sont associés n’existant pas de manière naturelle (peut-on quantifier la vérité, ou la justice ?), ils doivent être créés par l’Etat. Cela suppose donc la création d’une bureaucratie d’Etat.

On arrive donc à un étonnant paradoxe : alors que le libéralisme est un courant de pensée fondamentalement anti-bureaucratique, on est ici en présence d’une doctrine qui préconise la mise en place d’une bureaucratie d’Etat. C’est en effet une constatation et une plainte récurrentes de tous les chercheurs et universitaires français depuis la mise en place, ces quinze dernières années, de politiques de ce type : alors même qu’il s’agissait officiellement de « moderniser » un appareil d’enseignement et de recherche jugé bureaucratique, « sclérosé », voire proto-soviétique (en particulier dans le cas du CNRS), de l’avis de tous la bureaucratie a au contraire considérablement envahi la vie quotidienne de ces professions, par le biais des multiples appels d’offres et procédures d’évaluation, mais également des nouvelles structures administratives qui ont été créées pour organiser le marché de l’excellence scientifique (HCERES, pôles d’excellence, fusion d’universités, IDEX/LABEX/EQUIPEX/IHU, etc). Ceci se manifeste également dans l’emploi public, puisqu’alors même que le recrutement de chercheurs, d’enseignants-chercheurs et de techniciens est en forte baisse, l’emploi administratif et donc le coût de gestion ont littéralement explosé au sein de l’ANR, agence chargée d’organiser l’évaluation des appels d’offre en recherche. De même, dans l’hôpital public, une plainte récurrente des médecins concerne le temps considérable qu’ils doivent désormais passer au « codage », c’est-à-dire à assigner à chaque patient et chaque acte des codes issus d’une nomenclature bureaucratique. Cette bureaucratisation n’est pas un accident, comme je l’indiquais précédemment. Elle a été par ailleurs décrite dans le contexte plus large du néolibéralisme par les sciences sociales (voir par exemple le travail de D. Graeber et de B. Hibou).

Manifestement, cette idéologie prétendument libérale est une idéologie bureaucratique, ce qui n’est déjà pas rien. Deuxièmement, le rôle de l’Etat n’est plus du tout d’assurer les libertés individuelles. En effet, dans un marché classique, d’échange marchand, ce qui est produit est décidé de manière autonome (en théorie du moins) par les acteurs de ce marché, c’est-à-dire en dernière analyse (en théorie encore) par les consommateurs. Il faut donc assurer la liberté individuelle de ces acteurs. Or dans le nouveau management public, ce qui est produit est décidé par l’Etat, spécifiquement par la bureaucratie mise en place par l’Etat pour fixer les objectifs, qui utilise la mise en compétition uniquement comme outil de gestion. Il ne s’agit donc absolument plus d’assurer la liberté individuelle des acteurs, qui doivent fournir ce qui leur est demandé par la bureaucratie. Ceux qui ne le font pas doivent quitter le système (exemple du tenure track). C’est ainsi qu’un des points majeurs de ces réformes, en particulier dans la recherche, est de revenir sur le statut de fonctionnaire, qui assure l’autonomie scientifique et universitaire, de façon à pouvoir soumettre les employés à la bureaucratie locale (direction d’université) ou nationale (ministère). Paradoxalement, c’est au nom du libéralisme que l’on attaque les libertés académiques.

On est donc en présence d’une idéologie qui est fondamentalement bureaucratique, et qui n’entend pas garantir les libertés individuelles. Pour ce qui est du libéralisme politique, on ne peut que constater également qu’il n’y a pas grand-chose de libéral dans la pratique actuelle des institutions politiques (avec par exemple le recours généralisé aux ordonnances pour passer des réformes majeures), dans la répression violente des opposants politiques, dans l’intimidation des journalistes, dans la volonté de censurer les réseaux sociaux, dans la restriction de la liberté d’expression des étudiants et universitaires, ou encore dans le déploiement de la reconnaissance faciale automatique par l’Etat.

Que reste-t-il donc du libéralisme dans cette idéologie ? Peu de choses en effet. C’est la raison pour laquelle les historiens, sociologues et philosophes parlent de néolibéralisme (à ne pas confondre avec l’ultralibéralisme), et c’est également la raison pour laquelle ses partisans refusent typiquement cette étiquette de manière véhémente, quand bien même il s’agit d’une dénomination savante, parce qu’elle indique que l’on a affaire à tout à fait autre chose que du libéralisme. Ce malentendu sur la nature prétendument libérale (au sens classique) de cette idéologie est source de grande confusion. Il explique peut-être l’opposition quasi-systématique d’une grande partie de la population à des réformes pourtant portées par des gouvernements centristes élus, y compris élus par des membres du monde académique qui se considèrent de centre gauche.


  1. L’obscurantisme managérial

Il existe pour les universitaires et chercheurs une raison spécifique de s’opposer à cette idéologie, en lien avec l’éthique intellectuelle qu’ils entendent défendre par leur métier. Il s’agit en effet d’une idéologie qui repose sur une argumentation d’un niveau intellectuel affligeant (suite de poncifs et de préjugés non étayés), des analogies douteuses (le marché, voire le darwinisme), et un refus de toute évaluation empirique (depuis son application, l’hôpital public est en crise grave et la recherche française tombe dans les classements mis en avant par les autorités elles-mêmes). Autrement dit, une idéologie obscurantiste tendant vers le sectaire. Les discours portant cette idéologie font rire toute la communauté académique tellement ils sont caricaturaux de novlangue : tout doit être « excellent », il faut faire « sauter des verrous », favoriser « l’innovation disruptive ». Il faut consulter l’hilarant site de l’Agence Nationale de l’Excellence Scientifique, parodiant l’Agence Nationale de la Recherche.

Il vaut mieux en rire, sans doute, mais ces discours n’en sont pas moins affligeants. L’argumentation que l’on retrouve dans les rapports officiels et les contrats d’objectifs des différentes institutions ne sont malheureusement pas d’un niveau intellectuel plus élevé. Il s’agirait par exemple de s’aligner sur les « standards internationaux » - un mimétisme censé favoriser l’innovation, ce qui est assez croustillant. On ne s’est visiblement pas posé la question de dresser un bilan de ces politiques menées à l’étranger ou en France, qui n’est pourtant pas brillant. Quelle est donc la justification en ce qui concerne l’enseignement supérieur et la recherche ? On peut la paraphraser ainsi : puisque ces politiques ont été implémentées dans les pays anglo-saxons, en particulier les Etats-Unis, et que les Etats-Unis sont leaders dans tous les classements, c’est donc que ces politiques sont efficaces : il faut donc s’empresser de copier ce modèle.

N’importe quel scientifique devrait bondir face à une telle argumentation qui mélange corrélation et causation de la manière la plus grossière qui soit. On aurait pu se dire : tiens, les Etats-Unis étant politiquement hégémoniques, toute la science se fait dans leur langue maternelle, dans des revues toutes anglo-saxonnes, et qui plus est avec des moyens sans commune mesure avec les budgets français. Peut-être que ces facteurs ont une petite influence ? On aurait pu se dire : tiens, peut-être que les grandes universités américaines sont mondialement connues au-delà du monde académique, alors que l’Ecole Polytechnique pas tellement, parce que les Etats-Unis sont culturellement hégémoniques, de sorte que Legally Blonde a été tourné à Harvard et pas à Assas ? Auquel cas il ne serait peut-être pas si pertinent de faire tellement d’efforts à renommer toutes les universités parisiennes en déclinant la marque Sorbonne ? On aurait pu se dire encore : tiens, peut-être que les Etats-Unis ont un excellent vivier scientifique précisément parce que des pays comme la France imposent à tous leurs meilleurs docteurs de passer plusieurs années aux Etats-Unis pour se former parmi les meilleurs, se « faire un réseau », apprendre l’anglais, comme condition pour une éventuelle titularisation dans leur pays d’origine ? Mais, on ne s’est rien dit de tout ça. Ce qui marche, c’est le « marché » et la compétition généralisée. Point.

Sur certains points, il existe des études scientifiques qui vont au-delà des sophismes managériaux. Par exemple, est-il plus efficace de concentrer les ressources sur les « meilleurs » ? Même si l’on adopte les critères bureaucratiques promus par l’idéologie managériale (nombre de publications, etc), la réponse est, selon plusieurs études sur des données différentes : non. Il est plus efficace de diversifier les financements que de les concentrer en créant de grosses structures (Fortin & Curie, 2013 ; Cook et al., 2015 ; Mongeon et al., 2016 ; Wahls, 2018). D’autres études montrent que la sélection sur projet n’est que faiblement prédictive de l’impact scientifique, tel que mesuré par ces mêmes politiques (Fang et al., 2016 ; Scheiner & Bouchie, 2013). Manifestement, les décideurs politiques de l’enseignement supérieur et de la recherche ne sont pas intéressés par l’évaluation empirique de leurs théories. Il est donc approprié de qualifier cette attitude d’obscurantiste. Et on ne peut pas, on ne doit pas, en tant que scientifiques (au sens large), respecter l’obscurantisme, c’est-à-dire le mépris de l’éthique intellectuelle qui fait l’essence de notre métier.

Il est important de noter que ces politiques se présentent volontiers comme « rationnelles » - il ne s’agirait finalement que de dérouler des arguments peut-être déplaisants mais « logiques ». Ce mot, « rationnel », devrait être un signal d’alarme pour tous les intellectuels. Car un intellectuel doit savoir que la logique, la raison, se déploient nécessairement au sein d’un certain modèle du monde. Par conséquent, la vérité d’un raisonnement est conditionnée à la pertinence empirique et théorique de ce modèle. C’est pourquoi l’essence de la science (au sens large) est le débat argumenté, documenté et honnête, c’est-à-dire explicitant les hypothèses, épaulé par les institutions sociales adéquates (comme la revue par les pairs). Passer sous silence cet aspect, et prétendre qu’il existerait une Vérité objective, c’est faire preuve de sectarisme, et en effet d’obscurantisme puisque cela suppose d’ignorer délibérément toute production savante contraire à la doxa.

L’enjeu pour la communauté académique, donc, n’est pas simplement d’aménager à la marge des réformes prétendument démocratiques (augmenter le taux de succès de l’ANR) ou de les « négocier » (on accepte la précarisation en échange de primes), mais de s’opposer à l’obscurantisme qui fonde ces projets, et éventuellement de penser autre chose à la place.


  1. Pensée bureaucratique et idéologies sectaires

Il faut rappeler ici qu’avant la guerre froide, la bureaucratie a volontiers été présentée sur un mode laudatif. Le sociologue Max Weber, par exemple, considérait en se référant à la bureaucratie industrielle qu’il s’agissait là d’un mode particulièrement efficace de production, rationnel. De même la planification soviétique était pensée comme une approche scientifique, rationnelle, de la production (algorithmique, pourrait-on peut-être dire en langage moderne). La bureaucratie instituée par le nouveau management public n’échappe pas à ce type de discours. Je reviendrai plus tard sur les raisons fondamentales pour laquelle l’approche bureaucratique ne peut pas fonctionner pour des activités telles que la science (ou la santé). Un point intéressant relevé par l’historien Johann Chapoutot est que les politiques similaires au nouveau management public menées par le IIIe Reich étaient, contrairement à l’image d’efficacité que l’on en a à cause de la propagande nazie, en réalité tout à fait inefficaces, chaotiques.

J’ai mentionné rapidement les similarités idéologiques, naturellement sur certains aspects uniquement, avec la politique nazie et avec la bureaucratie soviétique. J’ai également mentionné en passant l’inquiétante insistance des dirigeants politiques à instaurer une « culture du résultat », c’est-à-dire qu’il s’agit non seulement d’instaurer de nouvelles structures étatiques, mais également de transformer les individus pour qu’ils embrassent la nouvelle orientation politique. Ce n’est pas sans rappeler la « révolution culturelle » maoïste, visant à éradiquer les valeurs culturelles traditionnelles (naturellement, avec des moyens violents que je ne prétends pas comparer à l’action publique actuelle).

Pour qu’il n’y ait pas de malentendu, il ne s’agit pas de dire que la théorie du nouveau management public est une idéologie nazie, ou stalinienne, ou maoïste (celles-ci étant de toutes façons incompatibles). D’ailleurs, il semble plausible que M. Petit, lorsqu’il considère maladroitement que la loi doit être inégalitaire et « darwinienne », ignore qu’il formule là la doctrine du darwinisme social, un fondement essentiel du néolibéralisme comme l’a montré la philosophe Barbara Stiegler, mais également un des fondements idéologiques du nazisme. Il n’est pas question ici de mettre sur le même plan les horreurs commises au nom de ces courants de pensée avec la destruction des constructions sociales commises au nom du nouveau management public. Néanmoins, sur un plan intellectuel, les points communs avec ces idéologies sectaires doivent nous interroger. Il existe bien un recouvrement idéologique partiel dont on peut tout à fait comprendre les aspects problématiques. Par exemple, la promotion de la compétition généralisée des individus dans un but supérieur, les individus eux-mêmes n’ayant de valeur que dans la mesure où ils contribuent à la puissance de la Nation (ainsi la référence constante à la compétition internationale, aux classements internationaux, aux « stars » qu’il faudrait attirer) ; position qui rend inopérant tout argument de type social (par exemple la précarisation extrême du métier de chercheur), mais aussi scientifique (c’est-à-dire que le but premier de la science est la recherche de la vérité et non la production). Il ne s’agit donc pas de nazisme, de maoïsme ou stalinisme, mais il reviendra néanmoins aux défenseurs de ce projet politique d’argumenter que « tout n’est pas à jeter » dans ces grandes idéologies sectaires. Que toute activité sociale doit contribuer exclusivement à la production de la Nation. Que les opinions et attitudes des gens doivent être transformées pour le bien de la Nation. Que la bureaucratie, c’est efficace et rationnel.

En résumé, il ne faut pas passer à côté des enjeux de la transformation en cours de l’enseignement supérieur et de la recherche. Il ne s’agit pas de discuter du taux optimal de succès à l’ANR mais de contester la pertinence du projet comme mode essentiel d’organisation de la recherche. Il ne s’agit pas de discuter des métriques les plus pertinentes pour évaluer les personnes, mais de contester l’organisation profondément bureaucratique que cette « culture de l’évaluation » suppose, et de réaffirmer l’autonomie académique nécessaire à l’exercice de la recherche. Il ne s’agit pas de savoir comment au mieux renforcer l’« attractivité internationale » du métier, mais de contester l’idée d’un progrès scientifique fondé essentiellement sur la compétition et la sélection - plutôt que, par exemple, sur la coopération, l’éducation et le partage. Il ne s’agit pas, enfin, de se demander comment favoriser au mieux l’« innovation de rupture », mais de contester l’idée selon laquelle l’activité scientifique doit être subordonnée à la production marchande.

Il s’agit donc en premier lieu de dénoncer l’obscurantisme et le sectarisme qui fondent ces réformes, et non de les négocier en acceptant leurs présupposés. En second lieu, il s’agira de penser les questions centrales de science et d’université dans un cadre intellectuel libéré du sectarisme managérial.

Toutes ces remarques sont finalement assez peu spécifiques de l’enseignement supérieur et de la recherche. Par la suite, je tenterai de rentrer dans une discussion plus spécifique, en particulier sur la nécessaire autonomie de la science, à mettre en regard avec la culture du projet.

Deuxième partie: Préjugés psychologiques de l’idéologie managériale

A propos de la tribune NoFakeScience

Récemment, une tribune a été publiée par le collectif NoFakeScience visant à alerter les médias sur leur traitement de l’information scientifique, en particulier de présenter les consensus scientifiques en tant que tels et non comme de simples opinions parmi d’autres. Intention louable, et sujet en effet très important. Pourtant, cette tribune a été vertement critiquée à la fois par des scientifiques et des journalistes scientifiques. Pourquoi ?

Certains ont cru y voir la main de lobbys industriels, tant le choix des « consensus scientifiques » est (en majeure partie) aligné avec les intérêts de ces groupes. Je ne connais pas personnellement les signataires, mais au vu de la liste il me semble plausible que les signataires soient sincères. Les journalistes flairent souvent le conflit d’intérêt, déformation professionnelle peut-être. Mais l’intérêt personnel n’est pas la seule (ni même la principale) motivation humaine, ni la seule source de biais cognitif. Il est à mon sens plus pertinent en l’occurrence d’y voir des biais philosophiques (j’y reviendrai). Quoi qu’il en soit, je veux ici commenter le texte lui-même en essayant d’éviter le procès d’intention.

Le choix des « consensus »

L’intention affichée, malgré quelques naïvetés philosophiques sur la « méthode scientifique », est louable et résumée dans cette phrase : « l’état de nos connaissances ne saurait être un supermarché dans lequel on pourrait ne choisir que ce qui nous convient et laisser en rayon ce qui contredit nos opinions. ». Malheureusement, c’est précisément ce que l’on peut reprocher à la liste qui suit de 6 « consensus scientifiques », que je reproduis ici verbatim :

  1. La balance bénéfice/risque des principaux vaccins est sans appel en faveur de la vaccination.
  2. Il n’existe aucune preuve de l’efficacité propre des produits homéopathiques.
  3. Aux expositions professionnelles et alimentaires courantes, les différentes instances chargées d’évaluer le risque lié à l’usage de glyphosate considèrent comme improbable qu’il présente un risque cancérigène pour l’homme.
  4. Le fait qu’un organisme soit génétiquement modifié (OGM) ne présente pas en soi de risque pour la santé.
  5. Le changement climatique est réel et d’origine principalement humaine.
  6. L’énergie nucléaire est une technologie à faible émission de CO2 et peut contribuer à la lutte contre le changement climatique.

A supposer qu’il s’agisse bien de consensus scientifiques (j’y reviens ci-dessous), il y a ici indéniablement un choix qui est fait dans cette présentation. Certains faits bien établis ont été « laissés en rayon », comme par exemple : les pesticides posent un très grave problème pour la biodiversité et de manière générale l’écosystème dont nous dépendons ; le nucléaire pose de sérieux problèmes de dissémination, accidents, déchets radioactifs. Ces remarques sont-elles « hors sujet », comme j’ai pu le lire dans les réactions du collectif ? Non, si l’on revient à la motivation même de la tribune, à savoir ne pas choisir uniquement ce qui nous convient. Bien sûr, il fallait bien faire un choix, ne serait-ce que pour la lisibilité. C’est là que j’en viens au biais philosophique. Ce choix parmi les faits établis est-il aléatoire ? Ce qui saute aux yeux, et qui n’a pas manqué d’être remarqué par les détracteurs de cette tribune, c’est que ces faits (sauf éventuellement le point (5)) vont globalement dans le sens de la glorification du progrès technique. Si l’on avait choisi à la place : les pesticides menacent les écosystèmes naturels ; les OGMs introduisent une relation de dépendance entre les agriculteurs et les multinationales ; les technologies nucléaires actuelles produisent des accidents catastrophiques ; nul doute que le message de la tribune aurait été modifié. Il y a donc une position philosophique qui se dégage nettement dans ce choix, à savoir une confiance a priori dans le progrès technique, que l’on retrouve par exemple chez des intellectuels comme Steven Pinker – dont le moins que l’on puisse dire est qu’il ne fait pas consensus.

Je vais maintenant commenter plus en détails ces points. Sur ces 6 points, j’estime que 3 points peuvent être légitimement qualifiés de consensus scientifiques (1, 2 et 5), mais que les 3 autres prétentions de consensus sont au mieux fallacieuses, au pire fausses.


Je commence par la question qui me semble la plus simple, à savoir l’efficacité de l’homéopathie (point 2), pour la contraster avec les autres. Contrairement aux autres points, il s’agit d’un problème scientifiquement assez simple, et qui à mon sens a été mal présenté. On entend souvent « l’effet de l’homéopathie est placebo ». C’est une formulation qui porte à confusion (il faut reconnaitre que la littérature scientifique est elle-même un peu confuse sur ce point). Tester l’efficacité propre de l’homéopathie est relativement simple. Lors de la consultation, on substitue aux granules homéopathiques des granules de sucre d’aspect identique. Cette substitution est faite de manière aléatoire dans la moitié des patients, à leur insu mais également à l’insu de l’homéopathe (ce qu’on appelle « en double aveugle »). Lorsque l’on suit leurs symptômes, on constate qu’il n’y a pas de différence entre les deux groupes. Le traitement homéopathique n’a donc pas d’effet propre. Pire que cela, ce serait un effet toxique. Comme le traitement de substitution s’appelle techniquement un « placebo » (terme un peu abusif), on rapporte que l’homéopathie n’est pas mieux qu’un placebo. Mais dans l’expérience que je viens de décrire, à aucun moment on a montré que l’homéopathie (ou la granule de sucre) a un « effet placebo » (au sens où la croyance en l’efficacité a un effet thérapeutique), ou un quelconque effet. On a simplement montré que l’efficacité ne pourrait pas être pire sans être toxique. Ce malentendu, me semble-t-il, est à l’origine de nombreuses réactions sur le mode : même s’il n’y a pas de substance active, pourquoi ne pas inciter les gens qui y croient à prendre de l’homéopathie, puisque l’effet placebo ça marche ?

Etant donnée la croyance répandue et fausse que l’homéopathie est efficace, il semblerait utile en effet comme le demande la tribune de mieux communiquer l’information scientifique. Cependant, il ne me semble pas en l’occurrence que les médias aient prétendu le contraire de ce que la tribune répète, à savoir qu’il n’y a « aucune preuve de l’efficacité propre ». Le problème, donc, ne semble pas tant être dans la communication de la parole scientifique, mais dans le crédit que les gens lui accordent (y compris les hommes politiques, visiblement), ce qui n’est pas exactement le même débat. La formulation employée dans la tribune ne clarifie pas tellement le sujet. Ce n’est pas exactement qu’il n’y a « aucune preuve ». Plutôt, l’efficacité a été testée de multiples fois, par des méthodes qui auraient dû révéler un effet de l’homéopathie s’il existait, ce qui n’a pas été le cas. Cela signifie que s’il existe un effet de l’homéopathie, il doit être extrêmement faible. Mettre cela sur le même plan que, par exemple, le glyphosate (voir ci-dessous), n’aide pas à clarifier la situation.

Je passe rapidement sur les vaccins, cas légèrement plus complexe mais du même ordre. Je note simplement qu’encore une fois, il n’est pas évident que le diagnostic porté par la tribune soit le bon, à savoir que le problème est que le consensus scientifique n’est pas présenté comme tel par les médias. Il me semble au contraire que les anti-vaccins sont tout à fait au courant qu’il y a un consensus, simplement ils pensent que les résultats des études sont contaminés par des conflits intérêts. S’il s’agit bien de cela, alors réaffirmer l’autorité de l’expert n’est pas la solution, c’est peut-être même contre-productif. Il s’agirait plutôt par exemple d’expliquer et/ou de renforcer l’indépendance des scientifiques menant ces études.

Le nucléaire

J’en viens maintenant aux points plus problématiques. Je commence par le nucléaire, qui est le plus simple à expliquer. La tribune rappelle justement que le nucléaire produit peu de CO2. C’est en effet un consensus scientifique. Pourquoi choisir de mettre en avant celui-ci ? Sans doute la tribune fait-elle implicitement référence aux sondages montrant qu’une partie importante de la population croit le contraire, ce qui est en effet inquiétant. Mais est-ce le fait des médias ? A ma connaissance, ce n’est pas le cas. Le Point rapporte un sondage récent en ces termes : « Selon un sondage BVA, une large majorité de Français pense que le nucléaire contribue à l'émission de gaz à effet de serre. Sa part est pourtant minime ». Au passage, le journal a déformé les résultats du sondage, comme expliqué ici. En lisant ce sondage, on apprend (p6) que les deux principaux reproches faits au nucléaire sont, non la production de CO2, mais la production de déchets et le risque d’accident. Ces deux autres faits consensuels ne sont cependant pas repris par le journal. Pourquoi alors se plaindre spécifiquement que les médias omettraient d’insister sur la faible empreinte carbone du nucléaire ?

J’en viens à la deuxième partie du point (6), le nucléaire « peut contribuer à la lutte contre le changement climatique ». On n’est plus ici du tout dans le consensus scientifique, mais dans le choix politique, qui doit faire intervenir toute la complexité du sujet, qui a été justement « laissée en rayon ». Si l’on considère que le risque d’accident nucléaire, ou de dissémination, est inacceptable, alors non le nucléaire ne peut pas contribuer à la lutte contre le changement climatique. Oui mais est-ce que le nucléaire « peut », en tant qu’option envisageable à pondérer avec ses risques, contribuer à cette lutte ? Il ne me semble pas que ce soit une question évidente non plus, pour lequel il y aurait un consensus scientifique. L’uranium est une ressource non renouvelable. Les estimations optimistes  (agence internationale de l’énergie atomique) considèrent que les réserves couvrent 100 ans de consommation actuelle. Une estimation plus récente (voir le preprint ici), moins optimiste, considère que les réserves ne peuvent pas en réalité être exploitées en totalité et que des problèmes d’approvisionnement commenceront à se poser dès 10 à 20 ans. Je ne suis pas en mesure d’arbitrer entre ces estimations (qui ne me semblent d’ailleurs pas forcément contradictoires), mais on peut simplement faire remarquer que si l’enjeu est de remplacer les énergies fossiles, par exemple en basculant l’automobile sur le réseau électrique, alors il n’est pas du tout évident que le nucléaire puisse y faire face. Les 10 à 100 ans de réserves d’uranium correspondent à la consommation actuelle, qui représente environ 5% de l’énergie consommée, et donc il n’est pas évident que cette part puisse réellement devenir plus significative. Il y a d’autres technologies nucléaires qui pourraient permettre de résoudre ce problème d’approvisionnement, mais pour cela il faudrait les mettre au point et les implémenter, ce qui prend du temps. Il faut aussi, pour être juste, comparer le nucléaire aux alternatives, comme par exemple le photovoltaïque, qui pose aussi un problème de ressources rares. Le nucléaire peut-il contribuer à la lutte contre le changement climatique ? Franchement, je ne sais pas : c’est un sujet complexe et à ma connaissance il n’y a pas de consensus. Affirmer que c’est un consensus scientifique est donc au mieux fallacieux (le consensus c’est qu’on peut y réfléchir, ce qui ne veut rien dire), au pire faux.

Le glyphosate

 La tribune propose également deux « consensus scientifiques » sur des sujets complexes et multifactoriels, que sont les pesticides et les OGMs. Je ne suis expert ni du glyphosate, ni des OGMs, mais cela ne semble pas non plus être le cas de la quasi-totalité des signataires. Personnellement, j’aurais un peu plus d’humilité sur ces sujets. Je fais donc quelques remarques en tant que scientifique non expert mais néanmoins capable de saisir quelques subtilités méthodologiques.

Concernant le glyphosate, la formulation de la tribune est extrêmement fallacieuse : « Aux expositions professionnelles et alimentaires courantes », le glyphosate ne présente probablement pas de risque cancérigène pour l’homme. Par cette formulation, on pourrait croire qu’on parle ici d’études épidémiologiques sur des expositions réelles. Or ce n’est pas le cas, l’une des raisons étant que c’est méthodologiquement difficile, étant donné que tout le monde est exposé à des pesticides divers sans en connaître la quantité ni la formulation. Ce à quoi fait référence la tribune, ce sont des tests en laboratoire de toxicité de la molécule glyphosate, et non des formulations effectivement commercialisées, aux doses correspondant aux doses présumées dans des « expositions professionnelles et alimentaires courantes ». Cette nuance est bien rapportée dans le document de l’autorité européenne de sécurité des aliments cité par la tribune, dans une section justement intitulée « Pourquoi certains scientifiques disent-ils que le glyphosate est cancérogène? ». Peut-on, au vu de ce titre, parler de consensus scientifique ? On y apprend notamment que « certaines formulations contenant notamment du glyphosate présentent une toxicité plus élevée que celle présentée par l'ingrédient actif, probablement en raison de la présence de coformulants » - soulignons que cela ne veut pas dire nécessairement que c’est le coformulant qui est toxique (interprétation réductionniste), mais possiblement qu’il amplifie ou agit en combinaison avec la substance active. Or si l’on s’intéresse effectivement aux « expositions professionnelles et alimentaires courantes » comme le fait la tribune, c’est bien aux formulations commerciales qu’il faut s’intéresser. Le rapport récent de l’agence française ANSES conclut de même : « le niveau de preuve de la génotoxicité du glyphosate chez l’animal peut être considéré comme relativement limité, en revanche des éléments complémentaires devront être fournis en ce qui concerne les préparations contenant du glyphosate », et elle propose que « la classification en catégorie 2 [Substances suspectées d'être cancérogènes pour l'homme] peut se discuter ». Ce n’est certainement pas ce que laisse penser la tribune, par l’usage du mot « improbable ».

Il est intéressant de contraster ce point et celui sur l’homéopathie. Dans ce dernier cas, il n’y a aucune preuve de l’efficacité de l’homéopathie. Concernant le glyphosate, on n’a pas les éléments pour conclure de manière claire à sa toxicité. Mais on parle ici de deux affirmations tout à fait différentes. Dans le cas de l’homéopathie, on a effectué les tests nécessaires, ceux-ci auraient dû démontrer l’effet de l’homéopathie s’il existait, or aucun effet n’a été mesuré. Dans le cas des pesticides, on est face à une question qui est méthodologiquement beaucoup plus difficile. Ce n’est pas que l’effet des pesticides est tellement faible qu’il est indétectable. Comme le rappelle une expertise récente de l’INSERM, « Les experts rappellent que «ne pas être en mesure de conclure ne veut pas dire obligatoirement qu’il n’y a pas de risque». Ce n’est pas ce que j’appellerai un consensus scientifique sur l’absence de risque.

Sans doute, des résultats d’études en laboratoire du glyphosate (notamment sur des animaux, avec des doses non comparables) ont été mal relayées par les médias. Je suppose que c’est ce qui a motivé les auteurs de cette tribune. Mais que la preuve soit fausse n’implique pas que le théorème est faux. Sur la toxicité des pesticides tels qu’ils sont utilisés commercialement, il est abusif de prétendre qu’il y a un consensus scientifique net, et cela est admis par les instances règlementaires comme l’EFSA (« Pourquoi certains scientifiques disent-ils que le glyphosate est cancérogène ? »).

On aurait pu en revanche parler d’autres aspects plus consensuels comme le risque pour la biodiversité, mais cet aspect a été « laissé en rayon ».

Les OGMs

Je termine sur les OGMs. On apprend dans cette tribune qu’un OGM « ne présente pas en soi de risque pour la santé ». Voici une assertion assez étrange. Un OGM est un organisme dont on a modifié le génome, et qui donc n’existe pas à l’état naturel. Les conséquences de cette modification sont donc peut-être anodines, ou peut-être pas. Il n’est pas évident a priori d’anticiper les conséquences pour l’organisme, sa descendance éventuelle et davantage encore pour l’écosystème. Qu’est-ce que les auteurs ont-ils bien voulu dire par « ne présente pas en soi de risque » ? La position par défaut devrait au contraire être la méfiance, et non pas : a priori pas de problème.

Peut-être – je spécule – les auteurs pensaient-ils : il y a bien des mutations naturelles du génome chez les animaux, d’élevage par exemple, que l’on sélectionne, et pourtant on ne s’inquiète pas des dangers potentiels de ces mutations. Changer le génome artificiellement ou spontanément, c’est pareil. Non, ce n’est pas pareil. Les mutations naturelles sont généralement (je simplifie) introduites graduellement, progressivement sélectionnées, n’affectent pas tous les gènes de manière égale et indépendante. Insérer le gène d’une méduse fluorescente dans un lapin, ça ne se produit pas spontanément. Cela ne veut pas dire pour autant que le lapin sera toxique, mais enfin on ne peut pas dire que ce soit comparable à sélectionner les vaches qui donnent le plus de lait.

On aurait pu dire, sans doute, qu’à l’heure actuelle on n’a pas détecté d’effet toxique des OGMs alimentaires mis sur le marché. Mais l’idée qu’un OGM « ne présente pas en soi de risque pour la santé » n’est pas un consensus scientifique dans la mesure où cette phrase ne veut rien dire. Encore une fois, il y a un choix éditorial qui a été fait ici, d’un « consensus scientifique » qui n’en est pas un, et ce choix n’est pas neutre. On aurait aussi bien pu dire : un OGM n’est pas en soi inoffensif, ce qui aurait donné une toute autre coloration à la tribune. Ici, le choix va clairement dans le sens de « il faut faire confiance au progrès technique ».

Le grand public n’est pas confronté à des OGMs « en soi » (qu’est-ce que c’est ?), mais à des OGMs produits dans un certain contexte socio-économique, à savoir par des multinationales, ce qui contribue (non sans raison) à la méfiance. On ne peut pas balayer d’un revers de main la question du conflit d’intérêt lorsque les tests de toxicité sont effectués ou financés par les principaux intéressés. Par ailleurs, dès lors que l’on prend en compte le contexte socioéconomique et politique dans lequel les innovations techniques se déploient, on doit nécessairement envisager ces innovations au-delà de leur aspect purement technique. Les OGMs posent par exemple le problème de la brevetabilité du vivant.

La tribune reconnait presque ce point : « la science n’a pas réponse à tout ». Malheureusement, il semble que ce que les auteurs voulaient dire, c’est : « la science n’a pas encore réponse à tout », puisqu’ils argument ainsi : « Il existe des questions qui n’ont pas conduit à un consensus clair, voire qui restent sans réponse. ». Surtout, il existe des questions qui ne sont tout simplement pas de nature scientifique – ou alors scientifiques au sens très large, incluant l’ensemble des sciences sociales, et encore, il faudrait inclure la philosophie.

Quelques remarques finales

Comme je l’ai écrit dans l’introduction, je pense que les auteurs de cette tribune sont sincères (même si elle ne va pas manquer d’être récupérée). Je comprends leur exaspération et leur inquiétude vis-à-vis du traitement de l’information scientifique par les médias (j’y reviens ci-dessous). Néanmoins, ils commettent à mon sens dans cette tribune certaines erreurs fondamentales, qui semblent relever d’un biais philosophique en faveur des vertus du « progrès » (comme en son temps Claude Allègre, qui considérait toute critique du progrès technique comme obscurantiste). La première erreur, que j’ai essayé de commenter en détails, est que certaines questions très complexes et multifactorielles sont présentées abusivement comme consensuelles, à savoir les OGMs, le nucléaire et les pesticides. Je ne suis personnellement pas opposé à ces trois choses par principe, néanmoins il me semble qu’elles posent de sérieux problèmes qui doivent être débattus démocratiquement, et non par simple arbitrage technique. On me répondra peut-être que pour cela, il est nécessaire de disposer d’une information scientifique fiable. Absolument, et c’est pourquoi sélectionner dans cette information uniquement les bienfaits ou absences de risque et les présenter abusivement comme des consensus scientifiques ne fait qu’introduire de la confusion.

Cela jette malheureusement le doute sur les autres points (homéopathie, vaccins, climat) qui sont présentés sur le même plan. J’en viens donc à la seconde erreur, erreur stratégique ou peut-être erreur de diagnostic. Posons-nous la question : pourquoi les gens croient-ils des choses fausses ? Est-ce parce que les médias relaient ces choses fausses ? Il se trouve que beaucoup de gens (en gros, la moitié) ne font pas confiance aux média. Dans ce contexte, donner aux médias la responsabilité d’apporter la bonne parole (car il est en effet question dans cette tribune d’autorité scientifique plus que de méthode scientifique) semble discutable. On apprend notamment que la majorité des gens pensent que les journalistes ne sont pas indépendants. Cela semble en effet assez factuel : la quasi-totalité des médias appartiennent à de très grands groupes ou à de puissants hommes d’affaires, et sont financés par la publicité. La confiance en la parole politique est au plus bas. Cette méfiance n’est pas illégitime non plus. Il y a donc un contexte de méfiance généralisée de la parole institutionnelle. Dans ce contexte, il n’est pas clair que relayer plus explicitement la parole officielle scientifique va porter les fruits espérés.

Pourquoi les gens croient-ils dans des théories conspirationnistes, voire des « fake news » ? Les réponses habituellement avancées sont généralement sur le mode de la condescendance (les gens sont mal éduqués), sur fond de réseaux sociaux. Il y a pourtant une possibilité évidente qu’il faudrait prendre au sérieux : parce que les conspirations, ça existe et tout le monde le sait. Oui, une grande entreprise d’automobile peut délibérément truquer les tests règlementaires pour pouvoir écouler ses voitures polluantes. Oui, une grande entreprise agroalimentaire peut ficher des journalistes et hommes politiques considérés comme néfastes à ses intérêts. La méfiance n’est pas illégitime.

Il est certain que présenter comme consensus scientifiques des choses qui pour moitié ne le sont pas ne va pas aider à rétablir la confiance. D’ailleurs, faut-il rétablir la confiance ou plutôt créer les conditions de la confiance ? Pour ce qui est des scientifiques, le statut de fonctionnaire contribue à garantir l’indépendance par rapport au pouvoir, et il est inquiétant que celui-ci soit remis en cause ; de même l’intensification de la mise en compétition des chercheurs sur des appels d’offre est inquiétante. Pour ce qui est des journalistes, premièrement il faudrait qu’il y en ait. Le journalisme traverse une crise existentielle, et dans ces conditions il semble illusoire de demander aux journalistes (lesquels ?) de mieux faire leur travail. Dans la plupart des médias, le traitement de la science consiste à rapporter des communiqués de presse d’universités ou d’organismes de recherche (quand ce n’est pas simplement relayer d’autres médias sans vérifier), or ceux-ci portent sur des études ponctuelles et non un savoir consolidé (précisément ce qui manque à cette tribune). Ces communiqués, de plus en plus, font dans le sensationnalisme sous la pression politique, qui tend à transformer les universités en marques. Pour améliorer cela du côté des médias, il faudrait un réel travail de journalisme, ce qui suppose des journalistes, notamment scientifiques, pas si évident dans le contexte actuel (quelques médias, rares, le font). Deuxièmement il faudrait idéalement renforcer l’indépendance des journalistes, ce qui n’est pas évident non plus dans le modèle économique actuel. Le problème de l’information scientifique du grand public est un problème lui aussi complexe qui ne peut s’envisager en faisant abstraction du système économique et politique dans lequel la production et la diffusion des connaissances s’inscrivent. C'est, plus largement, un problème de démocratie. C’est peut-être à cela qu’il faut réfléchir.

Une petite mise au point concernant le rôle de l’éducation dans les facultés cognitives

Quelle est la part de l’inné et de l’acquis dans l’intelligence, ou plus généralement dans les facultés cognitives ? C’est une question très controversée, en particulier parce qu’elle a une grande portée politique : l’éducation est-elle importante, ou bien tout est-il prédéterminé par nos gènes ? Il est évident que dans le second cas, investir dans l’éducation semble vain ; il devrait plutôt s’agir de faire de la sélection et de l’orientation que de l’éducation.

Il existe une littérature scientifique abondante sur ce sujet, malheureusement ses résultats sont souvent mal interprétés et déformés par des idéologues. Prenons l’exemple d’une récente tribune de l’essayiste Laurent Alexandre dans l’Express :

« 64% de nos différences de capacité de lecture sont génétiques ; l’école et la famille n’ont malheureusement qu’un rôle marginal face à nos chromosomes ».

Je vais supposer que la première assertion est correcte et bien établie scientifiquement. La conclusion est non seulement fausse, mais absurde. Revenons quelques siècles en arrière. Génétiquement, la population était sensiblement la même qu’aujourd’hui. Mais peu de gens apprenaient à lire, donc peu de gens savaient lire. Par conséquent, oui, l’éducation et la famille ont un rôle déterminant dans les capacités de lecture. Par ailleurs, si l’on avait fait la même étude sur la population de l’époque, on aurait trouvé non pas 64% mais une proportion bien plus faible de déterminisme génétique, puisque les capacités de lecture étaient en premier lieu déterminées par la possibilité d’apprendre à lire. Inversement, si l’éducation était la même pour toute, par exemple si on avait institué une école publique pour tous avec des programmes nationaux strictement appliqués de manière uniforme, eh bien on trouverait que très peu de différences de quoi que ce soit sont expliquées par l’éducation, puisque ce ne serait pas un facteur variable.

Une assertion du type « 64% des différences de capacité de lecture sont génétiques » est une mesure contextuelle, qui reflète en grande partie la variabilité de chacun des facteurs. En aucun cas elle n’indique un rôle causal faible pour l’éducation ou l’environnement familial. Elle peut tout aussi bien indiquer une certaine homogénéité de l’éducation reçue. Tout ce qu’elle indique, tout ce qu’indique cette littérature en général, c’est que les facultés cognitives sont influencées par des facteurs à la fois génétiques et environnementaux.

Etant donné que l’on ne sait pas lire spontanément mais uniquement après l’avoir appris, il faut une certaine dose d’aveuglement idéologique pour prétendre que l’école y joue un « rôle marginal ». Certes, il faut aussi avoir un cerveau pour pouvoir lire, d’où les facteurs génétiques. Par exemple, un ver de terre ne sait pas lire. Rien n’indique cependant que ces « 64% » de variation d’origine génétique concernent le cerveau. Il faut aussi des yeux pour pouvoir lire, par exemple. Des difficultés de lecture liés à un problème ophtalmologique d’origine génétique seront comptées dans ce total. De même, si (expérience de pensée) l’éducation des enfants étaient biaisée en fonction de facteurs physiques d’origine génétique, alors ce biais apparaîtrait également comme facteur génétique. Ce n’est sans doute pas ce que l’on veut dire par « facteur génétique des capacités de lecture », mais c’est quand même ce qui est mesuré.

La question qui a un intérêt politique, ce n’est pas : quelle part de la variabilité des capacités de lecture dans un contexte éducatif et socioculturel donné peut être expliqué par des variations génétiques (neurogénétiques ou non, purement biologiques ou conditionnés à des facteurs socioculturels) mais plutôt : dans quelle mesure améliorer l’éducation peut-il améliorer les capacités de lecture ? Pour répondre, on peut faire appel à l’histoire plutôt qu’à la génétique, et la conclusion est sans appel : historiquement, plus de gens ont su lire lorsqu’on leur a enseigné la lecture.

En résumé, oui l’éducation a un rôle majeur dans les capacités cognitives comme la lecture, et la science ne dit pas le contraire. Evidemment.

Revues prédatrices : quel est le problème ?

Un récent article du Monde alerte sur un phénomène qui prend de l’ampleur dans l’édition scientifique : les revues prédatrices (voir aussi l’éditorial). Il s’agit d’éditeurs commerciaux qui publient des articles scientifiques en ligne, contre rémunération, sans aucune éthique scientifique, en particulier en acceptant tous les articles sans qu’ils soient revus par des pairs. De manière similaire, les fausses conférences se multiplient ; des entreprises organisent des conférences scientifiques dans un but purement commercial, sans se soucier de la qualité scientifique.

En réaction, certaines institutions commencent à monter des « listes blanches » de journaux à éviter. C’est compréhensible, puisque le phénomène a un coût important. Mais la réponse néglige le problème fondamental. Il faut se rendre à l’évidence : l’éthique commerciale (recherche du profit) n’est pas compatible avec l’éthique scientifique (recherche de la vérité). Les entreprises dont on parle ne sont pas illégales, à ma connaissance. Elles organisent des conférences qui sont réelles ; elles publient des journaux qui sont réels. Simplement, elles ne se soucient pas de la qualité scientifique, mais de leur profit. On considère cela comme immoral ; mais une entreprise commerciale n’a pas de dimension morale, il s’agit simplement d’une organisation dont le but est de générer du profit. On ne peut s’attendre à ce que les intérêts commerciaux correspondent comme par magie exactement aux intérêts scientifiques.

  1. Le problème de l’édition commerciale

Ceci est vrai aux deux extrémités du spectre de la publication académique : pour les journaux prédateurs comme pour les journaux prestigieux. L’article parle de « fausse science » ; mais la plupart des cas de fraude scientifique ont été révélés dans des journaux prestigieux, pas dans des journaux prédateurs – qui de toutes façons ne sont pas lus par la communauté scientifique (voir par exemple Brembs (2018) pour le lien entre qualité méthodologique et prestige du journal). Pour les journaux commerciaux prestigieux, la stratégie commerciale des éditeurs est non pas de maximiser le nombre d’articles publiés, mais de maximiser le prestige perçu de ces journaux, qui servent ensuite d’appâts pour vendre les collections de journaux de l’éditeur. Autrement dit, c’est une stratégie de marque. Cela passe notamment par une sélection drastique des articles soumis, opérée par des éditeurs professionnels, c’est-à-dire pas par des scientifiques professionnels, sur la base de l’importance perçue des résultats, poussant ainsi une génération de scientifiques à gonfler les prétentions de leurs articles. Cela passe par la promotion auprès des institutions publiques de métriques douteuses comme le facteur d’impact, et plus généralement la promotion d’une mythologie de la publication prestigieuse, à savoir l’idée fausse et dangereuse qu’un article doit être jugé par le prestige du journal dans lequel il est publié, plutôt que par sa valeur scientifique intrinsèque – qui elle est évaluée par la communauté scientifique, pas par un éditeur commercial, ni même par deux scientifiques anonymes. En proposant d’éditer des listes de mauvais journaux, on ne résout pas le problème car l’on adhère implicitement à cette logique perverse.

Il suffit de regarder les marges dégagées par les grandes multinationales de l’édition scientifique pour comprendre que le modèle commercial n’est pas adapté. Pour Elsevier par exemple, les marges sont de l’ordre de 40%. La simple lecture de ce chiffre devrait nous convaincre immédiatement que l’édition scientifique devrait être gérée par des institutions publiques, du moins non commerciales (par exemple des sociétés savantes, comme c’est le cas d’un certain nombre de journaux). Quel est la justification pour faire appel à un opérateur commercial pour gérer un service public, ou n’importe quel service ? La motivation est que la compétition permet de diminuer les coûts et d’améliorer la qualité. Or si les marges sont de 40%, c’est que visiblement la compétition n’opère pas. Pourquoi ? Simplement parce que lorsqu’un scientifique soumet un article, il ne choisit pas le journal en fonction du prix ni même du service rendu (qui est en réalité essentiellement rendu par des scientifiques bénévoles), mais en fonction de la visibilité et du prestige du journal. Il n’y a donc pas de compétition sur les prix. Le pire qui pourrait arriver pour un éditeur commercial est que les articles scientifiques soient jugés à leur valeur intrinsèque plutôt que par le journal dans lequel ils sont publiés, parce qu’alors ce modèle commercial unique s’effondrerait et les journaux seraient en compétition sur les prix et les services qu’ils doivent fournir, comme n’importe quelle autre entreprise commerciale. C’est le pire qui puisse arriver aux éditeurs commerciaux, et le mieux qui puisse arriver à la communauté scientifique. Voilà pourquoi les intérêts commerciaux et scientifiques sont divergents.

Quoi qu’il en soit, il faut se rendre à l’évidence : des marges aussi énormes signifient que le modèle commercial est inefficace. Il faut donc cesser immédiatement de faire appel à des journaux commerciaux. Ce n’est pas très difficile : les institutions publiques sont tout à fait capables de gérer des journaux scientifiques ; il en existe et depuis longtemps. Un exemple récent est eLife, un des journaux les plus innovants actuellement en biologie. Cela ne devrait pas être très étonnant : le cœur de l’activité des journaux, à savoir la relecture des articles, est déjà faite par des scientifiques, y compris chez les éditeurs commerciaux qui font appel à leurs services gratuitement. Cela ne veut pas dire que l’on ne peut pas faire appel à des entreprises privées pour fournir des services, par exemple héberger des serveurs, gérer les sites web, fournir de l’infrastructure. Mais les journaux ne doivent plus appartenir à des sociétés commerciales, dont l’intérêt est de gérer ces journaux comme des marques. L’éthique scientifique n’est pas compatible avec l’éthique commerciale.

Comment faire ? En réalité c'est assez évident. Il s’agit pour les pouvoirs publics d’annuler la totalité des abonnements aux éditeurs commerciaux et de cesser de payer des droits de publication à ces éditeurs. De nos jours, il n’est pas difficile d’avoir accès à la littérature scientifique sans passer par les journaux (par les prépublications ou ‘preprints’ ou simplement en écrivant aux auteurs qui sont généralement ravis que l’on s’intéresse à leurs travaux). L’argent économisé peut être réinvesti en partie dans l’édition scientifique non commerciale.

  1. Le mythe de la revue par les pairs

Je veux maintenant en venir à une question d’épistémologie plus subtile mais fondamentale. Quel est au fond le problème des revues prédatrices ? Clairement, il y a le gaspillage d’argent public. Mais l’article du Monde pointe également des problèmes scientifiques, à savoir le fait que de fausses informations sont propagées, sans avoir été vérifiées. L’éditorial parle en effet de ‘la sacro-sainte « revue par les pairs »’, qui n’est pas effectuée par ces revues. Mais est-ce vraiment le problème fondamental ?

L’idée que ce qui fait la valeur d’un article scientifique est qu’il a été validé par la relecture par les pairs avant publication est un mythe tenace mais néanmoins erroné. Cela est faux d’un point de vue empirique, et d’un point de vue théorique.

D’un point de vue empirique, à tout instant, il existe dans la littérature des conclusions contradictoires à propos d’un grand nombre de sujets, publiées dans des revues traditionnelles. Les cas de fraude récents concernent des articles qui ont pourtant subi une relecture par les pairs. Mais c’est le cas aussi d’une quantité beaucoup plus importantes d’articles non frauduleux, mais dont les conclusions ont été contestées par la suite. L’histoire des sciences est remplie de théories scientifiques contradictoires et coexistantes, d’âpres débats entre scientifiques. Ces débats ont lieu, justement, après publication, et le consensus scientifique se forme généralement assez lentement, pratiquement jamais sur la base d’un seul article (voir par exemple Imre Lakatos en philosophie des sciences, ou Thomas Kuhn). Par ailleurs, les résultats scientifiques sont également souvent diffusés dans la communauté scientifique avant publication formelle ; c’est le cas aujourd’hui avec les prépublications (« preprints » en ligne), mais c’était déjà partiellement le cas auparavant avec les conférences. L’article publié reste la référence parce qu’il fournit des détails précis, notamment méthodologiques, mais la contribution des relecteurs sollicités par les journaux n’est dans la plupart des cas pas essentielle, d’autant que celle-ci n’est généralement pas rendue publique.

D’un point de vue théorique, il n’y a aucune raison que la relecture par les pairs « valide » un résultat scientifique. Il n’y a rien de magique dans la revue par les pairs : simplement deux, parfois trois scientifiques donnent leur avis éclairé sur le manuscrit. Ces scientifiques ne sont pas plus experts que ceux qui vont lire l’article lorsqu’il sera publié (je parle bien sûr de la communauté scientifique et pas du grand public). Le fait qu’un article soit publié dans un journal ne dit pas grand chose en soi de la réception des résultats par la communauté ; lorsqu’un article est rejeté d’un journal, il est resoumis ailleurs. La publication finale n’atteste absolument pas d’un consensus scientifique. Par ailleurs, lorsqu’il s’agit d’études empiriques, les relecteurs n’ont pas en réalité la possibilité de vérifier les résultats, et notamment de vérifier s’il n’y a pas eu de fraude. Tout ce qu’ils peuvent faire, c’est vérifier que les méthodes employées semblent appropriées, et que les interprétations semblent sensées (deux points souvent sujets à débat). Pour valider les résultats (mais pas les interprétations), il faudrait au minimum pouvoir refaire les expériences en question, ce qui suppose le temps et l’équipement nécessaire. Ce travail indispensable est fait (ou tenté), mais il n’est pas fait au moment de la publication, ni commissionné par le journal. Il est fait après publication par la communauté scientifique. Le travail de « vérification » (mot inapproprié car il n’y a pas de vérité absolue en science, ce qui la distingue justement de la religion) est le travail de fond de la communauté scientifique, ce n’est pas le travail ponctuel du journal.

C’est cette idée reçue qu’il faut déconstruire : que le travail de revue interne au journal « valide » d’une certaine manière les résultats scientifiques. Ce n’est pas le cas, cela n’a jamais été le cas, et cela ne peut pas être le cas. La validation scientifique est la nature même de l’entreprise scientifique, qui est un travail collectif et de longue haleine. On ne peut pas lire un article et conclure « c’est vrai »; il faut pour cela l’intégrer dans un ensemble de connaissances scientifiques, confronter l’interprétation à des points de vue différents (car toute interprétation requiert un cadre théorique).

C’est justement cette idée reçue que les journaux prestigieux tentent au contraire de consolider. Il faut y résister. L’antidote est de rendre public et transparent le débat scientifique, qui actuellement reste souvent confiné aux couloirs des laboratoires et des conférences. On prétend que la relecture par les pairs valide les résultats scientifiques, mais ces rapports ne sont la plupart du temps pas publiés ; et quid des rapports non publiés lorsque l’article est rejeté par un journal ? Comment savoir alors ce qu’en pense la communauté ? Il faut au contraire rendre public le débat scientifique. C’est par exemple l’ambition de sites comme PubPeer, qui a mis à jour un certain nombre de fraudes, mais qui peut être utilisé simplement pour le débat scientifique de manière générale. Plutôt que de conditionner la publication à un accord confidentiel de scientifiques anonymes, il faut au contraire inverser ce système : publier l’article (c’est en fait déjà le cas par la prépublication), puis solliciter les avis de la communauté, qui seront également publiés, argumentés, discutés par les auteurs et le reste de la communauté. C’est ainsi que les scientifiques, mais également le plus grand public, pourront obtenir un vision plus juste de la valeur scientifique des articles publiés. La revue par les pairs est un principe fondamental de la science, oui, mais pas celle effectuée dans la confidence par les journaux, celle au contraire effectuée au grand jour et sans limite de temps par la communauté scientifique.

What is computational neuroscience? (XXXII) The problem of biological measurement (2)

In the previous post, I have pointed out differences between biological sensing and physical measurement. A direct consequence is that it is not so straightforward to apply the framework of control theory to biological systems. At the level of behavior, it seems clear that animal behavior involves control; it is quite documented in the case of motor control. But this is the perspective of an external observer: the target value, the actual value and the error criterion are identified with physical measurements by an external observer. But how does the organism achieve this control, from its own perspective?

What the organism does not do, at least not directly, is measure the physical dimension and compare it to a target value. Rather, the biological system is influenced by the physical signal and reacts in a way that makes the physical dimension closer to a target value. How? I do not have a definite answer to this question, but I will explore a few possibilities.

Let us first explore a conventional possibility. The sensory neuron encodes the sensory input (eg muscle stretch) in some way; the control system decodes it, and then compares it to a target value. So for example, let us say that the sensory neuron is an integrate-and-fire neuron. If the input is constant, then the interspike interval can be mapped back to the input value. If the input is not constant, it is more complicated but estimates are possible. There are various studies relevant to this problem (for example Lazar (2004); see also the work of Sophie Denève, e.g. 2013). But all these solutions require knowing quite precisely how the input has been encoded. Suppose for example that the sensory neuron adapts with some time constant. Then the decoder needs somehow to de-adapt. But to do it correctly, one needs to know the time constant accurately enough, otherwise biases are introduced. If we consider that the encoder itself learns, e.g. by adapting to signal statistics (as in the efficient coding hypothesis), then the properties of the encoder must be considered unknown by the decoder.

Can the decoder learn to decode the sensory spikes? The problem is it does not have access to the original signal. The key question then is: what could the error criterion be? If the system has no access to the original signal but only streams of spikes, then how could it evaluate an error? One idea is to make an assumption about some properties of the original signal. One could for example assume that the original signal varies slowly, in contrast with the spike train, which is a highly fluctuating signal. Thus we may look for a slow reconstruction of the signal from the spike train; this is in essence the idea of slow feature analysis. But the original signal might not be slowly fluctuating, as it is influenced by the actions of the controller, so it is not clear that this criterion will work.

Thus it is not so easy to think of a control system which would decode the sensory neuron activity into the original signal so as to compare it to a target value. But beyond this technical issue (how to learn the decoder), there is a more fundamental question: why splitting the work into two units (encoder/decoder), if the function of the second one is essentially to undo the work of the first one?

An alternative is to examine the system as a whole. We consider the physical system (environment), the sensory neuron, the actuator, and the interneurons (corresponding to the control system). Instead of seeing the sensory neuron as involved in an act of measurement and communication and the interneurons as involved in an act of interpretation and command, we see the entire system as a distributed dynamical system with a number of structural parameters. In terms of dynamical systems (rather than control), the question becomes: is the target value for the physical dimension an attractive fixed point of this system, or more generally, is there such a fixed point? (as opposed to fluctuations) We can then derive complementary questions:

  • robustness: is the fixed point robust to perturbations, for example changes in properties of the sensor, actuator or environment?
  • optimality: are there ways to adjust the structure of the system so that the firing rate is minimized (for example)?
  • control: can we change the fixed point by an intervention on this system? (e.g. on the interneurons)

Thus, the problem becomes one of designing a spiking system that has an attractive fixed point in the physical dimension, with some desirable properties. Framing the problem in this way does not necessarily require that the physical dimension is explicitly extracted (“decoded”) from the activity of the sensory neuron. If we look at such a system, we might not be able to identify in any of the neurons a quantity that corresponds to the physical signal, or to the target value. Rather, physical signal and target value are to be found in the physical environment, and it is a property of the coupled dynamical system (neurons-environment) that the physical signal tends to approach the target value.

What is computational neuroscience? (XXX) Is the brain a computer?

It is sometimes stated as an obvious fact that the brain carries out computations. Computational neuroscientists sometimes see themselves as looking for the algorithms of the brain. Is it true that the brain implements algorithms? My point here is not to answer this question, but rather to show that the answer is not self-evident, and that it can only be true (if at all) at a fairly abstract level.

One line of argumentation is that models of the brain that we find in computational neuroscience (neural network models) are algorithmic in nature, since we simulate them on computers. And wouldn’t it be a sort of vitalistic claim that neural networks cannot be (in principle) simulated on computer?

There is an important confusion in this argument. At a low level, neural networks are modelled biophysically as dynamical systems, in which the temporality corresponds to the actual temporality of the real world (as opposed to the discrete temporality of algorithms). Mathematically, those are typically differential equations, possibly hybrid systems (i.e. coupled by timed pulses), in which time is a continuous variable. Those models can of course be simulated on computer using discretization schemes. For example, we choose a time step and compute the state of the network at time t+dt, from the state at time t. This algorithm, however, implements a simulation of the model; it is not the model that implements the algorithm. The discretization is nowhere to be found in the model. The model itself, being a continuous time dynamical system, is not algorithmic in nature. It is not described as a discrete sequence of operations; it is only the simulation of the model that is algorithmic, and different algorithms can simulate the same model.

If we put this confusion aside, then the claim that neural networks implement algorithms becomes not that obvious. It means that trajectories of the dynamical system can be mapped to the discrete flow of an algorithm. This requires: 1) to identify states with representations of some variables (for example stimulus properties, symbols); 2) to identify trajectories from one state to another as specific operations. In addition to that, for the algorithmic view to be of any use, there should be a sequence of operations, not just one operation (ie, describing the output as a function of the input is not an algorithmic description).

A key difficulty in this identification is temporality: the state of the dynamical system changes continuously, so how can this be mapped to discrete operations? A typical approach is neuroscience is to consider not states but properties of trajectories. For example, one would consider the average firing rate in a population of neurons in a given time window, and the rate of another population in another time window. The relation between these two rates in the context of an experiment would define an operation. As stated above, a sequence of such relations should be identified in order to qualify as an algorithm. But this mapping seems only possible within a feedforward flow; coupling poses a greater challenge for an algorithmic description. No known nervous system, however, has a feedforward connectome.

I am not claiming here that the function of the brain (or mind) cannot possibly be described algorithmically. Probably some of it can be. My point is rather that a dynamical system is not generically algorithmic. A control system, for example, is typically not algorithmic (see the detailed example of Tim van Gelder, What might cognition be if not computation?). Thus a neural dynamical system can only be seen as an algorithm at a fairly abstract level, which can probably address only a restricted subset of its function. It could be that control, which also attaches function to dynamical systems, is a more adequate metaphor of brain function than computation. Is the brain a computer? Given the rather narrow application of the algorithmic view, the reasonable answer should be: quite clearly not (maybe part of cognition could be seen as computation, but not brain function generally).

Draft of chapter 6, Spike initiation with an initial segment

I have just uploaded an incomplete draft of chapter 6, "Spike initiation with an initial segment". This chapter deals with how spikes are initiated in most vertebrate neurons (and also some invertebrate neurons), where there is a hotspot of excitability close to a large soma. This situation has a number of interesting implications which make spike initiation quite different from the situation investigated by Hodgkin and Huxley, that of stimulating the middle of an axon. Most of the chapter describes the theory that I have developed to analyze this situation, called "resistive coupling theory" because the axonal hotspot is resistively coupled to the soma.

The chapter is currently unfinished, because a few points require a little more research, which we have not finished. The presentation is also a bit more technical than I would like, so this is really a draft. I wanted nonetheless to release it now, as I have not uploaded a chapter for a while and it could be some time before the chapter is finished.