Science et démocratie

Alors que les universités sont attaquées frontalement aux Etats-Unis (J.D. Vance donnait en 2021 une conférence intitulée : « The Universities are the Enemy »), on redécouvre l’importance cruciale pour la démocratie d’une science indépendante des pouvoirs. Il faut que les climatologues puissent fournir une information objective au public pour orienter les politiques publiques, indépendamment de ce qu’en pense le pouvoir politique. Il faut que les scientifiques puissent évaluer sereinement l’effet des polluants, de la cigarette, des médicaments, sans pression de lobbys économiques. Il faut que les sociologues et économistes puissent documenter l’état des inégalités, sans que les pouvoirs économiques puissent interférer. Il faut que les historiens puissent fournir les faits historiques même lorsque ceux-ci contredisent le « récit national » souhaité par une formation politique ou une autre. Cette liberté de choisir son sujet de recherche, de s’exprimer dans un cadre académique sans pression politique ou économique, et d’enseigner le résultat de cette recherche, c’est ce qu’on appelle la liberté académique (voir l’Association pour la liberté académique). Elle s’accompagne d’une rigueur méthodologique, de normes éthiques propres à la communauté académique, et non externes.

Notons au passage à quel point ces exemples contrastent avec l’orientation politique des réformes de l’université en France, selon lesquelles la finalité de la recherche est l’innovation – pas un seul de ces exemples ne correspond à cette finalité.

En France, la liberté académique est un droit constitutionnel, consacré par le code de l’éducation (article L. 123-9) : « À l'égard des enseignants-chercheurs, des enseignants et des chercheurs, les universités et les établissements d'enseignement supérieur doivent assurer les moyens d'exercer leur activité d'enseignement et de recherche dans les conditions d'indépendance et de sérénité indispensables à la réflexion et à la création intellectuelle. »

Comment peut-on assurer « les conditions d'indépendance et de sérénité indispensables à la réflexion et à la création intellectuelle » ? Je veux m’attarder sur deux aspects essentiels : le statut des chercheurs et enseignants-chercheurs, et le mode de financement de la recherche. Ce sont ces deux points qui, en France et ailleurs, sont fragilisés par les réformes de l’enseignement supérieur et de la recherche (ESR) depuis quelques décennies (environ 20 ans en France, près de 40 ans au Royaume-Uni). Dans ce billet, je parlerai principalement du statut.

On a entendu maintes fois dans la bouche de politiciens la critique du « chercheur à vie ». La modernisation de l’ESR passerait par la contractualisation des chercheurs/enseignants-chercheurs, actuellement fonctionnaires. De fait, l’ambition des réformes de l’ESR depuis environ 20 ans est que les enseignants-chercheurs deviennent des employés de l’université, plutôt que des fonctionnaires d’Etat. Cette ambition est explicitée noir sur blanc dans le rapport Aghion-Cohen (deux économistes) de 2004, dont chacun pourra constater qu’il a servi de feuille de route aux différentes réformes depuis 20 ans (création de l’ANR, « autonomie » des universités, etc.). Ce rapport explique, non sans un certain cynisme, que les personnels étant particulièrement attachés à leur statut du fonctionnaire, il serait politiquement plus judicieux de transformer progressivement l’ESR non en changeant le statut des fonctionnaires en place, mais en créant de nouveaux postes contractuels financièrement plus intéressants et en laissant les postes actuels dépérir, de façon à ce que les personnels eux-mêmes demandent à acquérir le nouveau statut. Ainsi les réformes seront implémentées sans avoir besoin de porter cette question au débat public. Voir par exemple cette phrase (p112) : « En guise de méthode générale, l’idée est de toujours procéder par création – sans supprimer ce qui existe déjà – pour ouvrir des possibilités nouvelles au sein du système ancien, sans donner l’impression de remettre en cause ses fondements. ». Il s’agit donc bien de faire en sorte d’appliquer une politique sans que personne ne s’en rende compte. On appréciera le caractère démocratique de cette proposition.

On reconnaîtra par exemple dans cette proposition les « chaires de professeur junior » introduites il y a quelques années (échec cuisant, au passage, les candidats préférant toujours les postes de fonctionnaire pourtant moins rémunérés).

Puisque les défenseurs de ces réformes se réfèrent volontiers aux « normes internationales », laissant entendre que les pays « performants » emploient également les enseignants-chercheurs sur un modèle managérial issu du privé, il faut rappeler que la norme internationale dans le milieu académique, du moins jusqu’à récemment, c’est un statut protecteur pour les professeurs d’université. Aux Etats-Unis, les professeurs d’université bénéficient d’un statut exceptionnellement stable, y compris dans les universités privées comme Harvard, en comparaison avec statuts des contrats privés dans ce pays (certes après une période probatoire de quelques années). C’est ce qu’on appelle le système de « tenure ». Un professeur qui a sa tenure ne peut pas être licencié pour cause de performance insuffisante ou de restructuration, mais uniquement dans des circonstances extraordinaires. Ce système est explicitement conçu pour garantir la liberté académique. On voit d’ailleurs que les attaques actuelles contre l’université aux Etats-Unis utilisent non pas le contrat des professeurs (les professeurs ne sont pas licenciés), mais le système de financement par projets (j’y reviendrai). C’est donc bien un élément important de la liberté académique.

En France, on lit parfois que les enseignants-chercheurs ont été fonctionnarisés en 1983 sous Mitterrand. C’est faux. La loi a unifié des statuts disparates selon les disciplines, mais si les chercheurs des organismes (CNRS/INSERM) étaient en CDI, les professeurs et maîtres de conférences étaient fonctionnaires depuis longtemps, et cela explicitement en vue de garantir la liberté académique.

Au Royaume-Uni, le système de tenure a été abrogé par Thatcher en 1988, qui a introduit en Europe la doctrine du Nouveau Management Public, qui s’est ensuite propagée dans tous les pays européens. C’est la ligne politique des réformes actuelles en France, depuis une vingtaine d’années. Cette doctrine est explicitement inspirée du management privé, la motivation étant que le contribuable doit en avoir pour son argent. L’Etat ne finance plus les besoins du service public, mais fixe des objectifs de performance et attribue un budget aux agences en fonction de leur performance, libres à elles de s’organiser comme elles le souhaitent pour accomplir ces objectifs. C’est le sens du mot « autonomie » dans l’« autonomie des universités » : les universités sont « libres » d’employer les moyens qu’elles souhaitent, mais ne sont ni autonomes politiquement (au contraire l’Etat exerce un contrôle rapproché sur ce que les universités sont censées accomplir, via l’établissement d’objectifs), ni financièrement. Sur ce dernier point, notons qu’il y a néanmoins également une volonté de rendre l’université responsable d’une partie de son budget par l’intermédiaire des frais d’inscription, la facturation de prestations, etc., et cela est imposé par l’Etat non pas explicitement mais simplement en diminuant les budgets attribués – aux universités de s’organiser « librement » pour assurer le complément budgétaire nécessaire.

Résultat au Royaume-Uni : des frais d’inscription considérables (moyenne de 22000 livres/an en premier cycle), qui de fait font que les universités ne sont plus un service public, et qui fragilisent considérablement la situation financière des universités. Ainsi, avec la baisse du nombre d’étudiants étrangers (liée au Brexit), de nombreuses universités anglaises sont contraintes de licencier une partie de leurs professeurs, et le choix se fait sur des critères de performance. Le Times Higher Education constate : « The root cause of redundancies across British higher education is an unsustainable funding model. ».

Comme je l’écrivais plus haut, ce modèle thatchérien a été exporté progressivement dans tous les pays d’Europe, et on en voit les conséquences par exemple aux Pays-Bas, où les universités sont également contraintes de licencier une partie de ses enseignants-chercheurs.

C’est dans cette direction qu’il faut regarder si l’on veut savoir ce qui attend les enseignants-chercheurs en France dans les années qui viennent. La dernière pierre à l’édifice en 2025 est la dernière version des Contrats d'Objectifs, de Moyens et de Performance (COMP) qui doit entrer prochainement en vigueur. Il s’agit de conditionner le budget des universités à des critères de performance « négociés » avec l’Etat (on appréciera le terme de « négociation » dans une relation de totale dépendance). Ce budget incluant désormais les salaires des personnels, cela représente un contrôle inédit du pouvoir politique sur les universités. Il va sans dire que c’est une attaque frontale contre la liberté académique, qui je le rappelle requiert de garantir « les conditions d'indépendance et de sérénité indispensables à la réflexion et à la création intellectuelle ». A partir du moment où la sécurité financière des enseignants-chercheurs dépend de l’accomplissement d’objectifs fixés par l’Etat, ou de financements privés (exemple des chaires public-privé), ces conditions ne peuvent pas être remplies.

On a parlé récemment du Hcéres, organisme d’évaluation de l’ESR faisant suite à l’AERES, créé par la LPR en 2006. Récemment, un amendement de suppression a été voté, ce qui a provoqué un certain émoi au sein de la bureaucratie de l’ESR. Cet organisme, dont le dirigeant est nommé par le président de la République (le Parlement peut s’y opposer à condition de réunir une majorité des 3/5 ; dans les faits, E. Macron avait nommé son propre conseiller ESR malgré l’opposition de la communauté académique et de la majorité du Parlement), évalue les formations universitaires et les unités de recherche dans le plus pur esprit du nouveau management public : certes, ce sont des pairs qui participent à l’évaluation, mais en remplissant une grille pré-établie par la bureaucratie, où l’on trouve par exemple des diagrammes SWOT que les chercheurs doivent renseigner. De l’avis largement consensuel de la communauté académique, le Hcéres est une source considérable de gaspillage de temps. Récemment, le Hcéres a été accusé d'avoir falsifié les rapports d'évaluation de la vague E en vue de fermer des formations de philosophie, pas assez « professionnalisantes » (rapports commandés par ailleurs à des universitaires dont ce n’était pas le champ de compétence).

Ces réformes managériales vont bien plus loin en termes de remise en cause de la liberté académique que ce que l’on trouve par exemple aux Etats-Unis. A ma connaissance, il n’y a pas d’équivalent du Hcéres ni des contrats d’objectifs. Les porteurs de ces réformes ont beau répéter comme des évidences les poncifs du management public, comme « il faut bien évaluer », le fait est que ces évaluations centralisées n’existent pas aux Etats-Unis, qui sont pourtant souvent présentés comme modèle.

De fait, une part majeure du budget des grandes universités privées comme Harvard vient de leurs actifs financiers (environ 60 milliards de dollars pour Harvard), ce qui leur confère une certaine indépendance financière. Leur faiblesse quant à la défense de la liberté académique vient d’ailleurs, et il suffit pour cela d’observer le levier principal qu’utilise le pouvoir américain pour s’attaquer actuellement aux universités : le système de financement par projets, système exporté en Europe (l’ANR en France, création également des années 2000). Ce sera l’objet d’un prochain billet (vous pouvez déjà lire l’article que j’ai écrit il y a quelques temps sur ce sujet).

Notes on consciousness. (XI) Why large language models are not conscious

The current discussions about AI are plagued with anthropomorphism. Of course, the name “artificial intelligence” has probably something to do with the matter. A conscious artificial intelligence might sound like science-fiction, but a sentient statistical model certainly sounds a bit more bizarre. In this post, I want to address the following question: are large language models (LLM), such as ChatGPT, or more generally deep learning models, conscious? (perhaps just a little bit?)

The first thing that must be realized is that the question of what it takes for something to be conscious is a very old question, which has been the subject of considerable work in the past. The opinions and arguments that we read today are not original. Very often, they unknowingly repeat common arguments that have been discussed at length in the past. It might seem for the general public or AI engineers that the spectacular successes of modern AI programs should bring a new light on these old questions, but that is not really the case. These spectacular programs already existed 50 years ago, just as thought experiments: which for logical arguments makes no difference at all. For example, in 1980, Searle articulated an argument against the idea that a program that seems to behave like a human would necessarily have a mind. The argument was based on a thought experiment, where an average English-speaking person would apply the operations of a sophisticated program that takes a question written in Chinese as input and outputs an answer in Chinese. Searle argues that while that person is able to have a conversation in Chinese by mechanically applying rules, she does not understand Chinese. Therefore, he concludes, understanding cannot be identified with the production of acceptable answers. Now such programs exist, and their existence does not change anything to either the argument or the objections that have been raised then. All these discussions were precisely based on the premises that such systems would exist.

This is an important preamble: a lot has been said and written about consciousness, what it means, what it takes for something to be conscious, etc. Answers to these questions are not to be found in current AI research but in the philosophy literature, and whether a program produces convincing answers to questions, or can correctly categorize images, bears very little relevance to any of these discussions. A corollary is that AI engineering skills provide no particular authority on the subject of AI consciousness, and indeed, as far as I can tell, many arguments we hear in the AI community on this subject tend be rather naïve, or at least not original and with known weaknesses.

Another important remark is that, while there is a lot of literature on the subject, there is no consensus whatsoever in the specialized community on those questions. Views on consciousness go from consciousness does not exist (eliminativism/illusionism) to everything is conscious (panpsychism(s)). In my view, there is no consensus because there is currently no convincing theory of consciousness (some say that there can be no theory of consciousness, which is another proposition on which there is no consensus). There are good reasons for this state of affair, which I scratched here and there (and others have too, obviously).

This remark is important because I have seen it become an argument for why a particular artefact might be conscious: we don’t know what consciousness is exactly, or what it takes for something to be conscious, therefore we cannot rule out the possibility that something in particular is conscious.

However, this is a fallacy. We do not know what it takes for an entity to be conscious, but we certainly do know that certain entities cannot be conscious, if the meaning we give to this notion must have some vague resemblance with its usual meaning.

Now, I will make a few general points against the idea that LLMs, or more generally formal deep neural networks, are conscious, by discussing the concept of a “conscious state” (i.e., “how it feels like now”).

Once we remove the buzzwords, such as “intelligence”, “learning”, etc., a modern deep learning model is essentially a massively parallel differentiable program. In effect, it is essentially a tensor calculator, the state of which is updated by a series of iterations.

The default assumption in the computational view of mind is that a mental state is something like a program state. But a conscious state is a very particular kind of state. First of all, a conscious state has a subject (the entity that is conscious) and an object (what it is about). Both relate to well-known topics in philosophy of mind, namely the unity of consciousness and the intentionality of consciousness.

When we wonder whether something is conscious, that thing is typically an organism, or a machine, or even, if you adopt panpsychism, a rock or an atom. But we could consider many other combinations of molecules and ask whether they are conscious. How about the entity made of a piece of my finger (still attached to my body) plus two coins in a fountain in Rome? This seems absurd, but why? There is a reason why: two objects that do not interact at all have the same properties whether we look at them one by one or together. New properties above the individual elements can only arise if there is some kind of interaction between the elements. So, if neither my finger nor any of the coins is conscious, then the combination is not conscious either. Thus, we can say that a necessary condition for a set of components to constitute a subject is that there is some causal integration between the components. This is actually the basis of one particular theory of consciousness, Integrated Information Theory (which I have criticized here, there and there, essentially because a necessary condition is not a sufficient condition). If a deep learning network is conscious, then which layer is the subject?

I leave this tricky question hanging there to address the more critical ones (but in case you want to dig, look up these keywords: autonomy of the living, biological organism, biological agency). One is the question of intentionality: the fact that a conscious state is about something: I am conscious of something in particular. A large language model is a symbol processing system. The problem is that it is humans who give meaning to symbols. The program is fed with sequences of bits, and outputs sequences of bits. If one asks an LLM “What is the color of a banana?” and the LLM replies “yellow”, does the program understand what a banana is? Clearly, it doesn’t have the visual experience of imagining a banana. It has never seen a banana. It doesn’t experience the smell or touch of a banana. All it does is output 0100, which we have decided stands for the word banana, when we input a particular stream of numbers. But the particular numbers are totally arbitrary: we could choose to assign a different sequence of numbers to each of the words and we would still interpret the computer’s output in exactly the same way, even though the program would now have different inputs and outputs. So, if the program has a conscious experience, then it is about nothing in particular: therefore, there is no conscious experience at all.

This is known as the “symbol grounding problem”, again a well-known problem (which I examined in the context of “neural codes”). Many people consider that a necessary ingredient has to do with embodiment, that is, the idea that the machine has to have a body interacting with the world (but again, careful, necessary does not mean sufficient). It seems that it is Yann Le Cun’s position, for example. Again, it is not clear at all what it takes for something to be conscious, but it is clear that there can be no conscious experience at all unless that experience is somehow about something, and so the symbol grounding problem must be addressed.

These are well-known problems in philosophy of mind. The final point I want to discuss here is more subtle. It relates to the notion of “state”. In computationalism (more generally, functionalism), a conscious state is a sort of program state. But there is a big confusion here. Both terminologies use the word “state”, but their meaning is completely different. A state of mind, an experience, is not at all a “state” in the physical sense of pressure, volume and so on, that is, the configuration of a system. Consider a visual experience. Can it be the case that to see something is to have the brain in a certain state? For example, some neurons in the inferotemporal cortex fire when a picture of Jennifer Anniston is presented: is the visual experience of Jennifer Anniston the same as the active state of the neuron? If the answer is positive, then why should you have the experience, rather than that neuron? Otherwise, perhaps the neuron triggers the experience, but then we need to assign the experience to the state of some downstream neurons and we face the problem of infinite regress.

The issue is that an experience is simply not a physical state; to treat it as such is a category error. To see this, consider this thought experiment, which I called the “Bewitched thought experiment” (self-quote):

In the TV series Bewitched, Samantha the housewife twitches her nose and everyone freezes except her. Then she twitches her nose and everyone unfreezes, without noticing that anything happened. For them, time has effectively stopped. Was anyone experiencing anything during that time? According to the encoding view of conscious experience, yes: one experiences the same percept during the entire time, determined by the unchanging state of the brain. But this seems wrong, and indeed in the TV series the characters behave as if there had been no experience at all during that time.

It would seem bizarre that people experience something when their brain state is maintained fixed. That is because to experience is an activity, not a thing. Therefore, a system cannot experience something just by virtue of being in some state. The vector of activation states of a neural network is not a conscious “state”. It is not even false: it is a category error. So, when a deep network outputs a symbol that we associate to Jennifer Anniston, it doesn’t actually see Jennifer Anniston. Having the output “neuron” in a particular state is not an experience, let alone an experience of seeing Jennifer Anniston.

All these remarks, which tend to show that the application of tensor calculus does not produce conscious experience, can be perplexing because it is hard to imagine what else could possibly produce conscious experience. Current “artificial intelligence” is our best shot so far at mimicking consciousness, and I am saying that it is not even a little bit conscious. So, what else could consciousness be then?

My honest answer is: I don’t know. Will we know someday? I also don’t know. Should it be possible, hypothetically, to build a conscious artifact? Maybe, but I don’t know (but why not? I don’t know, how then? I also don’t know). I wish I did know, but I don’t find it particularly bizarre that certain things are still unexplained and unclear. It doesn’t mean that there’s nothing interesting to be said on consciousness.

But in any case, I want to point out that the “what else” argument is a self-destructive argument. Asking “what else?” is just admitting that you have no logical argument that allows you to prove your proposition. This is not an argument, but rather an admission of failure (which is fine).

Anyway: I don’t know what it takes for something to be conscious, but I think we can be fairly confident that LLMs or deep networks are not conscious.

On the existential risks of artificial intelligence

The impressive progresses in machine learning have revived the fear that humans might eventually be wiped out or enslaved by artificial superintelligences. This is hardly a new fear. For example, this fear is the basis of most of Isaac Asimov’s books, who imagined that robots are built with three laws to protect humans.

My point here is not to demonstrate that such events are impossible. On the contrary, my point is that autonomous human-made entities already exist, and cause the exact same risks that AI alarmists are talking about, except they are real. In this context, evil AI fantasies are an anthropomorphic distraction.

Let me quickly dismiss some misconceptions. Does ChatGPT understand language? Of course not. Large language models are (essentially) algorithms tuned to predict the next words. But here we don’t mean “word” in the human sense. In the human sense, a word is a symbol that means something. In the computer sense, a word is a symbol, to which we humans attribute meaning. When ChatGPT talks about bananas, it has no idea what a banana tastes like (well, it has no idea). It has never seen a banana or tasted a banana (well, it has never seen or tasted). “Banana” is just a node in a big graph of other nodes, totally disconnected from the outside world, and in particular from what “banana” might actually refer to. This is known in cognitive science as the “symbol grounding problem”, and it is a difficult problem that LLMs do not solve. So, maybe LLMs “understand” language, but only if you are willing to define “understand” in such a way that it is not required to know what words mean.

Machine learning algorithms are not biological organisms, they do not perceive, they are not conscious, they do not have intentions in the human sense. But it doesn’t matter. The broader worry about AI is simply that these algorithms are generally designed so as to optimize some predefined criterion (e.g., prediction error), and if we give them very powerful means to do so, in particular means that involve real actions in the world, then who knows whether using those means might not be harmful to us? At some point, without necessarily postulating any kind of evil mind, we humans might become means in the achievement of some optimization criterion. We built some technical goals into the machine, but it is very difficult to ensure that those are aligned with human values. This is the so-called “alignment” problem.

Why not. We are clearly not there, but maybe, in a hypothetical future, or at least as a thought experiment. But what strikes me with the misalignment narrative is that this scenario is not at all hypothetical if you are willing to look beyond anthropomorphic evil robots. Have you really never heard of any human-made entities with their own goals, which might be misaligned with human values? Entities that are powerful and hard to control by humans?

There is an obvious answer if you look at the social rather than technological domain: it is the modern financialized multinational corporation. The modern corporation is a human-made organization that is designed in such a way as to maximize profit. It does not have intentions or goals in a human sense, but exactly like in the AI alignment narrative, it is simply designed in such a way that it will use all means available in order to maximize a predefined criterion, which may or may not be perfectly aligned with human values. Let’s call these companies “profit robots”.

To what extent are profit robots autonomous from humans? Today’s modern large corporations are owned not by people but in majority by institutional stakeholders, such as mutual funds, i.e., other organizations with the same goals. As is well known, their multinational nature makes them largely immune to the legislation of states (hence the issues of fiscal optimization, social dumping, etc). As is also well known, a large part of the resources of a profit robot is devoted to marketing and advertisement, that is, in manipulating humans into buying their products.

Profit robots also engage in intense lobbying to bend human laws in their favor. But more to the point, the very notion of law is not the same for a profit robot as for humans. For humans, a law is something that sets boundaries on what could be done or should not be done, morally. But a profit robot is not a person. It has no moral principles. So, law is just one particular constraint, in fact a financial cost or risk – a company does not go to prison. A striking example of this is the “Dieselgate”: Volkswagen (also not owned by humans) intentionally programmed their engines so that their car emissions remained hidden during the pollution tests required to authorize their cars on the US market. As far as I know, shareholders were not informed, and neither were consumers. The company autonomously decided to break the law for profit. Again, the company is not evil: it is not a person. It behaves in this non-human way because it is a robot, exactly like in the AI misalignment narrative.

We often hear that ultimately, it is the consumers who have power, by deciding what to buy. This is simply false. Consumers did not know that Volkswagen cheated on pollution tests. Consumers rarely know in what exact conditions the products are made, or even to what corporation the products belong. This type of crucial information is deliberately hidden. Profit robots, on the other hand, actively manipulate consumers into buying their products. What to think of planned obsolescence? Nobody wants products that are deliberately designed to break down prematurely, yet that is what a profit robot makes. So yes, profit robots are largely autonomous from the human community.

Are profit robots an existential risk for humans? That might be a bit dramatic, but they certainly do cause very significant risks. A particular distressing fact illustrates this. As the Arctic ice melts because of global warming, oil companies get ready to drill the newly available resources. Clearly this is not in the interest of humans, but this is what a company like Shell, who is only directly owned by humans in the proportion of 6%, needs to do to pursue its goals, which as any other profit robot, is to generate profit by whatever means.

So yes, there is a risk that powerful human-made entities get out of control and that their goals are misaligned with human values. This worry is reasonable because it is already realized, except not in the technological domain. It is ironic (but not so surprising) that billionaires buy into the AI misalignment narrative but fail to see that the same narrative fully applies to the companies that their wealth depends on, except it is realized.

The reasonable worry about AI is not that AI takes control of the world: the worry is that AI provides even more powerful means for the misaligned robots that are already out of control now. In this context, evil AI fantasies are an anthropomorphic distraction from the actual problems we have already created.

Notes on consciousness. (X) Why I am not a panpsychist - Reading notes on Philip Goff’s “Galileo’s error”.

I recently read Philip Goff’s book, “Galileo’s error”, where he advocates for the panpsychist view that consciousness is a widespread element of reality, so that atoms are very slightly conscious (note that we should talk of panpsychisms as there are certainly variations on this theme). The book is well written and does a good job at explaining the issues with the different brands of materialism and dualism. It also pushed me to refine some concepts and revisit some issues, which is good.

However, I was not convinced by his proposal. To me, it seems that it boils down to another “what else?” argument: materialism is flawed, dualism is false, therefore panpsychism is true. This cannot be a reasonable response to the fallacious “what else?” argument of materialists: if you are not a materialist, then you are a dualist.

The argument in a few words (certainly a bit caricatured) is that consciousness cannot be reduced to the physical properties of matter, and therefore it must be an additional fundamental property of matter, in some way what atoms are “made of”. Then comes the so-called “combination problem”, which is to understand how atoms get together to form a single conscious entity, a problem that Goff admits is unsolved. This is a strikingly reductionist account of consciousness: if we are conscious, it must be because parts of us are conscious.

As mentioned above, there are different panpsychisms. Integrated Information Theory (IIT), for example, considers consciousness as a property of certain kinds of systems, not a property of atoms. What they have in common, however, is that they postulate consciousness beyond life (of course, some materialist accounts also do). Towards the end of the book, Goff speculates on the ethical issues raised by the possibility that plants might be conscious, and so is it ok to have a vegan diet? But on his account, atoms are also conscious so maybe nuclear fission makes atoms suffer? Maybe nuclear fusion feels like love to atoms and the sun is a sort of gigantic hippie paradise? Who knows.

The fundamental problem I see with the argumentation is that “being conscious” is used as a sort of empty placeholder. The theory is meant to explain subjective perspective, but never asks what a subject might be. Free will is presented as one of the difficult things to explain, but the proposal offers no account of agency. And if atoms are conscious, do they have emotions? But what is an emotion? It seems to me that a theory of consciousness should try to address at least some basic aspects of the phenomenon to explain, beyond the mere fact that it exists.

These questions about subjects and agency are addressed in particular in some corners of theoretical biology, which try to develop the concept of a living organism. Typically, theories of life describe a living organism as a set of processes whose operation ensures their own continued existence; some form of organizational closure that resists entropic decay (see e.g. Varela & Maturana; Kauffman; Rosen; more recently Moreno, Mossio, Montevil, to name a few). The concept of organism is what allows developing derived concepts such as agency, autonomy, but also some aspects of perception and emotion (namely the valence of emotion).

Goff proposes that free will is not action free from determinism, but action that has reasons. But reasons imply goals, and goals imply autonomous agents, concepts that panpsychism, whether Goff’s or IIT’s version, offers no account of. No amount of integrated information (“Phi”) provides any goal to the system, and so this theoretical construct cannot account for either free will or emotion.

I will now discuss a few more specific points made in the book.

 

The hard problem is harder than you might think

Everything starts with the “hard problem” of consciousness, a problem that has been discussed by many thinkers, the most well-known arguments being probably those of Chalmers and Nagel. Basically, the problem is that experience is not something that can be derived deductively from the properties of matter. There is no logical reasoning that would start with a mechanistic description of a material system, and that would end up with “therefore, this system feels pain”. Of course, there could be a “therefore” that means: whenever a material system has some property P, it feels pain, but this would be an empirical relation (e.g. the “neural correlates of consciousness”), not a logical relation. Basically, you cannot deduce pain from Newton laws.

In the book, the author takes it as a flaw of reductive materialism, the idea that consciousness is a state of matter. It certainly is a flaw of materialism, but it is much worse than that.

In his famous paper (What is it like to be a bat?), Nagel hits the more general problem: experience is something that you live, not something that you describe. Of course, you could try to describe an experience, but understanding the words is not the same thing as having the experience. Philosophers like to speak of the redness of red, but I find this a rather poor choice. Everyone (with some exceptions) has the feeling of red whenever something with the right spectral properties is presented, so it is easy to conflate objective properties of objects with subjective experience.

But consider taste, for example. Taste is interesting because not everyone has the same tastes, meaning that people can have different experiences for the same stuff, and taste can change over time. There is no need to try to imagine the ultrasonic world of bats. Consider for example coriander. Many people hate coriander, and this has been linked to some genetic variant in olfactory receptor genes. Now try to describe the taste of coriander to someone who does not like it. I personally would have no idea where to start; someone might find words to describe it, but we can be sure that the person would be essentially clueless about how it might taste. One might say that the taste of coriander is the taste caused by the activation of the corresponding olfactory receptor; one might describe the odorant molecules, and so on: none of that conveys the taste. There is just no alternative to actually experiencing an experience.

So the problem is much deeper than a flaw of materialism: the problem is that experience is not something that can be explained, whatever the number of words, it is something that is lived. Postulating the existence of an extra non-physical law, which says for example that the universe is made of consciousness, or that certain systems are conscious, will not solve this problem. We might want to postulate the existence of coriander taste as an extra law of nature, it would still not explain what it feels like to taste coriander. Thus, if panpsychism pretends to explain the quality of experience, then it commits the exact same error as reductive materialism. This should make us highly skeptical of claims such as “the quality of experience is specified by the informational relationships [the complex] generates” (Balduzzi & Tononi, 2009) - all the more that it reduces experience to its epistemic value while neglecting the hedonic value (see below).

Of course, this does not mean that nothing interesting can be said about experience, including its relation with matter. But panpsychism is not at all necessary for that. For example, sensorimotor theories of perception have something to say about the structure of experience, for example about the spatialization of pain (see my short series on that). Thus, panpsychism does not solve the hard problem. It does not dissolve it either: the problem still exists even if you consider that materialism is flawed, because it is not an issue with materialist explanations but with explanations in general.

Before I move on to the next topic, I would like to point out that there are certain ways to communicate experiences, but those are not descriptive. More accurately, there are ways to induce experiences in people. These are art, poetry, or guided meditation. A musical experience is not the end point of a logical reasoning. Guided meditation practices, or poetry, use words to put you into certain states of mind, but the words are only there to guide you (“imagine you are a mountain”), they do not constitute the experience.

 

The case against dualism

In his book, Goff also rejects dualism, but I found the argument rather peculiar. He claims that the main objection against dualism is empirical: we understand a lot about how the brain works, so surely we would have noticed if there were an intervention by some kind of mental entity - some scientific law would be broken, basically. This is a peculiar argument because virtually all scientific findings in neuroscience are of a statistical nature, so there is no way we would notice an intervention rather than categorize it as a random event. Our understanding of the brain is not that extensive.

But we can take the argument as a thought experiment. Suppose we have perfect understanding of the physical working of the brain, so we could for example predict the evolution of brain states from the current state. We could know before the subject herself what she is going to talk about, or the voluntary movements she is going to make. In other words, we would know perfectly how the “philosophical zombie” works. This knowledge is precisely the premises of the hard problem: we have a perfect mechanistic understanding of physiology and behavior, but none of this understanding implies that the person is conscious, or explains the taste of coriander.

If it is the case that we can have this kind of understanding (even as a theoretical possibility), then indeed dualism is false, at least the kind of dualism that supposedly explains free will and agency (as Penfield or Eccles thought).

But it also implies that there cannot be any empirical support for any panpsychist theory, since all the empirical data are already supposedly accounted for by a physicalist account. Therefore, I find it odd that Goff supports the empirical argument against dualism and at the same time claims that there is empirical support for IIT. By his own argument, that cannot be the case. If we have a physicalist account of whatever a person might say or do in different circumstances, then this will include any kind of empirical evidence that we might think of. All the empirical evidence would already be accounted for, and therefore could not count as evidence for the panpsychist theory.

To claim otherwise is to believe that consciousness is required to do certain things, such as speaking of what one sees. But this is contradictory with the claim that a physicalist framework can explain behavior but not consciousness. This is to give a causal role to consciousness, above the causal role of physical processes, and that is precisely Goff’s objection against dualism.

 

The epistemic and the hedonic

To end these notes, I would like to come back to the remark I made at the beginning, that a theory of consciousness should try to address at least some basic aspects of the phenomenon to explain, and not just acknowledge that it exists.

Ned Block pointed out that there are two aspects of consciousness that need to be accounted for: access consciousness, i.e. its functional aspects, and phenomenal consciousness or “what it is like”, the latter being notoriously more complicated than the former.

I would like to rephrase it as follows. Experience typically comes in at least two dimensions, an epistemic and a hedonic dimension. For example, consider toothache. That experience is informative: it aches somewhere, and perhaps you notice that it aches when you drink something cold and so on. But pain is not just information: it is also something you would like to get rid of. It has a hedonic value, namely a bad one.

Both IIT and global workspace theory focus on the epistemic aspect, but fail to account for the hedonic aspect (for the epistemic aspect as well, but at least they try). This might come from the failure to include life into the picture. For a living organism, there is some sense in saying that an event or an act is good or bad for the organism, according to whether it helps or threatens the organism’s self-maintenance. In contrast, there is no sense in saying that some event is good or bad for a photodiode. The photodiode has been built by some (other) conscious entity to perform a certain function, and so only that external entity can assess whether some transformation of the system is good or bad, according to whether it continues to perform the ascribed function.

Of course, none of this explains why an organism feels bad, rather than just acts accordingly, but it is certainly an aspect of the phenomenon that things that are bad for the organism also tend to feel bad. Without an organism, some autonomous entity for which “bad” can mean something, it seems difficult to theorize about the hedonic aspect of experience. This makes me skeptical of claims that entities that are not living organisms (atoms, photodiodes and so on) are conscious.

Notes on consciousness. (IX) Why Integrated Information Theory fails

Integrated Information Theory (IIT) is a theory of consciousness that assigns a certain degree of consciousness (called Phi) to any system. Philosophically, it is a kind of property dualism: mental states are not reduced to states of matter, but assigned to arrangements of matter that have certain formal properties.

One of the most criticized aspects of the theory is that it embraces panpsychism: for example, it assigns consciousness to elementary systems such as a photodiode. However, the objection is easy to bypass: a theory does not have to produce intuitive claims. It is certainly not intuitive that the passing of time depends on how fast you move, yet it seems to be true.

But in the case of relativity, the counter-intuitive prediction can be tested empirically (and it has been). In the case of IIT, it cannot: there is no independent way to assess whether a photodiode is conscious. This is the fundamental epistemological issue with trying to explain a subjective phenomenon: there is no other way to directly establish the reality of the phenomenon than to experience it yourself. You will never have first-hand evidence that your stomach is another conscious entity in your body.

However, there are other ways to assess a theory, for example to exhibit incoherencies, contradictions or logical fallacies.

Before I begin, I want to point out that property dualism is much closer to materialism than to religious kinds of dualism. In IIT, mental states are really properties of matter, just not physical properties. This means that mental states depend only on the arrangement of matter: the physical system is not just a host for the mind, as in Cartesian dualism. In Buddhism, the mind can reincarnate in another body, and bring memories with it. This is impossible with property dualism, because mental states are an intrinsic property of the system.

It is precisely this point that is inconsistent with the formulation of IIT. The central concept that I will discuss is information. IIT builds on the classical notion of information as differentiation: if a state can take values A or B, then observing A is informative, because it could have been B. If we assign equal probabilities to the two alternatives, then observing the state brings exactly 1 bit of information. Information is the reduction of uncertainty. This is why a binary photodiode exposed to a visual scene can get no more than 1 bit of information, while you would get much more information from the same scene: it could have been so many different other scenes.

At first sight, this seems like a reasonable characterization of information, so that IIT considers it as a self-evident axiom. However, there is a big problem here, one that will lead to major inconsistencies. State A is informative because it excludes possibility B. But this assumes that the entity that gets informed is aware that B was a possibility. How could that be possible if it has never encountered B before, and has no cognitive resources to imagine that B could exist? The reduction in uncertainty is relative to prior knowledge, but what is the prior knowledge of a photodiode?

The confusion, of course, is that the reduction of uncertainty occurs for the observer who formalized the range of possibilities, but it is ascribed to the system itself. There is some magic operating here, where we ascribe information and uncertainty to a physical system, without ever defining what it means for a physical system to have knowledge.

Let us be more concrete. Suppose the photodiode starts its life covered by a box, but then the experimenter removes the box and puts it back from times to times. In terms of information, the state of the photodiode will hold some information about light, or if it consists of a sensor and a detector, about its previous state. According to IIT, this will make the photodiode minimally conscious (in the last version of IIT, the photodiode must have some recurrent connectivity, e.g. reciprocal connection between a sensor and a detector, but this makes no difference to the present discussion).

But consider the very beginning of the photodiode’s life. It has always been in the dark, never exposed to light. In terms of information, the state is still informative because it excludes the possibility of light, but what does that mean for the photodiode that has never seen the light?

Now consider another photodiode. It is physically exactly the same photodiode, but this time the box permanently covers it. Thus, there is only one possible state for that photodiode. According to IIT, this photodiode is not conscious. Yet, it is physically identical to the photodiode at the beginning of the previous scenario.

Thus, we have exhibited two situations where the same physical system in the exact same state is assigned two different states of consciousness. This contradicts the claim that consciousness is an intrinsic property of the system.

The problem arises from the fact that consciousness is defined not from what happens presently with the system, but from what could happen, and it is very unclear what “could” might mean. “Could” the box collapse and expose the photodiode to light? Would that make the photodiode conscious? From that event? Or from the start of the photodiode’s life? Or from the moment when that event “could” happen? What does it mean exactly that an event that does not happen “could” have happened? (if what?)

Let us now turn to brains. According to Tononi, “IIT predicts that a particular brain area can contribute to experience even if it is inactive, but not if it is inactivated.” Specifically, he contrasts the case of a person seeing a gray picture with the case where a colored picture is presented but color-sensitive neurons are lesioned. In the first case, the person perceives the picture as gray. In the second case, there is no experience of color at all. The difference in experience occurs because in the first case, the color-sensitive neurons could have been in a different state, but not in the second case.

“Could have” is very problematic here, because it does not refer to the present state of the system, but to hypothetical states.

Suppose the color area of the brain is not lesioned but reversibly inactivated by cooling, for a random duration. In this case, the person should be color conscious, because at any time, the neurons could have been in a different state.

An important precision in these thought experiments: the subject does not know what the experimenter is doing. Thus, from the viewpoint of the subject, all that happens is the neurons are inactive, and the cause of this inactivity leaves no trace in the subject. Yet, according to IIT, mental states depend on that cause. If it is a gray picture: color-conscious. Lesioning: color-unconscious. Reversible cooling: conscious. Irreversible cooling with a refrigerating device permanently implanted in the brain: unconscious. The fridge breaks down: conscious. The fridge might break down, but actually doesn’t: conscious from the time of cooling.

In summary, IIT fails to consistently assign consciousness to a system, because the definition is based on hypotheticals, which by definition are not instantiated by the system. Deep down, the troubles arise from the circularity of the definition of information as reduction of uncertainty. Uncertainty refers to a prior state of knowledge, but the notion of knowledge for the subject is never defined. In practice, the knowledge underlying the reduction of uncertainty is the knowledge of the observer who formalizes scenarios and quantifies probabilities of events that the system itself has never lived.

 

This post is an elaboration of the following commentary: Does the present moment depend on the moments not lived?

 

Dynamique et contrôle épidémique : quelques concepts simples

Dans ce texte, j’essaie d’expliquer quelques concepts simples concernant la dynamique et le contrôle d’une épidémie. Je l’écris bien sûr en pensant à l’épidémie de Covid-19, mais la plupart des concepts sont généraux. En préambule, je tiens à préciser que je ne suis ni médecin ni épidémiologiste, donc je ne parlerai pratiquement pas des aspects purement médicaux, ni de subtilités d’épidémiologie, mais simplement de quelques notions générales. Ma spécialité est la modélisation de phénomènes dynamiques en biologie, en l’occurrence en neurosciences. Merci donc aux collègues compétents d’apporter des précisions ou corrections éventuelles, ou des références pertinentes.

Quelques remarques préliminaires sur les statistiques

Avant de commencer les explications, je voudrais tout d’abord inviter le lecteur à la prudence quant à l’interprétation des statistiques, en particulier des statistiques de mortalité. A l’heure où j’écris ces lignes, on estime qu’environ 15% de la population française a été infectée. Autrement dit, l’épidémie est débutante. Les statistiques de mortalité ne sont donc pas un « bilan » de l’épidémie, mais des statistiques sur une épidémie en cours. Comparer avec le bilan d’épidémies passées, ou d’autres causes de mortalité, n’a donc pas beaucoup de sens (éventuellement, on pourrait multiplier par 5 ces statistiques pour avoir un ordre d’idée).

Deuxièmement, la mortalité d’une maladie ne dépend pas que du virus. Elle dépend aussi de la personne malade. Un facteur majeur est l’âge, et il faut donc prendre cela en compte lorsque l’on compare des pays de démographies très différentes. En première approximation, le risque de décès de la Covid-19 augmente avec l’âge de la même manière que le risque de décès hors Covid. On peut voir cela comme le fait que les jeunes sont peu à risque, ou bien que toutes les classes d’âge voient leur risque de décès dans l’année augmenter d’un même facteur. Quoi qu’il en soit, avec ce type de profil de mortalité, l’âge moyen ou médian au décès n’est pas très informatif puisqu’il est le même avec et sans infection.

Troisièmement, la mortalité d’une maladie dépend aussi de la prise en charge. En l’occurrence, la Covid-19 se caractérise par un fort taux d’hospitalisation et de réanimation. La mortalité observée en France jusqu’à présent correspond à celle d’un système de soin qui n’est pas saturé. Naturellement, elle serait bien plus élevée si l’on ne pouvait pas procurer ces soins, c’est-à-dire si l’épidémie n’était pas contrôlée, et la mortalité se déplacerait également vers une population plus jeune.

Enfin, il va de soi que la gravité d’une maladie ne se réduit pas à sa mortalité. Une hospitalisation n’est généralement pas anodine, et les cas moins sévères peuvent avoir des séquelles à long terme.

Le taux de reproduction

Un virus est une entité qui peut se répliquer dans un hôte et se transmettre à d’autres hôtes. Contrairement à une bactérie qui est une cellule, un virus n’est pas à proprement parler un organisme, c’est-à-dire qu’il dépend totalement de l’hôte pour sa survie et sa reproduction. Par conséquent, pour comprendre la dynamique d’une épidémie virale, il faut s’intéresser au nombre d’hôtes infectés et à la transmission entre hôtes.

Un paramètre important est le taux de reproduction (R). C’est le nombre moyen de personnes qu’une personne infectée va contaminer. On voit que l’épidémie se développe si R>1, et s’éteint si R<1. A chaque transmission, le nombre de cas est multiplié par R. Ce taux de reproduction ne dit pas à quelle vitesse l’épidémie se développe, car cela dépend du temps d’incubation et de la période de contagiosité. C’est en fait un paramètre qui est surtout intéressant pour comprendre le contrôle de l’épidémie. Par exemple, si R = 2, alors on peut contrôler l’épidémie en divisant par deux le nombre de ses contacts.

Comme le nombre de cas est multiplié par un certain facteur à chaque épisode de contamination, une épidémie a typiquement une dynamique exponentielle, c’est-à-dire que c’est le nombre de chiffres qui augmente régulièrement. Cela prend autant de temps de passer de 10 à 100 cas que de 100 à 1000 cas, ou de 1000 à 10 000 cas. La dynamique est donc de nature explosive. C’est pourquoi la quantité à suivre avec attention n’est pas tant le nombre de cas que ce taux de reproduction : dès que R>1, le nombre de cas peut rapidement exploser et il faut agir vite.

Naturellement, ce raisonnement suppose que la population n’a pas été déjà infectée. Si une proportion p de la population est immunisée (infectée ou vaccinée), alors chaque personne infectée va contaminer en moyenne un nombre de personnes R x (1-p). L’épidémie va donc s’arrêter quand ce nombre descend en-dessous de 1, c’est-à-dire p > 1- 1/R. Par exemple, avec R = 3, l’épidémie s’arrête quand les 2/3 de population sont immunisés.

Ceci nous dit également l’impact de la vaccination en cours sur le contrôle de l’épidémie. Par exemple, à l’heure où j’écris ces lignes (22 février 2021), environ 2% de la population a été vaccinée (4% a reçu la première dose). Cela contribue donc à diminuer R de 2% (par exemple de 1.1 à 1.08). Il est donc clair que la vaccination n’aura pas d’effet important sur la dynamique globale avant plusieurs mois.

Il est important de comprendre que ce taux de reproduction n’est pas une caractéristique intrinsèque du virus. Il dépend du virus, mais également de l’hôte qui peut être plus ou moins contagieux (on a parlé par exemple des « superspreaders »), d’aspects comportementaux, de mesures de protection (par exemple les masques). Ce taux n’est donc pas forcément homogène dans une population. Par exemple, il est vraisemblable que le R soit supérieur chez les jeunes actifs que chez les personnes âgées.

Peut-on isoler une partie de la population ?

Est-il possible de préserver la population la plus fragile en l’isolant du reste de la population, sans contrôler l’épidémie ? Cette hypothèse a été formulée plusieurs fois, bien que très critiquée dans la littérature scientifique.

On peut comprendre assez facilement que c’est une idée périlleuse. Isoler une partie de la population a un impact quasi nul sur le taux de reproduction R, et donc la dynamique de l’épidémie est inchangée. Il faut bien garder à l’esprit que contrôler une épidémie pour qu’elle s’éteigne suppose simplement de faire en sorte que R<1, de façon à ce que le nombre de cas décroisse exponentiellement. Ainsi pendant le confinement strict de mars 2020, le taux était d’environ R = 0.7. C’est suffisant pour que l’épidémie s’éteigne, mais il n’en reste pas moins qu’une personne infectée continue à contaminer d’autres gens. Par conséquent, à moins de parvenir à isoler ces personnes fragiles beaucoup plus strictement que lors du premier confinement (ce qui semble douteux étant donné qu’il s’agit pour partie de personnes dépendantes), l’épidémie dans cette population va suivre l’épidémie dans la population générale, avec la même dynamique mais dans une version un peu atténuée. Autrement dit, il semble peu plausible que cette stratégie soit efficace.

Les variants

Un virus peut muter, c’est-à-dire que lorsqu’il se réplique dans un hôte, des erreurs sont introduites de sorte que les propriétés du virus changent. Cela peut avoir un impact sur les symptômes, ou sur la contagiosité. Naturellement, plus il y a d’hôtes infectés, plus il y a de variants, c’est donc un phénomène qui survient dans des épidémies non contrôlées.

Supposons que R = 2 et qu’un variant ait un taux R = 4. Alors à chaque transmission, le nombre de cas du variant relatif au virus original est multiplié par 2. Au bout de 10 transmissions, le variant représente 99.9% des cas. Ceci reste vrai si des mesures restrictives réduisent la transmission (par exemple R=2/3 et R=4/3). Après ces 10 transmissions, le R global est celui du variant. Par conséquent, c’est le nombre de cas et le R du variant plus contagieux qui déterminent le nombre de cas et la dynamique à moyen terme (c’est-à-dire quelques semaines). Le nombre de cas du virus original et même le nombre de cas globaux sont essentiellement insignifiants.

Cela signifie que l’on peut être dans une dynamique explosive alors même que le nombre de cas diminue. Pour savoir si l’épidémie est sous contrôle, il faut regarder le R du variant le plus contagieux. A l’heure où j’écris, on est précisément dans la situation où le virus original est encore dominant avec R<1 et les variants ont un R>1, ce qui signifie que malgré une diminution globale des cas, on est dans une dynamique explosive qui sera apparente dans le nombre global de cas lorsque les variants seront dominants.

Le contrôle épidémique

Contrôler l’épidémie signifie faire en sorte que R<1. Dans cette situation, le nombre de cas diminue exponentiellement et s’approche de 0. Il ne s’agit pas nécessairement de supprimer toute transmission mais de faire en sorte par une combinaison de mesures que R soit plus petit que 1. Ainsi, passer de R = 1.1 à 0.9 suffit pour passer d’une épidémie explosive à une extinction de l’épidémie.

Naturellement, la mesure la plus sûre pour éteindre l’épidémie est d’empêcher toute relation sociale (le « confinement »). Mais il existe potentiellement de nombreuses autres mesures, et idéalement il s’agit de combiner plusieurs mesures à la fois efficaces et peu contraignantes, le confinement pouvant être utilisé en dernier recours lorsque ces mesures ont échoué. La difficulté est que l’impact d’une mesure n’est pas précisément connu pour un virus nouveau.

Ces connaissances sont cependant loin d’être négligeables après un an d’épidémie de Covid-19. On sait par exemple que le port du masque est très efficace (on s’en doutait déjà, étant donné que c’est une infection respiratoire). On sait que le virus se propage par projection de gouttelettes et par aérosols. On sait également que les écoles et les lieux de restauration collective sont des lieux importants de contamination. Cette observation peut conduire à fermer ces lieux, mais on pourrait alternativement les sécuriser par l’installation de ventilation et de filtres (investissement qui pourrait d’ailleurs être synergique avec un plan de rénovation énergétique).

Il y a deux grands types de mesures. Il y a des mesures globales qui s’appliquent aux personnes saines comme aux porteurs du virus, comme le port du masque, la fermeture de certains lieux, la mise en place du télétravail. Le coût de ces mesures (au sens large, c’est-à-dire le coût économique et les contraintes) est fixe. Il y a des mesures spécifiques, c’est-à-dire qui sont déclenchées lorsqu’il y a un cas, comme le traçage, la fermeture d’une école, le confinement local. Ces mesures spécifiques ont un coût proportionnel au nombre de cas. Le coût global est donc une combinaison d’un coût fixe et d’un coût proportionnel au nombre de cas. Par conséquent, il est toujours plus coûteux de maîtriser une épidémie lorsque le nombre de cas est plus grand (choix qui semble pourtant avoir été fait en France après le deuxième confinement).

Le « plateau »

Une remarque importante : les mesures ont un impact sur la progression de l’épidémie (R) et non directement sur le nombre de cas. Cela signifie que si l’on sait maintenir un nombre de cas haut (R=1), alors on sait tout aussi bien (avec les mêmes mesures), maintenir un nombre de cas bas. Avec un petit effort supplémentaire (R=0.9), on peut supprimer l’épidémie.

Avoir comme objectif la saturation hospitalière n’a donc pas particulièrement d’intérêt, et est même un choix plus coûteux que la suppression. Il existe une justification à cet objectif, la stratégie consistant à « aplatir la courbe », qui a été suggérée au début de l’épidémie. Il s’agit de maximiser le nombre de personnes infectées de façon à immuniser rapidement toute la population. Maintenant qu’il existe un vaccin, cette stratégie n’a plus beaucoup de sens. Même sans vaccin, infecter toute la population sans saturer les services hospitaliers prendrait plusieurs années, sans parler naturellement de la mortalité.

La suppression de l’épidémie

Comme remarqué précédemment, il est plus facile de maîtriser une épidémie faible que forte, et donc une stratégie de contrôle doit viser non un nombre de cas « acceptables », mais un taux de reproduction R<1. Dans cette situation, le nombre de cas décroît exponentiellement. Lorsque le nombre de cas est très bas, il faut prendre en compte les cas importés. C’est-à-dire que sur une période de contamination, le nombre de cas va passer non plus de n à R x n mais de n à R x n + I, où I est le nombre de cas importés. Le nombre de cas va donc se stabiliser à I/(1-R) (par exemple, 3 fois le nombre de cas importés si R = 2/3). Si l’on veut diminuer encore le nombre de cas, il devient alors important d’empêcher l’importation de nouveaux cas (tests, quarantaine, etc).

Lorsque le nombre de cas est très bas, il devient faisable d’appliquer des mesures spécifiques très poussées, c’est-à-dire pour chaque cas. Par exemple, pour chaque cas, on isole la personne, et l’on teste et on isole toutes les personnes susceptibles d’être également porteuses. Non seulement on identifie les personnes potentiellement contaminées par la personne positive, mais on recherche également la source de la contamination. En effet, si l’épidémie est portée par des événements de supercontamination (« clusters »), alors il devient plus efficace de remonter à la source de la contamination puis de suivre les cas contacts.

A faible circulation, comme on dispose de ces moyens supplémentaires pour diminuer la transmission, il devient possible de lever certains moyens non spécifiques (par exemple le confinement général ou autres restrictions sociales, les fermetures d’établissements et même le port du masque). Pour que les moyens spécifiques aient un impact important, un point clé est que la majorité des cas puissent être détectés. Cela suppose des tests systématiques massifs, par exemple en utilisant des tests salivaires, des drive-in, des tests groupés, des contrôles de température. Cela suppose que les personnes positives ne soient pas découragées de se tester et s’isoler (en particulier, en maintenant les revenus). Cela suppose également un isolement systématique en attente de résultat pour les cas suspectés. Autrement dit, pour avoir une chance de fonctionner, cette stratégie doit être appliquée de manière la plus systématique possible. L’appliquer sur 10% des cas n’a pratiquement aucun intérêt. C’est pourquoi elle n’a de sens que lorsque la circulation du virus est faible.

Il est important d’observer que dans cette stratégie, l’essentiel du coût et des contraintes est porté par le dispositif de test, puisque le traçage et l’isolement ne se produisent que lorsqu’un cas est détecté, ce qui idéalement arrive très rarement. Si elle demande une certaine logistique, c’est en revanche une stratégie économique et peu contraignante pour la population.

Quand agir ?

J’ai expliqué que maintenir un niveau élevé de cas est plus coûteux et plus contraignant que maintenir un niveau faible de cas. Maintenir un niveau très faible de cas est encore moins coûteux et contraignant, bien que cela demande plus d’organisation.

Bien entendu, pour passer d’un plateau haut à un plateau bas, il faut que l’épidémie décroisse, et donc transitoirement appliquer des mesures importantes. Si l’épidémie n’est pas contrôlée – et je rappelle que cela est le cas dès lors qu’un variant est en croissance (R>1) même si le nombre global de cas décroît – ces mesures vont devoir être appliquées à un moment donné. Quand faut-il les appliquer ? Est-il plus avantageux d’attendre le plus possible avant de le faire ?

Ce n’est clairement jamais le cas, car plus on attend, plus le nombre de cas augmente et donc plus les mesures restrictives devront être appliquées longtemps avant d’atteindre l’objectif de circulation faible, où des mesures plus fines (traçage) pourront prendre le relais. Cela peut sembler contre-intuitif si le nombre de cas est en décroissance mais c’est pourtant bien le cas, parce que le nombre de cas à moyen terme ne dépend que du nombre de cas du variant le plus contagieux, et non du nombre de cas global. Donc, si le variant le plus contagieux est en expansion, attendre ne fait qu’allonger la durée des mesures restrictives.

De combien ? Supposons que le nombre de cas du virus (le variant le plus contagieux) double chaque semaine, et que les mesures restrictives divisent le nombre de cas par 2 en une semaine. Alors attendre une semaine avant de les appliquer allongent ces mesures d’une semaine (j’insiste : allongent, et non simplement décalent). Dans l’hypothèse (plus réaliste) où les mesures sont un peu moins efficaces, chaque semaine d’attente augmente la durée des mesures d’un peu plus d’une semaine.

Il est donc toujours préférable d’agir dès que R>1, de façon à agir le moins longtemps possible, et non pas d’attendre que le nombre de cas augmente considérablement. La seule justification possible à l’attente pourrait être une vaccination massive qui laisserait espérer une décroissance de l’épidémie par l’immunisation, ce qui n’est manifestement pas le cas dans l’immédiat.

 

Quelques liens pertinents:

Book review: Systematicity: the nature of science, by Paul Hoyningen-Huene

What is science? It is somewhat frustrating for a scientist to not be able to answer this question precisely. Yet it is a very important question, in particular in the public debate. For example, how are we to convince people to listen to science if we cannot explain what is special about science? What makes science better than the opinion of any given person or institution?

Naturally, this has been a central question in philosophy of science. For a while, it was thought that science is characterized by a particular method, a set of rules that one can follow to produce new truths about the world. This is impossible, because for any finite set of observations, there is an infinite number of general propositions that agree with those observations. Then came Karl Popper: he proposed that a scientific proposition is a proposition that can in principle be falsified, that is, such that there exists a statement that would logically contradict it (whether it is actually true or not). For example, “all penguins are black” can be contradicted by the statement “this is a blue penguin”. Popper’s motivation was to distinguish between science and pseudo-science or religious discourse. For example, it is not possible to contradict the existence of God because any fact can be interpreted as what God wants.

Although still very popular today, in particular among biologists, falsifiability has been heavily criticized. There are several fatal shortcomings in this idea. A simple one is that it tends to classify pseudo-sciences as sciences, for a simple reason: they can be falsified because they actually have been falsified. So the criterion is not sufficient. Other arguments show that it is not necessary (or meaningful) either.

Other analyses have shown that methods used by scientists are rather flexible both historically and, more importantly, across disciplines. Physicists do not use double-blind tests with control groups. Paleontologists do not produce empirical knowledge by experimentation. So if there is a scientific method, then which one is it? It is not that there is no scientific method. Rather, scientific methods are objects of scientific activity (things that scientists develop, use and discuss) rather than definitions of it.

Paul Hoyningen-Huene proposes a new theory of the nature of science, called systematicity theory, which brings some interesting ideas to this question. It is published in a recent book, and formerly in a short article. First, the original angle is that instead of comparing science with pseudo-science, he compares science with everyday knowledge. With this perspective, it becomes clear that there is something special about not just natural sciences, but essentially all academic fields including human sciences. History, for example, is distinctly more scientific than anecdotes that you could tell at dinner.

The main thesis is that what characterizes science is that is more systematic than non-science (on a similar subject). This idea of systematicity is developed in several dimensions. It must be noted that his goal is descriptive, nor normative.

For example, scientific descriptions tend to be systematic, e.g. with taxonomy, axiomatization, periodization (for history). Take the recent discovery of actin rings in the axon of neurons thanks to super-resolution microscopy. This is purely descriptive. Is it not science because it is not a test of a theory, maybe on the epistemic level of a news article? No, it is clearly science: it is part of an effort to systematically describe what a cell is made of. Writing the state of the art in a thesis, for example, is an exercise to systematically cover everything relevant about a particular subject, and it is an important skill that a scientist must acquire. Not crediting and referencing a relevant study is considered a professional error.

A particularly important dimension of systematicity is the defense of knowledge claims, that is, the way scientific claims are backed up. In mathematics, for example, there is the formal proof, a systematic way of demonstrating the validity of a claim. In other sciences, one may try to systematically consider and rule out alternative interpretations. All sciences develop field-specific methods to avoid errors. It is not that there is a method that is guaranteed to produce truths. Rather, there is an effort in each discipline to systematically develop ways of tracking errors. This includes social practices, such as peer review. In peer review, the author must systematically address all contradictions raised by a reviewer.

The book addresses many other aspects. It is not a particularly entertaining book, in fact I suspect that the author has made a particular effort to be systematic in his treatment of the subject. But the thesis is interesting because it covers many distinctive aspects of science that are usually not reported when discussing the nature of science. It also gives a more satisfying account of how science differs from pseudo-science. Pseudo-science is typically selective rather than systematic: claims are supported by a careful selection of evidence; objections are dismissed rather than systematically rebutted.

Although the thesis is not meant to be normative, I think it provides an interesting perspective on several aspects of modern science that are currently discussed, and which are also relevant to the politics of science. I will briefly discuss two.

One is the spread of scientific story-telling. In so-called “high-profile” journals, in particular in biology, there is considerable pressure to present a “good story”, something that is coherent, appealing, entertaining. And as publishing in those journals basically determines whether you can remain a working scientist, this is considerable pressure on all scientists. A scientist must also be a good communicator, story-telling advocates say. Obviously, it is better to have a well-written paper than a poorly written paper. Yes, but everything else being equal. Here unfortunately making a good story means selecting and ordering results so as to construct a coherent narrative, while dismissing every observation, remark, or previous study, which weakens or confuses the narrative. This clearly goes against systematicity. What then distinguishes such scientific “stories” from pseudo-scientific claims misleadingly backed up by carefully selected facts? It seems clear that systematically acknowledging all facts and interpretations that are not in line with the thesis of the authors, or simply that require specific explanations, is critically important in a scientific study. Yes, it might make the paper less entertaining and exciting. But that should not be the primary goal: the primary goal a scientific paper is a systematic report on a study. Developing scientific writing skills does not necessarily mean making up stories.

Another and related aspect is the idea, in particular in the research funding system, that good science must be disruptive, paradigm-shifting - only innovative ideas must be funded. Yes, because it is better to do ground-breaking science than ground-scratching science. This is the key principle of the ERC, for example. But again, this is not what science is about. This might be what product development is about (not even sure about that). But science is about systematically consolidating, expanding and connecting existing pieces of knowledge. Occasionally extraordinary discoveries are made, or new fields emerge. But that is nowhere near the core of science, which relies on systematic, rigorous examination. Without this, what we are left with is a bunch of TED talks - entertaining, occasionally informing, but you cannot learn to build rockets by watching TED talks.

I do not think that systematicity theory exhausts the question, however. What seems missing, in particular, is that science is about telling truths about the world. Science is a systematic activity, but not any activity: it is an activity whose goal is to document truths about the world. This means that being a scientist is not just following some practices, but also making an ethical commitment: a commitment to an ideal of truth. This is in my view a critical point when discussing the politics of science - how science should be organized, evaluated, communicated.

While it certainly does not exhaust the subject, what is satisfying about Hoyningen-Huene’s book is that, while it is lucid enough to acknowledge that there is no universal scientific method, it still convincingly argues that there is something special about science, something that may be worthwhile.

Academic precarity and the single PI lab model

Brilliant young scientists are struggling to obtain a stable faculty position, all over the world. It seems that “publish or perish” was actually quite hopeful. Now clearly, at least in biology, it is more like “publish in Science, Nature or Cell every other year or perish”. Only a small proportion of PhD holders manage to obtain a stable academic position, and only at an advanced age after multiple postdocs. Of course, this competition for publishing in certain venues also has a great impact on science; encouraging dishonesty and discouraging both long-term creative work and solid incremental science. Everyone complains about the situation.

What should we do about it? What I hear most frequently is that governments should increase the budget and create more faculty positions. That is certainly necessary but I think it is a reductionist view that largely misses the point. Of course, at the time when you start hiring more faculty, the proportion of young scientists who get a faculty position increases. However, if each of them then opens their lab and hire dozens of postdocs, then this proportion quickly reverts to what it was before.

What is at stakes is the general organization of research, in particular the “X lab” model (e.g. the Brette lab), with one group leader (the “PI”) surrounded by a number of graduate students and postdocs (I will discuss only the research staff here), with a complete turnover every few years. It seems that in many countries, to get a faculty position means to start their “own” lab. This is not the case yet in France, but this lab model is spreading very, very fast. With the new law on research currently in discussion (“discussion” might not be the appropriate word, though), it is planned that about 25% of all new recruitments will follow this model (a tenure-track system).

The math is easy. In a stable world, each faculty member will train on average one student to become a faculty member. For example, if a typical lab consists of 1 PI with 3 graduate students, rotating every 4 years, then over 40 years the PI will have trained 30 students, one of which would become a PI. The “success rate” would therefore be 1/30. Even with just one student at any given time, the chance for a student to end up getting a faculty position is 1/10.

Of course, one does not necessarily pursue a PhD with the goal of obtaining a faculty position. It is completely respectable to do a PhD then go to the industry. In many countries, holding a PhD is an asset. It is generally not the case in France, though. One may also want to do a PhD not for career, but because it is interesting in itself. This seems perfectly valid. Note that in that case, implementing a subtask of the PI’s project and doing all the tedious bench work might not be ideal. In any case, it must be emphasized that in this lab model, training students for research is only a marginal aim of a PhD.

How about postdocs? A postdoc is not a diploma. It typically doesn’t improve employability much. Of course, it could be done just for its own interest. But the experience I hear is mostly that of a highly stressful situation, because many if not most postdocs are hoping to secure a stable faculty position. Let us do the math again, with a simplified example. Suppose each lab has just 1 postdoc, rotating every 4 years. Compared to the above situation, it means that 1 out of 3 graduate students go on to do a postdoc. Then each of these postdocs has a 10% chance of getting a faculty position.

Let us have a look at funding questions now. What seems very appreciated is that when you start a lab, you get a “start-up package”. There is a blog post on Naturejobs entitled “The faculty series: Top 10 tips on negotiating start-up packages” that describes it. We can read for example: “There’s no point having equipment if you don’t have any hands to use it. One of the largest costs you can expect to come out of your start-up fund are the salaries of PhD students and postdocs. They’re the most crucial components of the lab for almost all researchers.”. It is very nice to provide the PI with these “components of the lab”, but as argued above, a direct consequence is to organize academic precarity on a massive scale. This remains true even if the entire budget of the State is allocated to research.

The same goes for the rest of the funding system. Project-based funding is conceived so that you hire people to implement your project, which you supervise. Part of these people are students and postdocs. For example, an ERC Starting Grant is 1.5 million euros for 5 years, or 300 k€ per year. In France, a PhD student costs about 30 k€ / year and a postdoc about the double. Of course, to that must be added the indirect costs (25%) and the grant also covers equipment and your own salary. But this is generally sufficient to hire a few students and postdocs, especially as in many countries graduate students are funded by other sources. Then the budget goes up to 2 million € for the consolidator grant and 2.5 million € for the advanced grant. The ERC has become a sort of model for good funding schemes in Europe, because it is so generous. But is it? Certainly it is for the PI who receives the grant, but a world where this mode of funding is generalized is a world where research is done by a vanishingly small proportion of permanent researchers. It is a world that is extremely cruel to young scientists, and with a very worrying demographic structure, most of the work being done by an army of young people with high turnover. You might increase the ERC budget several fold because it is such a great scheme, it will not improve this situation, at all.

Ending academic precarity is a noble cause, but one has to realize that it is inconsistent with the one PI - one lab model, as well as with project-based funding. I want to add a couple of remarks. Precarity is obviously bad for the people who experience it, but it is also bad more generally for the academic system. The excessive competition it generates encourages bad practices, and discourages long-term creative work and solid incremental science. We must also look beyond research per se. The role of academia in society is not just to produce new science. It is also to teach and to provide public expertise. We need to have some people with a deep understanding of epidemiology that we can turn to for advice when necessary. You would not just hire a bunch of graduate students after a competitive call for projects to do this advising job when a new virus emerges. But with a pyramidal organization, a comparatively low proportion of the budget is spent on sustaining the most experienced persons, so for the same budget, you would have much lower expertise than in an organization with more normal demographics. This is incredibly wasteful.

What is the alternative? Well, first of all, research has not always been organized in this way, with one PI surrounded by an army of students and postdocs. The landmark series of 4 papers by Hodgkin and Huxley in 1952 on the ionic basis of neural excitability did not come out of the "Hodgkin lab"; they came out from “the Physiological Laboratory, University of Cambridge”. The Hubel and Wiesel papers on the visual cortex were not done by graduate student Hubel under the supervision of professor Wiesel. Two scientists of the same generation decided to collaborate together, and as far as I know none of their landmark papers from the 1960s involved any student or postdoc. What strikes me is that these two experienced scientists apparently had the time to do the experiments themselves (all the experiments), well after they got a stable faculty position (in 1959). How many PIs can actually do that today, instead of supervising, hiring, writing grants and filling reports? It is quite revealing to read again the recent blog post cited above: “There’s no point having equipment if you don’t have any hands to use it.” - as if using it yourself was not even conceivable.

In France, the 1 PI - 1 lab kind of organization has been taking on gradually over the last 20 years, with a decisive step presumably coming this year with the introduction of a large proportion of tenure tracks with “start-up packages”. This move has been accompanied by a progressive shift from base funding to project-based funding, and a steady increase in the age of faculty recruitment. This is not to say that the situation was great 20 years ago, but it is clearly worsening.

A sustainable, non-pyramidal model is one in which a researcher would typically train no more than a few students over her entire career. It means that research work is done by collaboration between peers, rather than by hiring (and training) less experienced people to do the work. It means that research is not generically funded on projects led by a single individual acting as a manager. In fact, a model where most of the working force is already employed should have much less use of “projects”. A few people can just decide to join forces and work together, just as Hubel and Wiesel did. Of course, some research ideas might need expenses beyond the usual (e.g. equipment), and so there is a case for project-based funding schemes to cover for these expenses. But it is not the generic case.

One of the fantasies of competitive project-based funding is that it would supposedly increase research quality by selecting the best projects. But how does it work? Basically, peers read the project and decide whether they think it is good. Free association is exactly that, except the peers in question 1) are real experts, 2) commit to actually do some work on the project and possibly to bring some of their own resources. Without the bureaucracy. Peer reviewing of projects is an unnecessary and poor substitute for what goes on in free collaboration - do I think this idea is exciting enough to devote some of my own time (and possibly budget) on it?

In conclusion, the problem of academic precarity, of the unhealthy pressure put on postdocs in modern academia, is not primarily a budget problem. At least it is not just that. It is a direct consequence of an insane organization of research, based on general managerial principles that are totally orthogonal to what research is about (and beyond: teaching, public expertise). This is what needs to be challenged.

Update:

Une analyse globale de la nouvelle politique de recherche (III) - Faut-il évaluer la recherche ?

Dans les billets précédents (1 et 2), j’ai exposé le contexte idéologique des réformes structurelles de la recherche qui sont en cours. J’ai tenté de montrer qu’il s’agit de théories bureaucratiques dont l’argumentation est essentiellement obscurantiste, c’est-à-dire que non seulement une série de poncifs (il vaut mieux financer les excellents que les mauvais) et d’analogies douteuses (les vertus supposées du « darwinisme ») tiennent lieu d’argumentation, mais en outre les éléments empiriques contradictoires sont tout simplement ignorés.

Face à ce type de critique, une réaction courante est : mais alors, vous refusez d’être évalués ? On convoque alors l’image du savant dans sa tour d’ivoire, ou pire, celle du fonctionnaire fainéant. En effet, un point central des réformes managériales en cours est la notion d’évaluation : il faudrait développer une « culture de l’évaluation », avec des « indicateurs de performance ». Faut-il évaluer la recherche ? Pour répondre à cette question, encore faut-il préciser ce que l’on entend par « évaluer » et quels sont précisément les sujets et objets de ce verbe (qui évalue, et qu’est-ce qui est évalué).

Pour cela, il me semble utile de faire une petite digression philosophique pour comprendre la nature de l’activité scientifique qu’il s’agit d’évaluer.

 

Digression philosophique

Qu’est-ce que la science ? Vaste question philosophique qui a été abordée par de nombreux angles et que je me propose de résumer en quelques paragraphes. Je me contenterai pour le sujet de ce billet d’une description assez grossière : la science, en tant qu’activité sociale, est la poursuite de la vérité. Description néanmoins un peu plus subtile qu’elle en a l’air : il s’agit bien de tendre vers un idéal de vérité sur le monde, mais c’est un idéal, c’est-à-dire quelque chose que l’on poursuit sans jamais vraiment atteindre.

Comment la science est-elle produite ? Une position philosophique historiquement importante, qui date du 19e siècle et début du 20e, est le positivisme : la science consiste à observer des faits élémentaires, puis à en déduire logiquement des lois de la nature. Il y a donc une méthode que l’on peut suivre pour produire des vérités scientifiques avec certitude. C’est en quelque sorte un modèle industriel de la science, et ce n’est sans doute pas un hasard si cette position est apparue au 19e siècle. De ce point de vue découle la conception naïve de la revue par les pairs comme certification des connaissances produites ou des méthodes employées. Point crucial, selon ce modèle de la science, il est trivial de distinguer la bonne science de la mauvaise science : la bonne science est tout simplement celle qui suit correctement la méthode scientifique (d’où le rôle présumé des journaux comme « gate-keepers » ; voir mon texte sur ce sujet). Dans ce modèle, on peut donc appliquer des méthodes industrielles de gestion, de « management » dirait-on aujourd’hui, parce qu’il existe des mesures objectives (externes) de qualité. Là est la justification de l’usage de la bibliométrie comme outil d’évaluation.

Or, si cette position reste populaire, en particulier chez les non chercheurs (mais pas seulement), elle a été essentiellement démolie par les travaux en philosophie et histoire des sciences au cours du siècle dernier. Le plus connu est sans doute Karl Popper, qui sous un angle logique a établi que l’on ne peut pas établir en science des vérités mais uniquement des faussetés - simplement parce qu’une proposition s’applique à une infinité de cas que l’on ne peut tous vérifier. Il s’agit alors de tester des théories, et non de déduire des vérités scientifiques. D’autres travaux, moins connus des scientifiques mais néanmoins très importants, ont montré que la difficulté est plus profonde que cela. Quine a montré que la notion même de fait élémentaire est une erreur conceptuelle. C’est une forme de réductionnisme de la connaissance (je reformule), l’idée que la connaissance est un ensemble de faits et lois indépendants les uns des autres. Or c’est impossible, car pour énoncer un fait il faut utiliser des concepts, c’est-à-dire des théories. Par conséquent, il n’y a pas de fait élémentaire mais plutôt un système (plus ou moins) cohérent de connaissances. Kuhn a montré historiquement que co-existent généralement des théories scientifiques contradictoires portant sur les mêmes observations, ou encore que différentes théories (ou écoles de pensée) considèrent comme pertinents des corpus d’observations différents. Lakatos (élève de Popper) a montré qu’une théorie scientifique est non seulement une théorie qui en principe doit être falsifiable, mais également qui en pratique est falsifiée, et que cette caractéristique n’est pas forcément dysfonctionnelle. C’est-à-dire qu’il arrive couramment que des observations inattendues semblent contredire la théorie dominante, mais pour autant la théorie n’est pas forcément remise en cause. A la place, l’observation est interprétée en postulant une hypothèse auxiliaire. C’est le cas presque systématiquement aujourd’hui dans de nombreuses branches de la physique parce que l’on considère les théories physiques bien établies. Par exemple : la trajectoire de telle planète dévie des prédictions des lois de Newton (ou Einstein), conclusion : il doit y avoir un satellite autour de cette planète (et non : les lois de Newton sont fausses).

Je pourrais citer de nombreuses autres contributions importantes. Pour le sujet qui nous occupe, le point important est qu’il n’existe pas de méthode scientifique que l’on pourrait appliquer pour produire des vérités scientifiques. Cela ne veut pas dire que la science est arbitraire, au contraire. Cela veut dire que la réflexion sur la méthodologie et plus globalement l’épistémologie font elles-mêmes partie intégrale de l’activité scientifique : il n’y a pas de norme objective externe à la communauté scientifique. Cela signifie que la science progresse non par la production et la certification des savoirs, mais par le débat scientifique. Ce point est crucial, car il fonde la justification fondamentale de la nécessaire autonomie scientifique. Il ne peut y avoir d’évaluation de la production scientifique selon des normes externes (notamment bibliométriques), tout simplement parce que ces normes n’existent pas.

 

Evaluer la recherche

Revenons donc à notre question : faut-il évaluer la recherche ?

Premièrement, commençons par la motivation de cette question. La motivation, c’est que l’argent public doit être bien utilisé, c’est-à-dire dans l’intérêt de la société. Cela implique sans doute que les politiques publiques doivent être évaluées, c’est-à-dire que lorsque l’on modifie la structure du système de recherche par des réformes, l’impact global de ces réformes devrait être analysé. Or c’est précisément le type d’évaluation utile qui n’est pas effectué, ou qui est ignoré. Les réformes engagées depuis 15 ans, introduisant des nouveaux modes d’organisation (financement par projets par exemple) n’ont manifestement pas donné les résultats escomptés. Il serait donc logique de revenir sur ces réformes et de les modifier. Or ce n’est pas le cas : au contraire, il s’agirait d’amplifier ces réformes.

Ce qui doit être évalué donc, c’est l’efficacité globale du système de recherche, en relation avec son organisation. Si le système global doit être évalué, est-ce qu’il en découle que les agents individuels de ce système doivent être évalués ? Il y a ici un glissement qui est tout à fait fallacieux. Bien sûr, si l’on veut connaître, disons, la production scientifique totale du pays, on va additionner la production scientifique de chacun des chercheurs. Du point de vue individuel, cette « évaluation » est donc faite dans un but de mesure uniquement ; c’est seulement au niveau du système global que cette mesure sert à influencer l’action publique. Mais quand on dit qu’il faut évaluer les chercheurs, ce dont on parle c’est une évaluation qui a une conséquence individuelle et qui est donc utilisée comme outil de gestion. Par exemple, on donne une prime aux chercheurs qui publient plus, de façon à les inciter à augmenter leur productivité. Il ne s’agit donc ici pas simplement d’évaluer les politiques publiques, ce qui semble assez consensuel, mais d’instaurer un mode de gestion bien particulier, à savoir une gestion bureaucratique managériale, reposant sur des indicateurs individuels objectifs.

Or comme je l’ai expliqué plus haut, il n’existe pas d’indicateurs objectifs de la qualité scientifique à un niveau individuel. On peut dire d’un pays qu’il produit plus ou moins d’articles scientifiques, ou mesurer différents indicateurs macroscopiques. Mais aucune bureaucratie ne peut dire ce qui est « vrai » ou « important » en termes de vérité scientifique, puisque c’est justement là le cœur de l’activité des chercheurs. Une conséquence immédiate de cet état de fait est qu’instaurer une gestion par objectifs est nécessairement contre-productif, puisque les agents vont alors être incités à optimiser des choses qui ne sont pas alignées avec la qualité scientifique, chose non mesurable. C’est d’ailleurs un phénomène tellement bien connu qu’il a un nom, la loi de Goodhart. Par exemple, demander aux chercheurs de produire davantage d’articles a pour résultat que les chercheurs produisent davantage d’articles. Par exemple en saucissonnant les articles, en faisant des articles bâclés, etc. Cela fonctionne pour toute métrique qu’un bureaucrate pourra inventer.

Mais alors, il ne faut pas évaluer ? Premièrement, l’évaluation, comme je l’ai expliqué, est un aspect central et quotidien de l’activité du chercheur, si l’on entend cela comme la discussion critique des productions scientifiques. C’est le métier du chercheur que d’évaluer ses pairs - le mot « évaluer » est sans doute mauvais, du fait qu’il ne s’agit bien sûr pas de mettre cinq étoiles à la loi de la relativité. Simplement, cette évaluation n’est pas un mode de gestion, mais de débat, et ce débat ne peut se faire qu’entre pairs, pas avec une bureaucratie.

Deuxièmement, l’évaluation des personnes (et non plus des énoncés scientifiques) est naturellement inévitable à au moins un moment de la carrière : le recrutement (et, sans doute, la promotion). Mais encore une fois, cette évaluation ne peut être faite de manière bureaucratique selon des métriques objectives pour les raisons déjà énoncées. Elle ne peut se faire que par des pairs, de manière subjective donc. De quel genre d’évaluation parle-t-on ici ? Le discours managérial parle de « culture du résultat » : il s’agirait d’évaluer la production des individus ; à charge des individus que faire en sorte que cette production soit bonne – d’où une forme de « sélection darwinienne ». D’où un certain nombre d’indicateurs (nombre de publications, prestige des journaux dans lesquels elles apparaissent, etc). Mais d’une part on retombe encore une fois dans l’erreur positiviste (il n’y a pas, surtout sur des résultats récents, de mesure consensuelle de l’« importance » de résultats scientifiques) et d’autre part on commet ce qu’on appelle en psychologie un biais de substitution, c’est-à-dire que le facteur que l’on cherche à évaluer est complexe et par conséquent on en utilise un autre plus simple (voir une série de textes que j’ai écrits il y a quelques années sur les biais cognitifs dans les recrutements académiques). Que cherche-t-on à évaluer lors d’un recrutement de chercheur permanent ? Il s’agit d’estimer si, au cours de sa carrière future, le chercheur produira des connaissances nouvelles et intéressantes. Bien sûr on ne connait pas sa carrière future, on doit donc la deviner. Et qu’est-ce qui détermine la qualité de la production scientifique d’un individu ? Un certain nombre de facteurs, dont certains sont propres à la personne, comme ses compétences et ses qualités (rigueur intellectuelle et intégrité par exemple), et d’autres sont contextuels (collaborateurs, conditions de travail, et bien sûr hasard puisqu’on parle de recherche, donc de choses non connues à l’avance). Ce que l’on doit donc déterminer, dans le contexte d’un recrutement, ce sont les facteurs propres, c’est-à-dire les compétences et qualités scientifiques de l’individu. La production passée est bien sûr corrélée à ces facteurs, mais ce n’est pas ce que l’on cherche à déterminer. Enfin il y a un risque bien connu à substituer un facteur indirect au facteur causal que l’on cherche à évaluer. En plus de l’erreur dans la sélection elle-même, cette substitution induit des changements de comportement des individus visant à optimiser ce facteur non causal, ce qui finit par rendre la sélection arbitraire (loi de Goodhart). Par exemple, un étudiant ira dans un laboratoire connu non parce qu’il pense y apprendre quelque chose, mais parce qu’il a plus de chances d’être co-auteur d’un article dans un journal prestigieux.

L’évaluation, donc, doit être une évaluation des compétences et non des résultats. Naturellement, les compétences ne peuvent être correctement évaluées que par des gens eux-mêmes compétents, et non par une bureaucratie.

Faut-il évaluer la recherche ? D’abord, il faut principalement évaluer les politiques publiques de recherche. Celles qui sont instituées depuis 15 ans sont manifestement mauvaises et il faut donc les repenser et non les amplifier. Voilà l’évidence. Ensuite, oui bien sûr, il est nécessaire d’évaluer les chercheurs, au moment du recrutement ou de la promotion, et non comme mode de gestion quotidien. Et ce sont les compétences qui doivent être évaluées et non les « résultats ». Ces compétences, enfin, ne peuvent être évaluées que par des gens eux-mêmes compétents et non par des bureaucrates. Voilà en quel sens on peut dire qu’il faut « évaluer la recherche ».

Une analyse globale de la nouvelle politique de recherche - (II) Préjugés psychologiques de l’idéologie managériale

J’ai souligné dans la première partie que l’idéologie managériale qui sous-tend les réformes actuelles de la recherche et de l’enseignement supérieur, et plus globalement la théorie du nouveau management public, est un obscurantisme. D’un point de vue scientifique, ce qui est frappant dans l’idéologie managériale, c’est la grossièreté des présupposés sur la psychologie humaine. Il ne s’agit que de carotte et de bâton : primes d’un côté, précarisation de l’autre. « Manager », c’est donc concevoir une structure d’incitations appropriées (« incentive structure »). La seule façon de faire travailler quelqu’un est de l’inciter financièrement à le faire, et de le sanctionner lorsqu’il ne le fait pas bien. En résumé, c’est de la psychologie béhavioriste dans sa version la plus grossière.

Il n’est apparemment pas venu à l’idée de ces gens qu’on puisse faire un travail parce qu’on l’aime, sans qu’il y ait pour autant une récompense extrinsèque, ou la menace d’une sanction. Ou qu’on puisse soigner correctement un patient, ou éviter de trafiquer ses données scientifiques, pour des raisons avant tout morales - comme le respect de son prochain et l’éthique intellectuelle. Ce n’est peut-être pas un hasard si ces idées sont théorisées principalement par des économistes, dont un certain nombre (heureusement, pas tous) semblent croire à la fable ridicule de l’« homo economicus ».

Or il se trouve (quelle surprise) que l’avidité et la peur ne sont pas les seules passions humaines. Il y a une littérature considérable en psychologie, par exemple, sur la motivation intrinsèque, comme la curiosité. Voir par exemple la théorie du flow de Mihály Csíkszentmihályi - mais pourquoi donc des gens font-ils du surf sans être payés ?! Et oui, les comportements moraux et altruistes existent, chez l’humain comme chez bien d’autres espèces (voir par exemple le travail de l’éthologue Frans de Waal). Il y a également une dimension morale dans une grande partie des activités sociales, et de manière évidente dans les métiers scientifiques et de santé : il s’agit de rechercher la vérité, ou de soigner des personnes (il ne peut pas y avoir de débat scientifique sans un minimum de confiance attribuée à ses acteurs). Ce que résume l’expression « conscience professionnelle ».

La motivation humaine est complexe, et si elle ne se réduit pas à l’altruisme, elle ne se réduit pas non plus à l’avidité et la peur. On se demande bien d’ailleurs quel degré d’inculture il faut avoir en face de nous pour que ce rappel soit nécessaire, tant une bonne partie de la littérature tourne autour de ce fait.

Le rôle des structures, par conséquent, est de permettre à certains aspects de la motivation humaine de s’exprimer, plutôt que d’autres. Ceci est très bien illustré par le discours poignant d’une diabétologue dans le contexte des politiques managériales de l’hôpital. Elle y explique l’effet d’une gestion bureaucratique fondée exclusivement sur la carotte et le bâton : « je devenais une espèce de robot », « je ne suis plus éthique ». Cette nouvelle organisation fondée exclusivement sur la récompense et la sanction (extrinsèques) la conduit à ne plus exercer correctement son métier. Or, le point crucial à relever, c’est qu’auparavant, les médecins n’avaient absolument pas besoin de cela pour soigner les patients. Ils soignaient parce que c’était leur métier. Pas parce que ça rapporte à l’hôpital et que du coup ils auront peut-être une prime. Il existe (existait) des structures sociales pour encourager cette attitude vertueuse. Par exemple la formation (comme l’internat) dans des structures où cette attitude est socialement valorisée. Peut-être aussi la sélection : pour être médecin hospitalier, il faut avoir fait ses preuves dans un service hospitalier, et donc être choisi par d’autres médecins hospitaliers selon des critères propres à l’éthique du métier, et non selon le taux de remplissage des lits.

Quelle drôle d’idée, lorsque l’on a un système qui fonctionne en permettant aux motivations humaines les plus vertueuses de s’exprimer, de le changer pour un système manifestement dysfonctionnel, précisément parce qu’il est organisé pour encourager le pire de l’humain - l’avidité et la peur. Cette drôle d’idée, on ne peut l’avoir que si l’on possède une vision caricaturale de la psychologie humaine. Une vision sectaire et, puisqu’en l’occurrence il s’agit de choses très documentées scientifiquement, une vision obscurantiste. Dans ce contexte, l’insistance des partisans du nouveau management public à instaurer une révolution culturelle (la fameuse « culture du résultat ») est particulièrement inquiétante. Il s’agit ni plus ni moins que d’expurger pratiquement tout ce qu’il y a d’humain en chacun de nous, et de nous transformer, en effet, en « une espèce de robot ».

Troisième partie: Faut-il évaluer la recherche?