Science et démocratie

Alors que les universités sont attaquées frontalement aux Etats-Unis (J.D. Vance donnait en 2021 une conférence intitulée : « The Universities are the Enemy »), on redécouvre l’importance cruciale pour la démocratie d’une science indépendante des pouvoirs. Il faut que les climatologues puissent fournir une information objective au public pour orienter les politiques publiques, indépendamment de ce qu’en pense le pouvoir politique. Il faut que les scientifiques puissent évaluer sereinement l’effet des polluants, de la cigarette, des médicaments, sans pression de lobbys économiques. Il faut que les sociologues et économistes puissent documenter l’état des inégalités, sans que les pouvoirs économiques puissent interférer. Il faut que les historiens puissent fournir les faits historiques même lorsque ceux-ci contredisent le « récit national » souhaité par une formation politique ou une autre. Cette liberté de choisir son sujet de recherche, de s’exprimer dans un cadre académique sans pression politique ou économique, et d’enseigner le résultat de cette recherche, c’est ce qu’on appelle la liberté académique (voir l’Association pour la liberté académique). Elle s’accompagne d’une rigueur méthodologique, de normes éthiques propres à la communauté académique, et non externes.

Notons au passage à quel point ces exemples contrastent avec l’orientation politique des réformes de l’université en France, selon lesquelles la finalité de la recherche est l’innovation – pas un seul de ces exemples ne correspond à cette finalité.

En France, la liberté académique est un droit constitutionnel, consacré par le code de l’éducation (article L. 123-9) : « À l'égard des enseignants-chercheurs, des enseignants et des chercheurs, les universités et les établissements d'enseignement supérieur doivent assurer les moyens d'exercer leur activité d'enseignement et de recherche dans les conditions d'indépendance et de sérénité indispensables à la réflexion et à la création intellectuelle. »

Comment peut-on assurer « les conditions d'indépendance et de sérénité indispensables à la réflexion et à la création intellectuelle » ? Je veux m’attarder sur deux aspects essentiels : le statut des chercheurs et enseignants-chercheurs, et le mode de financement de la recherche. Ce sont ces deux points qui, en France et ailleurs, sont fragilisés par les réformes de l’enseignement supérieur et de la recherche (ESR) depuis quelques décennies (environ 20 ans en France, près de 40 ans au Royaume-Uni). Dans ce billet, je parlerai principalement du statut.

On a entendu maintes fois dans la bouche de politiciens la critique du « chercheur à vie ». La modernisation de l’ESR passerait par la contractualisation des chercheurs/enseignants-chercheurs, actuellement fonctionnaires. De fait, l’ambition des réformes de l’ESR depuis environ 20 ans est que les enseignants-chercheurs deviennent des employés de l’université, plutôt que des fonctionnaires d’Etat. Cette ambition est explicitée noir sur blanc dans le rapport Aghion-Cohen (deux économistes) de 2004, dont chacun pourra constater qu’il a servi de feuille de route aux différentes réformes depuis 20 ans (création de l’ANR, « autonomie » des universités, etc.). Ce rapport explique, non sans un certain cynisme, que les personnels étant particulièrement attachés à leur statut du fonctionnaire, il serait politiquement plus judicieux de transformer progressivement l’ESR non en changeant le statut des fonctionnaires en place, mais en créant de nouveaux postes contractuels financièrement plus intéressants et en laissant les postes actuels dépérir, de façon à ce que les personnels eux-mêmes demandent à acquérir le nouveau statut. Ainsi les réformes seront implémentées sans avoir besoin de porter cette question au débat public. Voir par exemple cette phrase (p112) : « En guise de méthode générale, l’idée est de toujours procéder par création – sans supprimer ce qui existe déjà – pour ouvrir des possibilités nouvelles au sein du système ancien, sans donner l’impression de remettre en cause ses fondements. ». Il s’agit donc bien de faire en sorte d’appliquer une politique sans que personne ne s’en rende compte. On appréciera le caractère démocratique de cette proposition.

On reconnaîtra par exemple dans cette proposition les « chaires de professeur junior » introduites il y a quelques années (échec cuisant, au passage, les candidats préférant toujours les postes de fonctionnaire pourtant moins rémunérés).

Puisque les défenseurs de ces réformes se réfèrent volontiers aux « normes internationales », laissant entendre que les pays « performants » emploient également les enseignants-chercheurs sur un modèle managérial issu du privé, il faut rappeler que la norme internationale dans le milieu académique, du moins jusqu’à récemment, c’est un statut protecteur pour les professeurs d’université. Aux Etats-Unis, les professeurs d’université bénéficient d’un statut exceptionnellement stable, y compris dans les universités privées comme Harvard, en comparaison avec statuts des contrats privés dans ce pays (certes après une période probatoire de quelques années). C’est ce qu’on appelle le système de « tenure ». Un professeur qui a sa tenure ne peut pas être licencié pour cause de performance insuffisante ou de restructuration, mais uniquement dans des circonstances extraordinaires. Ce système est explicitement conçu pour garantir la liberté académique. On voit d’ailleurs que les attaques actuelles contre l’université aux Etats-Unis utilisent non pas le contrat des professeurs (les professeurs ne sont pas licenciés), mais le système de financement par projets (j’y reviendrai). C’est donc bien un élément important de la liberté académique.

En France, on lit parfois que les enseignants-chercheurs ont été fonctionnarisés en 1983 sous Mitterrand. C’est faux. La loi a unifié des statuts disparates selon les disciplines, mais si les chercheurs des organismes (CNRS/INSERM) étaient en CDI, les professeurs et maîtres de conférences étaient fonctionnaires depuis longtemps, et cela explicitement en vue de garantir la liberté académique.

Au Royaume-Uni, le système de tenure a été abrogé par Thatcher en 1988, qui a introduit en Europe la doctrine du Nouveau Management Public, qui s’est ensuite propagée dans tous les pays européens. C’est la ligne politique des réformes actuelles en France, depuis une vingtaine d’années. Cette doctrine est explicitement inspirée du management privé, la motivation étant que le contribuable doit en avoir pour son argent. L’Etat ne finance plus les besoins du service public, mais fixe des objectifs de performance et attribue un budget aux agences en fonction de leur performance, libres à elles de s’organiser comme elles le souhaitent pour accomplir ces objectifs. C’est le sens du mot « autonomie » dans l’« autonomie des universités » : les universités sont « libres » d’employer les moyens qu’elles souhaitent, mais ne sont ni autonomes politiquement (au contraire l’Etat exerce un contrôle rapproché sur ce que les universités sont censées accomplir, via l’établissement d’objectifs), ni financièrement. Sur ce dernier point, notons qu’il y a néanmoins également une volonté de rendre l’université responsable d’une partie de son budget par l’intermédiaire des frais d’inscription, la facturation de prestations, etc., et cela est imposé par l’Etat non pas explicitement mais simplement en diminuant les budgets attribués – aux universités de s’organiser « librement » pour assurer le complément budgétaire nécessaire.

Résultat au Royaume-Uni : des frais d’inscription considérables (moyenne de 22000 livres/an en premier cycle), qui de fait font que les universités ne sont plus un service public, et qui fragilisent considérablement la situation financière des universités. Ainsi, avec la baisse du nombre d’étudiants étrangers (liée au Brexit), de nombreuses universités anglaises sont contraintes de licencier une partie de leurs professeurs, et le choix se fait sur des critères de performance. Le Times Higher Education constate : « The root cause of redundancies across British higher education is an unsustainable funding model. ».

Comme je l’écrivais plus haut, ce modèle thatchérien a été exporté progressivement dans tous les pays d’Europe, et on en voit les conséquences par exemple aux Pays-Bas, où les universités sont également contraintes de licencier une partie de ses enseignants-chercheurs.

C’est dans cette direction qu’il faut regarder si l’on veut savoir ce qui attend les enseignants-chercheurs en France dans les années qui viennent. La dernière pierre à l’édifice en 2025 est la dernière version des Contrats d'Objectifs, de Moyens et de Performance (COMP) qui doit entrer prochainement en vigueur. Il s’agit de conditionner le budget des universités à des critères de performance « négociés » avec l’Etat (on appréciera le terme de « négociation » dans une relation de totale dépendance). Ce budget incluant désormais les salaires des personnels, cela représente un contrôle inédit du pouvoir politique sur les universités. Il va sans dire que c’est une attaque frontale contre la liberté académique, qui je le rappelle requiert de garantir « les conditions d'indépendance et de sérénité indispensables à la réflexion et à la création intellectuelle ». A partir du moment où la sécurité financière des enseignants-chercheurs dépend de l’accomplissement d’objectifs fixés par l’Etat, ou de financements privés (exemple des chaires public-privé), ces conditions ne peuvent pas être remplies.

On a parlé récemment du Hcéres, organisme d’évaluation de l’ESR faisant suite à l’AERES, créé par la LPR en 2006. Récemment, un amendement de suppression a été voté, ce qui a provoqué un certain émoi au sein de la bureaucratie de l’ESR. Cet organisme, dont le dirigeant est nommé par le président de la République (le Parlement peut s’y opposer à condition de réunir une majorité des 3/5 ; dans les faits, E. Macron avait nommé son propre conseiller ESR malgré l’opposition de la communauté académique et de la majorité du Parlement), évalue les formations universitaires et les unités de recherche dans le plus pur esprit du nouveau management public : certes, ce sont des pairs qui participent à l’évaluation, mais en remplissant une grille pré-établie par la bureaucratie, où l’on trouve par exemple des diagrammes SWOT que les chercheurs doivent renseigner. De l’avis largement consensuel de la communauté académique, le Hcéres est une source considérable de gaspillage de temps. Récemment, le Hcéres a été accusé d'avoir falsifié les rapports d'évaluation de la vague E en vue de fermer des formations de philosophie, pas assez « professionnalisantes » (rapports commandés par ailleurs à des universitaires dont ce n’était pas le champ de compétence).

Ces réformes managériales vont bien plus loin en termes de remise en cause de la liberté académique que ce que l’on trouve par exemple aux Etats-Unis. A ma connaissance, il n’y a pas d’équivalent du Hcéres ni des contrats d’objectifs. Les porteurs de ces réformes ont beau répéter comme des évidences les poncifs du management public, comme « il faut bien évaluer », le fait est que ces évaluations centralisées n’existent pas aux Etats-Unis, qui sont pourtant souvent présentés comme modèle.

De fait, une part majeure du budget des grandes universités privées comme Harvard vient de leurs actifs financiers (environ 60 milliards de dollars pour Harvard), ce qui leur confère une certaine indépendance financière. Leur faiblesse quant à la défense de la liberté académique vient d’ailleurs, et il suffit pour cela d’observer le levier principal qu’utilise le pouvoir américain pour s’attaquer actuellement aux universités : le système de financement par projets, système exporté en Europe (l’ANR en France, création également des années 2000). Ce sera l’objet d’un prochain billet (vous pouvez déjà lire l’article que j’ai écrit il y a quelques temps sur ce sujet).

Exact simulation of integrate-and-fire models with synaptic conductances

Brette, R. (2006). Exact simulation of integrate-and-fire models with synaptic conductances. Neural Comput 18(8): 2004-2027.

Abstract. Computational neuroscience relies heavily on the simulation of large networks of neuron models. There are essentially two simulation strategies: 1) using an approximation method (e.g. Runge-Kutta) with spike times binned to the time step; 2) calculating spike times exactly in an event-driven fashion. In large networks, the computation time of the best algorithm for either strategy scales linearly with the number of synapses, but each strategy has its own assets and constraints: approximation methods can be applied to any model but are inexact; exact simulation avoids numerical artefacts but is limited to simple models. Previous work has focused on improving the accuracy of approximation methods. In this paper we extend the range of models that can be simulated exactly to a more realistic model, namely an integrate-and-fire model with exponential synaptic conductances.

Download code:

  • Functions for exact simulation: IFSC.h, IFSC.c (to include in your favourite event-driven simulator)
  • Scilab implementation of functions for exact simulation and an example script for a random network: ExpCondIF(Brette).zip. The archive includes a generic event-driven simulator written in Scilab for networks without delays (this is for pedagogical purposes and is not intended to be efficient at all). N.B.: Scilab is a free scientific software (resembling Matlab).

Exact simulation of integrate-and-fire models with exponential currents

Brette, R. (2007). Exact simulation of integrate-and-fire models with exponential currentsNeural Comput 19(10): 2604-2609.

AbstractNeural networks can be simulated exactly using event-driven strategies, in which the algorithm advances directly from one spike to the next spike. It applies to neuron models for which we have 1) an explicit expression for the evolution of the state variables between spikes and 2) an explicit test on the state variables which predicts whether and when a spike will be emitted. In a previous work, we proposed a method which allows exact simulation of an integrate-and-fire model with exponential conductances, with the constraint of a single synaptic time constant. In this note we propose a method, based on polynomial root finding, which applies to integrate-and-fire models with exponential currents, with possibly many different synaptic time constants. Models can include biexponential synaptic currents and spike-triggered adaptation currents.

Download code:

  • Scilab implementation of functions for exact simulation and an example script for a random network: ScilabExpIF.zip. The archive includes an event-driven simulator written in Scilab for networks with random external events and without delays (this is for pedagogical purposes and is not intended to be efficient at all). N.B.: Scilab is a free scientific software (resembling Matlab).
  • C++ implementation of the same example: EventDrivenExpIF.zip (with the algorithm from the paper) and ClockDrivenExpIF.zip (with a standard clock-driven algorithm).

Neural development of binaural tuning through Hebbian learning predicts frequency-dependent best delays

Fontaine, B. and Brette, R. (2011). Neural development of binaural tuning through Hebbian learning predicts frequency-dependent best delays. J Neurosci 31(32):11692–11696

Abstract. Birds use microsecond differences in the arrival times of the sounds at the two ears to infer the location of a sound source in the horizontal plane. These interaural time differences (ITDs) are encoded by binaural neurons which fire more when the ITD matches their "best delay". In the textbook model of sound localization, the best delays of binaural neurons reflect the differences in axonal delays of their monaural inputs, but recent observations have cast doubts on this classical view because best delays were found to depend on preferred frequency. Here we show that these observations are in fact consistent with the notion that best delays are created by differences in axonal delays, provided ITD tuning is created during development through spike-timing-dependent plasticity: basilar membrane filtering results in correlations between inputs to binaural neurons, which impact the selection of synapses during development, leading to the observed distribution of best delays.

Movie 1. Evolution of the synaptic weights of 3 neurons with CF = 2, 4 and 6, when presented with a binaurally delayed white noise with ITD = 167 µs.

Movie 2. Evolution of the best delays of 160 neurons with CF distributed between 2 kHz and 8 kHz, when presented with uncorrelated binaural noise.

Movie 3. Evolution of the best delays of 160 neurons with CF distributed between 2 kHz and 8 kHz, when presented with natural stereo recordings.

Late Emergence of the Whisker Direction Selectivity Map in the Rat Barrel Cortex

Kremer Y, Léger JF, Goodman DF, Brette R, Bourdieu L (2011).Late Emergence of the Whisker Direction Selectivity Map in the Rat Barrel Cortex. J Neurosci 31(29):10689-700.

Abstract. In the neocortex, neuronal selectivities for multiple sensorimotor modalities are often distributed in topical maps thought to emerge during a restricted period in early postnatal development. Rodent barrel cortex contains a somatotopic map for whisker identity, but the existence of maps representing other tactile features has not been clearly demonstrated. We addressed the issue of the existence in the rat cortex of an intra-barrel map for whisker movement direction using in vivo two photon imaging. We discovered that the emergence of a direction map occurs long after all known critical periods in the somatosensory system. This map is remarkably specific, taking a pinwheel form centered near the barrel center and aligned to the barrel cortex somatotopy. We suggest that this map may arise from intra-cortical mechanisms and demonstrate by simulation that the combination of spike-timing-dependent plasticity at synapses between layer 4 and layer 2/3 and realistic pad stimulation is sufficient to produce such a map. Its late emergence long after other classical maps suggests that experience-dependent map formation and refinement continue throughout adult life.

Supplementary movie (20 MB). Spikes of L2/3 neurons and evolution of their direction selectivity during the stimulation with random moving bars. The movie shows the spikes of all neurons in L2/3 during the stimulation with random moving bars (left) and the evolution of their direction selectivity (right), as estimated from the average selectivity of their presynaptic neurons in L4, weighted by the synaptic weights. Initial conditions and parameters are identical to those used in the Figure 6. In these conditions, the simulation lasted 1500 seconds. Only 3% of all frames are included in the movie. Note that when a moving bar activates a sequence of whiskers, the first barrel column reached by the bar is almost homogeneously activated (at least at the beginning of the simulation) whereas subsequent barrel columns already exhibit inhomogeneous activity. This inhomogeneous activation of the second, third, etc barrel columns is not a consequence of the existence of a radial direction selectivity map, as this map does not have enough time to develop for instance at the first presentation of the moving bar. It is just due to horizontal connections within layer 2/3, which propagate the activation of the first column to the next adjacent columns, inhibiting predominantly the closest regions to the first column. This inhomogeneous activation of barrel columns becomes reinforced as the direction selectivity map develops, but this contribution only comes in second.

Code. In the examples of the Brian simulator, there is a script that stimulates a plastic model of the barrel cortex with randomly moving bars, and shows the selectivity map after learning.