Une analyse globale de la nouvelle politique de recherche - (II) Préjugés psychologiques de l’idéologie managériale

J’ai souligné dans la première partie que l’idéologie managériale qui sous-tend les réformes actuelles de la recherche et de l’enseignement supérieur, et plus globalement la théorie du nouveau management public, est un obscurantisme. D’un point de vue scientifique, ce qui est frappant dans l’idéologie managériale, c’est la grossièreté des présupposés sur la psychologie humaine. Il ne s’agit que de carotte et de bâton : primes d’un côté, précarisation de l’autre. « Manager », c’est donc concevoir une structure d’incitations appropriées (« incentive structure »). La seule façon de faire travailler quelqu’un est de l’inciter financièrement à le faire, et de le sanctionner lorsqu’il ne le fait pas bien. En résumé, c’est de la psychologie béhavioriste dans sa version la plus grossière.

Il n’est apparemment pas venu à l’idée de ces gens qu’on puisse faire un travail parce qu’on l’aime, sans qu’il y ait pour autant une récompense extrinsèque, ou la menace d’une sanction. Ou qu’on puisse soigner correctement un patient, ou éviter de trafiquer ses données scientifiques, pour des raisons avant tout morales - comme le respect de son prochain et l’éthique intellectuelle. Ce n’est peut-être pas un hasard si ces idées sont théorisées principalement par des économistes, dont un certain nombre (heureusement, pas tous) semblent croire à la fable ridicule de l’« homo economicus ».

Or il se trouve (quelle surprise) que l’avidité et la peur ne sont pas les seules passions humaines. Il y a une littérature considérable en psychologie, par exemple, sur la motivation intrinsèque, comme la curiosité. Voir par exemple la théorie du flow de Mihály Csíkszentmihályi - mais pourquoi donc des gens font-ils du surf sans être payés ?! Et oui, les comportements moraux et altruistes existent, chez l’humain comme chez bien d’autres espèces (voir par exemple le travail de l’éthologue Frans de Waal). Il y a également une dimension morale dans une grande partie des activités sociales, et de manière évidente dans les métiers scientifiques et de santé : il s’agit de rechercher la vérité, ou de soigner des personnes (il ne peut pas y avoir de débat scientifique sans un minimum de confiance attribuée à ses acteurs). Ce que résume l’expression « conscience professionnelle ».

La motivation humaine est complexe, et si elle ne se réduit pas à l’altruisme, elle ne se réduit pas non plus à l’avidité et la peur. On se demande bien d’ailleurs quel degré d’inculture il faut avoir en face de nous pour que ce rappel soit nécessaire, tant une bonne partie de la littérature tourne autour de ce fait.

Le rôle des structures, par conséquent, est de permettre à certains aspects de la motivation humaine de s’exprimer, plutôt que d’autres. Ceci est très bien illustré par le discours poignant d’une diabétologue dans le contexte des politiques managériales de l’hôpital. Elle y explique l’effet d’une gestion bureaucratique fondée exclusivement sur la carotte et le bâton : « je devenais une espèce de robot », « je ne suis plus éthique ». Cette nouvelle organisation fondée exclusivement sur la récompense et la sanction (extrinsèques) la conduit à ne plus exercer correctement son métier. Or, le point crucial à relever, c’est qu’auparavant, les médecins n’avaient absolument pas besoin de cela pour soigner les patients. Ils soignaient parce que c’était leur métier. Pas parce que ça rapporte à l’hôpital et que du coup ils auront peut-être une prime. Il existe (existait) des structures sociales pour encourager cette attitude vertueuse. Par exemple la formation (comme l’internat) dans des structures où cette attitude est socialement valorisée. Peut-être aussi la sélection : pour être médecin hospitalier, il faut avoir fait ses preuves dans un service hospitalier, et donc être choisi par d’autres médecins hospitaliers selon des critères propres à l’éthique du métier, et non selon le taux de remplissage des lits.

Quelle drôle d’idée, lorsque l’on a un système qui fonctionne en permettant aux motivations humaines les plus vertueuses de s’exprimer, de le changer pour un système manifestement dysfonctionnel, précisément parce qu’il est organisé pour encourager le pire de l’humain - l’avidité et la peur. Cette drôle d’idée, on ne peut l’avoir que si l’on possède une vision caricaturale de la psychologie humaine. Une vision sectaire et, puisqu’en l’occurrence il s’agit de choses très documentées scientifiquement, une vision obscurantiste. Dans ce contexte, l’insistance des partisans du nouveau management public à instaurer une révolution culturelle (la fameuse « culture du résultat ») est particulièrement inquiétante. Il s’agit ni plus ni moins que d’expurger pratiquement tout ce qu’il y a d’humain en chacun de nous, et de nous transformer, en effet, en « une espèce de robot ».

Une analyse globale de la nouvelle politique de recherche (I) - le contexte idéologique

La communauté scientifique est en effervescence à l’approche de la mise en place de la « loi de programmation pluriannuelle de la recherche » (LPPR). Au programme, entre autres : un renforcement de la mise en compétition des structures et des personnes par l’intermédiaire d’appels à projets, un renforcement de la précarisation (déjà très importante) par l’implémentation de la « tenure track », c’est-à-dire CDD de 5-7 ans pouvant (ou pas) mener à une titularisation, un accroissement de l’évaluation bureaucratique (c’est-à-dire par des objectifs chiffrés) des institutions et des personnes, une différenciation des rémunérations et des conditions de travail notamment par une politique de primes généralisée, un temps d’enseignement des enseignants-chercheurs non plus statutaire (192h équivalent-TD) mais « négocié » avec la direction, un renforcement de la recherche « partenariale » (c’est-à-dire au profit d’une entreprise) au détriment de la recherche fondamentale, et, globalement, un affaiblissement considérable de l’autonomie scientifique et universitaire.

Naturellement, ce projet suscite une inquiétude considérable dans la communauté académique, et de nombreuses critiques ont déjà été formulées, par le biais des institutions (qui ignorent ces critiques) mais également dans la presse. En passant : je parlerai par la suite de projet, de politique ou d’idéologie plutôt que de loi, car il est vraisemblable que l’essentiel du projet se passe du débat parlementaire. Les « tenure-tracks » par exemple, qui signent la mort annoncée des statuts de chargé de recherche et maître de conférences, ont déjà été mis en place cette année avant même la discussion de la loi, grâce à une disposition législative elle-même non discutée au Parlement, le CDI de projet (passée par ordonnances en 2017).

Beaucoup de choses ont été dites et écrites, mais les discussions tournent généralement autour de points spécifiques, sur chacune des mesures prises individuellement, et donc de manière réductionniste. Par exemple, concernant l’ANR qui finance désormais les projets de recherche, une partie de la communauté se focalise sur le faible taux de succès (10-15% selon les années), source en effet d’un énorme gâchis. Des voix s’élèvent donc pour augmenter le budget de l’ANR de façon à augmenter ce taux de succès. Or l’ANR finance en grande partie des postdocs, et augmenter son budget va donc mécaniquement entraîner une précarisation, précarisation qui suscite pourtant l’inquiétude de cette même communauté. Concernant la tenure track, si la communauté y est généralement opposée, certains y voient une évolution potentiellement positive « si c’est bien fait », en permettant par exemple des rémunérations plus attractives, comme le pouvoir l’annonce. C’est oublier que ce qui permet une augmentation des rémunérations, c’est soit une augmentation du budget (qui pourrait se faire sans précarisation) soit une diminution du nombre de recrutements. D’autres se disent que la tenure track (CDD puis titularisation conditionnelle) est un progrès par rapport au postdoc (CDD puis concours). C’est négliger deux choses : d’une, que la tenure track n’exclut pas le postdoc, qui reste la norme dans tous les pays qui implémentent la tenure track ; d’autre part, que les chances de titularisation dépendent non des mots employés par les autorités pour faire la publicité de la réforme (« engagement moral »), mais du budget rapporté au nombre de candidats. Etant donné que le concours CNRS, pour prendre un exemple, a un taux de succès de 4%, de deux choses l’une : soit la tenure track va avoir un taux de sélection comparable, auquel cas la différence principale avec le système actuel sera la précarité du contrat ; soit le taux de titularisation sera comparable, auquel cas l’effet principal sera de reculer de 5-7 ans l’âge de la sélection pour un poste stable ; ou bien sûr, le plus probable, un intermédiaire : taux de sélection de 8%, taux de titularisation de 50%.

Enfin concernant les « CDIs de projet », c’est-à-dire une mesure essentiellement technique permettant de mettre en place des CDDs plus longs que ceux autorisés par la loi, nombreux sont ceux, en particulier en biologie, qui voient cette mesure d’un bon œil. La raison est la loi Sauvadet censée résorber la précarité, qui impose à l’employeur de titulariser les personnels en CDD depuis plusieurs années. Mais comme l’Etat ne veut pas titulariser, cela signifie que les institutions refusent de prolonger les CDDs au-delà d’une certaine limite. Cela est perçu à juste titre comme un gâchis par de nombreux chercheurs, car il se produit souvent une situation dans laquelle un laboratoire dispose des fonds pour prolonger le contrat d’un postdoc expérimenté, mais est contrainte administrativement de recruter à la place un postdoc inexpérimenté. Cependant, de manière plus globale, l’effet de la mise en place de CDIs de projet est mécaniquement un allongement de la durée des postdocs, donc une titularisation (ou non) plus tardive, assortie éventuellement d’une diminution du nombre de postdocs - à moins que le taux de succès de l’ANR augmente par une augmentation de budget.

En résumé, une analyse réductionniste ne permet pas de former une critique cohérente. Elle tend à naturaliser le fonctionnement des institutions, c’est-à-dire à considérer par exemple que le financement par projet de la recherche est une sorte de loi de la nature plutôt qu’une construction sociale (d’où la référence constante aux « standards internationaux »). Or il s’agit bien entendu de politiques choisies, et dans le cas de la France assez récemment. C’est pourquoi il me semble important de prendre un peu de recul pour analyser cette nouvelle politique de manière globale, y compris dans le contexte plus large des politiques publiques.

 

  1. L’idéologie générale : le nouveau management public

Antoine Petit, PDG du CNRS, a brillamment résumé l’inspiration idéologique de la LPPR: il s’agira d’une loi « darwinienne ». Cette terminologie n’a pas manqué de susciter de vives critiques de la part de la communauté scientifique (ici et ). Il s’agit de mettre en compétition des institutions et des personnes sur la base d’objectifs décidés par l’Etat, et « que le meilleur gagne ». Cette référence n’est absolument pas anecdotique, contrairement à ce que Mme Vidal et M. Petit ont essayé d’expliquer de manière peu convaincante par la suite. Il s’agit d’une forme de gestion publique qui n’est ni improvisée ni spécifique à la recherche, et qui a été théorisée sous le nom de nouveau management public. Il s’agit non plus d’organiser les services publics par la mise en place raisonnée d’infrastructures publiques, de manière spécifique à chaque mission (une approche perçue comme « soviétique » et donc inefficace), mais en mettant en compétition diverses institutions, qui sont « libres » de mettre en place les moyens qu’ils jugent nécessaires pour accomplir des objectifs chiffrés fixés par l’Etat. Ces objectifs peuvent être par exemple la position dans un classement international des universités, ou la durée moyenne de séjour dans les hôpitaux. C’est le sens du mot « autonomie » dans l’« autonomie des universités » instaurée par Nicolas Sarkozy en 2007. Naturellement, il ne s’agit pas d’autonomie scientifique, puisque celle-ci suppose précisément un financement inconditionnel (c’est-à-dire emploi garanti et budget récurrent), ni d’autonomie financière puisque les financements restent versés par l’Etat, sous condition d’objectifs fixés par l’Etat. Il s’agit d’une autonomie de méthode, pour accomplir des objectifs fixés préalablement par l’Etat.

Naturellement, cette mise en compétition au niveau des structures (e.g. universités) se décline de manière hiérarchique jusqu’à l’échelle individuelle, puisque pour survivre, la structure doit faire en sorte que les employés contribuent à la réalisation des objectifs. C’est pourquoi il est en permanence question d’instaurer une « culture du résultat » ou de l’évaluation. Cet appel à la révolution culturelle qui évoque le maoïsme est d’ailleurs tout à fait significatif, j’y reviendrai.

Cette idéologie n’est ni spécifique à la recherche, ni naturellement à la France. Son instigatrice la plus connue est Mme Thatcher, qui l’a mise en place au Royaume-Uni dans les années 80. Elle a également été mise en place par le régime nazi dans les années 1930, comme l’a montré l’historien Johann Chapoutot - j’y reviendrai. Son bilan, pour dire un euphémisme, n’est pas fameux (voir par exemple un compte rendu très récent dans Nature d’une étude dans le monde académique). Pour ce qui est de la santé, par exemple, sa mise en place en France par le biais de la tarification à l’activité (T2A) a conduit aujourd’hui à une situation dramatique - j’y reviendrai également.

 

  1. Une politique libérale ?

Il est important de bien situer cette idéologie sur l’échiquier politique. En effet, elle est souvent perçue (et présentée) comme une idéologie d’inspiration libérale. Il est d’ailleurs tout à fait plausible que ses défenseurs la pensent ainsi de manière sincère - bien sûr dans les démocraties libérales modernes, et peut-être pas au sein du IIIe Reich qui l’implémentait également. C’est un malentendu qui est source d’une grande confusion, et qui explique son soutien électoral de la part de citoyens de sensibilité centriste - que sont une bonne partie des chercheurs.

La filiation avec la pensée libérale se fait, on l’a compris, par l’idée de l’efficience du marché. Le marché serait un outil productif efficace en cela qu’il permettrait, par la libre opération des producteurs et la sélection par les consommateurs, de faire émerger les solutions les plus efficaces. D’où l’essence « darwinienne » de ces idées (dans le sens bien sûr des croyances populaires, et non du Darwinisme en biologie qui n’est absolument pas individualiste). Cette efficience émergerait naturellement de la libre opération des marchés dans un contexte marchand (j’invite néanmoins le lecteur à lire ce que pensent les anthropologues du présupposé naturaliste des économistes sur la monnaie et l’échange marchand). Le libéralisme économique, par conséquent, préconise de réduire l’intervention de l’Etat au strict nécessaire, et peut être associé (ou pas) au libéralisme politique, en particulier la protection des libertés individuelles. Le marché est vu comme un moyen optimal de distribuer l’information dans une économie - bien sûr, aucun économiste sérieux ne considère plus aujourd’hui que les marchés réels se comportent ou puissent se comporter comme les « marchés parfaits » de l’économie néoclassique (voir par exemple le travail de J. Stiglitz). Dans un contexte de guerre froide, ce type d’organisation économique se pense en opposition avec la planification soviétique, qui serait bureaucratique, « sclérosante ».

On touche ici à un problème épistémologique essentiel, sur lequel je reviendrai plus tard, qui constitue l’erreur intellectuelle fondamentale du nouveau management public. En effet, si l’on conçoit qu’un marché puisse exister naturellement dans le cadre d’échanges commerciaux où il existe une métrique objective, l’argent, ce n’est a priori pas le cas de la santé, la science, la justice ou la police. Il faut donc créer ces métriques, par exemple : la durée de séjour, le nombre de publications, le nombre de jugements, le nombre d’amendes. Ces métriques et les objectifs qui y sont associés n’existant pas de manière naturelle (peut-on quantifier la vérité, ou la justice ?), ils doivent être créés par l’Etat. Cela suppose donc la création d’une bureaucratie d’Etat.

On arrive donc à un étonnant paradoxe : alors que le libéralisme est un courant de pensée fondamentalement anti-bureaucratique, on est ici en présence d’une doctrine qui préconise la mise en place d’une bureaucratie d’Etat. C’est en effet une constatation et une plainte récurrentes de tous les chercheurs et universitaires français depuis la mise en place, ces quinze dernières années, de politiques de ce type : alors même qu’il s’agissait officiellement de « moderniser » un appareil d’enseignement et de recherche jugé bureaucratique, « sclérosé », voire proto-soviétique (en particulier dans le cas du CNRS), de l’avis de tous la bureaucratie a au contraire considérablement envahi la vie quotidienne de ces professions, par le biais des multiples appels d’offres et procédures d’évaluation, mais également des nouvelles structures administratives qui ont été créées pour organiser le marché de l’excellence scientifique (HCERES, pôles d’excellence, fusion d’universités, IDEX/LABEX/EQUIPEX/IHU, etc). Ceci se manifeste également dans l’emploi public, puisqu’alors même que le recrutement de chercheurs, d’enseignants-chercheurs et de techniciens est en forte baisse, l’emploi administratif et donc le coût de gestion ont littéralement explosé au sein de l’ANR, agence chargée d’organiser l’évaluation des appels d’offre en recherche. De même, dans l’hôpital public, une plainte récurrente des médecins concerne le temps considérable qu’ils doivent désormais passer au « codage », c’est-à-dire à assigner à chaque patient et chaque acte des codes issus d’une nomenclature bureaucratique. Cette bureaucratisation n’est pas un accident, comme je l’indiquais précédemment. Elle a été par ailleurs décrite dans le contexte plus large du néolibéralisme par les sciences sociales (voir par exemple le travail de D. Graeber et de B. Hibou).

Manifestement, cette idéologie prétendument libérale est une idéologie bureaucratique, ce qui n’est déjà pas rien. Deuxièmement, le rôle de l’Etat n’est plus du tout d’assurer les libertés individuelles. En effet, dans un marché classique, d’échange marchand, ce qui est produit est décidé de manière autonome (en théorie du moins) par les acteurs de ce marché, c’est-à-dire en dernière analyse (en théorie encore) par les consommateurs. Il faut donc assurer la liberté individuelle de ces acteurs. Or dans le nouveau management public, ce qui est produit est décidé par l’Etat, spécifiquement par la bureaucratie mise en place par l’Etat pour fixer les objectifs, qui utilise la mise en compétition uniquement comme outil de gestion. Il ne s’agit donc absolument plus d’assurer la liberté individuelle des acteurs, qui doivent fournir ce qui leur est demandé par la bureaucratie. Ceux qui ne le font pas doivent quitter le système (exemple du tenure track). C’est ainsi qu’un des points majeurs de ces réformes, en particulier dans la recherche, est de revenir sur le statut de fonctionnaire, qui assure l’autonomie scientifique et universitaire, de façon à pouvoir soumettre les employés à la bureaucratie locale (direction d’université) ou nationale (ministère). Paradoxalement, c’est au nom du libéralisme que l’on attaque les libertés académiques.

On est donc en présence d’une idéologie qui est fondamentalement bureaucratique, et qui n’entend pas garantir les libertés individuelles. Pour ce qui est du libéralisme politique, on ne peut que constater également qu’il n’y a pas grand-chose de libéral dans la pratique actuelle des institutions politiques (avec par exemple le recours généralisé aux ordonnances pour passer des réformes majeures), dans la répression violente des opposants politiques, dans l’intimidation des journalistes, dans la volonté de censurer les réseaux sociaux, dans la restriction de la liberté d’expression des étudiants et universitaires, ou encore dans le déploiement de la reconnaissance faciale automatique par l’Etat.

Que reste-t-il donc du libéralisme dans cette idéologie ? Peu de choses en effet. C’est la raison pour laquelle les historiens, sociologues et philosophes parlent de néolibéralisme (à ne pas confondre avec l’ultralibéralisme), et c’est également la raison pour laquelle ses partisans refusent typiquement cette étiquette de manière véhémente, quand bien même il s’agit d’une dénomination savante, parce qu’elle indique que l’on a affaire à tout à fait autre chose que du libéralisme. Ce malentendu sur la nature prétendument libérale (au sens classique) de cette idéologie est source de grande confusion. Il explique peut-être l’opposition quasi-systématique d’une grande partie de la population à des réformes pourtant portées par des gouvernements centristes élus, y compris élus par des membres du monde académique qui se considèrent de centre gauche.

 

  1. L’obscurantisme managérial

Il existe pour les universitaires et chercheurs une raison spécifique de s’opposer à cette idéologie, en lien avec l’éthique intellectuelle qu’ils entendent défendre par leur métier. Il s’agit en effet d’une idéologie qui repose sur une argumentation d’un niveau intellectuel affligeant (suite de poncifs et de préjugés non étayés), des analogies douteuses (le marché, voire le darwinisme), et un refus de toute évaluation empirique (depuis son application, l’hôpital public est en crise grave et la recherche française tombe dans les classements mis en avant par les autorités elles-mêmes). Autrement dit, une idéologie obscurantiste tendant vers le sectaire. Les discours portant cette idéologie font rire toute la communauté académique tellement ils sont caricaturaux de novlangue : tout doit être « excellent », il faut faire « sauter des verrous », favoriser « l’innovation disruptive ». Il faut consulter l’hilarant site de l’Agence Nationale de l’Excellence Scientifique, parodiant l’Agence Nationale de la Recherche.

Il vaut mieux en rire, sans doute, mais ces discours n’en sont pas moins affligeants. L’argumentation que l’on retrouve dans les rapports officiels et les contrats d’objectifs des différentes institutions ne sont malheureusement pas d’un niveau intellectuel plus élevé. Il s’agirait par exemple de s’aligner sur les « standards internationaux » - un mimétisme censé favorisé l’innovation, ce qui est assez croustillant. On ne s’est visiblement pas posé la question de dresser un bilan de ces politiques menées à l’étranger ou en France, qui n’est pourtant pas brillant. Quelle est donc la justification en ce qui concerne l’enseignement supérieur et la recherche ? On peut la paraphraser ainsi : puisque ces politiques ont été implémentées dans les pays anglo-saxons, en particulier les Etats-Unis, et que les Etats-Unis sont leaders dans tous les classements, c’est donc que ces politiques sont efficaces : il faut donc s’empresser de copier ce modèle.

N’importe quel scientifique devrait bondir face à une telle argumentation qui mélange corrélation et causation de la manière la plus grossière qui soit. On aurait pu se dire : tiens, les Etats-Unis étant politiquement hégémoniques, toute la science se fait dans leur langue maternelle, dans des revues toutes anglo-saxonnes, et qui plus est avec des moyens sans commune mesure avec les budgets français. Peut-être que ces facteurs ont une petite influence ? On aurait pu se dire : tiens, peut-être que les grandes universités américaines sont mondialement connues au-delà du monde académique, alors que l’Ecole Polytechnique pas tellement, parce que les Etats-Unis sont culturellement hégémoniques, de sorte que Legally Blonde a été tourné à Harvard et pas à Assas ? Auquel cas il ne serait peut-être pas si pertinent de faire tellement d’efforts à renommer toutes les universités parisiennes en déclinant la marque Sorbonne ? On aurait pu se dire encore : tiens, peut-être que les Etats-Unis ont un excellent vivier scientifique précisément parce que des pays comme la France imposent à tous leurs meilleurs docteurs de passer plusieurs années aux Etats-Unis pour se former parmi les meilleurs, se « faire un réseau », apprendre l’anglais, comme condition pour une éventuelle titularisation dans leur pays d’origine ? Mais, on ne s’est rien dit de tout ça. Ce qui marche, c’est le « marché » et la compétition généralisée. Point.

Sur certains points, il existe des études scientifiques qui vont au-delà des sophismes managériaux. Par exemple, est-il plus efficace de concentrer les ressources sur les « meilleurs » ? Même si l’on adopte les critères bureaucratiques promus par l’idéologie managériale (nombre de publications, etc), la réponse est, selon plusieurs études sur des données différentes : non. Il est plus efficace de diversifier les financements que de les concentrer en créant de grosses structures (Fortin & Curie, 2013 ; Cook et al., 2015 ; Mongeon et al., 2016 ; Wahls, 2018). D’autres études montrent que la sélection sur projet n’est que faiblement prédictive de l’impact scientifique, tel que mesuré par ces mêmes politiques (Fang et al., 2016 ; Scheiner & Bouchie, 2013). Manifestement, les décideurs politiques de l’enseignement supérieur et de la recherche ne sont pas intéressés par l’évaluation empirique de leurs théories. Il est donc approprié de qualifier cette attitude d’obscurantiste. Et on ne peut pas, on ne doit pas, en tant que scientifiques (au sens large), respecter l’obscurantisme, c’est-à-dire le mépris de l’éthique intellectuelle qui fait l’essence de notre métier.

Il est important de noter que ces politiques se présentent volontiers comme « rationnelles » - il ne s’agirait finalement que de dérouler des arguments peut-être déplaisants mais « logiques ». Ce mot, « rationnel », devrait être un signal d’alarme pour tous les intellectuels. Car un intellectuel doit savoir que la logique, la raison, se déploient nécessairement au sein d’un certain modèle du monde. Par conséquent, la vérité d’un raisonnement est conditionnée à la pertinence empirique et théorique de ce modèle. C’est pourquoi l’essence de la science (au sens large) est le débat argumenté, documenté et honnête, c’est-à-dire explicitant les hypothèses, épaulé par les institutions sociales adéquates (comme la revue par les pairs). Passer sous silence cet aspect, et prétendre qu’il existerait une Vérité objective, c’est faire preuve de sectarisme, et en effet d’obscurantisme puisque cela suppose d’ignorer délibérément toute production savante contraire à la doxa.

L’enjeu pour la communauté académique, donc, n’est pas simplement d’aménager à la marge des réformes prétendument démocratiques (augmenter le taux de succès de l’ANR) ou de les « négocier » (on accepte la précarisation en échange de primes), mais de s’opposer à l’obscurantisme qui fonde ces projets, et éventuellement de penser autre chose à la place.

 

  1. Pensée bureaucratique et idéologies sectaires

Il faut rappeler ici qu’avant la guerre froide, la bureaucratie a volontiers été présentée sur un mode laudatif. Le sociologue Max Weber, par exemple, considérait en se référant à la bureaucratie industrielle qu’il s’agissait là d’un mode particulièrement efficace de production, rationnel. De même la planification soviétique était pensée comme une approche scientifique, rationnelle, de la production (algorithmique, pourrait-on peut-être dire en langage moderne). La bureaucratie instituée par le nouveau management public n’échappe pas à ce type de discours. Je reviendrai plus tard sur les raisons fondamentales pour laquelle l’approche bureaucratique ne peut pas fonctionner pour des activités telles que la science (ou la santé). Un point intéressant relevé par l’historien Johann Chapoutot est que les politiques similaires au nouveau management public menées par le IIIe Reich étaient, contrairement à l’image d’efficacité que l’on en a à cause de la propagande nazie, en réalité tout à fait inefficaces, chaotiques.

J’ai mentionné rapidement les similarités idéologiques, naturellement sur certains aspects uniquement, avec la politique nazie et avec la bureaucratie soviétique. J’ai également mentionné en passant l’inquiétante insistance des dirigeants politiques à instaurer une « culture du résultat », c’est-à-dire qu’il s’agit non seulement d’instaurer de nouvelles structures étatiques, mais également de transformer les individus pour qu’ils embrassent la nouvelle orientation politique. Ce n’est pas sans rappeler la « révolution culturelle » maoïste, visant à éradiquer les valeurs culturelles traditionnelles (naturellement, avec des moyens violents que je ne prétends pas comparer à l’action publique actuelle).

Pour qu’il n’y ait pas de malentendu, il ne s’agit pas de dire que la théorie du nouveau management public est une idéologie nazie, ou stalinienne, ou maoïste (celles-ci étant de toutes façons incompatibles). D’ailleurs, il semble plausible que M. Petit, lorsqu’il considère maladroitement que la loi doit être inégalitaire et « darwinienne », ignore qu’il formule là la doctrine du darwinisme social, un fondement essentiel du néolibéralisme comme l’a montré la philosophe Barbara Stiegler, mais également un des fondements idéologiques du nazisme. Il n’est pas question ici de mettre sur le même plan les horreurs commises au nom de ces courants de pensée avec la destruction des constructions sociales commises au nom du nouveau management public. Néanmoins, sur un plan intellectuel, les points communs avec ces idéologies sectaires doivent nous interroger. Il existe bien un recouvrement idéologique partiel dont on peut tout à fait comprendre les aspects problématiques. Par exemple, la promotion de la compétition généralisée des individus dans un but supérieur, les individus eux-mêmes n’ayant de valeur que dans la mesure où ils contribuent à la puissance de la Nation (ainsi la référence constante à la compétition internationale, aux classements internationaux, aux « stars » qu’il faudrait attirer) ; position qui rend inopérant tout argument de type social (par exemple la précarisation extrême du métier de chercheur), mais aussi scientifique (c’est-à-dire que le but premier de la science est la recherche de la vérité et non la production). Il ne s’agit donc pas de nazisme, de maoïsme ou stalinisme, mais il reviendra néanmoins aux défenseurs de ce projet politique d’argumenter que « tout n’est pas à jeter » dans ces grandes idéologies sectaires. Que toute activité sociale doit contribuer exclusivement à la production de la Nation. Que les opinions et attitudes des gens doivent être transformées pour le bien de la Nation. Que la bureaucratie, c’est efficace et rationnel.

En résumé, il ne faut pas passer à côté des enjeux de la transformation en cours de l’enseignement supérieur et de la recherche. Il ne s’agit pas de discuter du taux optimal de succès à l’ANR mais de contester la pertinence du projet comme mode essentiel d’organisation de la recherche. Il ne s’agit pas de discuter des métriques les plus pertinentes pour évaluer les personnes, mais de contester l’organisation profondément bureaucratique que cette « culture de l’évaluation » suppose, et de réaffirmer l’autonomie académique nécessaire à l’exercice de la recherche. Il ne s’agit pas de savoir comment au mieux renforcer l’« attractivité internationale » du métier, mais de contester l’idée d’un progrès scientifique fondé essentiellement sur la compétition et la sélection - plutôt que, par exemple, sur la coopération, l’éducation et le partage. Il ne s’agit pas, enfin, de se demander comment favoriser au mieux l’« innovation de rupture », mais de contester l’idée selon laquelle l’activité scientifique doit être subordonnée à la production marchande.

Il s’agit donc en premier lieu de dénoncer l’obscurantisme et le sectarisme qui fondent ces réformes, et non de les négocier en acceptant leurs présupposés. En second lieu, il s’agira de penser les questions centrales de science et d’université dans un cadre intellectuel libéré du sectarisme managérial.

Toutes ces remarques sont finalement assez peu spécifiques de l’enseignement supérieur et de la recherche. Par la suite, je tenterai de rentrer dans une discussion plus spécifique, en particulier sur la nécessaire autonomie de la science, à mettre en regard avec la culture du projet.

Deuxième partie: Préjugés psychologiques de l’idéologie managériale

A propos de la tribune NoFakeScience

Récemment, une tribune a été publiée par le collectif NoFakeScience visant à alerter les médias sur leur traitement de l’information scientifique, en particulier de présenter les consensus scientifiques en tant que tels et non comme de simples opinions parmi d’autres. Intention louable, et sujet en effet très important. Pourtant, cette tribune a été vertement critiquée à la fois par des scientifiques et des journalistes scientifiques. Pourquoi ?

Certains ont cru y voir la main de lobbys industriels, tant le choix des « consensus scientifiques » est (en majeure partie) aligné avec les intérêts de ces groupes. Je ne connais pas personnellement les signataires, mais au vu de la liste il me semble plausible que les signataires soient sincères. Les journalistes flairent souvent le conflit d’intérêt, déformation professionnelle peut-être. Mais l’intérêt personnel n’est pas la seule (ni même la principale) motivation humaine, ni la seule source de biais cognitif. Il est à mon sens plus pertinent en l’occurrence d’y voir des biais philosophiques (j’y reviendrai). Quoi qu’il en soit, je veux ici commenter le texte lui-même en essayant d’éviter le procès d’intention.

Le choix des « consensus »

L’intention affichée, malgré quelques naïvetés philosophiques sur la « méthode scientifique », est louable et résumée dans cette phrase : « l’état de nos connaissances ne saurait être un supermarché dans lequel on pourrait ne choisir que ce qui nous convient et laisser en rayon ce qui contredit nos opinions. ». Malheureusement, c’est précisément ce que l’on peut reprocher à la liste qui suit de 6 « consensus scientifiques », que je reproduis ici verbatim :

  1. La balance bénéfice/risque des principaux vaccins est sans appel en faveur de la vaccination.
  2. Il n’existe aucune preuve de l’efficacité propre des produits homéopathiques.
  3. Aux expositions professionnelles et alimentaires courantes, les différentes instances chargées d’évaluer le risque lié à l’usage de glyphosate considèrent comme improbable qu’il présente un risque cancérigène pour l’homme.
  4. Le fait qu’un organisme soit génétiquement modifié (OGM) ne présente pas en soi de risque pour la santé.
  5. Le changement climatique est réel et d’origine principalement humaine.
  6. L’énergie nucléaire est une technologie à faible émission de CO2 et peut contribuer à la lutte contre le changement climatique.

A supposer qu’il s’agisse bien de consensus scientifiques (j’y reviens ci-dessous), il y a ici indéniablement un choix qui est fait dans cette présentation. Certains faits bien établis ont été « laissés en rayon », comme par exemple : les pesticides posent un très grave problème pour la biodiversité et de manière générale l’écosystème dont nous dépendons ; le nucléaire pose de sérieux problèmes de dissémination, accidents, déchets radioactifs. Ces remarques sont-elles « hors sujet », comme j’ai pu le lire dans les réactions du collectif ? Non, si l’on revient à la motivation même de la tribune, à savoir ne pas choisir uniquement ce qui nous convient. Bien sûr, il fallait bien faire un choix, ne serait-ce que pour la lisibilité. C’est là que j’en viens au biais philosophique. Ce choix parmi les faits établis est-il aléatoire ? Ce qui saute aux yeux, et qui n’a pas manqué d’être remarqué par les détracteurs de cette tribune, c’est que ces faits (sauf éventuellement le point (5)) vont globalement dans le sens de la glorification du progrès technique. Si l’on avait choisi à la place : les pesticides menacent les écosystèmes naturels ; les OGMs introduisent une relation de dépendance entre les agriculteurs et les multinationales ; les technologies nucléaires actuelles produisent des accidents catastrophiques ; nul doute que le message de la tribune aurait été modifié. Il y a donc une position philosophique qui se dégage nettement dans ce choix, à savoir une confiance a priori dans le progrès technique, que l’on retrouve par exemple chez des intellectuels comme Steven Pinker – dont le moins que l’on puisse dire est qu’il ne fait pas consensus.

Je vais maintenant commenter plus en détails ces points. Sur ces 6 points, j’estime que 3 points peuvent être légitimement qualifiés de consensus scientifiques (1, 2 et 5), mais que les 3 autres prétentions de consensus sont au mieux fallacieuses, au pire fausses.

L’homéopathie

Je commence par la question qui me semble la plus simple, à savoir l’efficacité de l’homéopathie (point 2), pour la contraster avec les autres. Contrairement aux autres points, il s’agit d’un problème scientifiquement assez simple, et qui à mon sens a été mal présenté. On entend souvent « l’effet de l’homéopathie est placebo ». C’est une formulation qui porte à confusion (il faut reconnaitre que la littérature scientifique est elle-même un peu confuse sur ce point). Tester l’efficacité propre de l’homéopathie est relativement simple. Lors de la consultation, on substitue aux granules homéopathiques des granules de sucre d’aspect identique. Cette substitution est faite de manière aléatoire dans la moitié des patients, à leur insu mais également à l’insu de l’homéopathe (ce qu’on appelle « en double aveugle »). Lorsque l’on suit leurs symptômes, on constate qu’il n’y a pas de différence entre les deux groupes. Le traitement homéopathique n’a donc pas d’effet propre. Pire que cela, ce serait un effet toxique. Comme le traitement de substitution s’appelle techniquement un « placebo » (terme un peu abusif), on rapporte que l’homéopathie n’est pas mieux qu’un placebo. Mais dans l’expérience que je viens de décrire, à aucun moment on a montré que l’homéopathie (ou la granule de sucre) a un « effet placebo » (au sens où la croyance en l’efficacité a un effet thérapeutique), ou un quelconque effet. On a simplement montré que l’efficacité ne pourrait pas être pire sans être toxique. Ce malentendu, me semble-t-il, est à l’origine de nombreuses réactions sur le mode : même s’il n’y a pas de substance active, pourquoi ne pas inciter les gens qui y croient à prendre de l’homéopathie, puisque l’effet placebo ça marche ?

Etant donnée la croyance répandue et fausse que l’homéopathie est efficace, il semblerait utile en effet comme le demande la tribune de mieux communiquer l’information scientifique. Cependant, il ne me semble pas en l’occurrence que les médias aient prétendu le contraire de ce que la tribune répète, à savoir qu’il n’y a « aucune preuve de l’efficacité propre ». Le problème, donc, ne semble pas tant être dans la communication de la parole scientifique, mais dans le crédit que les gens lui accordent (y compris les hommes politiques, visiblement), ce qui n’est pas exactement le même débat. La formulation employée dans la tribune ne clarifie pas tellement le sujet. Ce n’est pas exactement qu’il n’y a « aucune preuve ». Plutôt, l’efficacité a été testée de multiples fois, par des méthodes qui auraient dû révéler un effet de l’homéopathie s’il existait, ce qui n’a pas été le cas. Cela signifie que s’il existe un effet de l’homéopathie, il doit être extrêmement faible. Mettre cela sur le même plan que, par exemple, le glyphosate (voir ci-dessous), n’aide pas à clarifier la situation.

Je passe rapidement sur les vaccins, cas légèrement plus complexe mais du même ordre. Je note simplement qu’encore une fois, il n’est pas évident que le diagnostic porté par la tribune soit le bon, à savoir que le problème est que le consensus scientifique n’est pas présenté comme tel par les médias. Il me semble au contraire que les anti-vaccins sont tout à fait au courant qu’il y a un consensus, simplement ils pensent que les résultats des études sont contaminés par des conflits intérêts. S’il s’agit bien de cela, alors réaffirmer l’autorité de l’expert n’est pas la solution, c’est peut-être même contre-productif. Il s’agirait plutôt par exemple d’expliquer et/ou de renforcer l’indépendance des scientifiques menant ces études.

Le nucléaire

J’en viens maintenant aux points plus problématiques. Je commence par le nucléaire, qui est le plus simple à expliquer. La tribune rappelle justement que le nucléaire produit peu de CO2. C’est en effet un consensus scientifique. Pourquoi choisir de mettre en avant celui-ci ? Sans doute la tribune fait-elle implicitement référence aux sondages montrant qu’une partie importante de la population croit le contraire, ce qui est en effet inquiétant. Mais est-ce le fait des médias ? A ma connaissance, ce n’est pas le cas. Le Point rapporte un sondage récent en ces termes : « Selon un sondage BVA, une large majorité de Français pense que le nucléaire contribue à l'émission de gaz à effet de serre. Sa part est pourtant minime ». Au passage, le journal a déformé les résultats du sondage, comme expliqué ici. En lisant ce sondage, on apprend (p6) que les deux principaux reproches faits au nucléaire sont, non la production de CO2, mais la production de déchets et le risque d’accident. Ces deux autres faits consensuels ne sont cependant pas repris par le journal. Pourquoi alors se plaindre spécifiquement que les médias omettraient d’insister sur la faible empreinte carbone du nucléaire ?

J’en viens à la deuxième partie du point (6), le nucléaire « peut contribuer à la lutte contre le changement climatique ». On n’est plus ici du tout dans le consensus scientifique, mais dans le choix politique, qui doit faire intervenir toute la complexité du sujet, qui a été justement « laissée en rayon ». Si l’on considère que le risque d’accident nucléaire, ou de dissémination, est inacceptable, alors non le nucléaire ne peut pas contribuer à la lutte contre le changement climatique. Oui mais est-ce que le nucléaire « peut », en tant qu’option envisageable à pondérer avec ses risques, contribuer à cette lutte ? Il ne me semble pas que ce soit une question évidente non plus, pour lequel il y aurait un consensus scientifique. L’uranium est une ressource non renouvelable. Les estimations optimistes  (agence internationale de l’énergie atomique) considèrent que les réserves couvrent 100 ans de consommation actuelle. Une estimation plus récente (voir le preprint ici), moins optimiste, considère que les réserves ne peuvent pas en réalité être exploitées en totalité et que des problèmes d’approvisionnement commenceront à se poser dès 10 à 20 ans. Je ne suis pas en mesure d’arbitrer entre ces estimations (qui ne me semblent d’ailleurs pas forcément contradictoires), mais on peut simplement faire remarquer que si l’enjeu est de remplacer les énergies fossiles, par exemple en basculant l’automobile sur le réseau électrique, alors il n’est pas du tout évident que le nucléaire puisse y faire face. Les 10 à 100 ans de réserves d’uranium correspondent à la consommation actuelle, qui représente environ 5% de l’énergie consommée, et donc il n’est pas évident que cette part puisse réellement devenir plus significative. Il y a d’autres technologies nucléaires qui pourraient permettre de résoudre ce problème d’approvisionnement, mais pour cela il faudrait les mettre au point et les implémenter, ce qui prend du temps. Il faut aussi, pour être juste, comparer le nucléaire aux alternatives, comme par exemple le photovoltaïque, qui pose aussi un problème de ressources rares. Le nucléaire peut-il contribuer à la lutte contre le changement climatique ? Franchement, je ne sais pas : c’est un sujet complexe et à ma connaissance il n’y a pas de consensus. Affirmer que c’est un consensus scientifique est donc au mieux fallacieux (le consensus c’est qu’on peut y réfléchir, ce qui ne veut rien dire), au pire faux.

Le glyphosate

 La tribune propose également deux « consensus scientifiques » sur des sujets complexes et multifactoriels, que sont les pesticides et les OGMs. Je ne suis expert ni du glyphosate, ni des OGMs, mais cela ne semble pas non plus être le cas de la quasi-totalité des signataires. Personnellement, j’aurais un peu plus d’humilité sur ces sujets. Je fais donc quelques remarques en tant que scientifique non expert mais néanmoins capable de saisir quelques subtilités méthodologiques.

Concernant le glyphosate, la formulation de la tribune est extrêmement fallacieuse : « Aux expositions professionnelles et alimentaires courantes », le glyphosate ne présente probablement pas de risque cancérigène pour l’homme. Par cette formulation, on pourrait croire qu’on parle ici d’études épidémiologiques sur des expositions réelles. Or ce n’est pas le cas, l’une des raisons étant que c’est méthodologiquement difficile, étant donné que tout le monde est exposé à des pesticides divers sans en connaître la quantité ni la formulation. Ce à quoi fait référence la tribune, ce sont des tests en laboratoire de toxicité de la molécule glyphosate, et non des formulations effectivement commercialisées, aux doses correspondant aux doses présumées dans des « expositions professionnelles et alimentaires courantes ». Cette nuance est bien rapportée dans le document de l’autorité européenne de sécurité des aliments cité par la tribune, dans une section justement intitulée « Pourquoi certains scientifiques disent-ils que le glyphosate est cancérogène? ». Peut-on, au vu de ce titre, parler de consensus scientifique ? On y apprend notamment que « certaines formulations contenant notamment du glyphosate présentent une toxicité plus élevée que celle présentée par l'ingrédient actif, probablement en raison de la présence de coformulants » - soulignons que cela ne veut pas dire nécessairement que c’est le coformulant qui est toxique (interprétation réductionniste), mais possiblement qu’il amplifie ou agit en combinaison avec la substance active. Or si l’on s’intéresse effectivement aux « expositions professionnelles et alimentaires courantes » comme le fait la tribune, c’est bien aux formulations commerciales qu’il faut s’intéresser. Le rapport récent de l’agence française ANSES conclut de même : « le niveau de preuve de la génotoxicité du glyphosate chez l’animal peut être considéré comme relativement limité, en revanche des éléments complémentaires devront être fournis en ce qui concerne les préparations contenant du glyphosate », et elle propose que « la classification en catégorie 2 [Substances suspectées d'être cancérogènes pour l'homme] peut se discuter ». Ce n’est certainement pas ce que laisse penser la tribune, par l’usage du mot « improbable ».

Il est intéressant de contraster ce point et celui sur l’homéopathie. Dans ce dernier cas, il n’y a aucune preuve de l’efficacité de l’homéopathie. Concernant le glyphosate, on n’a pas les éléments pour conclure de manière claire à sa toxicité. Mais on parle ici de deux affirmations tout à fait différentes. Dans le cas de l’homéopathie, on a effectué les tests nécessaires, ceux-ci auraient dû démontrer l’effet de l’homéopathie s’il existait, or aucun effet n’a été mesuré. Dans le cas des pesticides, on est face à une question qui est méthodologiquement beaucoup plus difficile. Ce n’est pas que l’effet des pesticides est tellement faible qu’il est indétectable. Comme le rappelle une expertise récente de l’INSERM, « Les experts rappellent que «ne pas être en mesure de conclure ne veut pas dire obligatoirement qu’il n’y a pas de risque». Ce n’est pas ce que j’appellerai un consensus scientifique sur l’absence de risque.

Sans doute, des résultats d’études en laboratoire du glyphosate (notamment sur des animaux, avec des doses non comparables) ont été mal relayées par les médias. Je suppose que c’est ce qui a motivé les auteurs de cette tribune. Mais que la preuve soit fausse n’implique pas que le théorème est faux. Sur la toxicité des pesticides tels qu’ils sont utilisés commercialement, il est abusif de prétendre qu’il y a un consensus scientifique net, et cela est admis par les instances règlementaires comme l’EFSA (« Pourquoi certains scientifiques disent-ils que le glyphosate est cancérogène ? »).

On aurait pu en revanche parler d’autres aspects plus consensuels comme le risque pour la biodiversité, mais cet aspect a été « laissé en rayon ».

Les OGMs

Je termine sur les OGMs. On apprend dans cette tribune qu’un OGM « ne présente pas en soi de risque pour la santé ». Voici une assertion assez étrange. Un OGM est un organisme dont on a modifié le génome, et qui donc n’existe pas à l’état naturel. Les conséquences de cette modification sont donc peut-être anodines, ou peut-être pas. Il n’est pas évident a priori d’anticiper les conséquences pour l’organisme, sa descendance éventuelle et davantage encore pour l’écosystème. Qu’est-ce que les auteurs ont-ils bien voulu dire par « ne présente pas en soi de risque » ? La position par défaut devrait au contraire être la méfiance, et non pas : a priori pas de problème.

Peut-être – je spécule – les auteurs pensaient-ils : il y a bien des mutations naturelles du génome chez les animaux, d’élevage par exemple, que l’on sélectionne, et pourtant on ne s’inquiète pas des dangers potentiels de ces mutations. Changer le génome artificiellement ou spontanément, c’est pareil. Non, ce n’est pas pareil. Les mutations naturelles sont généralement (je simplifie) introduites graduellement, progressivement sélectionnées, n’affectent pas tous les gènes de manière égale et indépendante. Insérer le gène d’une méduse fluorescente dans un lapin, ça ne se produit pas spontanément. Cela ne veut pas dire pour autant que le lapin sera toxique, mais enfin on ne peut pas dire que ce soit comparable à sélectionner les vaches qui donnent le plus de lait.

On aurait pu dire, sans doute, qu’à l’heure actuelle on n’a pas détecté d’effet toxique des OGMs alimentaires mis sur le marché. Mais l’idée qu’un OGM « ne présente pas en soi de risque pour la santé » n’est pas un consensus scientifique dans la mesure où cette phrase ne veut rien dire. Encore une fois, il y a un choix éditorial qui a été fait ici, d’un « consensus scientifique » qui n’en est pas un, et ce choix n’est pas neutre. On aurait aussi bien pu dire : un OGM n’est pas en soi inoffensif, ce qui aurait donné une toute autre coloration à la tribune. Ici, le choix va clairement dans le sens de « il faut faire confiance au progrès technique ».

Le grand public n’est pas confronté à des OGMs « en soi » (qu’est-ce que c’est ?), mais à des OGMs produits dans un certain contexte socio-économique, à savoir par des multinationales, ce qui contribue (non sans raison) à la méfiance. On ne peut pas balayer d’un revers de main la question du conflit d’intérêt lorsque les tests de toxicité sont effectués ou financés par les principaux intéressés. Par ailleurs, dès lors que l’on prend en compte le contexte socioéconomique et politique dans lequel les innovations techniques se déploient, on doit nécessairement envisager ces innovations au-delà de leur aspect purement technique. Les OGMs posent par exemple le problème de la brevetabilité du vivant.

La tribune reconnait presque ce point : « la science n’a pas réponse à tout ». Malheureusement, il semble que ce que les auteurs voulaient dire, c’est : « la science n’a pas encore réponse à tout », puisqu’ils argument ainsi : « Il existe des questions qui n’ont pas conduit à un consensus clair, voire qui restent sans réponse. ». Surtout, il existe des questions qui ne sont tout simplement pas de nature scientifique – ou alors scientifiques au sens très large, incluant l’ensemble des sciences sociales, et encore, il faudrait inclure la philosophie.

Quelques remarques finales

Comme je l’ai écrit dans l’introduction, je pense que les auteurs de cette tribune sont sincères (même si elle ne va pas manquer d’être récupérée). Je comprends leur exaspération et leur inquiétude vis-à-vis du traitement de l’information scientifique par les médias (j’y reviens ci-dessous). Néanmoins, ils commettent à mon sens dans cette tribune certaines erreurs fondamentales, qui semblent relever d’un biais philosophique en faveur des vertus du « progrès » (comme en son temps Claude Allègre, qui considérait toute critique du progrès technique comme obscurantiste). La première erreur, que j’ai essayé de commenter en détails, est que certaines questions très complexes et multifactorielles sont présentées abusivement comme consensuelles, à savoir les OGMs, le nucléaire et les pesticides. Je ne suis personnellement pas opposé à ces trois choses par principe, néanmoins il me semble qu’elles posent de sérieux problèmes qui doivent être débattus démocratiquement, et non par simple arbitrage technique. On me répondra peut-être que pour cela, il est nécessaire de disposer d’une information scientifique fiable. Absolument, et c’est pourquoi sélectionner dans cette information uniquement les bienfaits ou absences de risque et les présenter abusivement comme des consensus scientifiques ne fait qu’introduire de la confusion.

Cela jette malheureusement le doute sur les autres points (homéopathie, vaccins, climat) qui sont présentés sur le même plan. J’en viens donc à la seconde erreur, erreur stratégique ou peut-être erreur de diagnostic. Posons-nous la question : pourquoi les gens croient-ils des choses fausses ? Est-ce parce que les médias relaient ces choses fausses ? Il se trouve que beaucoup de gens (en gros, la moitié) ne font pas confiance aux média. Dans ce contexte, donner aux médias la responsabilité d’apporter la bonne parole (car il est en effet question dans cette tribune d’autorité scientifique plus que de méthode scientifique) semble discutable. On apprend notamment que la majorité des gens pensent que les journalistes ne sont pas indépendants. Cela semble en effet assez factuel : la quasi-totalité des médias appartiennent à de très grands groupes ou à de puissants hommes d’affaires, et sont financés par la publicité. La confiance en la parole politique est au plus bas. Cette méfiance n’est pas illégitime non plus. Il y a donc un contexte de méfiance généralisée de la parole institutionnelle. Dans ce contexte, il n’est pas clair que relayer plus explicitement la parole officielle scientifique va porter les fruits espérés.

Pourquoi les gens croient-ils dans des théories conspirationnistes, voire des « fake news » ? Les réponses habituellement avancées sont généralement sur le mode de la condescendance (les gens sont mal éduqués), sur fond de réseaux sociaux. Il y a pourtant une possibilité évidente qu’il faudrait prendre au sérieux : parce que les conspirations, ça existe et tout le monde le sait. Oui, une grande entreprise d’automobile peut délibérément truquer les tests règlementaires pour pouvoir écouler ses voitures polluantes. Oui, une grande entreprise agroalimentaire peut ficher des journalistes et hommes politiques considérés comme néfastes à ses intérêts. La méfiance n’est pas illégitime.

Il est certain que présenter comme consensus scientifiques des choses qui pour moitié ne le sont pas ne va pas aider à rétablir la confiance. D’ailleurs, faut-il rétablir la confiance ou plutôt créer les conditions de la confiance ? Pour ce qui est des scientifiques, le statut de fonctionnaire contribue à garantir l’indépendance par rapport au pouvoir, et il est inquiétant que celui-ci soit remis en cause ; de même l’intensification de la mise en compétition des chercheurs sur des appels d’offre est inquiétante. Pour ce qui est des journalistes, premièrement il faudrait qu’il y en ait. Le journalisme traverse une crise existentielle, et dans ces conditions il semble illusoire de demander aux journalistes (lesquels ?) de mieux faire leur travail. Dans la plupart des médias, le traitement de la science consiste à rapporter des communiqués de presse d’universités ou d’organismes de recherche (quand ce n’est pas simplement relayer d’autres médias sans vérifier), or ceux-ci portent sur des études ponctuelles et non un savoir consolidé (précisément ce qui manque à cette tribune). Ces communiqués, de plus en plus, font dans le sensationnalisme sous la pression politique, qui tend à transformer les universités en marques. Pour améliorer cela du côté des médias, il faudrait un réel travail de journalisme, ce qui suppose des journalistes, notamment scientifiques, pas si évident dans le contexte actuel (quelques médias, rares, le font). Deuxièmement il faudrait idéalement renforcer l’indépendance des journalistes, ce qui n’est pas évident non plus dans le modèle économique actuel. Le problème de l’information scientifique du grand public est un problème lui aussi complexe qui ne peut s’envisager en faisant abstraction du système économique et politique dans lequel la production et la diffusion des connaissances s’inscrivent. C'est, plus largement, un problème de démocratie. C’est peut-être à cela qu’il faut réfléchir.

Une petite mise au point concernant le rôle de l’éducation dans les facultés cognitives

Quelle est la part de l’inné et de l’acquis dans l’intelligence, ou plus généralement dans les facultés cognitives ? C’est une question très controversée, en particulier parce qu’elle a une grande portée politique : l’éducation est-elle importante, ou bien tout est-il prédéterminé par nos gènes ? Il est évident que dans le second cas, investir dans l’éducation semble vain ; il devrait plutôt s’agir de faire de la sélection et de l’orientation que de l’éducation.

Il existe une littérature scientifique abondante sur ce sujet, malheureusement ses résultats sont souvent mal interprétés et déformés par des idéologues. Prenons l’exemple d’une récente tribune de l’essayiste Laurent Alexandre dans l’Express :

« 64% de nos différences de capacité de lecture sont génétiques ; l’école et la famille n’ont malheureusement qu’un rôle marginal face à nos chromosomes ».

Je vais supposer que la première assertion est correcte et bien établie scientifiquement. La conclusion est non seulement fausse, mais absurde. Revenons quelques siècles en arrière. Génétiquement, la population était sensiblement la même qu’aujourd’hui. Mais peu de gens apprenaient à lire, donc peu de gens savaient lire. Par conséquent, oui, l’éducation et la famille ont un rôle déterminant dans les capacités de lecture. Par ailleurs, si l’on avait fait la même étude sur la population de l’époque, on aurait trouvé non pas 64% mais une proportion bien plus faible de déterminisme génétique, puisque les capacités de lecture étaient en premier lieu déterminées par la possibilité d’apprendre à lire. Inversement, si l’éducation était la même pour toute, par exemple si on avait institué une école publique pour tous avec des programmes nationaux strictement appliqués de manière uniforme, eh bien on trouverait que très peu de différences de quoi que ce soit sont expliquées par l’éducation, puisque ce ne serait pas un facteur variable.

Une assertion du type « 64% des différences de capacité de lecture sont génétiques » est une mesure contextuelle, qui reflète en grande partie la variabilité de chacun des facteurs. En aucun cas elle n’indique un rôle causal faible pour l’éducation ou l’environnement familial. Elle peut tout aussi bien indiquer une certaine homogénéité de l’éducation reçue. Tout ce qu’elle indique, tout ce qu’indique cette littérature en général, c’est que les facultés cognitives sont influencées par des facteurs à la fois génétiques et environnementaux.

Etant donné que l’on ne sait pas lire spontanément mais uniquement après l’avoir appris, il faut une certaine dose d’aveuglement idéologique pour prétendre que l’école y joue un « rôle marginal ». Certes, il faut aussi avoir un cerveau pour pouvoir lire, d’où les facteurs génétiques. Par exemple, un ver de terre ne sait pas lire. Rien n’indique cependant que ces « 64% » de variation d’origine génétique concernent le cerveau. Il faut aussi des yeux pour pouvoir lire, par exemple. Des difficultés de lecture liés à un problème ophtalmologique d’origine génétique seront comptées dans ce total. De même, si (expérience de pensée) l’éducation des enfants étaient biaisée en fonction de facteurs physiques d’origine génétique, alors ce biais apparaîtrait également comme facteur génétique. Ce n’est sans doute pas ce que l’on veut dire par « facteur génétique des capacités de lecture », mais c’est quand même ce qui est mesuré.

La question qui a un intérêt politique, ce n’est pas : quelle part de la variabilité des capacités de lecture dans un contexte éducatif et socioculturel donné peut être expliqué par des variations génétiques (neurogénétiques ou non, purement biologiques ou conditionnés à des facteurs socioculturels) mais plutôt : dans quelle mesure améliorer l’éducation peut-il améliorer les capacités de lecture ? Pour répondre, on peut faire appel à l’histoire plutôt qu’à la génétique, et la conclusion est sans appel : historiquement, plus de gens ont su lire lorsqu’on leur a enseigné la lecture.

En résumé, oui l’éducation a un rôle majeur dans les capacités cognitives comme la lecture, et la science ne dit pas le contraire. Evidemment.

What is computational neuroscience? (XXXVI) Codes and processes

There are two classes of problems with the concept of neural codes. Initially, while working on my critique of the neural coding metaphor, I focused mostly on the epistemic problem (the first two parts of the paper). The epistemic problem is that when we say that Y is a neural code for X and that Y is metaphorically decoded by the brain, we imply that Y is informative about X by simple virtue of being in lawful relation with X. But this is a kind of information that is only available to an external observer who can see both X and Y, knows the two domains and the correspondence. If not X but X’ caused the neural activity Y, the organism would never know from just observing Y. Therefore Y cannot be a primary representation of X for the organism. Of course it could be a secondary representation of X, if the organism could observe that Y is in lawful relation with Z, a primary representation of X. But then we need to account for the existence of that primary representation, which cannot be based on an encoding. A number of other authors have made similar criticisms, in particular Mark Bickhard.

The epistemic problem is, I would say, the “easy problem” of neural codes. Addressing it gives rise to alternative notions of information based on internal relations, such as O’Regan’s sensorimotor contingencies, Gibson’s invariance structure, and my subjective physics.

But there is a deeper, more fundamental problem. It has to do with substance vs. process metaphysics and the way time is conceived (or in this case, disregarded). I address it in the third part of the neural coding essay, and in my response to commentaries (especially the third part). To explain it, I will compare the neural code with the genetic code. There are some problematic aspects with the idea of a “genetic code”, but in its most unproblematic form, there is a lawful correspondence between triplets of nucleotides and amino acids, which we can call a code. Nucleotides and amino acids are two types of substances, that is, some stable entities (molecules). Nucleotides are transformed into amino acids by some process that unfolds through time (translation). A process is not a substance; it may involve some substance, for sure (e.g. enzymes), but it is the activity that defines the process. The code refers to some lawful relation between two types of substances, disregarding the process.

With this analysis in mind, “neural codes” now look very peculiar. The neural end of the code is not a substance at all. It is a particular measurement of the activity of neurons done at a particular time, for example the number of spikes during a particular time window. We then consider that this number is the output of some process, some kind of stable entity that can be further manipulated and transformed by some other processes. Of course this is exactly what it is for the experimenter, who manipulates those measurements, makes calculations etc. But from the organism’s perspective this view is very puzzling: the activity of neurons is the process, not the result of a process (what other process?). Neurons do not produce stable entities like amino acids which can participate in various processes. A spike is not a stable entity, it is a timed event in the process of neural interaction (like, say, the binding of an enzyme on RNA), and measurements like spike counts are simply “snapshots” of that process. It is not coherent to treat signatures of processes as if they were substances.

What is computational neuroscience? (XXXV) Metaphors as morphisms

What is a metaphor? Essentially, a metaphor is an analogy that doesn’t say its name. We use metaphors all the time without even noticing it, as was beautifully demonstrated by Lakoff & Johnson (1980). When I say for example, “let me cast some light on this issue”, I am using a fairly sophisticated metaphor in which I make an analogy between understanding and seeing. In that analogy, an explanation allows you to understand, in the same way as light allows you to see. You might then reply: I see what you mean, it is clearer! Chances are that, in normal conversation, we would not have noticed that we both used a metaphor.

Metaphors are everywhere in neuroscience, and in biology more generally (see these posts). For example: evolution optimizes traits (see the excellent article of Gould & Lewontin (1979) for a counterpoint); the genome is a code for the organism (see Denis Noble (2011a; 2011b)); the brain runs algorithms, or is a computer (see also Paul Cisek (1999) or Francisco Varela); neural activity is a code.

These metaphors are so ingrained in neuroscientific thinking that many object to the very idea that they are metaphorical. The objection is that “evolution is optimization” or “brain runs algorithms” is not a metaphor, it is a theory. Or, for the more dogmatic, these are not metaphors, these are facts.

Indisputable truths belong to theology, not science, so any claim that a general proposition is a fact should be seen as suspect – it is an expression of dogmatism. But there is a case that we are actually talking about theories. In the case of neural codes or brains as computers, one might insist that the terms “code” or “computer” refer to abstract properties, not to concrete objects like a desktop computer. But this is a misunderstanding of what a metaphor, or more generally an analogy, is. When I am “casting light on this issue”, I am not referring to any particular lamp, but to an abstract concept of light which does not actually involve photons. The question is not whether words are actually some sort of photons, but whether the functional relation between light and seeing is similar to the functional relation between explanation and understanding. There is no doubt that these concepts are abstracted from actual properties of concrete situations (of light and perception), but so are the concepts of code and computer. In the metaphor, it is the abstract properties that are at stake, so the objection “it is not a metaphor, it is a theory” either misunderstands what metaphor is (a metaphor is a theory), or perhaps really means “the theory is correct” – again dogmatism.

For the mathematically minded, a mathematical concept that captures this idea is “morphism”. A morphism is a map that preserves structure. For example, a group homomorphism f from X to Y is such that f(a*b) = f(a) x f(b): the operation * defined on X is mapped to the operation x defined on Y (of course “metaphors are morphisms” is a metaphor!).

For example, in the “let me cast light on this issue” metaphor, I am mapping the domain of visual perception to the domain of linguistic discourse: light -> words; visual object -> issue ; seeing -> understanding. What makes the metaphor interesting is that some relations within the first domain are mapped to relations in the other domain: use of light on an object causes seeing; use of words on an issue causes understanding.

Another example in science is the analogy between the heart and a pump. Each element of the pump (e.g. valve, liquid) is mapped to an element of the heart, and the analogy is relevant because functional relations between elements of the pump are mapped to corresponding relations between elements of the heart. Thus, the analogy has explanatory power. What makes a metaphor or an analogy interesting is not the fact that the two domains are similar (they are generally not), but the richness of the structure preserved by the implied morphism.

In other words, a metaphor or an analogy is a theory that takes inspiration from another domain (e.g. computer science), by mapping some structure from one domain to the other. There is nothing intrinsically wrong with this, on the contrary. Why then is the term “metaphor” so vehemently opposed in science ? Because the term implies that the theory is questionable (hence, again, dogmatism). There are ways in which understanding is like seeing, but there are also ways in which it is different.

Let us consider the metaphor “the brain implements algorithms”, which I previously discussed. Some are irritated by the very suggestion that this might even be a metaphor. The rhetorical strategy is generally two-fold: 1) by “algorithm”, we mean some abstract property, not programs written in C++; 2) the definition of “algorithm” is made general enough that it is trivially true, in which case it is not a metaphor since it is literally true. As argued, (1) is a misunderstanding of linguistics because metaphor is about abstract properties. And if we follow (2), then nothing can be inferred from the statement. Thus, it is only to the extent that “the brain implements algorithms” is metaphorical that it is insightful (and it is to some extent, but in my view to a limited extent).

The key question, thus, is what we mean by “algorithm”. A natural starting point would be to take the definition from a computer science textbook. The most used textbook on the subject is probably Cormen et al., Introduction to algorithms. It proposes the following definition: “a sequence of computational steps that transform the input into the output”. One would need to define what “computational” means in this context, but it is not key for this discussion. With this definition, to say that the brain implements an algorithm means that there exists a morphism between brain activity and a sequence of computational steps. That is, intermediate values of the algorithm are mapped to properties of brain activity (e.g. firing rates measured over some time window) - this is the “encoding”. Then we claim that this mapping has the property that a computational step linking two values is mapped to the operation of the dynamics of the brain linking the two corresponding neural measurements. I explain in the third part of my essay on neural coding why this claim cannot be correct, at least not generally and only approximately (one reason is that a measurement of neural activity must be done on some time window, and thus cannot be considered as an initial state of a dynamical system, from which you could deduce the future dynamics). But this is not the point of this discussion. The point is that this claim, that there is a morphism between an algorithm and brain activity, is not trivial and it has explanatory value. In other words, it is interesting. This stems from the rich structure that is being mapped between the two domains.

Since it is not trivial (as in fact any metaphor), a discussion will necessarily arise about whether and to what extent the implied mapping does in fact preserve structure between the two domains. You could accept this state of affairs and provide empirical or theoretical arguments. Or you could dismiss the metaphorical nature entirely. But by doing so, you are also dismissing what is interesting about the metaphor, that is, the fact that there might be a morphism between two domains. We could for example redefine “algorithm” in a more general way as a computable function, even if it is not what is usually meant by that (as the Cormen textbook shows). But in that case, the claim loses all explanatory value because no structure at all is transported between the two domains. We are just calling sensory signals “input” and motor commands “output” and whatever happens in between “algorithm”. In mathematical terms, this is a mapping but not a morphism.

Thus, metaphors are interesting because they are morphisms between domains, which is what gives them scientific value (they are models). The problem, however, is that metaphor is typically covert, and failure to recognize them as such leads to dogmatism. When one objects to the use of some words like “code”, “algorithm”, “representation”, “optimization”, a common reaction is that the issue “is just semantic”. What this means is that it is just about arbitrary labels, and the labels themselves do not really matter. As if scientific discourse were essentially uninteresting and trivial (we just observe things and give them names). This reaction reveals a naïve view of language where words are mappings (between objects and arbitrary labels), when what matters is the structured concepts that words refer to through morphisms, not just mappings. This is what metaphor is about.

A criticism of homo economicus (Or: people are neither rational nor irrational)

The mainstream theory of economics, neoclassical economics, is based on a very peculiar model of human behavior and social interactions. The core assumption is that people’s behavior consists in maximizing “utility”, which is a measure of personal preferences. That is, each situation is assigned some utility and people choose the situation with maximal utility, by making the best possible use of available information. This is called “rational behavior” (this is somewhat related to the view in psychology that perceptual behavior is optimal, which I have criticized on similar grounds).

This model has been criticized repeatedly on empirical grounds, in particular on the grounds that humans are actually not that rational, psychology has documented numerous cognitive biases, and so on. This line of criticism forms an entire field, behavioral economics. Epistemologically, economics is quite a particular field because lack of empirical evidence for its core models or even direct empirical contradiction does not seem to be a problem at all. One reason is that the ambition of economic theory is not just empirical but also normative, i.e., it also has a political dimension. In other words, if reality does not fit the model, then reality should be changed so as to fit it (hence the prescription of free markets). It is of course questionable that theories can be called scientific if they constitutively offer no possibility of empirical grounding.

Thus, although the assumptions of neoclassical economics have been pretty much demolished on empirical grounds by psychology (actual behavior of people) and anthropology (actual social interactions; see for example David Graeber’s “Debt: The First 5000 Years”), it still remains the dominant mode of economic thinking because it is intellectually appealing. Of course, political interference certainly has a role in this state of affairs, but here I want to focus on the intellectual aspects.

When the field of behavioral economics points out that humans actually do not behave “rationally”, those deviations are depicted as flaws or “bounds on rationality”. If you are not rational, then you are irrational. This is really not a radical criticism. We are bound to conclude that the rational agent is an approximation of real behavior, and everybody knows that a model cannot be exact. Perhaps the model could be amended, made more sophisticated, or perhaps we should educate people so that they are more rational (this seems to be Daniel Kahneman’s view). But fundamentally, “rational behavior” is a sensible, if imperfect, model of human behavior and social interactions.

What these criticisms miss is the fact that both “rational behavior” and “irrational behavior” have in common several implicit assumptions, which are not only empirically questionable but also absurd foundations for an economic theory – and which therefore cannot ground a normative approach any more than an empirical approach.

1) The first problem is with the idea of “rationality”. Rationality is something that belongs to the domain of logics, and therefore which can only be exerted on a particular model. Thus, to describe human behavior as “rational”, we must first assume that there exists a fixed model of the world and personal preferences, and that this model is not a subject of inquiry. In particular, personal preferences are given and cannot be changed. If, however, the advertisement business is not totally foolish, then this is wrong. Not only do personal preferences change, but one way of satisfying your own desires is by manipulating the desires of others, and this appears to be a large part of the activity of modern multinational companies. The fact that personal preferences are actually not fixed has two problematic consequences: 1) you cannot frame behavior as optimization if the optimization criterion is also a free parameter, 2) it becomes totally unclear how satisfying people’s preferences is supposed to be a good thing, if that means making them want what you sell, rather than selling them what they need; what preexisting economic problem is being solved in this way? Personal preferences can also be changed by the individual itself: for example she can decide, after reflection, that buying expensive branded clothes is futile (see e.g. cognitive dissonance theory about how people change their preferences and beliefs). But again, if that possibility is on the table, then how can we even define “rational behavior”? is it to buy the expensive cloth or is it to change the “utility function”? Assuming preferences are fixed properties of people is the move that allows economic theory to avoid philosophical and in particular ethical questions (what is “good”? see e.g. stoicism and buddhism), as well as the possibility that people influence each other for various reasons (manipulation, but also conversation and education). Unfortunately those questions do not disappear just by ignoring them.

2) The assumption of “rationality” also assumes that people have a fixed model of the world over which that rationality is exerted. They do not learn, for example, and they do not need to be taught either. They just happen to know everything useful there is to know about the world. Building an adequate model of the world, of the consequences of one’s actions, is considered outside the realm of economic theory. But in a normative perspective, this is really paradoxical. One aim of economic theory is to devise efficient organizations of work, in particular which ensure the distribution of accurate information to the relevant people. But by postulating that people are “rational agents”, economic theory considers as already solved the problem it is supposed to address in the first place. In other words, the problem of designing rational organizations of production is dismissed by postulating that people are rational. No wonder that this view leads to the bureaucratization of economy (see David Graeber’s Bullshit Jobs and Béatrice Hibou’s The Bureaucratization of the World in the Neoliberal Era).

3) Finally, implicit with the idea of “rational behavior” is caricatural reductionism. That is, the presumption that the optimization of individual preferences is realized at the individual level. This, in fact, amounts to neglecting the possibility that there are social interactions – quite problematic for a social science. A well-known example in game theory is the prisoner’s dilemma: two criminals are arrested; if they both remain silent, they will do one year in prison; if one betrays the other, he is set free and the other goes to jail for three years; if both betray the other, they both go to jail for two years. Whatever the other decides to do, it is always in your best interest to betray him: this would be the “rational behavior”. The paradox is that two “rational” criminals would end up in jail for two years, while two “irrational” criminals that would not betray each other would do just one year. Thus, “rationality” is not necessarily the most advantageous way to organize social interactions. Or to rephrase, individual rationality is not the same as collective rationality. This is of course a well-known problem in economy, in particular in the “tragedy of the commons” version. But again, this tends to be depicted as an amendment to be made to the core assumption of rationality (cf the concept of “externalities”), when it actually demonstrates the fallacy of the concept of “individual rationality”. Accordingly, neoclassical economists propose to solve the problem by incentives (e.g. carbon tax). But first of all, this is not the same as building collective infrastructures. And second, what this means is that anything that cannot be modeled as independent individual actions is not addressed by the economic theory, but instead must be tailored in the form of an “incentive structure”. Each collective problem now requires its own complex “incentive structure” designed in such a way that the “free” play of individual rationalities ensures the collective good, which is to say that each collective problem must be solved in an ad hoc way outside of the conceptual framework of theory. In other words, with its focus on “rational behavior”, neoclassical economics sets out to solve exclusively problems that do not involve social interactions. It is not clear, then, what the theory is meant to solve in the first place (how omniscient independent agents manage to organize themselves?), or to demonstrate (selfishness entails collective good, except when it doesn’t?).

This issue is actually an important theme of evolutionary theory. Namely, how can social species exist at all, if individualist behavior is rewarded by increased survival and reproduction rate? The answer that evolutionary theory has come to, as well as anthropology and ethology of social animals including primates (see e.g. Frans de Waal’s books), is that social animals display a variety of non-individualist behaviors based on altruism, reciprocity and authority, which ensure successful social interactions and therefore are beneficial for the species. In other words, studies in all those non-economic fields have concurred to demonstrate that efficient collective organizations are not based on individual rationality. This conclusion is not immensely surprising, yet it is essentially the opposite of mainstream economic theory.

In summary, the problem with the “rational behavior” model of human behavior that subtends neoclassical economics is not that people are “irrational”. The problem is that framing human behavior in terms of individual rationality already assumes from the outset that 1) people already have an accurate model of the world, and so no social organization is required to ensure that people’s actions have their intended consequences, this is already solved by people’s “rationality”; 2) people have preexisting fixed “preferences”, and so we don’t need to care about what a “good society” might mean, this is already taken care of by the “preferences”; 3) there is no collective rationality beyond individual rationality, and so there is in fact no society at all, just a group of independent people. Thus, the epistemological implications of the “rational behavior” model are in fact tremendous: essentially, the model amounts to putting aside all the problems that economic theory is supposed to solve in the first place. In other words, the “rational behavior” model of neoclassical economics is not just empirically wrong, it is also theoretically absurd.

 

p.s.: This is partially related to a recent discussion in perceptual psychology on the presumed optimality of human behavior. Rahnev & Denison (2018) review an extensive literature to show that in perceptual tasks, people are actually not optimal. These findings are referred to in the title as “suboptimality”, but in my view this is an unfortunate terminology. My objection to this terminology is that it implicitly accepts the framework of optimization, in which there already is a fixed model of the world for which we only need to tune the parameters. But this means ignoring what perception is largely about, namely modeling the world (object formation, scene analysis, etc).

How belief systems handle contradiction - (I) Empirical contradiction

In this essay, I will discuss the different ways in which a theory can be contradicted, and how theories react. The scope of this discussion is broader than science, so I will be discussing belief systems, of which scientific theories are a particular kind (although, according to Feyerabend, not that particular). Another kind of belief system is political theories, for example. What is a belief system? Roughly speaking (and it will get more precise in the discussion), it is a set of propositions about the world that have a universal character. In science, this could be the law of gravitation, for example. Those propositions have relations with each other, and thus they form a system. For example, some propositions might logically imply others. In a belief system, there are generally core concepts over which other propositions build upon (examples: the atom; the rational agent of economic theory).

How do we evaluate belief systems? In philosophy of science, it is generally considered that scientific theories are evaluated empirically, by testing the empirical validity of propositions. That is, we evaluate the extent to which propositions are contradicted by facts. This has been the core target of much of modern philosophy of science, and thus I will start by recapitulating arguments about empirical contradiction, and add a few remarks. What has been less discussed is two other types of contradiction, social and theoretical. By social contradiction, I refer to the fact that at any given time, different people hold contradictory beliefs, even when they are aware of the same empirical body of observations. How is it possible and do such contradictions get solved? By theoretical contradiction, I refer to the possibility that a system is in fact not logically coherent. It seems that in philosophy of knowledge, belief systems are generally seen as a set of logically consistent propositions, but I will argue that this view is not tenable or rather is a normative view, and that belief systems actually are in some sense “archipelagos of knowledge”.

Empirical contradiction

Science is largely dominated by empiricism. One version of it is the logical empiricism of the circle of Vienna (or logical positivism), dating from the early 20th century. In a nutshell, it claims that scientific statements are of two types: elementary propositions whose truth can be verified empirically, in other words observations, and propositions that can be logically deduced from those elements. This leads to a bottom-up view of science, where experimental scientists establish facts, and then theoreticians build consistent theories from these facts. As far as I can see in my own field, this view is still held by a large portion of scientists today, even though it has been pretty much demolished by philosophy of science in the course of the 20th century. To give an example, logical empiricism is the philosophical doctrine that underlies the logic of the Human Brain Project, whose core idea is to collect measurements of the brain and then build a model from those.

Karl Popper objected that, on a logical ground, propositions can in fact never be verified if they have a universal nature. For example, to verify the law of gravitation, you would have to make all apples in the world fall, and you would still be unsure of whether another apple in the future might not fall in the way you expect. Universal propositions can only be contradicted by observations. This leads to falsificationism, the idea that scientific theories can only be falsified, not verified. On this view, at any given time, there are different theories that are consistent with the current body of experimental observations, and science progresses by elimination, by coming up with critical tests of theories. For example, one of the motivations advanced for collecting “big data” in neuroscience, such as the connectome, is that theories are presumed to be insufficiently constrained by current data (Denk et al., 2012). This view is extremely popular in biology today, even though again later work in philosophy of science has also pretty much demolished it.

Paraphrasing Quine (see Two dogmas of empiricism and the Duhem-Quine thesis), we can object that a theory never gets tested directly, only models specific of a particular situation do. For example, if you wanted to test Newton’s laws, you could let an apple fall and measure its trajectory. But to do this, you would first need to come up with a model of the situation, where for example you would consider the apple as a point of a given mass subject to only the force of gravity. In this case, you would conclude that Newton laws are false. But you would have concluded differently if you had added an auxiliary assumption, that air also exerts a friction force on the apple, for which you would have to come up with a particular model.

Kuhn and Lakatos have pointed out that in fact, the way empirical contradictions are resolved is almost never by abandoning a theory. The process is rather one of interpretation, that is, of coming up with ways of making the observation congruent with the theory. This could be seen as a rhetorical maneuver, or as a fruitful scientific process. In this example, if you think that Newton laws are valid, then you would actually deduce the laws of friction from the empirical contradiction. Laws of friction are in fact very complicated in general and still an active field of research in physics, which draws on various domains of physics, and to make progress one has to accept the underlying theories.

The key point is to recognize that interpretation is not a flaw of the scientific process, but a logical necessity to confront a theory to reality. A theory is framed in the discrete structure of language, that is, in formal terms. For it to apply to anything in the world, things in the world must be mapped to the formal structure of the theory. This, in essence, is the process of modeling. In contrast with theory, a model does not have a universal character; it applies to a specific situation. In the example above, we would have to introduce the assumption that the apple is a rigid body, and that friction follows a particular law, for example that the friction force is proportional to speed. This implies that it is actually not possible to either verify or falsify a theory on the basis of an empirical observation.

This argument does not lead to a relativistic view (all theories have the same epistemic value and it is a question of taste); in this, I would temper some of the conclusions of Feyerabend. Interpretation is in fact not only a logical necessity, but also a key element in scientific progress. Lakatos proposed that it is not theories that compete, but research programs. Some research programs are “degenerate”: they evolve by adding heteroclite ad hoc hypotheses to account for each new observation. Others are “progressive”: they evolve by extending their theoretical core, which then applies to new situations. In scientific practice, this is obtained by dissolving the specific character of interpretations into the universal character of theories. To come back to the apple example, initially we would interpret the empirical contradiction by coming up with an empirical model of friction, which essentially amounts to calling the empirical error “friction”. More precisely, it is an auxiliary hypothesis that makes the observation compatible with the theory. But this could then be turned into theoretical progress: from an analysis of a number of cases of falls of objects, we could then postulate that there is a friction force that is proportional to the speed of the apple and to its size (Stokes law). By doing so, we make parts of the previous interpretations instances of a new theoretical proposition. Note that this proposition only makes sense in the context of Newton’s laws, and thus we are indeed describing a system and not just a set of independent laws. The evaluative situation of the apple fall has now changed: we are evaluating a broader theoretical body (Newton’s laws + Stokes law) by using a narrower interpretative model (the apple is a rigid sphere).

Thus, interpretation is a key feature of belief systems, both logically necessary and progressive, and it appears to be neglected by the two flavors of empiricism that are broadly observed in science (verificationism and falsificationism). Yet without it, it is impossible to understand why people can disagree, other than by postulating than some must be either idiots or liars. I will address this issue in the next part on social contradiction.

So far, I have argued that scientists face empirical contradiction by interpretation. Theoretical progress is then made by dissolving interpretations into new theory. What this really means is that the very notion of “empirical contradiction” is in fact quite misleading, because for the person doing the interpretative work, there is no real contradiction, only a more complex situation than expected. I will end this part by drawing on developments of psychology, specifically cognitive dissonance theory, and extending to non-scientific situations.

Resolving empirical contradiction by interpretation is not at all specific of science, but is a general feature of how people confront their beliefs to facts. In When Prophecy Fails, Leon Festinger and colleagues infiltrated a UFO sect that believed in an imminent apocalypse, and they examined what happened when the predicted end of the world did not happen. Believers did not at all abandon their belief. Instead, the leader claimed that they had managed to postpone the end of the world thanks to their prayers, and she proposed a new date. This is a case of interpretation of the observation within the belief system. But importantly, as discussed above, interpretation is not a flaw of human nature, but a necessary feature of belief systems. In this case, the believers appear to have arbitrarily made up an ad hoc justification, and we are tempted to dismiss it as a hallmark of irrational thinking. But when observe the anomalous trajectory of Jupiter and, to make up for this anomaly, we postulate that there must be an unobserved satellite orbiting around the planet, we are making an interpretative move of the same nature, except in this case it turns out to be correct. Our initial reaction in the former case is that any reasonable person should reject the theory if the prediction is directly contradicted, yet in the latter case we find the same attitude reasonable. In reality, the main difference between the two cases is not in the way empirical contradictions are handled, but in the perceived plausibility of both the prediction and the interpretation. Specifically, we do not believe that prayers can have any visible effect at all and thus the interpretative move appears irrational. But of course, the situation is quite different if the powers of prayer have a prominent role in our belief system. Thus, it is an error to describe the ad hoc interpretation as irrational. It is actually totally rational, in that it follows from logical reasoning (A, the end of the world should have occurred if we had not intervened; B, we have prayed; C, prayers have an impact; conclusion: the end of the world has probably be been prevented by our prayers). Only, rationality is applied within a highly questionable theoretical framework. In the end, we realize that it is not really the non-occurrence of the end of the world that should lead us to abandon the belief system, but rather the empirical contradictions of the belief system in its globality, for example the fact that prayers actually do not work.

Thus, it should not be surprising that in their field study, the authors find that it takes a number of failed end-of-the-world predictions before the beliefs are finally abandoned. This is what Imre Lakatos called a “degenerative research program”: the theory survives repeated contradictions only by making up an incoherent series of ad hoc assumptions. It ends up being overthrown, but the process can take a very long time (this process of change between scientific theories is well documented also by Thomas Kuhn’s The structure of scientific revolutions).

This phenomenon is particularly visible in political discourse. Any significant political event or observation will be given a different interpretation depending on the political preferences of the person. It never happens that a right wing person turns left wing upon noticing that wealthy countries have many homeless people. Rather, an interpretation is made that revolves around the notion of personal responsibility.

To give a contemporary example, recent demonstrations in France have been met by an extraordinarily repressive response, with hundreds of serious injuries caused by police, some on journalists and children, which are documented by hundreds of videos circulating on social media (see @davduf and a recent article in Le Monde). A recent one is a 47 year old voluntary fire man, father of three, who was demonstrating with his wife until they were dispersed by tear gas. He was later found lying alone in an empty street with a head injury, and an amateur video shows that police shot him in the head from behind with a flash-ball gun and launched a grenade in the street. The man is currently in a coma. In any of those cases, on social media there is invariably part of the comments that suggest that the man or woman must have done something bad (this is indeed the official doctrine, as the Minister of Interior has recently claimed that he is not aware of any case of police violence). It is not in itself irrational: simply, the commenter presumes that police do not hurt innocent citizens, deduces that the citizen involved is not innocent, and concludes that the critics are irrational conspiracy seekers.

There are indeed conspiracy theorists, for example those that claim that the landing on the moon was in fact filmed in Hollywood studios. The fact that it is a conspiracy theory is not itself a reason to discredit it, since there have been conspiracies in History. The theory itself is also not irrational, in that it has logical coherence as well as empirical elements of support. For example, on the video the American flag appears to float in the wind whereas there can be no wind on the moon and in fact the flag should appear folded. Indeed: the flag was made rigid precisely for that reason. But most people do not know this fact, and thus the reasons why the ordinary citizen believes that man actually did land on the moon is that she trusts the source and finds the information plausible. Which attitude is irrational?

These examples illustrate several points. First, isolated empirical contradictions almost never shake a belief system. In fact, this is precisely what we mean when we say that “extraordinary claims require extraordinary evidence”. This proposition, however, is quite misleading since the notion of what is extraordinary is specific of a particular belief system. There is no objective definition of “extraordinary”. Therefore, rather than being a normative feature of scientific method, it simply expresses the inherent conservativeness of belief systems. As Festinger’s study shows, it can take a large number of empirical contradictions to impact a belief system. As explained previously, this is not necessarily a flaw as those contradictions can (sometimes) be turned into theoretical progress within the belief system.

But there are other ways in which empirical contradictions are handled by belief systems, which are documented in psychology by cognitive dissonance theory. A major one is simply to avoid being confronted to those contradictions, for example by reading newspapers with the same political views, or by discrediting the source of information without actually examining the information (e.g. social media propagate fake news, therefore the video cannot be trusted). Another is proselytism, that is, trying to convert other people to your belief system.

These mechanisms explain that at any given moment, mutually contradictory belief systems are held by people who live in the same world and are in contact with each other, and who can even discuss the same empirical observations. The conclusion of our discussion is that the main problematic issue in belief systems is not so much irrationality as dogmatism (but we will come back to irrationality in the third part on theoretical contradiction). Dogmatism arises from two different attitudes: blindness and deafness. Dogmatism is blind in that it actively refuses to see empirical evidence as potentially contradictory: it is not just that it is contradicted by empirical observations (this very notion is questionable), but rather that it dismisses empirical contradiction without seriously trying to accommodate for it in a progressive way (i.e., by strengthening its theoretical core). Dogmatism is deaf in that it refuses to acknowledge for the possibility that other rational belief systems can exist, and may have diverging interpretations of the empirical body of observations. Dogmatism denies the theoretical possibility of disagreement: the opponent is always either an idiot (irrational) or a liar (has ulterior motives). In the next part, I will turn to social contradiction: how different belief systems can co-exist and influence each other.

Epistémologie politique (I) Introduction

Dans cette série, je m’intéresse à l’épistémologie de la pensée politique. J’entends ici par épistémologie la théorie de la connaissance de manière générale, c’est-à-dire pas seulement la connaissance scientifique mais la connaissance du monde, plus généralement. Dans la pensée politique, il y a bien sûr un aspect normatif (comment la société devrait être organisée et dans quel but) mais cette normativité prend toujours appui sur une théorie du monde : comment fonctionnent la société, l’économie, les structures de pouvoir. Elle inclut également toujours un certain nombre de présupposés sur la psychologie humaine. Par exemple, selon une théorie typiquement associée à la droite conservatrice, l’homme est un loup pour l’homme (Hobbes) ; il s’ensuit que des institutions doivent être créées pour protéger l’homme de ses congénères. Une variante (droite libérale) est que l’homme cherche avant tout à maximiser à son intérêt personnel ; il s’ensuit que les institutions sociales doivent être organisées de façon à ce que l’intérêt personnel coïncide avec l’intérêt collectif. Selon une autre théorie ancrée à gauche, l’homme est naturellement altruiste (Rousseau) ; il s’ensuit que la société doit être organisée pour faciliter la coopération entre les hommes (avec bien sûr de nombreuses variantes ; anarchismes, communismes, etc).

Ainsi les doctrines politiques sont en grande partie déterminées par des théories sous-jacentes de l’homme et du monde. Par conséquent, les désaccords politiques sont très souvent liés à des désaccords sur ces théories et se manifestent donc sur le plan épistémologique. Par exemple, les discours de droite tendent à se présenter comme « réalistes » ; la droite libérale comme « rationnelle » ; par opposition à une gauche qui serait « utopiste ». En utilisant ces mots, on se place non sur le plan de la finalité politique mais sur celui de la connaissance : on admet que la finalité des systèmes politiques critiqués est louable, mais on prétend qu’ils reposent sur une vision fausse de la façon dont le monde fonctionne. C’est donc réellement sur la connaissance que porte le jugement, sur la validité empirique des théories sous-jacentes.

Le système politique néolibéral, par exemple (habituellement classé au centre droit), refuse généralement l’appellation « néolibéral », pourquoi ? Parce que ses partisans ne pensent pas suivre une doctrine particulière, mais simplement exprimer ce qui est rationnel, « logique ». D’un point de vue épistémologique, cette posture est critiquable, puisque la logique s’exprime dans un cadre formel, et donc dans un modèle particulier. Autrement dit, la rationalité s’exerce au sein d’une théorie particulière du monde, ce qui fait que deux discours contradictoires peuvent être rationnels, mais relatifs à des théories différentes. Par exemple, les discours Keynésiens et néoclassiques sont deux discours rationnels contradictoires, parce qu’ils reposent sur des modèles différents. Conformément à cette posture rationaliste, la pensée néolibérale ou néoclassique repose largement sur une connaissance mathématisée, c’est-à-dire dont les questions portent sur des aspects formels plutôt que sur la validité empirique du modèle sous-jacent (comme le concept de l’agent rationnel). La théorie tend par conséquent à ignorer les champs du savoir permettant de questionner empiriquement les modèles socio-économiques, tels que l’histoire, la sociologie, l’anthropologie. On peut donc formuler une critique épistémologique de cette pensée politique.

De manière symétrique, le discours de gauche tend à dépeindre la pensée politique de droite comme la manifestation sournoise de mauvaises intentions. Par exemple, le discours économique de droite tend à promouvoir la réduction de l’impôt, en particulier sur les plus riches. Ceci est vu par la critique de gauche comme la défense des intérêts d’une classe dominante. Pourquoi ? Encore une fois, on peut analyser la question sous l’angle épistémologique. Selon les théories de gauche, l’impôt est ce qui permet de répartir équitablement les richesses. Par conséquent, une mesure tendant à réduire l’impôt favorise les classes riches de la population. Il s’ensuit qu’un système politique qui promeut cette mesure doit avoir pour but de favoriser ces classes. Il s’agit encore une fois de la simple expression de la rationalité au sein d’un cadre théorique. On a donc dans le discours néolibéral et dans sa critique deux discours rationnels au sein de cadres théoriques différents.

Ce dernier exemple soulève un autre point épistémologique intéressant, qui est la façon dont les partisans d’une théorie jugent ceux d’une autre théorie. On voit dans cet exemple l’opposition de deux mépris : le néolibéral considère son critique comme idiot (irrationnel) ; le critique considère le néolibéral comme égoïste et de mauvaise foi. Dans les deux cas, le partisan juge son adversaire en utilisant son propre cadre théorique, c’est-à-dire comme si l’adversaire utilisait le même cadre théorique. En effet, le néolibéral juge son critique idiot, parce que ce critique serait effectivement idiot s’il adoptait le cadre théorique néolibéral mais n’en tirait pas les conclusions logiques (d’où le discours récurrent des gouvernants face à leur opposition qu’il faut « faire de la pédagogie », ce qui est perçu à juste titre comme du mépris). De même, l’opposant juge le néolibéral de mauvaise foi, c’est-à-dire qu’il considère que celui-ci est tout à fait conscient que ses propositions politiques favorisent la classe dominante. Or ceci suppose qu’il a adopté le cadre théorique alternatif de l’opposant. Dans les deux cas donc, chacun semble négliger la possibilité que son propre cadre de pensée est une théorie dont il est convaincu, et non une vérité évidente et universelle. Il en résulte une critique relativement stérile, en cela qu’elle ne porte pas sur les fondements (notamment empiriques) des théories en compétition mais sur les supposées compétences des interlocuteurs d’un côté (arguments d’autorité) et sur les intérêts personnels ou de classe de l’autre (invectives).

On touche ici à deux points distincts. D’une part, au statut épistémologique des théories (est-ce qu’elles se valent toutes et ne sont que des points de vue ? ou peut-on les juger empiriquement ou théoriquement ?). Sur ce point, on peut s’appuyer sur une riche littérature en philosophie des sciences. D’autre part, à la psychologie des croyances : qu’est-ce qui fait que l’on croit à certaines théories plutôt qu’à d’autres, et qu’éventuellement on change d’avis ? Sur ce deuxième point, on peut s’appuyer également sur une riche littérature en psychologie sociale, comme la théorie de la dissonance cognitive dont je parlerai dans un prochain texte. Celle-ci propose que l’on cherche à rendre nos actes et nos croyances cohérents non seulement en agissant conformément à nos croyances, mais également dans de nombreux cas en adaptant nos croyances à nos actes (entre autres). Par exemple, une personne qui gagne beaucoup d’argent peut se convaincre qu’un système politique qui favorise l’inégalité est plus efficace. Ceci explique l’alignement entre catégories sociologiques et croyances politiques, qui est plus satisfaisante que la théorie de la mauvaise foi. Ce n’est effectivement pas un hasard si les classes supérieures tendent à adopter une théorie qui justifie leur position sociale (e.g. la théorie néolibérale), mais cela ne veut pas dire pour autant que cette adoption est cynique. Au contraire, ces croyances sont sincères. Simplement, différentes catégories sociologiques et culturelles sont plus ou moins susceptibles d’adopter différentes croyances.

Dans cette série, je compte donc développer une critique épistémologique du discours politique.

What is computational neuroscience? (XXXIV) Is the brain a computer (2)

In a previous post, I argued that the way the brain works is not algorithmic, and therefore it is not a computer in the common sense of the term. This contradicts a popular view in computational neuroscience that the brain is a kind of a computer that implements algorithms. That view comes from formal neural network theory, and the argumentation goes as follows. Formal neural networks can implement any computable function, which is a function that can be implemented by an algorithm. Thus the brain can implement algorithms for computable functions, and therefore is by definition a computer. There are multiple errors in this reasoning. The most salient error is a semantic drift on the concept of algorithm, the second major error is a confusion on what a computer is.

Algorithms

A computable function is a function that can be implemented by an algorithm. But the converse “if a function is computable, then whatever implements this function runs an algorithm” is not true. To see this, we need to be a bit more specific about what is meant by “algorithm” and “computable function”.

Loosely speaking, an algorithm is simply a set of explicit instructions to solve a problem. A cooking recipe is an algorithm in this sense. For example, to cook pasta: put water in a pan; heat up; when water boils, put pasta; wait for 10 minutes. The execution of this algorithm occurs in continuous time in a real environment. But what is algorithmic about this description is the discrete sequential flow of instructions. Water boiling itself is not algorithmic, the high-level instructions are: “when condition A is true (water boils), then do B (put pasta)”. Thus, when we speak of algorithms, we must define what is considered as elementary instructions, that is, what is beneath the algorithmic level (water boils, put pasta).

The textbook definition of algorithm in computer science is: "a sequence of computational steps that transform the input into the output." (Cormen et al., Introduction to algorithms; possibly the most used textbook on the subject). Computability is a way to formalize the notion of algorithm for functions of integers (in particular logical functions). To formalize it, one needs to specify what is considered an elementary instruction. Thus, computability does not formalize the loose notion of algorithm above, i.e, any recipe to calculate something, for otherwise any function would be computable and the concept would be empty (to calculate f(x), apply f to x). A computable function is a function that can be calculated by a Turing machine, or equivalently, which can be generated by a small set of elementary functions on integers (with composition and recursion). Thus, an algorithm in the sense of computability theory is a discrete-time sequence of arithmetic and logical operations (and recursion). Note that this readily extend to any countable alphabet instead of integers, and of course you can replace arithmetic and logical operations with higher-order instructions, as long as they are themselves computable (ie a high-level programming language). But it is not any kind of specification of how to solve a problem. For example, there are various algorithms to calculate pi. But we could also calculate pi by drawing a circle, measuring both the diameter and the perimeter, then dividing perimeter by diameter. This is not an algorithm in the sense of computability theory. It could be called an algorithm in the broader sense, but again note that what is algorithmic about it is the discrete structure of the instructions.

Thus, a device could calculate a computable function using an algorithm in the strict sense of computability, or in the broader sense (cooking recipe), or in a non-algorithmic way (i.e., without any discrete structure of instructions). In any case, what the brain or any device manages to do bears no relation with how it does it.

As pointed out above, what is algorithmic about a description of how something works is the discrete structure (first do A; if B is true, then do C, etc). If we removed this condition, then we would be left with the more general concept of model, not algorithm: a description of how something works. Thus, if we want to say anything specific by claiming that the brain implements algorithms, then we must insist on the discrete-time structure (steps). Otherwise, we are just saying that the brain has a model.

Now that we have more precisely defined what an algorithm is, let us examine whether the brain might implement algorithms. Clearly, it does not literally implement algorithms in the narrow sense of computability theory, i.e., with elementary operations on integers and recursion. But could it be that it implements algorithms in the broader sense? To get some perspective, consider the following two physical systems:

(A) are dominoes, (B) is a tent (illustration taken from my essay “Is coding a relevant metaphor for the brain?”). Both are physical systems that interact with an environment, in particular which can be perturbed by mechanical stimuli. The response of dominoes to mechanical stimuli might be likened to an algorithm, but that of the tent cannot. The fact that we can describe unambiguously (with physics) how the tent reacts to mechanical stimuli does not make the dynamics of the tent algorithmic, and the same is true of the brain. Formal neural networks (e.g. perceptrons or deep learning networks) are algorithmic, but the brain is a priori more like the tent: a set of coupled neurons that interact in continuous time, together and with the environment, with no evident discrete structure similar to an algorithm. As argued above, a specification of how these real neural networks work and solve problems is not an algorithm: it’s a model – unless we manage to map the brain’s dynamics to the discrete flow of an algorithm.

Computers

Thus, if a computer is something that solves problems by running algorithms, then the brain is not a computer. We may however consider a broader definition: the computer is something that computes, i.e., which is able to calculate computable functions. As pointed out above, this does not require the computer to run algorithms. For example, consider a box with some gas, a heater (input = temperature T) and a pressure sensor (output = P). The device computes the function P = nRT/V by virtue of physical laws, and not by an algorithm.

This box, however, is not a computer. Otherwise, any physical system would be called a computer. To be called a computer, the device should be able to implement any computable function. But what does it mean exactly? To run an arbitrary computable function, some parameters of the device need to be appropriately adjusted. Who adjusts these parameters and how? If we do not specify how this adjustment is being made, then the claim that the brain is a computer is essentially empty. It just says that for each function, there is a way to arrange the structure of the brain so that this function is achieved. It is essentially equivalent to the claim that atoms can calculate any computable function, depending on how we arrange them.

To call such a device a computer, we must additionally include a mechanism to adjust the parameters so that it does actually perform a particular computable function. This leads us to the conventional definition of a computer: something that can be instructed via computer programming. The notion of program is central to the definition of computers, whatever form this program takes. A crucial implication is that a computer is a device that is dependent on an external operator for its function. The external operator brings the software to the computer; without the ability to receive software, the device is not a computer.

In this sense, the brain cannot be a computer. We may then consider the following metaphorical extension: the brain is a self-programmed computer. But the circularity in this assertion is problematic. If the program is a result of the program itself, then the “computer” cannot actually implement any computable function, but only those that result from its autonomous functioning. A cat, a mouse, an ant and a human do not actually do the same things, and cannot even in principle do the same tasks.

Finally, is computability theory the right framework to describe the activity of the brain in the first place? It is certainly not the right framework to describe the interaction of a tent with its environment, so why would it be appropriate for the brain, an embodied dynamical system in circular relation with the environment? Computability theory is a theory about functions. But a dynamical system is not a function. You can of course define functions on dynamical systems, even though they do not fully characterize the system. For example, you can define the function that maps the current state to the state at some future time. In the case of the brain, we might want to define a function that maps an external perturbation of the system (i.e. a stimulus) to the state of the system at some future time. However, this is not well defined, because it depends on the state of the system at the time of the perturbation. This problem does not occur with formal neural networks precisely because these are not dynamical systems but mappings. The brain is spontaneously active, whether there is a “stimulus” or not. The very notion of the organism as something that responds to stimuli is the most naïve version of behaviorism. The organism has an endogenous activity and a circular relation to its environment. Consider for example central pattern generators: these are rhythmic patterns produced in the absence of any input. Not all dynamical systems can be framed into computability theory, and in fact most of them, including the brain, cannot because they are not mappings.

Conclusion

As I have argued in my essay on neural coding, there are two core problems with the computer metaphor of the brain (it should be clear by now that this is a metaphor and not a property). One is that it tries to match two causal structures that are totally incongruent, just like dominoes and a tent. The other is that the computer metaphor, just as the coding metaphor, implicitly assumes an external operator – who programs it / interprets the code. Thus, what these two metaphors fundamentally miss is the epistemic autonomy of the organism.