Une petite mise au point concernant le rôle de l’éducation dans les facultés cognitives

Quelle est la part de l’inné et de l’acquis dans l’intelligence, ou plus généralement dans les facultés cognitives ? C’est une question très controversée, en particulier parce qu’elle a une grande portée politique : l’éducation est-elle importante, ou bien tout est-il prédéterminé par nos gènes ? Il est évident que dans le second cas, investir dans l’éducation semble vain ; il devrait plutôt s’agir de faire de la sélection et de l’orientation que de l’éducation.

Il existe une littérature scientifique abondante sur ce sujet, malheureusement ses résultats sont souvent mal interprétés et déformés par des idéologues. Prenons l’exemple d’une récente tribune de l’essayiste Laurent Alexandre dans l’Express :

« 64% de nos différences de capacité de lecture sont génétiques ; l’école et la famille n’ont malheureusement qu’un rôle marginal face à nos chromosomes ».

Je vais supposer que la première assertion est correcte et bien établie scientifiquement. La conclusion est non seulement fausse, mais absurde. Revenons quelques siècles en arrière. Génétiquement, la population était sensiblement la même qu’aujourd’hui. Mais peu de gens apprenaient à lire, donc peu de gens savaient lire. Par conséquent, oui, l’éducation et la famille ont un rôle déterminant dans les capacités de lecture. Par ailleurs, si l’on avait fait la même étude sur la population de l’époque, on aurait trouvé non pas 64% mais une proportion bien plus faible de déterminisme génétique, puisque les capacités de lecture étaient en premier lieu déterminées par la possibilité d’apprendre à lire. Inversement, si l’éducation était la même pour toute, par exemple si on avait institué une école publique pour tous avec des programmes nationaux strictement appliqués de manière uniforme, eh bien on trouverait que très peu de différences de quoi que ce soit sont expliquées par l’éducation, puisque ce ne serait pas un facteur variable.

Une assertion du type « 64% des différences de capacité de lecture sont génétiques » est une mesure contextuelle, qui reflète en grande partie la variabilité de chacun des facteurs. En aucun cas elle n’indique un rôle causal faible pour l’éducation ou l’environnement familial. Elle peut tout aussi bien indiquer une certaine homogénéité de l’éducation reçue. Tout ce qu’elle indique, tout ce qu’indique cette littérature en général, c’est que les facultés cognitives sont influencées par des facteurs à la fois génétiques et environnementaux.

Etant donné que l’on ne sait pas lire spontanément mais uniquement après l’avoir appris, il faut une certaine dose d’aveuglement idéologique pour prétendre que l’école y joue un « rôle marginal ». Certes, il faut aussi avoir un cerveau pour pouvoir lire, d’où les facteurs génétiques. Par exemple, un ver de terre ne sait pas lire. Rien n’indique cependant que ces « 64% » de variation d’origine génétique concernent le cerveau. Il faut aussi des yeux pour pouvoir lire, par exemple. Des difficultés de lecture liés à un problème ophtalmologique d’origine génétique seront comptées dans ce total. De même, si (expérience de pensée) l’éducation des enfants étaient biaisée en fonction de facteurs physiques d’origine génétique, alors ce biais apparaîtrait également comme facteur génétique. Ce n’est sans doute pas ce que l’on veut dire par « facteur génétique des capacités de lecture », mais c’est quand même ce qui est mesuré.

La question qui a un intérêt politique, ce n’est pas : quelle part de la variabilité des capacités de lecture dans un contexte éducatif et socioculturel donné peut être expliqué par des variations génétiques (neurogénétiques ou non, purement biologiques ou conditionnés à des facteurs socioculturels) mais plutôt : dans quelle mesure améliorer l’éducation peut-il améliorer les capacités de lecture ? Pour répondre, on peut faire appel à l’histoire plutôt qu’à la génétique, et la conclusion est sans appel : historiquement, plus de gens ont su lire lorsqu’on leur a enseigné la lecture.

En résumé, oui l’éducation a un rôle majeur dans les capacités cognitives comme la lecture, et la science ne dit pas le contraire. Evidemment.

What is computational neuroscience? (XXXVI) Codes and processes

There are two classes of problems with the concept of neural codes. Initially, while working on my critique of the neural coding metaphor, I focused mostly on the epistemic problem (the first two parts of the paper). The epistemic problem is that when we say that Y is a neural code for X and that Y is metaphorically decoded by the brain, we imply that Y is informative about X by simple virtue of being in lawful relation with X. But this is a kind of information that is only available to an external observer who can see both X and Y, knows the two domains and the correspondence. If not X but X’ caused the neural activity Y, the organism would never know from just observing Y. Therefore Y cannot be a primary representation of X for the organism. Of course it could be a secondary representation of X, if the organism could observe that Y is in lawful relation with Z, a primary representation of X. But then we need to account for the existence of that primary representation, which cannot be based on an encoding. A number of other authors have made similar criticisms, in particular Mark Bickhard.

The epistemic problem is, I would say, the “easy problem” of neural codes. Addressing it gives rise to alternative notions of information based on internal relations, such as O’Regan’s sensorimotor contingencies, Gibson’s invariance structure, and my subjective physics.

But there is a deeper, more fundamental problem. It has to do with substance vs. process metaphysics and the way time is conceived (or in this case, disregarded). I address it in the third part of the neural coding essay, and in my response to commentaries (especially the third part). To explain it, I will compare the neural code with the genetic code. There are some problematic aspects with the idea of a “genetic code”, but in its most unproblematic form, there is a lawful correspondence between triplets of nucleotides and amino acids, which we can call a code. Nucleotides and amino acids are two types of substances, that is, some stable entities (molecules). Nucleotides are transformed into amino acids by some process that unfolds through time (translation). A process is not a substance; it may involve some substance, for sure (e.g. enzymes), but it is the activity that defines the process. The code refers to some lawful relation between two types of substances, disregarding the process.

With this analysis in mind, “neural codes” now look very peculiar. The neural end of the code is not a substance at all. It is a particular measurement of the activity of neurons done at a particular time, for example the number of spikes during a particular time window. We then consider that this number is the output of some process, some kind of stable entity that can be further manipulated and transformed by some other processes. Of course this is exactly what it is for the experimenter, who manipulates those measurements, makes calculations etc. But from the organism’s perspective this view is very puzzling: the activity of neurons is the process, not the result of a process (what other process?). Neurons do not produce stable entities like amino acids which can participate in various processes. A spike is not a stable entity, it is a timed event in the process of neural interaction (like, say, the binding of an enzyme on RNA), and measurements like spike counts are simply “snapshots” of that process. It is not coherent to treat signatures of processes as if they were substances.