Le feuilleton (II,5) : Comment "la science" a pris le pouvoir
Paru dans La lettre le vendredi 10 octobre 2025.
Voici le 5ème épisode (1ère partie) de la deuxième saison de notre série "Petite histoire des années Blanquer". Cette deuxième saison est consacrée à ceux qui prétendent incarner la science et cet épisode est consacré aux "preuves" qui consacrent la supériorité de la méthode syllabique ("phonique synthétique" en langage savant).
Une lectrice me fait remarquer à ce sujet une erreur dans l'épisode précédent (ici), consacré aux critères de scientificité utilisés par le CSEN (Conseil scientifique de l'Education nationale), à propos des "Neurones de la lecture" de Stanislas Dehaene. Celui-ci a démontré que pour lire, nous avons besoin de reconnaître les lettres et les syllabes et de leur associer des sons, ce dont se charge une zone du cerveau (par exemple saut et sot se lisent pareillement à voix haute), mais nous avons aussi besoin d'identifier des unités de sens, et d'autres neurones reconnaissent saut et sot pour lire "jouer à sauter à la corde n'est pas une sottise" (ce qui corrobore d'ailleurs les travaux d'Eveline Charmeux). Pour savoir lire, il faut donc activer les deux voies, dites "directe" et "indirecte". Le problème, me dit cette lectrice, est que S. Dehaene a oublié ses propres travaux pour privilégier la voie "directe" et opposer "syllabique" et "globale", une opposition qui, en réalité, n'a pas de sens.
Dans cet épisode, nous conservons pourtant l'opposition "syllabique vs globale" puisque c'est cette opposition qui structure les raisonnements de S. Dehaene et de ses amis. Ceux-ci semblent n'avoir qu'une vision très superficielle des propositions de Jean Foucambert dont la méthode "idéo-visuelle" ne peut être réduite à l'apprentissage par coeur de mots vus comme des idéogrammes, mais ce n'est pas le sujet ici. Je me propose en effet d'examiner la cohérence interne des arguments mis en avant pour justifier la "syllabique", car ils sont au fondement de la prise de pouvoir de Stanislas Dehaene.
(Pour les épisodes précédents, sur le CSEN ici et ici, sur la maternelle à 3 ans ici, ici, ici)
Considérant que les arguments les plus intéressants pour examiner la validité d'une thèse doivent être recherchés chez les tenants de celle thèse, je m'appuie essentiellement sur un ouvrage de S. Dehaene, "Apprendre !", sur un artcle de L. Sprenger-Charolles (co-signé par E. Gentaz, ANAE, février 2022), et sur la thèse Paul Gioia, dont les principaux résultats ont été présentés avec J. Deauvieau au Collège de France. On trouvera une synthèse de la plupart des arguments en faveur de la syllabique dans le rapport d'information sur l'apprentissage de la lecture des députés Annie Genevard et Fabrice Le Vigoureux (ici).
Pour démontrer la supériorité de la "syllabique", nos chercheurs ont recours à des arguments de plusieurs ordres. Mais il convient de commencer leur examen par ce qui n'y figure pas. A aucun moment ne sont évoquées les raisons qu'ont les enfants de vouloir apprendre à lire. Ils sont supposés vouloir, ce qui est vrai pour la très grande majorité d'entre eux, mais certains enfants sont pris dans des conflits de loyauté entre la culture familiale et la culture scolaire et certains ont autre chose à penser ("papa a tapé maman" ou "le cochon d'inde est mort" ou "Karine n'est plus ma copine"..., mille choses d'une extrême gravité ou anecdotiques, mais qui empêchent d'apprendre).
Ne sont non plus jamais évoqués les acquis des enfants, hormis ce qui s'inscrit explicitement dans une propédeutique de la lecture, la connaissance des lettres de l'alphabet et des phonèmes associés. En revanche la reconnaissance "globale" de leurs prénoms et de ceux de leurs camarades, les comptines et les jeux de rime, tout ce qui construit l'envie de savoir lire et donne à l'enfant de premiers repères, n'existe pas.
Leur certitude est d'abord fondée sur un raisonnement a priori. On ne peut comprendre que ce qu'on a lu, le déchiffrage précède donc la compréhension. C'est le fondement implicite de la plupart des articles que j'ai lus, mais comme leurs auteurs sont conscients de la fragilité d'un tel raisonnement, qui confond antériorité logique et antériorité chronologique, ils tentent de l'étayer par diverses approches.
L'imagerie cérébrale est la spécialité de Stanislas Dehaene. Dans "Apprendre !", il explique longuement comment la lecture modifie la structure du cerveau : "l'acquisition de la lecture recycle plusieurs zones visuelles et auditives préexistantes du cerveau afin de les réorienter vers le traitement des lettres et des phonèmes." Mais est-ce à dire que c'est "le traitement des lettres et des phonèmes" (donc un apprentissage "syllabique") qui provoque ce "recyclage" du cerveau ? Il le laisse entendre en juxtaposant les deux affirmations, la lecture modifie le cerveau et l'enseignement doit porter sur le code, mais il n'établit pas explicitement un rapport de causalité. La nécessité de l'apprentissage du code est en fait justifiée dans "Apprendre !" par une expérience qui n'a rien à voir. Confrontés à un texte écrit dans un alphabet inconnu (créé pour les besoins de l'expérimentation), les adultes qui segmentent les ensembles de lettres s'en sortent mieux que ceux qui tentent une lecture globale.
Cela ne doit pas nous surprendre. Bien qu'elles n'aient jamais existé, les approches purement globales ont été dénoncées depuis longtemps par toutes les instances scientifiques des domaines anglo-saxons et francophones (notamment en France par l'ONL, l'Observatoire national de la lecture, et par la conférence de consensus du CNESCO): l'enfant a besoin de formaliser l'apprentissage des relations entre graphèmes et phonèmes. Il a aussi besoin d'apprendre à écrire en même temps qu'il apprend à lire.
Aux USA, contrairement à ce qu'affirment régulièrement les tenants de la "syllabique", les conclusions du "NRP", le "National reading panel" ne vont pas plus loin : "Le décodage peut être enseigné systématiquement. Une séquence d’éléments phoniques définie est alors travaillée de façon approfondie et explicite. Il peut aussi être dispensé ponctuellement (...) ; l’enseignant explique ces correspondances au gré des éléments rencontrés dans les textes étudiés." Il est donc faux d'affirmer que le débat est tranché outre-Atlantique, d'autant que certains chercheurs comme Jeffrey Bowers continuent de défendre les approches "whole language" ("globales"), ou du moins contestent qu'une approche systématique des relations grapho-phonémiques soit la seule qui soit efficace. C'est d'ailleurs un point sur lequel insiste volontiers Franck Ramus, la science n'a pas disqualifié les méthodes "phoniques analytiques" (partir du mot pour aller vers les phonèmes au lieu de partir des lettres pour composer des mots, comme le prévoit la "phonique synthétique"). L'analytique est parfois assimilée, à tort à mon avis, à une "méthode mixte".
Il y a donc bien un consensus, minimal, et une approche neuroscientifique ne permet pas d'aller plus loin. La seconde approche, dont Liliane Sprenger-Charolles est la meilleure représentante repose sur un raisonnement du type "Qui peut le plus peut le moins". Il est plus difficile d'apprendre à lire avec une méthode fondée sur les relations graphèmes-phonèmes quand celles-ci sont irrégulières. En espagnol ou en finlandais, les correspondances sont simples, les mots sont écrits "comme ils se prononcent", si on connaît le son associé à chaque lettre, on sait décoder tous les mots. Ce n'est pas le cas en anglais. Si vous n'avez jamais entendu le mot "great" (grand), vous ne pouvez pas savoir s'il se prononce "grit" ou "grèt". En termes de régularité des correspondances graphèmes - phonèmes, le français se situe quelque part entre l'anglais et l'espagnol. Or si la méthode syllabique marche mieux que la méthode globale dans les pays anglo-saxons, malgré l'irrégularité des relations grapho-phonémiques, elle doit être encore plus efficace dans les pays francophones. Ce raisonnement est manifestement faux.
Il est vrai qu'à considérer l'entièreté de la langue anglaise, et plus encore si on considère la diversité des accents selon qu'elle est parlée à Oxford ou à Houston, elle est plus irrégulière que le français. Mais si on s'attache au vocabulaire qui se trouve dans les manuels de lecture, à ce dont on a besoin pour de petites historiettes enfantines, il en va tout autrement, il suffit de comparer "a dog" (à toutes les lettres correspondent les sons attendus) et "un chien" (à aucune des lettres ne correspond le son attendu), ou "I am a boy, you are a girl" et "Je suis un garçon, tu es une fille". Il est beaucoup plus facile en anglais qu'en français de proposer aux enfants des mots et des phrases dont toutes les correspondances graphèmes-phonèmes sont connues. Même s'il est plus difficile de lire Shakespeare que Corneille ou Dickens que Balzac quand on n'est pas bon lecteur, il est plus facile d'entrer dans la lecture à Londres qu'à Paris. Les comparaisons internationales, lorsqu'elles placent les langues sur un seul axe et méconnaissent les spécificités du français, ne mènent à rien.
La troisième approche est empirique. Mais les données sont rares dans le domaine francophone.
Seules trois enquêtes sont régulièrement citées, celle de Roland Goigoux, celle de Braibant et Gérard et celle de Jérôme Deauvieau et Paul Gioia. Le premier, le seul à avoir mené une étude à grande échelle, fondée sur l'observation des pratiques des enseignants et non sur les méthodes revendiquées, conclut que les résultats des élèves dépendent d'un ensemble complexe de facteurs. Il se prononce pourtant en faveur d'un apprentissage explicite et rapide d'un nombre suffisant de correspondances graphèmes-phonèmes, mais aussi en faveur de l'apprentissage "global" de quelques "mots clé". L'étude de Braibant et Gérard porte sur quelques centaines d'élèves en Belgique (Wallonie) et compare les résultats de ceux dont les enseignant.e.s sont adeptes de la méthode Borel-Maisonny et d'autres qui suivent les préceptes de Jean Foucambert. Les premiers sont meilleurs que les seconds, mais les deux chercheurs, contrairement à ce que leur fait dire Liliane Sprenger-Charolles, mettent davantage en cause la rigidité des partisans de la méthode "idéo-visuelle" que la méthode elle-même. Ils estiment qu'elle serait davantage efficace pour peu que ses utilisateurs acceptent un peu de "B A ba".
Restent Jérôme Deauvieau et Paul Gioia, dont l'enquête "Formalect" devait enfoncer le dernier clou du cercueil de tout ce qui n'est pas "syllabique pure et dure". C'est ce que nous verrons la semaine prochaine.