Stanislas Dehaene, Les Neurones de la lecture, pp. 291-301.
http://www.amazon.fr/Les-neurones-lecture-Stanislas-Dehaene/dp/2738119743
Le but de l'enseignement de la lecture est donc clair : il faut mettre en place cette hiérarchie dans le cerveau, afin que l'enfant puisse reconnaître les lettres et les graphèmes et les transformer aisément en sons du langage. Tous les autres aspects essentiels de l'écrit — apprentissage de l'orthographe, enrichissement du vocabulaire, nuances de sens, plaisir du style — en dépendent directement.
http://www.amazon.fr/Les-neurones-lecture-Stanislas-Dehaene/dp/2738119743
Le but de l'enseignement de la lecture est donc clair : il faut mettre en place cette hiérarchie dans le cerveau, afin que l'enfant puisse reconnaître les lettres et les graphèmes et les transformer aisément en sons du langage. Tous les autres aspects essentiels de l'écrit — apprentissage de l'orthographe, enrichissement du vocabulaire, nuances de sens, plaisir du style — en dépendent directement.
Ce ne serait pas rendre service à l'enfant que de lui faire miroiter les
plaisirs de la lecture sans lui en donner, d'abord, les clés. Le décodage
phonologique des mots est l'étape clé de la lecture. Toutes les recherches sur
les enfants et les illettrés que j'ai décrites au début de ce chapitre en
témoignent : la conversion graphème-phonème est une invention unique dans
l'histoire de l'écriture, qui transforme radicalement le cerveau de l'enfant et
sa manière d'écouter les sons du langage. Elle ne se développe pas
spontanément, il faut donc l'enseigner. La lecture par la voie directe ou
orthographique, qui mène en parallèle des lettres au sens, ne devient efficace
qu'après plusieurs années de lecture par la voie phonologique.
Le grand débat des méthodes de lecture
La psychologie cognitive réfute
ainsi, très directement, toute idée d'enseigner la lecture par une méthode
globale ou idéovisuelle. De quoi s'agit-il ? Disons, pour simplifier, que cette
méthode pédagogique propose à l'enfant d'associer directement les mots écrits,
voire des phrases entières, à leur sens, en refusant d'enseigner explicitement
les correspondances graphèmes-phonèmes.
La méthode
globale est issue d'une idée généreuse : refuser le « dressage » des enfants,
que l'école primaire est parfois accusée de transformer en petites mécaniques à
ânonner « pa, pe, pi, po, pu, papa a le tutu de Lili ». Récusant la primauté de
la mécanique, elle souhaite replacer le sens au centre de la lecture en donnant
d'emblée aux enfants des textes censés les intéresser, leur laissant le plaisir
d'y trouver eux-mêmes les phrases, puis les mots, puis les règles orthographiques.
Ne redonne-t-elle pas ainsi l'initiative aux enfants ? À eux de construire leur
propre apprentissage, en découvrant par eux-mêmes les règles de la lecture. Et
tant pis si, au départ, l'enfant joue aux devinettes et lit : « Le minou a très
soif » au lieu de : « Le chat boit du lait » — il est sur la bonne voie,
prétendent certains partisans » de la lecture globale, car il grandit en
autonomie et découvre d'emblée le plaisir du sens.
Dans les années 1950-1960, le
monde de l'éducation se polarise ainsi dans une véritable guerre entre les
progressistes, pour qui la méthode globale libère l'inventivité des enfants, et
les tenants de la pédagogie traditionnelle. Qu'en est-il aujourd'hui ? Pour
beaucoup, la hache de guerre est enterrée. Chercheurs, enseignants, ministres,
tous s'accordent : en dépit des idées généreuses qui la fondent, la méthode
globale ne fonctionne pas, elle a conduit une génération d'enfants à l'échec.
Jack Lang, dans Le Monde s'écriait en 2002: « Aux oubliettes la méthode
globale ! » Luc Ferry, alors ministre de l'Éducation, résumait le consensus à
l'Assemblée nationale en 2003 : « La méthode globale est en effet calamiteuse.
Cela étant, elle n'est presque plus utilisée, déjà depuis longtemps, et elle
est depuis l'an dernier, par instruction officielle, fortement déconseillée. »
Est-il donc encore la peine d'en
débattre ? Oui, car, poursuit Luc Ferry, « le problème est aujourd'hui celui
des méthodes mixtes, où l'élève apprend par exemple à reconnaître globalement
son nom avant de savoir le décomposer en syllabes ». Le constat est repris par
son successeur au ministère de l'Education nationale, Gilles de Robien, qui
souligne que « des méthodes à départ global continuent d'exister ».
Dans les faits, quoique
officiellement vouée aux gémonies, la méthode globale continue d'infiltrer les
programmes, ne fût-ce que par inertie ou par habitude. Le corps enseignant,
désorienté par tant d'allers et retours, ne peut se résoudre à abandonner toute une philosophie,
mais aussi des habitudes, des exercices qui ont été sa seule formation. Ainsi,
dans Qu'apprend-on à l'école élémentaire ?, ouvrage du Centre national
de documentation pédagogique préfacé par Jack Lang et paru en 2002, au sein
d'un chapitre qui souligne pertinemment l'importance d'« avoir compris le
principe qui gouverne le codage alphabétique des mots » et énonce
diplomatiquement que le choix de la méthode globale « comporte plus
d'inconvénients que d'avantages », figure l'étonnante conclusion suivante :
« On peut toutefois considérer que
la plupart de ces méthodes [globales ou semi-globales], par le très large usage
qu'elles font des activités d'écriture, parviennent aussi à enseigner, de
manière moins explicite, les relations entre graphèmes et phonèmes. Il
appartient aux enseignants de choisir la voie qui conduit le plus efficacement
tous les élèves à toutes les compétences fixées par les programmes[1]
[...]. »
Depuis des années, les
instructions officielles soufflent ainsi le chaud et le froid. Elles autorisent
chaque enseignant à choisir sa méthode favorite, ce qui revient à nier qu'il
existe des méthodes meilleures que d'autres. Dans les écoles se poursuivent
donc, aux côtés de l'enseignement de la syllabification et des correspondances
graphèmes-phonèmes, les activités héritées de la méthode globale : appariement
d'un mot avec une image, reconnaissance du contour des mots, reconnaissance du
prénom et du nom quelle que soit l'irrégularité de son orthographe (figure
5.2). Ce n'est que tout récemment que le ministère de l'Éducation nationale a
exprimé, avec force, l'inutilité de ces pratiques et les a officiellement
proscrites.
Il serait trop facile de rejeter
le blâme sur le seul corps enseignant. En réalité, ce sont des pédagogues et
des psychologues qui, les premiers, ont prôné la lecture globale[2].
Dès le XVIIIe siècle, le Dictionnaire
pédagogique de Nicolas Adam (1787) reprend les thèses de l'abbé de
Radonvilliers, selon lesquelles l'apprentissage syllabique « tourmente » les
enfants pour leur faire « retenir un grand nombre de lettres, de syllabes et de
sons où ils ne doivent rien comprendre » alors qu'il faudrait les « amuser avec
des mots entiers » écrits sur des cartes à jouer. À la fin du mixe siècle, dans
son laboratoire américain de psychophysique, James McKeen Cattell annonce avoir
découvert que les mots sont reconnus globalement plus rapidement que les lettres
qui les composent. Ses travaux sont repris par le psychologue suisse Édouard Claparède,
pour qui l'apprentissage de la lecture doit s'appuyer sur la perception
naturellement « syncrétique » de l'enfant. Le docteur Ovide Decroly incorpore
ces idées
dans
sa « méthode idéovisuelle » qui connaît un succès officiel en Belgique dans les
années 1930, et reçoit l'assentiment de Jean Piaget et surtout d'Henri Wallon,
influent professeur au Collège de France où il occupe la chaire de psychologie
de l'enfance et de l'éducation de 1937 à 1944. Ministre de l'Éducation
nationale, celui-ci élaborera avec Paul Langevin et Henri Piéron, au sortir de
la guerre (1947), un ambitieux plan de réforme de l'enseignement.
Par une autre voie, l'emphase sur
la forme globale du mot envahit le monde de la typographie, où un mot spécial,
la « bouma » (du nom du psychologue néerlandais Herman Bouma), fait référence
au contour des mots. Pour en améliorer la lisibilité, les typographes
conçoivent sciemment des polices de caractères qui produisent des « boumas »
les plus distinctes possible.
L'illusion
d'une lecture globale
Comment des scientifiques et des
pédagogues consciencieux sont-ils parvenus à une conclusion aujourd'hui jugée
erronée ? Il importe de comprendre, et de réfuter un par un, les arguments
scientifiques qui ont conduit à l'idée fausse d'une lecture globale des mots.
Un article récent recense au moins quatre observations fallacieuses qui
constituent autant de piliers de l'illusion de la lecture globale[3].
1.
Le temps de lecture d'un mot ne
dépend pas du nombre de lettres qu'il contient. Quelle que soit leur longueur
(dans un intervalle de 3 à 8 lettres environs), nous mettons autant de temps
pour lire les petits mots que les grands. Cette découverte semble accréditer
l'idée que la reconnaissance d'un mot ne passe pas par sa décomposition en
lettres. Introspectivement, la lecture d'un mot nous paraît une opération
élémentaire, immédiate, qui reconnaît la chaîne de lettres comme un tout
indivisible. Cependant, nous savons aujourd'hui que cette conclusion ne tient
pas. Chez le lecteur adulte, si la longueur des mots n'influence pas la
lecture, ce n'est pas parce que notre cerveau ne prête aucune attention aux
lettres, mais tout simplement parce qu'il les traite toutes simultanément et
non pas une par une. De plus, chez l'enfant, les choses sont bien différentes.
Pendant les années d'apprentissage, le temps de lecture est strictement
proportionnel au nombre de lettres, et cet effet de longueur met plusieurs
années à disparaître. Ainsi, est-il encore plus évident chez l'enfant que la
lecture n'est pas globale.
2.
La reconnaissance d'un mot peut
être plus rapide ou plus efficace que celle d'une lettre seule. Cet effet fascinant, découvert
par Cattell, a été répliqué par Reicher et popularisé sous le terme d'« effet
de supériorité lexicale » ; nous l'avons examiné au chapitre 2 (page 80). Bien
que son origine ne soit pas encore bien comprise, il n'est plus, aujourd'hui,
considéré comme la preuve que la reconnaissance globale du mot précède
l'extraction de ses lettres. Au contraire, des analyses récentes montrent que
la lecture d'un mot dans du bruit se déduit directement du taux de
reconnaissance de chacune de ses lettres[4].
Si l'on accède plus vite au mot, c'est peut-être que l'attention consciente
s'oriente plus aisément vers les niveaux les plus élevés de la hiérarchie
corticale, tandis qu'un effort d'attention focale est nécessaire pour accéder à
l'identité des lettres (même si celle-ci est calculée en premier[5]).
La taille des populations neuronales concernées doit également favoriser la
reconnaissance des lettres au sein des mots : un très grand nombre de
neurones, aux niveaux lexical, sémantique et phonologique - différencient «
saut » de « sauf », tandis qu'un petit ensemble d'unités visuelles déchargent
de façon distincte à la présentation des lettres « t » et « f ».
3.
La lecture des mots en minuscules
est légèrement plus rapide que celle des mots en majuscules. Selon les partisans de la méthode
globale, cette rapidité serait due à la forme particulière des minuscules
ascendantes et descendantes, qui engendre un contour propre à chaque mot (la «
bouma » des typographes).
Ce contour disparaît lorsque toutes les lettres apparaissent en majuscules de
la même taille. Cependant, si nous utilisions réellement le contour des mots,
nous ne devrions pas seulement être ralentis, mais être tout simplement
incapables de reconnaître les mots en majuscules. A fortiori, la lecture
devrait être impossible lorsque les mots sont présentés AvEc DeS LeTtReS
MiXtEs, ce qui brise totalement les régularités du contour. Au contraire, tous
ces mots restent éminemment lisibles. Comme nous l'avons vu au chapitre 2
(page 131), l'aire sensible aux mots écrits située dans le cortex
occipito-temporal gauche généralise très vite des minuscules aux majuscules, y
compris de façon non consciente. Le léger ralentissement de la lecture des mots
en majuscules n'est donc pas crucial. Il pourrait tout simplement être dû à
leur moindre familiarité.
4.
Les erreurs typographiques qui
respectent le contour global du mot sont moins faciles à déceler que celles qui
le violent. Ce
n'est pas entièrement faux : lorsque le mot désiré est « test », nous détectons
moins fréquemment l'erreur d'orthographe « tesf » que l'erreur « tesg », dans
laquelle une minuscule ascendante a été remplacée par une descendante.
Cependant cet effet ne provient pas de la forme globale du mot. Il s'explique
intégralement par la ressemblance des lettres : le « f » de « tesf » ressemble
plus à un « t » que le g de « tesg ». L'expérience montre que c'est la
similarité des lettres, et non celle du contour global, qui détermine les
confusions entre les mots[6].
En résumé, cela ne fait
aujourd'hui plus de doute : le contour global des mots ne joue pratiquement
aucun rôle dans la lecture. La reconnaissance visuelle des mots ne repose pas
sur une appréhension globale de son contour, mais sur sa décomposition en
éléments simples, les lettres et les graphèmes. La région corticale de la forme
visuelle des mots traite toutes les lettres du mot en parallèle, ce qui,
historiquement, est responsable de l'impression de lecture globale. Mais
l'immédiateté de la lecture n'est qu'une illusion, suscitée par l'extrême
automatisation de ses étapes, qui se déroulent en dehors de notre conscience.
L'inefficacité de la méthode
globale
L'inefficacité de la
méthode globale d'enseignement de la lecture est confirmée par
l'expérimentation directe. Plusieurs chercheurs ont comparé l'enseignement de
l'orthographe selon une méthode soit globale, soit analytique. L'une des plus
belles expériences a été réalisée par mon ami Bruce McCandliss, professeur à
l'Institut Sackler de New York[7]. Il a
inventé un nouvel alphabet artificiel d'un style inhabituel. Celui-ci s'écrit
de bas en haut, à l'aide de lettres dont les traits et les courbes se touchent,
de sorte que leurs courbes forment un contour global continu. Voici quatre mots
écrits dans cet alphabet :
Sans en être informé, on ne se rend pas nécessairement
compte qu'il s'agit de mots de trois lettres — mais remarquez par exemple la
lettre « t », qui revient quatre fois dans cet exemple.
Une fois qu'il eut mis au point
cet alphabet, Bruce McCandliss proposa à deux groupes d'étudiants d'apprendre à
lire ces mots. Aux uns, il demanda d'en mémoriser la forme globale, sans les
prévenir de la présence de lettres, tandis qu'aux autres il signala que les
mots à retenir étaient composés d'une séquence de lettres écrites de bas en
haut.
Examinons pas à pas les conséquences de cette simple
différence de présentation. Après un jour d'entraînement sur une première
liste de trente mots, le groupe qui prêtait attention à leur forme globale les
reconnaissait mieux que celui qui tentait d'extraire les lettres. Ce
résultat s'accorde bien à l'intuition de nombreux enseignants, qui affirment
que la méthode globale est plus facile pour l'enfant, du moins au départ. Mais
cela n'est vrai que pour les vingt ou trente premiers mots. L'identification
des lettres et des graphèmes demande initialement plus d'efforts, mais les
bénéfices en sont vite évidents.
Dès le deuxième jour, lorsque
Bruce McCandliss demanda aux étudiants d'apprendre une deuxième liste de mots,
ceux qui faisaient attention à la forme globale commencèrent à perdre pied. Ils
apprirent les nouveaux mots — mais au détriment de leurs performances sur la
première liste, qu'ils oublièrent rapidement. Il en alla ainsi à chaque fois
qu'une nouvelle liste de mots fut introduite : il leur fallait toujours
repartir de zéro, et ils perdaient le peu qu'ils avaient appris la veille. Quoi
de plus normal, puisqu'ils essayaient d'apprendre ces mots un par un, comme
s'il s'agissait de caractères chinois — une tâche extraordinairement difficile
dès lors que le nombre de mots dépasse quelques dizaines et qu'ils se
ressemblent tous.
Au contraire, ceux qui prêtaient
attention aux lettres progressaient lentement, mais sûrement. Chaque jour,
leur taux de réussite s'accroissait. Non seulement ils parvenaient d'emblée à
déchiffrer certains des mots nouveaux qu'on leur proposait ; mais, de plus,
leurs performances s'amélioraient également pour les mots les plus anciens
qu'ils n'avaient pourtant jamais révisés. Ce n'était que logique : leur
connaissance croissante des lettres leur permettait de déchiffrer ces mots de
plus en plus aisément, même s'ils ne se rappelaient plus les avoir vus.
Mais c'est l'imagerie cérébrale qui mit en évidence
l'effet le plus spectaculaire : l'hémisphère droit s'activait pour la
lecture globale, alors que l'attention portée aux lettres activait bien la
région classique de la lecture, l'aire occipito-temporale ventrale gauche.
Autrement dit, l'apprentissage par la méthode globale mobilisait un circuit
inapproprié, diamétralement opposé à celui de la lecture experte.
L'expérience de McCandliss met en évidence deux
limites majeures de la méthode globale. Premièrement, la simple exposition aux mots écrits, sans apprentissage
explicite des correspondances graphème-phonème, ne suffit pas toujours à découvrir
les régularités de l'orthographe, en tout cas pas de façon systématique et
rapide. Même après avoir été exposé à des milliers de mots écrits, un adulte
non prévenu peut très bien ne jamais se rendre compte que ces mots sont
composés à l'aide d'un système régulier de signes[8].
Seconde limite, la méthode globale ne permet pas de
généraliser la procédure de lecture à des mots nouveaux. Or cette
généralisation joue un rôle essentiel dans l'apprentissage de la lecture chez
l'enfant. Aucun enseignant ne peut espérer présenter à l'enfant tous les mots
du français ! Savoir lire, c'est avant tout savoir décoder des milliers de mots
nouveaux, que l'on rencontre pour la première fois dans un livre, et dont il
faut déduire la prononciation. Pour progresser en lecture, l'enfant doit donc
s'« autoenseigner » — il lui faut savoir déchiffrer de lui-même les chaînes de
caractères nouvelles afin d'y reconnaître des mots dont il connaît déjà la
prononciation et le sens, et d'automatiser progressivement l'ensemble de cette
chaîne de traitement[9].
Ce point est capital, car il
réfute l'argument selon lequel la méthode globale accroîtrait la liberté et
l'autonomie des enfants. Paradoxalement, l'apprentissage explicite des
correspondances graphèmes-phonèmes est le seul à offrir à l'enfant la liberté
de lire, car lui seul donne accès à de nouveaux mots. On a bien tort d'opposer
la liberté de l'enfant à l'effort et à la rigueur de l'enseignement. Conquérir
sa liberté de lecteur demande certes à l'enfant des efforts, mais ceux-ci sont
rapidement payés en retour lorsqu'il découvre, pour la première fois, qu'il
parvient à lire des mots qu'il n'a jamais appris en classe.
Cependant, je ne voudrais pas
donner l'impression que le rejet de la méthode globale repose seulement sur des
expériences de laboratoire ou des arguments théoriques. Son inefficacité est
également prouvée par l'expérimentation en grandeur nature. Tirant parti de la
variabilité des méthodes d'enseignement, la psychologie de la lecture a
bénéficié d'expérimentations dans les écoles. Ces recherches, qui empruntent
leurs méthodes à l'épidémiologie autant
qu'à la psychologie de l'éducation, ont mesuré les performances de lecture des
enfants dans des tests standardisés, en fonction de la méthode d'enseignement
employée, mais aussi du niveau socio-économique, de l'âge et d'autres
variables.
Leurs résultats[10],
tant en France qu'à l'étranger, conduisent à une conclusion ferme : les
approches fondées sur la forme globale du mot et sa mise en liaison directe
avec un sens ne fonctionnent pas aussi bien que la mise en liaison
systématique des lettres avec les sons. Quelle que soit leur origine sociale,
les élèves dont l'attention n'est pas attirée sur le codage des lettres et des
graphèmes souffrent d'un retard de lecture non négligeable et qui persiste
pendant plusieurs années, même s'il finit ensuite par disparaître.
Point crucial : contrairement aux
affirmations des « globalistes », à la fin de la scolarité, les enfants qui
ont appris avec une méthode globale sont, non seulement moins performants dans
la lecture de mots nouveaux, mais également moins rapides et moins efficaces en
compréhension de textes. Voilà qui réfute l'idée que les méthodes
grapho-phonologiques transforment l'enfant en machine à ânonner, incapable de
prêter attention au sens. En réalité, décodage et compréhension vont de pair :
les enfants qui savent le mieux lire des mots et des pseudo-mots isolés sont
aussi ceux qui comprennent le mieux le contenu d'une phrase ou d'un texte. Bien
entendu, apprendre à ânonner la prononciation des mots ne saurait constituer
une fin en soi. Il est bon que la plupart des livres scolaires, aujourd'hui,
fassent très vite appel à des petits textes signifiants plutôt qu'à des lignes
de charabia sur le « tutu de Lola ». Mais la compréhension passe avant tout par
la fluidité du décodage. Plus vite cette étape est automatisée, mieux l'enfant
peut se concentrer sur le sens du texte.
[1] Centre national de
documentation pédagogique, 1992.
[2] Bellenger L. , 1980, Les
Méthodes de lecture (2e édition). Paris : Presses
Universitaires de France.
[3] K. Larson (2004), The Science of Word Recognition, site
internet : http://www.microsoft.com/typography/ctfonts/wordrecognition.aspx
[4] Pelli D. G., Farell B.
& Moore D. C. (2003), The remarkable inefficiency of word recognition. Nature, 423 (6941), 752-756.
[5] Ahissar M. & Hochstein
S. (2004), The reverse jierarchy theory of visual perceptual learning. Trends Cogn. Sci, 8(10), 457-464.
[6] Paap K. R., Newsome S. L.
& Noel R. W. (1984), Word shape’s in poor shape for the race to the
lexicon. J Exp Psychol Hum Percept
Perform, 10(3), 413-428.
[7] Yoncheva Y. N., Blau V.
C., Maurer U. & McCandliss B. D. (2006), Strategic Focus During Learning Impacts the Neural Basis of Expetise in
Reading. Paper presented at the Poster presented at the Association for
Psychological Science Meeting Convention, New York.
[8] Rayner K., Foorman B. R.,
Perfetti C. A., Pesetsky D. & Seidenberg M. S. (2001), How psychological science
informs the teaching of reading. Psychol
Sci, 2, 31-74.
Bitan T. & Karni A. (2003), Alphabetical knowledge
from whole words training : effects of explicit instruction and implicit
experience on learning script segmentation. Brain
Res Cogn Brain Res, 16(3), 323-337.
[9] Share D. L. (1995), self-teaching :
sine qua non of reading acquisition. Cognition, 55(2), 151-218 ; discussion
219-226.
Share D. L. (1999), Phonological recoding and
orthographic learning : A direct test of the self-teaching hypothesis. J Exp Child Psychol, 72(2), 95-129.
[10] Braibant & Gérard, (1996),
Savoir lire : une question de méthodes ? Bulletin de psychologie scolaire et d’orientation, 1, 7-45.
Goigoux (2000), Apprendre à lire à l’école : les
limites d’une approche idéovisuelle
Ehri, Nunes, Stahl & Willows (2001), Systematic
phonics instruction helps students learn to read : Evidence from the
National Reading Panel’s meta-analysis, Review
of Educational Research, 71, 393-447.
Ehri, Nunes, Willows, Schuster, Yaghoub-Zadeh,
Shanahan (2001), Phonemic awareness instruction helps children learn to read :
Evidence from the National Reading Panel’s meta-analysis, Reading Research Quaterly, 6, 250-287.
-----------------------------------------------------------------------------------------------------------
Textes de Stanislas Dehaene :
Extrait d'un article du Dr Ghislaine Wettstein-Badour :
-----------------------------------------------------------------------------------------------------------
Textes de Stanislas Dehaene :
The Massive Impact of Literacy on the Brain and its Consequences for Education (2011) (école : références)
Cerveau et lecture : Le code visuel des lettres et des graphèmes (école : références)
L'illusion d'une lecture globale (école : références)
Qu'est-ce que l'écriture ? (école : références)
site Collège de France, Psychologie cognitive expérimentale : http://www.college-de-france.fr/site/stanislas-dehaene/#course
------------------------------------------------------------------------------------------------------------
Extrait d'un article du Dr Ghislaine Wettstein-Badour :
Apprendre à lire : « les contraintes de l’architecture de notre cerveau ».
Note de lecture du Dr Ghislaine WETTSTEIN-BADOUR- fransya@fransya.com
concernant l’ouvrage de M. Stanislas DEHAENE « Les neurones de la lecture »
(une des études de : http://cerveau-et-lecture.blogspot.com )
Les mécanismes de la lecture
M. DEHAENE
dissèque tout particulièrement les mécanismes qui permettent de passer
de la vision du texte à sa compréhension. Il insiste, à juste titre, sur
le premier stade du traitement visuel qui consiste à éclater la chaîne
écrite en fragments susceptibles d’être reconnus chacun par un
photorécepteur distinct sur le centre de la rétine. Ces signes
élémentaires sont ensuite traités en parallèle et recombinés dans les
différents niveaux d’intervention du système visuel. L’acquisition de la
lecture est ainsi liée à une « capacité d’attention aux détails
pertinents » perçus par les récepteurs visuels qui différencient les
lettres les unes des autres, mode de traitement qui « ne laisse
pratiquement aucun rôle » à la perception de « la forme globale des mots
» dans la lecture.
L’auteur montre ensuite que la compréhension
du sens de l’écrit nécessite à la fois la prise de conscience du son que
chaque signe (ou groupe de signes) graphique représente ainsi que de la
mobilisation des données incluses dans les différents lexiques contenus
dans le cerveau, en particulier ceux qui permettent la reconnaissance
de la forme orthographique et grammaticale des mots.
C’est là
qu’intervient la région occipito-temporale gauche vers laquelle
convergent toutes les informations d’origine visuelle. Mais pourquoi
s’attarder, dans cette courte note, sur cette aire précise alors que
d’autres régions de l’hémisphère gauche jouent également un rôle très
important dans la compréhension du sens de la lecture ? D’abord parce
que M. DEHAENE lui accorde, à juste titre, une place fondamentale dans
ses travaux. Ensuite, parce que certains ont voulu voir dans cette
région du cerveau qui reconnaît « la forme écrite des mots » un argument
« scientifique » susceptible de « prouver » l’existence du caractère
global de la lecture. M.DEHAENE fournit à cette affirmation erronée une
réponse sans ambiguïté : « La reconnaissance visuelle des mots ne repose
pas sur une appréhension globale de son contour, mais sur sa
décomposition en éléments simples, les lettres et les graphèmes. La
région corticale de la forme visuelle des mots traite toutes les lettres
du mot en parallèle, ce qui, historiquement est responsable de
l’impression de lecture globale…l’immédiateté de la lecture n’est qu’une
illusion, suscitée par l’extrême automatisation de ses étapes. » (page
297).
J’ai écrit, dans mes études précédentes, que si une aire de
l’hémisphère gauche avait la possibilité de reconnaître la forme écrite
des mots, ce travail ne pouvait se réaliser qu’en comparant un à un
chacun des éléments qui les composent avec ceux contenus dans les mots
dont elle a gardé le souvenir graphique en mémoire. Il s’agit bien là
d’un travail de synthèse des éléments préalablement analysés qui est aux
antipodes d’une vision globale du mot. Je constate avec satisfaction
que les travaux de M.DEHAENE se situent sur cette ligne. Ce point
constitue un élément essentiel à opposer aux tenants des méthodes
globales et apparentées pour leur en démontrer le non sens neurologique.
L’existence d’une aire qui ne peut aborder la compréhension d’un mot
écrit que par synthèse des éléments qui le composent exclut toute
possibilité d’accès au sens du mot vu dans son ensemble et élimine
toutes les hypothèses qui assimilent la perception du mot à celle de
l’image.
Il me parait utile de signaler dès maintenant une
ambiguïté apparente qu’il faut impérativement clarifier dans les propos
de M.DEHAENE. Lorsque celui-ci parle de « méthodes globales » il
associe, de toute évidence, dans cette formulation l’ensemble des
pédagogies globales et semi-globales, termes qui recouvrent la
quasi-totalité des pédagogies actuellement en vigueur dans l’Education
nationale (méthodes mixtes, naturelles, par hypothèses, ou
intégratives). Quelques exemples suffisent à s’en convaincre. Il
considère que l’apprentissage du lien entre phonèmes et graphèmes doit
être effectué exclusivement à partir de mots contenant des graphèmes
connus et en cours d’apprentissage (page 304). Ceci exclut l’emploi
d’une méthode ou les graphèmes sont découverts dans des mots et phrases
contenant des éléments graphiques qui n’ont encore jamais été étudiés,
ce qui se retrouve dans toutes les méthodes autres que les méthodes
alphabétiques. D’autres part, il écrit (page 292) : « Dans les faits,
quoique officiellement vouée aux gémonies, la méthode globale continue
d’infiltrer les programmes » et il ajoute que le ministre L.FERRY avait
déclaré que « le problème est aujourd’hui celui des méthodes mixtes où
l’élève apprend par exemple à reconnaître globalement son nom avant de
savoir le décomposer en syllabes». Il rappelle également que M. de
ROBIEN a précisé que « des méthodes à départ global continuent d’exister
». Il paraît donc évident que M.DEHAENE est conscient de l’existence
des méthodes semi-globales et qu’il les intègre toutes dans
l’appellation « méthodes globales ». Ce regroupement est une évidence
sur le plan neurologique puisque ces deux types de pédagogie font toutes
preuve de la même méconnaissance des mécanismes de la lecture,
conduisent au même type d’erreurs et au même handicap concernant l’accès
au sens du texte lu. Cependant, cette formulation risque d’être perçue
de manière restrictive par certains lecteurs intellectuellement peu
rigoureux ou tout simplement partisans qui peuvent l’utiliser pour
prétendre que les conclusions de M.DEHAENE sont désormais obsolètes dans
la mesure ou les méthodes entièrement globales ne sont plus utilisées.
Il eût donc été préférable que l’auteur précise plus clairement sa
pensée sur ce point d’une grande importance.
Aucun commentaire:
Enregistrer un commentaire
Aidez-moi à améliorer l'article par vos remarques, critiques, suggestions... Merci beaucoup.