2 février 2012

L'évolution des modèles de la lecture et de l'apprentissage de la lecture, par Keith Stanovich (1989)

    Il y a seulement vingt ans, les chapitres des manuels qui traitaient de la reconnaissance des mots comportaient 90% de spéculations pour 10% d’informations. Il y avait si peu de faits établis dans ce domaine que la plupart des auteurs partaient simplement d’une conception théorique de la nature de la lecture, et développaient ensuite les conséquences de leur théorie sur la reconnaissance des mots. Dans ces conditions, il n’est pas surprenant que le corpus concernant la lecture ait fini par être essentiellement composé de spéculations théoriques se faisant passer pour des faits scientifiques établis. Mais nous en savons davantage aujourd’hui, et beaucoup de questions qui relevaient, il y a vingt ans, de la pure spéculation ont été tranchées empiriquement et font désormais l’objet d’un large consensus. Le présent chapitre traite de certaines de ces questions.

L’importance de l’habileté à reconnaître les mots

    Nous disposons maintenant de preuves écrasantes confirmant que des problèmes au niveau du processus de reconnaissance de mots sont un facteur critique dans la plupart des cas de dyslexie; que l’efficacité de la reconnaissance des mots rend compte d’une grande partie de la variance de la performance en lecture chez les élèves des petites classes; et que, même chez l’adulte, l’efficacité de la reconnaissance des mots rend compte d’une part non négligeable de la variance de l’aptitude à la lecture (Bertelson, 1986; Gough & Tunmer, 1986; Morrison, 1984, 1987; Perfetti, 1985; Vellutino, 1979).

    A mesure que les preuves d’un lien entre reconnaissance des mots et performance en lecture s’accumulaient, le débat théorique sur le rôle de la reconnaissance des mots dans la lecture est passé d’une discussion sur l’existence même de ce rôle à une discussion sur la nature des processus psychologiques responsables de la meilleure reconnaissance des mots dont sont capables les bons lecteurs. Cette discussion a conduit au fameux débat entre théories top-down et théories bottom-up de la lecture, dont la question centrale était de savoir si la supériorité en matière de reconnaissance de mots est due à une supériorité du fonctionnement de processus bottom-up (décodage phonographique et reconnaissance visuelle directe) ou à une supériorité du fonctionnement de processus top-down (production d’hypothèses et prédiction contextuelle). Les données disponibles sont maintenant largement en faveur de la première hypothèse : les mauvais lecteurs sont nettement moins bons dans les tâches de reconnaissance de mots (bottom-up) mais semblent relativement compétents lorsqu’il s’agit d’utiliser des processus top-down pour faciliter le décodage. Plusieurs revues et résumés de la considérable littérature concernant cette question ont été publiés (voir Gough, 1983; Perfetti, 1985; Stanovich, 1980, 1984, 1986, 1988). Le consensus sur ce point a récemment été renforcé par de nouveaux développements dans deux autres domaines : l’étude des mouvements oculaires, d’une part, et l’intelligence artificielle et les simulations sur ordinateur, d’autre part.

Ce que les mouvements oculaires révèlent sur la reconnaissance des mots

    Les recherches expérimentales montrent de façon concordante qu’une grande majorité des mots sémantiquement importants d’un texte font l’objet d’une fixation visuelle directe (Balota, Pollatsek & Rayner, 1985; Ehr¬lich & Rayner, 1981; Just & Carpenter, 1980, 1987; Perfetti, 1985). Les mots fonctionnels courts et les mots aisément prédictibles ont plus de chances d’êtres sautés, mais la majorité d’entre eux sont quand même fixés. En résumé, l’échantillonnage de l’information visuelle, évalué par les points de fixations, est relativement dense au cours de la lecture. Les lecteurs ne pratiquent pas les sauts massifs qui sont parfois sous-entendus dans les présentations de modèles top-down.

    L’étude du traitement de l’information visuelle au cours d’une fixation a montré que le champ visuel correspondant à chaque fixation est quasiment entièrement traité. Il s’avère que les traits visuels ne sont pas échantillonnés superficiellement dans le but de confirmer des "hypothèses", mais sont plutôt traités exhaustivement, même lorsqu’il s’agit d’un mot très prévisible (Balota et al., 1985; Ehrlich & Rayner, 1981; McConkie & Zola, 1981; Zola, 1984). Une importante étude de Rayner et Bertera (1979) a démontré qu’une lecture efficace nécessite un échantillonnage détaillé de l’information visuelle. Grâce aux modes de présentation rendus possibles par les moyens informatiques modernes, ces auteurs ont fait lire à leurs sujets un texte où, pour chaque fixation oculaire, l’ordinateur supprimait l’une des lettres présentes dans la région fovéale. L’absence de cette unique lettre réduit de 50% la vitesse de lecture. Il est donc clair qu’une lecture efficace nécessite l’utilisation de l’information visuelle contenue dans chacune des lettres présentes dans le champ fovéal.

    En résumé, les données montrent que : (1) le balayage du texte par les points de fixation est, au cours de la lecture, relativement complet ; (2) l’extraction des traits visuels au cours d’une fixation est relativement complète. Ces résultats expérimentaux infirment très clairement les hypothèses proposées par certains des premiers modèles top-down de la lecture, selon lesquels l’information visuelle contenue dans le texte serait de peu d’importance ("Il est clair que les meilleurs lecteurs ne fixent pratiquement jamais des mots particuliers d’une page de texte", Smith, 1973, p. 190). L’un des points essentiels soulignés par ces premières théories top-down, à savoir le fait qu’une lecture efficace n’est possible que si le lecteur met en œuvre des traitements d’un niveau plus élevé que celui de la reconnaissance des mots, semble cependant acceptable, et est d’ailleurs repris par les théories bottom-up. Mais nous savons maintenant comment ceci est possible : grâce à des processus de décodage efficaces, et non pas grâce à l’utilisation du contexte pour accélérer la reconnaissance des mots. L’erreur commise par les modèles top-down est de confondre l’utilisation des indices visuels contenus dans le texte avec les ressources cognitives nécessaires pour traiter ces indices. Le bon lecteur n’utilise pas moins l’information visuelle, mais est capable d’exploiter cette information en lui consacrant une moins grande part des ressources cognitives disponibles. Le bon lecteur effectue un traitement doublement efficace : non seulement il échantillonne complètement le champ visuel, mais de plus il mobilise moins de ressources pour traiter ces données.

La lecture et les modèles issus des sciences cognitives

    Les modèles de la reconnaissance des mots au cours de la lecture ont toujours été fortement influencés par les développements théoriques intervenant dans les différents domaines des sciences cognitives. Ainsi, les premiers modèles de la reconnaissance des mots ont été fortement influencés par le modèle "analyse par synthèse" de la perception de la parole et par les modèles informatiques hautement interactifs qui étaient alors communs dans les travaux d’intelligence artificielle. Le modèle de Rumelhart (1977) a, par exemple, beaucoup influencé les théories de la lecture. Dans la lignée des travaux d’intelligence artificielle réalisés au cours des dix années précédentes (par exemple le système de Hearsay de reconnaissance de la parole), ce modèle privilégie les influences top-down et les tests d’hypothèses à tous les niveaux de traitement, y compris aux niveaux des mots et des lettres.

    Le problème, pour les théories de la lecture, et en particulier pour les modèles top-down s’appuyant essentiellement sur ce qui était alors un consensus dans le domaine de l’intelligence artificielle, est que le vent a tourné. La mode n’est plus, à l’heure actuelle, aux modèles top-down et aux tests d’hypothèses, mais plutôt aux modèles connexionnistes et aux architectures parallèles (McClelland & Rumelhart, 1986; Rumelhart & McClel¬land, 1986; Schneider, 1987; Tanenhaus, Dell & Carlson, 1988) qui valorisent surtout les processus bottom-up. Il n’y a plus du tout d’"hypothèses" explicites dans ce genre de modèles. L’apprentissage et la reconnaissance ne se font pas par tests d’hypothèses, mais par la mise à jour de la force des connections dans le réseau et par l’obtention d’un niveau d’activation après qu’un stimulus ait été présenté.

    La solution des problèmes émerge des patterns d’activations produits par l’information afférente et par les connections établies antérieurement. Cette solution n’est jamais formulée comme une hypothèse qui serait avancée par le processeur. L’un de ces modèles (Sejnowski & Rosenberg, 1986, 1987) apprend à lire en étant exposé à des appariements de chaînes de lettres et de chaînes de phonèmes. Cette simulation ne comporte aucune "règle" orthographique, ne fait appel à aucune information contextuelle dépassant des contraintes apprises portant sur des séquences de moins de 7 lettres, et n’implique aucun superviseur générant des expectations ou testant des hypothèses. Ce réseau apprend simplement en réajustant ses connections après la présentation du stimulus.

    La psychologie de la perception fournit un exemple analogue. Certains des premiers modèles top-down de la lecture (Smith, 1971, par exemple) étaient influencés par ce qu’on a appelé le "New Look" en matière de recherches sur la perception, c’est-à-dire un système théorique mettant en avant l’influence du contexte et des expectations sur la perception. Mais la tendance actuelle dans le domaine de l’étude de la perception est en rupture complète avec les idées du "New Look". Le concept actuellement dominant est celui de modularité (Fodor, 1983, 1985; Seidenberg, 1985; Tanenhaus, Dell & Carlson, 1988; Tanenhaus & Lucas, 1987), c’est-à-dire l’idée selon laquelle les processus perceptifs élémentaires sont "encapsulés" et ne sont pas dirigés par des hypothèses provenant d’un niveau cognitif supérieur ou par la connaissance du monde dont dispose le sujet.

    Ces deux exemples montrent que ni l’intelligence artificielle ni les sciences cognitives ne fournissent actuellement le moindre appui pour des modèles top-down de la reconnaissance des mots au cours de la lecture. Si la présentation de ces exemples ne vise pas à discuter des mérites respectifs de tel ou tel modèle, elle doit en revanche nous rappeler que les théories de la lecture auraient vraisemblablement intérêt à s’appuyer sur l’étude expérimentale de la lecture plutôt que sur les dernières théories à la mode en intelligence artificielle ou en sciences cognitives.

La sensibilité phonologique et le début de l’apprentissage de la lecture

    L’un des résultats intéressants produits durant les vingt dernières années est la mise en évidence de l’un des déterminants essentiels des premiers progrès en lecture, qui est en même temps l’une des clés de la prévention de l’échec de cet apprentissage. Bien que l’on connaisse de nombreux facteurs corrélés avec le succès des premières phases de l’apprentissage de la lecture, un grand nombre d’études ont montré que les capacités phonologiques se distinguent comme le meilleur prédicteur de la réussite de cet apprentissage (Juel, Griffith & Gough, 1986; Liberman, 1982; Share, Jorm, Maclean & Matthews, 1984; Stanovich, 1988; Stanovich, Cunningham & Cramer, 1984; Tunmer & Nesdale, 1985; Wagner & Torgesen, 1987). D’autres résultats plaident en faveur de l’existence d’un véritable lien de causalité entre capacités phonologiques et performances en lecture (Bradley & Bryant, 1983, 1985; Fox & Routh, 1984; Lundberg, 1987; Maclean, Bryant & Bradley, 1987; Olofsson & Lundberg, 1985; Perfetti, Beck, Bell & Hughes, 1987; Torneus, 1984; Treiman & Baron, 1983; Vellutino & Scanlon, 1987).

    Les recherches sur le traitement phonologique ont récemment dépassé la simple description du lien causal avec la performance en lecture pour entreprendre l’étude de questions plus spécifiques. Ainsi, par exemple, certains chercheurs explorent maintenant les liens entre l’expérience préscolaire (notamment l’exposition aux chansons et comptines) et le développement de la sensibilité phonologique (Maclean, Bryant & Bradley, 1987) ou tentent d’utiliser nos connaissances de la structure de la syllabe dans la conception de méthodes d’entraînement phonologique (Treiman, à paraître, dans ce volume).

    Quasiment tous les spécialistes de la question s’accordent sur les raisons qui font de la sensibilité phonologique un facteur important lors du début de l’apprentissage de la lecture. Pour profiter du puissant mécanisme d’auto-apprentissage inhérent au mécanisme orthographique (Gough & Hillinger, 1980; Jorm & Share, 1983), l’enfant doit tout d’abord apprendre le principe général de la représentation des sons par les lettres, puis acquérir un nombre de correspondances lettres/sons suffisant pour décoder efficacement. Pour utiliser le principe alphabétique, l’enfant doit adopter une attitude analytique envers les mots écrits comme envers le langage parlé. En d’autres termes, l’enfant doit découvrir et utiliser le fait que la représentation s’effectue au niveau des lettres et des phonèmes. La segmentation en lettres des mots écrits est tout à fait à la portée des capacités perceptives ordinaires d’un enfant d’âge scolaire, même si certains ont plus de difficultés que d’autres à systématiser un traitement exhaustif des détails visuels de chaque mot (Frith, 1985; Gough & Hillinger, 1980). Une bien plus grande source de différences individuelles se situe au niveau des sons que les lettres représentent, car la segmentation de la parole en phonèmes est un exercice notoirement difficile pour le jeune enfant (Bruce, 1964; Calfee, Chapman & Venezky, 1972; Lewkowitz, 1980 ; Liberman, Shankweiler, Fisher & Carter, 1974). Les épreuves de sensibilité phonologique ont un rapport avec l’apprentissage de la lecture parce qu’elles prédisent la facilité avec laquelle un enfant apprendra à segmenter la parole en unités de taille inférieure à une syllabe.

    Dans un article important et quelque peu provocateur, Gough et Hillinger (1980) ont affirmé que l’apprentissage de la lecture devrait être considéré comme un acte anti-naturel. Cette conclusion découlait de la présentation de leur modèle à deux phases du début de l’apprentissage de la lecture. Selon cette théorie, un premier stade correspond à un apprentissage de paires associées qui permet une reconnaissance des mots grâce à certaines particularités virtuelles (le cercle à la fin du mot "vélo”, par exemple). Selon Gough et Hillinger, cette stratégie n’est efficace que pour les premiers mots appris et devient rapidement inutilisable du fait de la difficulté croissante rencontrée pour trouver une caractéristique visuelle propre à chaque nouveau mot. Cette stratégie d’apprentissage de paires, basées sur des indices visuels, n’est pas générative (c’est-à-dire qu’elle ne permet pas de lire un mot lorsqu’on le rencontre pour la première fois), devient de plus en plus difficile à mesure que le nombre de mots connus augmente, et doit donc nécessairement être abandonnée. Pour continuer à progresser normalement, l’apprenti lecteur doit passer à la phase suivante, qui correspond à un traitement complètement analytique (décomposition phonologique des mots aussi bien écrits que parlés). A la différence de la première phase, où l’enfant apprend naturellement et souvent spontanément de nouveaux mots, le passage à la seconde phase n’est pas naturel et nécessite pratiquement toujours l’intervention d’une autre personne (parent, éducateur...) qui fournit des indices sur le traitement analytique, ou présente les mots d’une façon suggérant un tel traitement. C’est donc un processus d’acquisition des mots fondamentalement discontinu qui est proposé par ces auteurs.

    Des recherches ultérieures ont tenté de confirmer la conceptualisation de Gough et Hillinger (1980). Byrne (dans ce volume) montre que le traitement complètement analytique des mots ne fait pas partie des processus naturellement mis en œuvre par des enfants de quatre ans : apprendre à discriminer FAT et BAT ne permet pas aux enfants de discriminer FUN et BUN avec une probabilité de succès supérieure au hasard. Les performances obtenues correspondent à celles qu’on attendrait d’un enfant n’ayant pas franchi le premier stade décrit par Gough et Hillinger (1980) et reconnaissant les mots grâce à un apprentissage de paires.

    Les jeunes enfants apprennent souvent spontanément à reconnaître certains mots présents dans leur environnement (affiches, emballages, enseignes...). Ce phénomène a souvent inspiré des descriptions diamétralement opposées à celle proposée par Gough et Hillinger (1980), descriptions où l’apprentissage de la lecture est vu comme un acte naturel, analogue à l’apprentissage du langage parlé. Laissons de côté l’argument de bon sens qui fait remarquer que la majorité des enfants n’apprennent à lire qu’au prix d’une intervention adulte massive, et que certains d’entre eux n’y arrivent jamais, en dépit des efforts herculéens déployés par les éducateurs - une situation bien différente de celle rencontrée dans le cas du langage parlé - et considérons d’autres indices s’opposant à cette conception.

    Une étude conduite par Masonheimer, Drum et Ehri (1984) montre que l’apprentissage de mots effectué spontanément par les enfants est analogue à celui décrit par Gough et Hillinger (1980) au cours de leur première phase, et que les étapes ultérieures de l’apprentissage de la lecture ne sont pas une simple généralisation de ce type de traitement spontané. Cette étude repose sur la participation d’enfants de trois à cinq ans qu’une étude préliminaire a montré être "experts" dans la lecture des mots environnementaux. La plupart de ces enfants (96) n’ont quasiment mienne capacité de lecture en dehors de l’ensemble de mots qu’ils savent reconnaître. Etant donné que quelques enfants (6) réussissent, eux, à lire tous les items du test utilisé, la distribution des performances en lecture est nettement bimodale, et « non pas continue, comme on s’y attendrait s’il était vrai que l’exposition à des textes environnementaux conduit les enfants à la lecture » (Masonheimer et al., 1984, p. 268). Par ailleurs, aucun des 96 enfants ne sachant pas du tout lire ne signale d’anomalie lorsque les mots familiers sont altérés (Xepsi pour Pepsi, par exemple), et leur performance en reconnaissance de ces mots "familiers" chute considérablement lorsque les logos correspondant à chacun des mots sont retirés. Ces deux faits confirment bien que les enfants "lisent l’environnement" lui-même, et non pas les mots que celui-ci se trouve contenir. Cependant, Masonheimer et al. prennent soin de souligner que leurs conclusions ne s’appliquent directement qu’aux caractéristiques du traitement de l’information au cours de deux stades consécutifs du développement précoce de la lecture, et à une variable particulière : la connaissance de mots environnementaux. Leurs résultats ne doivent donc pas être interprétés comme montrant l’inefficacité générale des expériences antérieures à l’apprentissage de la lecture proprement dit.

    Gough, Juel et Griffith (à paraître) reportent plusieurs résultats curieux concernant la nature de la phase de reconnaissance des mots par apprentissage de paires associées. Dans l’une de ces expériences, ils apprennent à un groupe de sujets de cinq ans à reconnaître une série de mots inscrits chacun sur une carte, l’une de celle-ci ayant été délibérément marquée d’une trace de doigt dans un coin. Lorsque le critère de deux succès consécutifs est atteint, la phase de test commence. Moins de la moitié des sujets reconnaissent le mot correspondant à la carte marquée lorsque ce mot est présenté sur une carte propre. Presque tous les enfants, en revanche, produisent ce mot lorsqu’une carte marquée d’une trace de doigt (mais ne portant aucun mot) leur est présentée. De plus, lorsqu’une carte marquée d’une trace de doigt mais portant un mot différent de celui présent durant l’apprentissage leur est proposée, quasiment tous les sujets fournissent le mot étudié sur la carte marquée.

    Les résultats obtenus par Gough et al. (1986) convergent clairement avec ceux de Byrne (Etude expérimentale de la découverte des principes alphabétiques par l’enfant, in Rieben & Perfeti dir., L’Apprenti lecteur, 1989) et de Masonheimer et al. (1984), et confirment l’idée selon laquelle l’apprentissage d’associations phonographiques foncièrement analytiques est un acte "anti-naturel" pour le jeune enfant. Les données obtenues à l’issue d’une importante étude portant sur une classe réelle confirment également ce point de vue. Seymour et Elder (1986) ont étudié un groupe d’enfants entrant dans une école primaire écossaise où l’accent était mis sur l’acquisition d’un "vocabulaire visuel" au moyen d’une méthode globale, alors qu’aucun entraînement phonique n’était proposé au cours des deux premiers trimestres. L’examen de la capacité des enfants à reconnaître les mots qui fut ensuite réalisé révéla que les enfants étaient incapables d’identifier les mots qu’ils n’avaient pas appris. Contrairement à ce qui se passe dans le cas des enfants ayant acquis une certaine maîtrise des règles phonographiques (voir Gough et al., à paraître), les erreurs produites par les sujets de Seymour et Elder (1986) proviennent toutes de l’ensemble de mots qui leur a été appris. Les caractéristiques de leurs performances discriminatives sont similaires à celles qu’on attendrait de sujets se trouvant au niveau d’un apprentissage de paires associées, tel que le décrivent Gough et Hillinger (1980). Selon Bertelson (1986), l’implication la plus importante des résultats de Seymour et Elder (1986) est qu’il n’y a pas "de continuité entre l’apprentissage précoce de la lecture logographique et la lecture orthographique directe pratiquée par l’adulte entraîné, dans laquelle, en général, tous les indices orthographiques disponibles sont pris en compte" (p. 19).

Controverses à propos du décodage et de la régularité de la langue anglaise

    Quel rapport peut-on établir entre les recherches récentes sur la reconnaissance de mots et les premiers développements de la lecture que nous venons de décrire et les controverses plus anciennes concernant l’enseignement de la lecture ? Tout d’abord, il n’y a visiblement aucune contradiction entre les conclusions du travail classique de Chall (1967, 1983-a) et les recherches décrites ici. La reconnaissance des mots est une composante critique du processus de lecture, et les différences individuelles sur cette composante rendent compte d’une part importante de la variance à tous les niveaux de performances en lecture. Pour parvenir au stade de la lecture courante, tout lecteur doit mémoriser des correspondances phonographiques pouvant servir de mécanismes de reconnaissance efficaces. Les tenants des méthodes phoniques doivent résister à la tentation les poussant à considérer les résultats que nous venons d’évoquer comme des preuves inattaquables du bien fondé de leur méthode préférée. Ainsi, il se pourrait très bien que l’expérience de la langue ou l’approche globale procure à l’enfant les conditions optimales pour l’introduction des correspondances phonographiques (même si les résultats expérimentaux semblent indiquer que l’enseignement explicite de correspondances phonographiques facilite effectivement l’apprentissage de la lecture [Anderson, Hiebert, Scott & Wilkinson, 1985; Chall, 1983- a; Share & Jorm, 1987; Williams, 1985]). De même, conclure que tous les lecteurs doivent acquérir les correspondances phonographiques ne revient pas à dire que tous les enfants doivent apprendre les règles phoniques. L’enfant doit associer en mémoire les patterns orthographiques et phonologiques, mais ceci ne passe pas nécessairement par l’apprentissage de règles. Une sorte de preuve de ce dernier fait peut être trouvée dans les travaux de Sejnowski et Rosenberg (1986, 1987) que nous avons déjà mentionnés. Ces auteurs ont conçu un modèle connexionniste qui apprend à lire l’anglais à partir d’un grand nombre de présentations de paires de chaînes de lettres et de chaînes de phonèmes. Ce modèle ne contient aucune "règle", mais apprend simplement en modifiant, en fonction de la nouvelle présentation, la force des connections entre ses différents éléments.

    De la même façon, les opposants aux méthodes phoniques sont parfois passés un peu rapidement de modèles simplifiés de la lecture et de théories issues d’autres disciplines à des conclusions pédagogiques. La généralisation abusive des premiers modèles top-down [ayant donné naissance aux théories idéovisuelles de Smith introduites en France par Foucambert et Charmeux] est un exemple de ce phénomène que nous avons déjà eu l’occasion d’évoquer. Un autre exemple qui réapparaît régulièrement dans les textes hostiles à la méthode phoni¬que est une tendance à accorder une importance démesurée à l’irrégularité des correspondances phonographiques en anglais. Un artifice fréquemment employé dans ce genre de discours consiste à parsemer le texte d’exemples de correspondances dont la lecture est ambiguë ("ea" peut être prononcé comme dans "teach", "bread", "great" ou "create") ou dont l’orthographe est ambiguë (/f/ peut s’écrire comme dans "frog", "phone", "tough", "stuff’, etc...). Bien qu’il soit exact que l’anglais possède l’une des orthographes alphabétiques les moins régulières, il est exagéré d’affirmer que les régularités existantes sont incapables de fournir une aide substantielle lors de l’acquisition des correspondances phonographiques.

    Il convient tout d’abord de distinguer l’utilisation de ces correspondances dans le cas de la lecture et dans le cas de l’écriture (Berndt, Reggia & Mitchum, 1987; Haas, 1970; Henderson, 1982). La distinction est importante, car les correspondances entre orthographe et son sont plus régulières en anglais que celles entre son et orthographe (Cronnell, 1978; Henderson, 1982; Henderson & Chard, 1980). Par exemple, alors que le phonème /f/ peut être représenté par F, FF, PH ou GH, la lettre F représente invariablement le son /f/, sauf dans le cas du mot très fréquent « of ». Ainsi, insister sur les irrégularités de l’orthographe est quelque peu fallacieux. La plupart des consonnes ont, comme le F, une correspondance sonore régulière en anglais (Berndt et al., 1987; Cronnell, 1973; Venezky, 1970). Les irrégularités les plus fameuses concernent quasiment exclusivement les voyelles. Ce facteur entre en interaction avec la supposition implicite faite par de nombreux critiques et selon laquelle le fait que les correspondances ne conduisent pas à une prononciation unique les rend inutilisables. Bien au contraire, des indices conduisant à un diagnostic partiel peuvent être précieux. Les c-ns-nn-s  s-nt  1-s  c-mp-s-nts  1-s  pl-s  -mp-rt-nts  d-s  m - ts,  -t  -l  -st  p-ss-bl-  d-  l-r-  s-ns l-s  v-ll-s, si le contexte est suffisant. Ainsi, même si un enfant ne pouvait décoder que les consonnes régulières, ceci serait quand même une aide considérable pour la lecture.

    D’autres critiques ignorent le fait que l’orthographe anglaise devient beaucoup plus régulière si les positions des lettres et/ou d’unités plus larges que les lettres sont prises en compte. Le fameux exemple dû à George Bernard Shaw, selon lequel « ghoti » pourrait se prononcer comme "fish" (en prononçant GH comme dans "tough", O comme dans "women" et TI comme dans "nation") ignore les contraintes orthographiques liées aux positions : GH ne se prononce jamais /f/ en début de mot, et TI ne se prononce jamais /s/ en fin de mot. De plus, toutes les analyses de l’orthographe indiquent que la régularité est considérable quand on prend en compte des groupes de lettres (Treiman, à paraître ), tout particulièrement si une voyelle est combinée avec la consonne (ou le groupe de consonnes) qui la suit. Treiman a ingénieusement lié la régularité de l’orthographe anglaise au niveau des groupes VC(C) à la démonstration de la réalité psychologique, pour l’enfant, des composants intra-syllabiques que sont l’attaque et la rime (cf Treiman, 1986, et dans ce volume ). Treiman a montré que les capacités de segmentation du jeune enfant passent par un stade intermédiaire où le sujet est plus sensible à la décomposition attaque/rime qu’à la décomposition en phonèmes. Elle a suggéré que, à certains niveaux de l’enseignement de la lecture, il serait plus efficace de travailler sur les attaques et les rimes (et sur les structures C et VC(C) correspondantes), parce que ces unités intrasyllabiques sont plus génératives que les syllabes, tout en ne nécessitant pas les capacités de décomposition phonémique qui pourraient bien n’apparaître chez certains enfants qu’à la faveur d’une plus longue expérience de la lecture et de l’écriture (cf. Ehri, 1984, 1987 - a; Ehri, Wilce & Taylor, 1987). Plus généralement, les conclusions de Treiman suggèrent qu’il pourrait bien exister plus de façons d’exploiter les régularités de l’anglais qu’on ne le pense généralement (voir aussi Bryant & Goswami, 1987; Goswami, 1986; Goswami & Bryant, à paraître). Les propositions de Treiman contournent élégamment le plus gros problème posé par l’orthographe anglaise (l’irrégularité au niveau des lettres), puisqu’elles impliquent de travailler sur des unités plus larges qui sont nettement plus régulières.

Résumé et conclusions

Les recherches concernant l’apprentissage de la lecture sont maintenant entrées dans une ère nouvelle. La controverse entre théories bottom-up et théories top-down quant aux processus de reconnaissance des mots a, au moins globalement, été résolue. Les chercheurs se sont tournés vers des micro-analyses de l’apprentissage des mots, particulièrement au cours des premières étapes de l’apprentissage de la lecture. Il existe un large consensus à propos de l’importance de la sensibilité phonologique au cours de ces stades précoces. Des problèmes plus spécifiques sont maintenant abordés, comme l’identification des précurseurs du développement de la sensibilité phonologique (Maclean et al., 1987) ou l’utilisation optimale des capacités phonologiques de l’enfant dans le cadre de l’enseignement de la lecture (Treiman, à paraître - a). L’augmentation de la spécificité des questions étudiées est un bon indice de progrès scientifique. Le pronostic concernant les progrès futurs de l’étude de la lecture et de l’apprentissage de la lecture reste donc optimiste.

Cet article fait partie d'un recueil de 14 articles parus sous le titre L'Apprenti lecteur paru à Lausanne en 1989 et dirigé par Laurence Rieben et Charles Perfetti. C'est le deuxième article du recueil. Il fait suite à l'article de Liberman et Shankweiler, "Phonologie et apprentissage de la lecture : une introduction."

source de l'image  : http://blog.france3.fr/eric-poindron/category/biblionomadie/

Sciences cognitives et lecture 
sur le blog ...


Follow on Bloglovin
 

Archives (2011 à 2014)

Vous aimerez peut-être :

Related Posts Plugin for WordPress, Blogger...