L’importance
critique d’une théorie adéquate de la lecture
Annexe de The Knowledge Deficit - Closing the Shocking Education Gap for American Children (ouvrage non traduit en français de E. D. Hirsch Jr.)
D'autres textes de Hirsch en français sur le blog :
1 - 2 - 3 - 4 - 5 - 6
Annexe de The Knowledge Deficit - Closing the Shocking Education Gap for American Children (ouvrage non traduit en français de E. D. Hirsch Jr.)
D'autres textes de Hirsch en français sur le blog :
1 - 2 - 3 - 4 - 5 - 6
Texte anglais : The Critical Importance of an Adequate Theory of Reading
Read extracts and buy the book on Amazon : http://www.amazon.com/Knowledge-Deficit-Hirsch-Professor-English/dp/0618657312#reader_0618657312
Cette annexe sur le rôle que joue une théorie
scientifique adéquate en lecture et dans l’éducation en général a été rajoutée
pour ceux qui souhaitent étudier de plus près les fondements de la recherche et
les implications politiques de ce livre. Ce texte tente d’expliquer pourquoi il
est essentiel d’aller au-delà des tout derniers rapports à couper le souffle à
propos des études de terrain, qui sont, au mieux, non probants. Une bonne politique
est faite sur la base de théories qui sont basées le plus solidement possible sur
l’ensemble des études empiriques pertinentes.
Une des remarques les plus dédaigneuses que l’on puisse
faire dans les sciences dures, c’est de dire qu’un travail est « athéorique »,
ce qui signifie qu’il ne parvient pas à relier la pertinence de ses
constatations factuelles à de grands complexes de phénomènes et à des théories
scientifiques plus générales. Wolfgang Pauli fit une fois cette remarque au
sujet d’un article scientifique : « il n’est même pas faux. » Les
scientifiques considèrent que la formulation de théories sur les facteurs profonds
de causalité est le moteur du progrès scientifique – un avis qui a remplacé à
bon droit une conception plus ancienne du progrès scientifique comme simple
addition de faits.
Ce qui tient lieu de théorie scientifique dans la plus
grande partie du discours éducatif est la philosophie de l’éducation, qui tend
à être soit libérale soit conservatrice[1].
Comme Private Willis l’expliquait dans l’acte II de Iolanthe, «Chaque garçon et chaque fille / qui arrive au monde / Est soit un petit libéral / Ou bien un petit conservateur. » Cela
explique en partie le schéma des débats sur l’éducation. Le « traditionalisme »
conservateur est souvent opposée à l’éducation libérale « centrée sur
l’enfant ». Les conservateurs ont tendance à penser à la nature humaine comme
quelque chose qui doit être modelé. Les libéraux ont tendance à penser que le
caractère inné de l’enfant a besoin d’être nourri avec bienveillance et autorisé
à se développer. Les théories libérales et conservatrices de ce genre ne
manquent pas dans le discours éducatif américain. Mais ce n’est pas à ce genre
de théorie que je pense dans cette annexe. Au contraire, je prends le mot dans
son acception scientifique, c’est-à-dire comme une projection et généralisation
de ce qui a été appris de manière fiable dans la recherche.
En prenant ce terme dans ce sens-là, on peut dire qu’il
y a trop peu de théorie dans le débat éducatif américain, en particulier en ce
qui concerne les moyens d’atteindre les objectifs convenus, tels que l’acquisition
d’une bonne compétence en mathématiques, en lecture et écriture. Ces objectifs
eux-mêmes ne sont pas des sujets de débat. Les désaccords sur la meilleure
façon de les atteindre sont, en principe, des débats scientifiques. Pourtant,
il y a une pénurie notable de théorie scientifique réfléchie dans le discours
éducatif. C’est peut-être en partie parce que les données de la recherche en
éducation ont tendance à être incertaines. Les variables incontrôlées dans les
classes réelles – les interactions sociales de la classe, les talents de l’enseignant,
la connaissance préalable des élèves individuels – ont eu pour résultat de
rendre les conclusions de cause à effet difficiles à déterminer avec confiance.
Ces difficultés ont été parmi les raisons invoquées dans un récent rapport du
Conseil national de recherches (National
Research Council) pour expliquer pourquoi aucun programme ou méthodes d’enseignement
des mathématiques n’ont été scientifiquement déterminés comme étant absolument
supérieurs.
En réaction à ces défauts passés de la recherche en
éducation, l’Institut des Sciences de l’Éducation (Institute of Educational
Sciences) a récemment mis en place des standards rigoureux pour la collecte de
données, y compris une insistance sur l’attribution par tirage au sort (random assignment) des
élèves à des groupes expérimentaux et de contrôle, sur le modèle de ce qui se
fait dans les bonnes recherches médicales. Ce sont des avancées admirables. Plus
fiables seront les données que nous obtiendrons, plus fiables seront nos
théories. Mais la bonne théorie ne doit pas être réduite à des techniques fiables
de collecte de données. La nécessité d’une analyse générale profonde n’est pas
écartée même par la meilleure collecte de données techniques. La répartition
aléatoire des étudiants dans des groupes témoins et des groupes expérimentaux
est une admirable méthode pour gagner une plus grande confiance dans les
résultats statistiques, mais elle ne peut pas par elle-même expliquer les
raisons sous-jacentes de ces résultats, ni prédire par elle-même à coup sûr la
répétition de ces résultats dans des circonstances nouvelles.
Une bonne collecte de données ne constitue pas un
support suffisant pour étayer la conclusion que ce qui a fonctionné dans un
seul endroit marchera dans un autre. Il ne faut pas considérer les résultats de
la recherche comme une boîte noire à partir de laquelle on peut directement
tirer des arguments, par exemple celui-ci : comme une plus petite taille
de classe a conduit à de meilleurs résultats dans le Tennessee, des classes
plus petites conduiront également à de meilleurs résultats en Californie. La
célèbre et coûteuse étude STAR dans le Tennessee (Ratio réussite des élèves
enseignants – Student Achievement Teacher
Ratio) a eu une utilisation exemplaire techniques de collecte de données,
en utilisant un grand nombre d’élèves répartis au hasard dans les groupes
témoin et expérimental. Comme la collecte des données a été si bien menée, des
décideurs politiques en Californie ont estimé que les résultats pourraient s’appliquer
à la Californie et ils ont mis cette ligne de raisonnement en exécution à un
coût estimé à 5 milliards de dollars supplémentaires – sans résultats
significatifs. Pour conclure de manière fiable que des résultats collectés avec
soin sont reproductibles, on ne peut pas les traiter athéoriquement. Les
données sur ce qui fonctionne dans les écoles ne peuvent pas de manière
nécessaire être simplement recueillies dans les écoles et ensuite appliquées
directement afin d’améliorer des écoles différentes sans l’appui d’une analyse en
profondeur et d’une théorie prédictive générale. Pour appliquer les résultats
ailleurs, on a besoin de comprendre en détail les facteurs de causalité qui
permettraient des prédictions fiables. Quels sont les facteurs généralisables
qui rendent une plus petite taille de classe plus efficace pour les enfants
plus jeunes que pour les niveaux plus tardifs ? Quelles sont les causes reproductibles
de progrès des élèves par le biais des classes plus petites ?
Un examen théorique important trop souvent négligé dans la recherche en
éducation est celui du coût d’opportunité (opportunity cost).
L’étude dont le coût se monte à plusieurs millions de dollars réalisée par le
Tennessee sur l’influence de la taille de la classe, bien qu’admirable en
raison de la qualité de sa technique de répartition aléatoire et du scrupule mis pour réaliser ses statistiques, ne
traitait pas convenablement des questions théoriques concernant les coûts d’opportunité
non analysés. Pourrait-il y avoir d’autres moyens, plus fiables et plus
rentables de réaliser des gains similaires ou supérieurs? Si, par exemple, un
important avantage d’une plus petite taille de classe est plus de temps d’interaction
entre élèves et enseignants, y a-t-il des politiques alternatives moins
coûteuses pour atteindre plus de temps d’interaction et en même temps des gains
plus grands pour les élèves ? En d’autres termes, l’étude STAR du Tennessee ne s’est pas risquée à fournir d’interprétation et de généralisation
théorique claire et détaillée de ses propres découvertes. Si elle avait fait, l’état
de Californie, fondant sa politique sur l’étude STAR, n’aurait peut-être pas
dépensé 5 milliards de dollars en une vaine tentative pour augmenter les
résultats scolaires simplement par une taille de classe plus petite.
La théorie doit toujours dépasser les données afin de
fournir un contexte servant de cadre à l’interprétation de ces données et de
justifier les prédictions. Étant donné que les données sur l’éducation sont souvent
en conflit et incertaines, les théories éducatives sont trop souvent de simples
positions idéologiques déguisées. C’est dans ce contexte que je formule la
proposition suivante : à un moment donné, il est de notre devoir de travailler
à l’analyse théorique la plus probable d’un problème éducatif pratique à la
lumière de toutes les recherches pertinentes émanant de tous les domaines
pertinents, et de résister à la tentation de se laisser distraire d’un côté par
les tout derniers bulletins de recherche et de l’autre côté par des gens qui
disent sceptiquement : les données éducatives sont trop complexes donc
nous nous en tiendrons à notre philosophie éducative.
Une théorie adéquate de la lecture reconnaîtra que la compréhension en
lecture est une sous-catégorie de la compréhension du langage, et que la
compréhension du langage doit comporter des attributs qui sont souvent passés
sous silence dans les discussions sur la lecture, notamment l’idée de la
communauté linguistique. Pour que la communication se produise par le biais de
la langue, les deux côtés (qu’on les appelle locuteur/auditeur ou auteur/lecteur)
ont à apprendre et à partager les mêmes règles de langage. Par exemple, un
enfant apprend que lorsque le locuteur dit tu
à l’enfant, il signifie par là l’enfant, et que lorsque le locuteur dit je, cela signifie le locuteur. Mais
quand l’enfant parle, je signifie l’enfant
et tu désigne la personne à qui l’on
parle. Les mots prennent des sens différents – réfèrent à des personnes
différentes – en fonction de l’orateur, et c’est une règle de la langue que chaque
participant doué de compréhension doit apprendre. Une multitude de ces accords
tacites sont nécessaires à la communication. Le philosophe britannique H. P. Grice a acquis une
réputation considérable en expliquant en quelques pages la structure d’un grand
nombre de ces accords tacites. Le groupe de personnes partageant ces accords
est une communauté de parole. Partager le non-dit leur permet de comprendre le
dit. Partager le non-dit est la chose même qui fait d’elles une communauté
linguistique. Les lecteurs pauvres qui peuvent décoder de manière adéquate,
mais ne peuvent pas bien comprendre sont généralement des lecteurs qui manquent
de connaissances sur tout un éventail d’informations tacites considérées comme
allant de soi pour les initiés dans la communauté linguistique. Fournir aux
étudiants de manière aussi efficace que possible les connaissances tacites et considérées
comme allant de soi, cela devrait être l’objectif d’un bon programme de bon
lecture.
Les théories scientifiques, explicites ou implicites,
ont des ramifications pratiques énormes. C’était la théorie et non quelques
données décisives qui ont fait que les programmes de lecture ayant cours
actuellement incluent des matériaux de lecture triviaux et déconnectés les uns
des autres et qu’ils attribuent trop de temps et d’efforts à l’enseignement de
stratégies formelles de compréhension. Les partisans des stratégies pourraient
pointer vers des données qui montraient des améliorations après quelques
semaines d’instruction sur les stratégies. (La plupart des interventions
éducatives peuvent fournir des données positives.) Mais ces améliorations ne
sont pas grandes. Et à long terme les données concernant l’enseignement des
stratégies sont encore moins impressionnantes. Si les données à long terme
favorisant ces pratiques avaient été décisives, nous n’aurions pas ce problème
en compréhension de lecture à l’échelle du pays tout entier. Comme je l’ai suggéré,
la recherche existante sur cette question supporte beaucoup mieux une théorie
contraire qui est beaucoup plus cohérente avec les conclusions de la science
cognitive. Cette théorie adverse estime que l’instruction approfondie portant
sur les stratégies de compréhension, tout en montrant au début des résultats positifs
pour des raisons que l’on trouvera facilement, ne constitue pas une utilisation
productive du temps d’enseignement. Cette théorie adverse est bien fondée sur les
données de la recherche et sur une large gamme d’études concernant la nature de
la compréhension du langage. Quelle théorie est préférable?
Un exemple utile de la façon de résoudre les conflits entre les théories
éducatives – jusqu’à ce que des résultats empiriques clairement décisifs arrivent
– vient de la physique, un domaine dans lequel il y a eu des incertitudes aussi
importantes que celles que l’on trouve en éducation. Aussi récemment qu’en
1900, l’existence des atomes était un sujet animé de litige entre les
scientifiques. Le problème théorique épineux de l’existence des atomes aiguillonna
le jeune Albert Einstein, dans ses premiers ouvrages, de sa thèse de doctorat de
1905 en passant par plusieurs articles importants sur le nombre d’Avogadro (N)
en 1905 et 1906. Einstein a abordé la question de N (le nombre de molécules
dans une quantité donnée de matière) à partir de beaucoup d’angles différents –
le rayonnement des corps noirs, l’écoulement des liquides (flow of solutions), le mouvement brownien, et le bleu du ciel. Il a
montré que toutes ces méthodes indépendantes pour déterminer N aboutissaient à
un nombre très similaire. Puisque chacun de ces sources de calcul était tout à
fait indépendante des autres, cette convergence de méthodes dépendantes faisait
qu’il devenait très difficile de douter de la théorie atomique. Lors de l’élaboration
des théories qui guideront les décisions politiques fatidiques au sujet de l’éducation
de nos enfants, ce modèle de la convergence des données indépendantes devrait
être notre objectif.
Dans le but d’apprendre aux enfants à devenir de bons
lecteurs, nous avons besoin de poser sur un mode scientifique rigoureux des
questions au sujet de l’efficacité relative des méthodes d’instructions en
conflit, dont plusieurs, comme l’expérience STAR, semblent apparemment bien fondées
sur la recherche. Le fait d’avoir observé qu’une méthode a obtenu des effets
positifs sur les progrès en compréhension en lecture ou en vocabulaire ne veut
pas dire qu’elle répond à la plus rigoureuse exigence théorique pour atteindre
ces effets positifs de manière efficace. Ce sont les types de questions qu’un enseignant,
un administrateur d’école ou un décideur a besoin d’avoir abordés, et il est du
devoir du chercheur qui est familiarisé avec les données et la littérature sur
le sujet de réfléchir et d’essayer de répondre à ces questions théoriques sur
les coûts d’opportunité, tout à fait indépendamment de l’idéologie et de la
philosophie éducative.
Ainsi, si nous réexaminons d’après ces vues notre
exemple de l’enseignement des stratégies, nous pouvons dire la théorie
soutenant une dépense considérable de temps accordé à l’enseignement des
stratégies de compréhension de la lecture est un bon exemple de
non-convergence. Cette théorie est en effet en conflit avec beaucoup de ce qui
a été appris sur l’obtention de l’expertise et le fonctionnement de l’esprit.
La théorie des stratégies de lecture a d’abord pris en considération une gamme
étroite de données : les lecteurs experts ont tendance à contrôler leurs
propres actions. Alors la théorie a effectué un saut injustifié : si c’est ce
que les lecteurs experts font, nous allons prendre un raccourci en enseignant
aussi aux novices comment contrôler leurs actions. Bien que certaines des
données suivantes semblaient appuyer cette approche, d’autres données suggéraient
que l’auto-contrôle conscient des actions n’est pas le chemin que les experts prennent
effectivement pour devenir des experts. Les études sur l’expertise ont toujours
montré un développement très lent des compétences élevées (dix ans est proche
de la durée minimale). Encore d’autres données indiquent que le guidage
conscient de ses propres actions en direct ne peut se faire efficacement que
lorsque la personne est devenue un expert, pour des raisons ayant à voir avec
les limites de la mémoire à court terme (channel
capacity) dans l’esprit humain. Cette donnée probante est un argument qui
s’oppose à la méthode qui alourdit l’esprit de l’enfant avec l’utilisation
explicite des stratégies. Encore un autre défaut théorique de la théorie de
l’enseignement explicite des stratégies était son présupposé tacite, mais
erroné, selon lequel ces stratégies « métacognitives » de
compréhension sont des activités formelles, transférables qui peuvent être
déployées indépendamment de la connaissance du contenu. Une meilleure théorie
qui rendait compte d’un plus grand nombre de données probantes aurait évité ces
défauts scientifiques et un gaspillage tragique du temps de classe.
Souligner l’importance de la théorie peut être
considéré comme un signe d’indifférence aux données éducatives. Mais, bien sûr,
c’est le contraire qui est vrai. Une attention particulière accordée en vue
d’atteindre la théorie la plus probable est la meilleure façon de tenir compte
de la plus grande quantité possible de données pertinentes. C’est la meilleure
façon de ne pas être détourné d’une saine politique éducative par certains
bulletins récents reçus des écoles qui peuvent ou non vraiment montrer ce qu’ils
prétendent montrer. Supposons que quelqu’un arrive avec une demande pour un
programme qui, d’après la recherches, peut amener un enfant à passer d’un bas niveau
en compréhension du langage à un haut niveau en l’espace d’une année scolaire.
Ce n’est peut-être pas une impossibilité absolu, mais si l’on se fie à de
solides bases théoriques ayant trait à la nature progressive de la connaissance
et de l’acquisition du vocabulaire, nous devons être particulièrement prudents face
à la proclamation de solutions rapides pour arriver à une bonne compréhension
en lecture. Il y a beaucoup de preuves que, bien que le développement du langage
peut être accéléré, il ne peut jamais être vraiment rapide. Nous le savons
parce que nous commençons à avoir une compréhension plus profonde de la façon dont
le vocabulaire et la connaissance qui l’accompagne se construit. Cette compréhension
théorique peut nous permettre d’accélérer les progrès d’une manière
quasi-optimale en même temps qu’elle rejette l’idée qu’un progrès ultra-rapide
possible soit possible pour la compréhension de lecture.
Une compréhension théorique de la progressivité lente des gains en matière de lecture est une considération importante à garder à l’esprit lorsqu’il s’agit de prendre des mesures concrètes pour la mise en œuvre des recommandations pratiques de ce livre. Des données importantes issues de tests peuvent ne pas n’être disponibles que quelques années après que ces recommandations soient mises en pratique. Après trois à cinq ans, cependant, les gains prédits à partir de la théorie (et à partir des données existantes) seront considérables. En outre, jusqu’à ce qu’une meilleure théorie d’une instruction optimale de la lecture ne voie le jour, ces gains de lecture devraient être considérés comme les plus rapides qu’un programme d’études puisse obtenir. En général, comme la scolarité procède de manière lente, cumulative, nous avons continuellement besoin de nous appuyer sur une bonne théorie – non sur des bribes de données isolées, mais plutôt sur le plus large éventail possible de données, ce que, par définition, une bonne théorie permet d’embrasser.
Une compréhension théorique de la progressivité lente des gains en matière de lecture est une considération importante à garder à l’esprit lorsqu’il s’agit de prendre des mesures concrètes pour la mise en œuvre des recommandations pratiques de ce livre. Des données importantes issues de tests peuvent ne pas n’être disponibles que quelques années après que ces recommandations soient mises en pratique. Après trois à cinq ans, cependant, les gains prédits à partir de la théorie (et à partir des données existantes) seront considérables. En outre, jusqu’à ce qu’une meilleure théorie d’une instruction optimale de la lecture ne voie le jour, ces gains de lecture devraient être considérés comme les plus rapides qu’un programme d’études puisse obtenir. En général, comme la scolarité procède de manière lente, cumulative, nous avons continuellement besoin de nous appuyer sur une bonne théorie – non sur des bribes de données isolées, mais plutôt sur le plus large éventail possible de données, ce que, par définition, une bonne théorie permet d’embrasser.
Les deux idéologies ou philosophies qui dominent le monde
américain de l’éducation, idéologies qui ont tendance à corrompre les raisonnements
scientifiques, sont le naturalisme et le formalisme. Le naturalisme est l’idée
selon laquelle l’apprentissage peut et doit être naturel et selon laquelle toute
approche non naturelle ou artificielle
de l’apprentissage scolaire doit être rejetée ou dévaluée. Ce point de vue
favorise un grand nombre des méthodes qui sont actuellement les plus louées et
admirées dans les plus petites classes de la scolarité - « apprentissage en
faisant » (hands-on learning), « pratique appropriée au développement de l’enfant » et la
méthode naturelle, idéovisuelle (whole-language)
d’apprentissage de la lecture. En revanche, les méthodes qui ne sont pas
naturelles sont généralement déplorées, y compris « les exercices (drill) », "l’apprentissage par cœur
(rote learning) », et l’approche analytique,
phonétique de l’apprentissage initial de la lecture de la lecture. Nous
appelons un tel naturalisme une idéologie plutôt qu’une théorie, car il est
plus un système de valeurs (basé historiquement sur le mouvement romantique
européen) qu’une idée fondée sur l’expérience. Si nous adoptons cette
idéologie, nous savons d’avance que le naturel est bon et l’artificiel mauvais.
Nous n’avons pas besoin d’analyses et de preuves; nous sommes certains, tout à
fait indépendamment de la preuve, que l’éducation des enfants sera plus
productive si elle est plus naturelle. Si les données ne montrent pas cela, c’est
parce que nous utilisons de mauvais types de données, telles que les scores aux
tests standardisés. C’est le naturalisme.
Le formalisme est l’idéologie que ce qui compte dans l’éducation
n’est pas l’apprentissage de choses, mais plutôt d’apprendre à apprendre. Ce
qui compte n’est pas d’acquérir de simples faits, mais l’acquisition de
compétences formelles. Avec le naturalisme, il partage une antipathie aux
simples faits et à l’accumulation d’informations. Les faits, dit-il, sont
toujours en évolution. Les enfants ont besoin d’apprendre à comprendre et à
interpréter les faits nouveaux qui apparaissent. Les compétences (skills) que les enfants ont besoin d’apprendre
à l’école ne consistent pas à savoir comment suivre des procédures stupides (mindless), mais plutôt comment
comprendre ce qui se cache derrière les procédures afin qu’ils puissent les
appliquer à des situations nouvelles. En lecture, au lieu d’apprendre beaucoup
de matière factuelle sur un sujet, ce qui est potentiellement infini, l’enfant
a besoin d’apprendre des stratégies pour faire face à des textes, tels que « interroger
l’auteur», « faire des classements », et autres compétences d’ « esprit critique ».
Le naturalisme et le formalisme sont tous les deux puissants
parce qu’ils sont attrayants et, bien comprises, ces idéologies contiennent
beaucoup de vérité. Nous nous porterions tous mieux si elles étaient entièrement
vraies, auquel cas les écoles américaines feraient bien meilleure figure dans
les comparaisons internationales. Mais dans la mesure où celles-ci fonctionnent
comme des théories empiriques, elles sont dans leurs formes non critiquées très
insuffisantes et sont en contradiction avec ce qui est connu dans les domaines
scientifiques pertinents.
Le naturalisme a au moins partiellement tort dans tous
les cas où les choses à enseigner (comme le décodage alphabétique) apparaissent
tardivement dans l’histoire et sont des produits artificiels de la
civilisation. Il n’y a pas de faculté d’apprentissage alphabétique naturelle,
innée dans l’esprit des enfants comparables à leur faculté innée d’acquisition
du langage oral. Le naturalisme est principalement dans le vrai concernant le
premier apprentissage de la langue et, comme nous l’avons observé dans le
chapitre 4, concernant l’acquisition du vocabulaire, mais il est dans l’erreur
en essayant de confondre l’apprentissage du langage oral et celui du décodage
alphabétique. De même, le système de numération en base dix, comme l’alphabet,
est un système non naturel, et il n’y a pas de bonnes raisons empiriques de
penser qu’une approche naturaliste de l’apprentissage des opérations du système
décimal fonctionnera très bien, et de fait, cela ne fonctionne pas. Cependant,
il est également très peu probable qu’une approche rigoureuse, contre nature, avec
batterie d’exercices, soit de l’alphabet soit du système décimal, marchera mieux
avec les jeunes enfants. L’examen des défauts et des points forts du
naturalisme, embrassant ce que la psychologie sait sur ces questions, est mieux
effectué quand ce n’est pas dans le cadre d’une lutte à la mort entre les
idéologies : libérale contre conservatrice ; mais simplement quand il
est envisagé comme la recherche d’une théorie empirique plus solide.
Les mêmes précisions doivent être faites sur l’idéologie
du formalisme. À certains égards, apprendre à apprendre est une idée correcte.
Il est vrai, par exemple, que l’enfant doit être en mesure d’apprendre de
nouvelles choses grâce à la lecture. Il apparaît donc nécessaire que apprendre
à apprendre soit un objectif éducatif plus important que d’apprendre des faits
et des sujets. Mais nous avons déjà fait allusion à la découverte empirique solide
selon laquelle il est nécessaire qu’afin de comprendre un texte, l’enfant possède
déjà des connaissances sur le domaine dont il est question. Cela plaiderait en
faveur de la théorie selon laquelle l’enseignement à l’enfant d’un grand nombre
de domaines du savoir est en soi un élément nécessaire pour apprendre à
apprendre. Ceci suggère un terrain d’entente théorique entre le formalisme et l’antiformalisme.
Les antiformalistes ont raison de souligner que la capacité générale de lecture
doit nécessairement être fondée sur la connaissance générale – sur une grande
quantité de « simples informations ». Les formalistes ont raison d’insister sur le fait que l’objectif d’une telle éducation n’est pas primordialement de posséder
cette information en soi, mais de la posséder comme un moyen d’apprendre à
apprendre. Extérieurement, par conséquent, l’objectif formaliste est un
objectif qui peut être accepté. Ce que la théorie basée sur l'expérience a de bon à offrir
est l’idée, qui complique la vue précédente, selon laquelle la seule façon d’atteindre
l’objectif d’apprendre à apprendre est de passer par quelque chose que l’idéologue
formaliste dédaigne - beaucoup d’informations diverses.
En bref, un nouveau mot d’ordre dans l’éducation doit
être non seulement « assignation aléatoire » mais aussi « convergence »,
qui est un critère qui nécessitera beaucoup de connaissances scientifiques et
de pensée.[1] Le
jeune Einstein a donné une explication mémorable du principe de la convergence
de plusieurs domaines quand il était encore un employé à l’office des brevets.
Il a reçu un rapport d’un expérimentateur éminent qui était inconsistant avec
sa théorie selon laquelle la masse d’un électron augmente d’une certaine
quantité en fonction de sa vitesse. Le travail de l’expérimentateur avait été
fait très soigneusement, et l’ami d’Einstein et mentor H. A. Lorentz était prêt
à renoncer à la théorie à la vue des données défavorables. Mais le jeune
Einstein était conscient que les configurations expérimentales sont soumises à
des variables non contrôlées, et dans une étude publiée sur le sujet, voilà ce
qu’il dit en 1907:
Il sera possible de décider si les
fondements de la théorie correspondent avec les faits que si une grande variété
d’observations est à portée de main… À mon avis, les deux [les théories
alternatives d’Abraham et de Bucherer] ont une probabilité plutôt légère, parce
que leurs leurs hypothèses fondamentales concernant la masse des électrons se
déplaçant ne sont pas explicables dans les termes des systèmes théoriques qui
embrassent un plus grand complexe de phénomènes.[2]
Les phrases-clés sont « une grande variété d’observations
» et « embrasser un plus grand complexe de phénomènes. » En fin de
compte c’est Einstein qui se révéla être dans le vrai, et les inférences
hâtives réalisées à partir d’une collecte de données rigoureuses, mais étroites
étaient fausses. Einstein avait compris l’importance critique d’accepter pour
le moment seulement les conceptions qui convergent indépendamment des complexes
de phénomènes les plus larges.
C’est un point que Steven Weinberg explique de manière
très amusante.
En utilisant l’exemple de la recherche médicale, qui
est semblable à la recherche sur l’éducation à bien des égards, il prévient que
les méthodes simplement expérimentales et statistiques peuvent être très
douteuses, sans le soutien des explications de la science fondamentale.
La recherche médicale traite de problèmes
qui sont si urgents et difficiles que les propositions de nouveaux traitements
doivent souvent être basées sur des statistiques médicales sans comprendre les
mécanismes de la guérison. Mais même si un nouveau traitement était suggéré par
l’expérience de nombreux patients, il serait sans doute accueilli avec
scepticisme si l’on ne voyait pas comment il pourrait s’expliquer par réduction
dans les termes de sciences comme la biochimie et la biologie cellulaire.
Supposons qu’une revue médicale ait fait paraître deux articles rapportant deux
cures différentes pour les écrouelles : l’une par l’ingestion de soupe au
poulet et l’autre par le toucher d’un roi. Même si les données statistiques
présentées pour ces deux cures avaient un poids égal, je pense que la communauté
médicale (et n’importe qui d’autre) aurait des réactions très différentes aux
deux articles. En ce qui concerne la soupe au poulet, je pense que la plupart
des gens garderait un esprit ouvert, en réservant leur jugement jusqu’à ce que
le remède puisse être confirmé par des tests indépendants. La soupe de poulet
est un mélange complexe de bonnes choses, et qui sait quel effet son contenu
pourrait avoir sur les mycobactéries causant la scrofule ? D’autre part, même
si toutes les preuves statistiques étaient données pour montrer que le toucher
d’un roi aide à guérir les écrouelles, les lecteurs auraient tendance à être
très sceptiques parce qu’ils ne verraient pas comment une telle cure ne
pourrait jamais être expliquée par réduction... On ne voit pas comment il pourrait
être important pour une mycobactérie de savoir si la personne touchant son hôte
était véritablement couronné et sacré ou le fils aîné de l’ancien monarque ?[3]
Sans une plus grande sophistication théorique, il est
peu probable d’obtenir des résultats plus concrets en matière d’éducation. Avec
une sophistication théorique supérieure, la recherche en éducation pourrait
commencer à gagner le prestige qui lui fait actuellement défaut, mais, compte
tenu de son importance potentielle, qu’elle pourrait un jour mériter. En
premier lieu, la question qui doit être traitée est la lecture.
[1]
L’opposition politique entre libéraux et conservateurs (aux Etats-Unis démocrates et Républicains)
pourrait se traduire en France par l’opposition gauche / droite. Toutefois on
ne peut amalgamer les deux systèmes politiques qui ont de fortes disparités,
qui se sont formées au cours d’une histoire politique et idéologique
différente.
Aucun commentaire:
Enregistrer un commentaire
Aidez-moi à améliorer l'article par vos remarques, critiques, suggestions... Merci beaucoup.