Psychologie cognitive pour l'enseignant/Version imprimable
Une version à jour et éditable de ce livre est disponible sur Wikilivres,
une bibliothèque de livres pédagogiques, à l'URL :
https://fr.wikibooks.org/wiki/Psychologie_cognitive_pour_l%27enseignant
Introduction
Comme beaucoup d'élèves peuvent en témoigner, la mémoire est d'une grande importance à l'école. Beaucoup de personnes en gardent une image assez caricaturale, souvent réduite à l'apprentissage par cœur, au bachotage intensif et aux révisions qui précèdent les interrogations. Et force est de constater que cette forme d'apprentissage n'est pas très populaire et qu'elle est contestée. À quoi bon apprendre des choses par cœur si celles-ci se trouvent en quelques clics sur le net ? De nos jours, il n'est pas rare d'entendre des pédagogues mettre l'accent sur l'acquisition de compétences, tout en dénigrant l'apprentissage de faits et de connaissances brutes. Ceux-ci pensent que les connaissances factuelles en elles-mêmes ne sont pas importantes, vu qu'on peut les retrouver facilement en recherchant sur le net ou dans des livres. Mieux vaut apprendre à un élève des méthodes ou des compétences décontextualisées, qui peuvent s'appliquer en toutes circonstances. Et le fait d'avoir appris beaucoup de connaissances serait sans lien avec les compétences générales ou les capacités intellectuelles.
Mais quiconque a déjà interrogé les spécialistes en sciences cognitives a entendu un autre son de cloche. Pour les spécialistes de la cognition, qu'ils soient psychologues, neuroscientifiques, chercheurs en IA, ou autres, connaissances acquises et compétences sont fortement liées. Ils vous diront que la mémoire est plus « intelligente » qu'il n'y parait, à tel point qu'elle intervient fortement dans les processus mentaux de plus haut niveau, tels que la compréhension orale et écrite, la créativité, la résolution de problèmes ou le raisonnement. Beaucoup de théories qui visent à expliquer ces processus mentaux donnent une grande importance au stock de connaissances emmagasinées. Comme le dit Daniel Willingham, dans son livre de vulgarisation "Pourquoi les enfants n'aiment pas l'école" :
« La culture générale est une condition sine qua non pour l'acquisition de compétences. »
Beaucoup de compétences intellectuelles requièrent en effet d'appliquer des connaissances acquises dans des contextes variés, d'utiliser de manière flexible ce que l'on sait. Comme l'a dit le renommé psychologue Sternberg, auteur de la théorie triarchique de l'intelligence :
« On ne peut appliquer ce qu'on connaît de manière judicieuse si l'on n'a rien à appliquer. »
Certains scientifiques vont même plus loin et réduisent la performance en toute tâche à une simple application de connaissances, celles-ci fondant l'intelligence. Selon Yates :
« Tout ce qui est intelligence n'est qu'application et adaptation de petites unités de connaissances, qui, au total, produisent une cognition complexe. »
Cela fait beaucoup de citations, tout cela pour dire que l'avis des scientifiques sur le sujet est unanime. Cette vision est cependant contre-intuitive, mais elle est basée sur de nombreuses expériences dans des domaines de recherche variés, allant de l'étude de l'expertise, en passant par l'étude de la résolution de problèmes, en passant par l'étude de la compréhension orale/écrite.
Dans ce chapitre, nous allons voir en quoi l'acquisition de connaissance est importante pour les compétences intellectuelles. De plus, nous allons voir comment la mémoire fonctionne, ce qui nous permettra de mieux comprendre ce qui se passe dans la tête d'un élève quand il apprend. Cette introduction théorique servira de base pour la suite du cours et on ne peut pas aller plus loin sans comprendre au mieux les concepts de ce chapitre. Autant vous dire que ce chapitre d'introduction a une importance capitale pour la suite du cours.
Les mémoires à court-terme et à long-terme
[modifier | modifier le wikicode]De nos jours, les scientifiques font la distinction entre trois grandes catégories de mémoires : mémoire sensorielle, mémoire à court terme et mémoire à long terme. Les deux premières sont des mémoires temporaires qui mémorisent des informations pour une durée limitée, qui ne dépasse pas quelques secondes ou quelques minutes. La troisième est la mémoire du langage courant, celle qui mémorise les souvenirs, connaissances et habitudes.
Les trois types de mémoire
[modifier | modifier le wikicode]La mémoire sensorielle est purement perceptive et de très courte durée. Elle conserve temporairement ce que nous venons de voir ou d'entendre durant quelques millisecondes, le temps que nous y prêtions attention. Elle est subdivisée en plusieurs mémoires : les fameuses mémoires auditives, visuelles, et kinesthésiques auxquelles il est parfois fait allusion dans divers écrits de vulgarisation. Mais ces mémoires s'éloignent grandement du portrait qui en est fait dans la vulgarisation grand public. Elles peuvent retenir une grande quantité d'informations sensorielles (sons, images, sensations tactiles) pour une durée de rétention inférieure à 2 ou 3 secondes. Un certain traitement automatique est effectué sur le contenu de ces mémoires, qu'il s'agisse de processus de détection des contours d'objets pour la mémoire visuelle, des processus de détection de la tonalité ou de l’intensité sonore pour la mémoire auditive, etc. L'attention, notre capacité à nous concentrer, fait ensuite un tri pour n'en retirer que les informations essentielles. Nous ne détaillerons pas plus ces mémoires sensorielles, celles-ci étant peu utiles dans le cadre pédagogique.
La mémoire à court terme stocke un nombre limité d'informations durant quelques secondes ou quelques minutes. Elle permet par exemple de mémoriser un numéro de téléphone avant de le composer, mais cette information sera oubliée une fois le numéro composé. L'idée principale est qu'elle a une capacité limitée à environ 7 (±2) informations. Elle correspond à une capacité de maintien temporaire limitée, qui est mise en évidence dans des expériences de mémorisation pure. Mais les scientifiques ont aussi conçu des expériences où les sujets devaient non seulement mémoriser temporairement des informations, mais aussi les manipuler. Dans ces expériences, on observe que le nombre d'items mémorisés temporairement chute à environ 4 items, allant de 3 à 5-6 items. De telles expériences mesurent donc une forme de mémoire légèrement différente de la mémoire à court-terme, appelée la mémoire de travail. Elle correspond à l'ensemble des informations que l'on peut manipuler, celles sur lesquelles on peut réfléchir. C'est cette mémoire de travail qui est utilisée pour comprendre ce que raconte votre interlocuteur dans une conversation, qui permet de faire des calculs complexes qui demandent de garder à l'esprit des résultats temporaires, ou qui permet de résoudre des problèmes qui demandent de garder certaines informations à l'esprit. En milieu scolaire, elle est utilisée pour comprendre ce que raconte le professeur, pour résoudre des exercices et bien d'autres choses.
Ces deux mémoires temporaires sont à opposer à la mémoire à long terme qui correspond à la mémoire du langage courant. Il s'agit d'une mémoire de longue ou moyenne durée qui conserve des informations très longtemps après les avoir apprises. Elle stocke des souvenirs, connaissances et savoir-faire très résistants à l'oubli.
Encodage, stockage et récupération
[modifier | modifier le wikicode]Les informations transitent d'une mémoire à l'autre, de la mémoire sensorielle à la mémoire à court terme, avant d'arriver à la mémoire à long terme. Mais ce chemin est semé d’embûches qui peuvent perturber la mémorisation. Le premier obstacle est le transfert de la mémoire sensorielle vers la mémoire à court terme. Seules les choses auxquelles nous prêtons attention passent dans la mémoire à court terme, le reste ayant peu de chances d'être pris en compte (sauf dans quelques rares exceptions qui ne nous intéressent pas). Se concentrer, faire attention est donc une première étape pour apprendre.
L'étape suivante est de faire passer les connaissances de la mémoire à court terme vers la mémoire à long terme : c'est ce qu'on appelle l'encodage. Ce terme parait barbare, mais il correspond à la mémorisation proprement dite. Ce qui est encodé est tout simplement mémorisé. Pas forcément mémorisé pour longtemps, l'information peut être oubliée en quelques jours ou même heures, mais elle est enregistrée au moins temporairement. L'encodage implique la mémoire de travail, qui n'est autre que la porte d'entrée de la mémoire à long terme. Mais nous en reparlerons à la fin de ce chapitre.
Après l'apprentissage, les connaissances apprises sont temporairement stockées dans un état labile, fragile. Elles vont alors subir des modifications, qui vont les rendre nettement moins sensibles à l'oubli : c'est la phase de consolidation. Sans rentrer dans les détails techniques, une partie de la consolidation a lieu lors du sommeil, ce qui explique l'effet positif du sommeil sur la mémoire. Il faut cependant préciser que la consolidation ne fait pas que solidifier les connaissances apprises, mais qu'elle réorganise les connaissances acquises et les relie entre elles. Les preuves de ce fait sont légion, mais en voici un exemple : si on présente un problème à résoudre à un sujet, celui-ci réussit nettement mieux si on le fait dormir entre la présentation du problème et sa première tentative de résolution, et l'on sait que cela provient d'une réorganisation des informations acquises lors de la journée.
Une fois encodée/mémorisée, l'information peut être rappelée : on peut s'en souvenir et la réutiliser. La facilité de ce rappel est absolument primordiale : elle fait que nous allons oublier quelque chose, ne pas s'en souvenir au moment opportun et donc, ne pas appliquer cette connaissance de manière flexible. Évidemment, plus l'encodage est efficace, plus le rappel ultérieur est facile. Nous verrons comment faciliter un encodage efficace dans les chapitres qui suivent. Encodage et rappel sont extrêmement dépendants l'un de l'autre, aussi il est bon de les présenter plus ou moins ensemble. L'intérêt de détailler ces processus est de comprendre pourquoi les élèves oublient ou pourquoi ils ne peuvent pas réutiliser leurs connaissances dans des contextes opportuns, les deux situations ayant la même cause : une incapacité à récupérer l'information en mémoire. Autant dire que ce que nous allons aborder est de première importance pour la pratique pédagogique.
La mémoire à long-terme : des connaissances variées
[modifier | modifier le wikicode]La mémoire à long-terme contient des connaissances très diverses, au point où en faire la liste complète serait futile. Par contre, dans ce cours, nous allons beaucoup utiliser une distinction entre connaissances sémantiques et procédurales. L'une est celle des connaissances pratiques, l'autre celle des connaissances théoriques, descriptives, relationnelles. L'une est la mémoire du "Comment ?", l'autre celle du "Pourquoi ?". En anglais, on parle de "knowledge-that" pour les connaissances sémantiques, de "know-how, knowing-how" pour les connaissances procédurales.
Les connaissances sémantiques
[modifier | modifier le wikicode]Les connaissances sémantiques sont des connaissances conceptuelles, descriptives et relationnelles, qui permettent de décrire les choses, de savoir ce qu'elles sont, comment elles interagissent, etc. C'est la mémoire des concepts, des catégories, des faits, des définitions, des relations, des associations d'idées, du savoir en général. Et là où les choses deviennent intéressantes, c'est qu'il y en a de plusieurs types.
Le premier type est celui des connaissances déclaratives, que l'on peut verbaliser. Elles se distinguent des autres par le fait qu'on peut les exprimer avec des mots, les restituer à l'oral ou à l'écrit. C'est d'ailleurs de là que vient le terme de connaissances "déclaratives" : on peut les exprimer, les déclarer (verbalement) à quelqu'un d'autre. Pour simplifier les explications, je parlerais parfois de connaissances verbales pour les désigner, afin de bien souligner un point important : ces connaissances se transmettent par voie orale/écrite, par le biais du langage.
Les connaissances verbales sont clairement très importantes lors de la scolarité, et vous pensez peut-être qu'elles sont équivalentes aux connaissances sémantiques. Mais en fait, ce n'est pas le cas. Il existe des connaissances sémantiques qui ne peuvent pas être verbalisées, peu importe comment on s'y prend.
Un bon exemple est celui des objets du quotidien : essayez de m'expliquer ce qu'est un chat, une chaise, un arbre, une arme à feu Vous avez une idée de ce que sont ces choses, vous aurez du mal à verbaliser une définition, mais vous savez parfaitement les reconnaitre. Vous savez à quoi ressemble un chat, une arme à feu, ou une chaise. Un cas extrême est celui de la reconnaissances des visages : vous reconnaissez vos proches ou vos collègues, mais vous n'arriverez jamais à décrire leur visage dans une conversation. En général, il s'agit de connaissances assez concrètes qui permettent de reconnaitre les objets familiers, et de les "classer/catégoriser" dans une certaine mesure. On parle alors de connaissances objectuelles, terme traduit directement de l'anglais.
Et n'allez pas croire que cela ne concerne que des objets concrets, certains concepts abstraits sont dans ce cas. Par exemple, essayez de me définir la justice ? Compliqué, n'est-ce pas ? Définir ce qu'est l'art l'est encore plus, de nombreux philosophes s'y sont cassés les dents. D'autres concepts plus pratiques sont aussi dans ce cas là. Par exemple, demandez à un informaticien ce qu'est un algorithme, il aura du mal à vous répondre. Il y a bien des définitions basées sur le traitement automatique de l'information, sur une séquence d'actions, mais elles sont en réalité assez fausses, la notion est assez vague. Idem pour d'autres concepts pourtant bien intuitifs : demandez à un botaniste de définir un arbre, il vous dira qu'il n'y a pas de définition pour ça et que le fait que ce soit un groupe paraphylétique n'aide pas. Idem pour définir ce qui est vivant : c'est le cauchemar de beaucoup de biologistes.
Et pourtant, on doit bien reconnaitre que même si on ne peut pas les définir, ces concepts sont très utiles. Dans les faits, c'est parce que la notion de définition ne s'applique pas trop à ces concepts. Il s'agit de concepts qui regroupent des choses ayant un air de famille, qui ont des similarités, des points communs, mais au point d'avoir une définition. Par exemple, toutes les activités artistiques se ressemblent un peu : on peut trouver des ressemblances entre la peinture et la sculpture, entre le cinéma et la BD, mais rien de vraiment commun à tous les arts, seulement des airs de familles.
De tels concepts difficilement verbalisables, sont regroupés sous le terme de connaissance tacite, ou encore de connaissance induites. Le dernier terme est assez parlant, bien qu'imparfait. Il trahit le fait que ces concepts tacites se forment en réalité par extraction de similarités entre plusieurs exemples semblables. Notre cerveau est capable d'extraire des informations à partir d'exemples, et notamment d'extraire des semblants de catégories. Ce processus de catégorisation basé sur la similarité entre items est très puissant et à l'origine de nombreux concepts du quotidien, mais aussi de concepts plus abstraits. Mais cela ne signifie pas que ce contenu ne puisse pas être transmis, l'usage d'exemples et de contre-exemples permet de générer de telles connaissances tacites, comme nous le verrons dans un chapitre dédié. Dans les faits, connaissances tacites et verbales sont complémentaires et il n'est pas rare qu'un même concept soit appris avec les deux modes : on en a alors une représentation mentale déclarative, qui complète une autre représentation tacite/induite.
Les connaissances procédurales
[modifier | modifier le wikicode]Pour résumer de manière très simplifiée, les connaissances procédurales sont celles du "comment faire", du "quoi faire", de la pratique, de l'action. Elles sont le plus souvent des procédures, des séquences d'action à effectuer dans un ordre précis. Par exemple, prenez l'algorithme de multiplication posée que vous avez appris à l'école primaire : c'est une procédure, composée d'une série d'étapes à effectuer dans un certain ordre. C'est techniquement une connaissance procédurale. Beaucoup de procédures apprises en cours de math/physique sont dans ce cas.
Les connaissances procédurales s'acquièrent lentement, à grand renfort de répétitions et d'entrainement. On observe alors une augmentation de la performance avec les répétitions, qui progresse lentement mais sûrement. Cependant, l'apprentissage procédural peut être aidé par les connaissances verbales. Le fait est que vous pouvez parfaitement expliquer une procédure à quelqu'un, par oral ou par écrit, mais cela ne signifie pas qu'il saura l'appliquer du premier coup.
Par exemple, vous avez appris à poser des multiplications et des divisions, mais cela a demandé de l'entrainement, de répéter des exercices. Au final, vous avez d'abord appris la procédure sous forme verbale, puis ensuite vous avez acquis une connaissance procédurale de la multiplication à grand coup d'entrainement et de répétition. Pour le dire autrement, vous avez d'abord appris la procédure en tant que connaissance verbale (je fais ceci, puis cela), mais le tout a rapidement été complété par une connaissance procédurale, impossible à transmettre oralement. C'est là une subtilité assez importante à comprendre.
Il faut noter que les connaissances procédurales et sémantiques sont généralement reliées, elles peuvent s’acquérir indépendamment l'une de l'autre. Et peut-être avez-vous pensé qu'il est préférable d'acquérir les connaissances sémantiques adéquates avant de passer aux connaissances procédurales, mais c'est quelque chose qui est encore en débat et n'a pas trop l'air de tenir la route. Beaucoup d'études ont étudié l'influence de l'ordre d'acquisition pour les mathématiques de primaire, notamment l'acquisition du calcul. Les recherches donnent des résultats très variables, avec des études montrant que l'acquisition précoce des connaissances sémantiques aidait grandement l'apprentissage procédural, et d'autres études montrant l'inverse, d'autres études montrant qu'il n'y avait pas d'influence. Il y a des chances que l'ordre idéal dépende du sujet traité et du matériel à apprendre.
Les connaissances conditionnelles
[modifier | modifier le wikicode]Un point important est que les connaissances déclaratives et procédurales interagissent lors de la prise de décision. C'est bien beau d'avoir des connaissances pratiques, mais encore faut-il savoir quand les utiliser, sans quoi on ne les utilise pas de manière pertinente. Et c'est là qu'intervient un nouveau type de connaissances, qui est difficile à classer, qui fait la jonction entre connaissances déclaratives et procédurales : les connaissances conditionnelles. Elles permet de savoir quand utiliser telle ou telle procédure stockée en mémoire procédurale. Formellement, ce sont un sous-type de connaissances déclaratives. Les connaissances conditionnelles sont des règles du type "Si je suis dans telle situation, alors je dois appliquer telle procédure".
Pour donner un exemple, prenons l'apprentissage des quatre opérations à l'école primaire. Les enfants apprennent d'abord à faire des additions, soustractions, multiplications et divisions à froid, sans contexte. Ils effectuent des exercices où on leur demande de faire des calculs bruts, comme 45*7, 12+7, 89-42, etc. Il s'agit là d'exercices très importants qui entrainent des connaissances procédurales. Pourtant, cela ne suffit pas pour que les enfants sachent résoudre des problèmes. Par exemple, un enfant peut très bien savoir faire les calculs, mais ne pas pouvoir résoudre des petits problèmes du style :
- "Jean a 5 bonbons, il en mange 2, il en donne 2 à Emilia, combine lui reste-t-il de bonbons à la fin ?"
La raison à cela est que les enfants doivent comprendre le problème et décider quelle opération appliquer en fonction du problème. Certains se résolvent avec une addition, d'autres avec une soustraction, une multiplication, mais l'opération à effectuer dépend du problème. Mais si l'enfant sait faire le calcul adéquat, cela ne signifie pas qu'il saura qu'il faut l'appliquer pour tel ou tel problème. C'est là qu'interviennent les connaissances conditionnelles.
Pour ce genre de problème, la recherche a confirmé quelque chose que les instituteurs et pédagogues avaient intuité et formalisé depuis longtemps. Les problèmes de ce genre se classent en plusieurs catégories, assez abstraites, chacune étant associée à une opération. Par exemple, les problèmes de partage se résolvent avec une division, tout comme les problèmes de groupement. Dans les problèmes de groupement, on a M items qu'on veut répartir en N groupes, la division est évidente. Et il existe le même genre de problèmes pour l'addition/soustraction, la multiplication, etc. Dans les faits, les psychologues spécialistes de la cognition et les instituteurs n'ont pas exactement les mêmes catégories/classes de problèmes, mais passons.
Toujours est-il que résoudre des problèmes de ce genre est un processus qui se fait comme suit : l'élève reconnait la classe/catégorie à laquelle ce problème appartient, et il en déduit la procédure à adopter. En clair, il doit non seulement développer les connaissances procédurales des opérations, mais aussi une connaissance sémantique des différentes catégories de problèmes, et des connaissances conditionnelles qui lient les deux. Notons que les catégories de problèmes en question sont des connaissances qui s’acquièrent aussi bien verbalement que par induction. A force de réfléchir à ces problèmes, l'élève va forger des catégories en extrayant des similarités entre eux, ce qui générera une connaissance induite pour chaque catégorie de problème. Et il reçoit souvent une connaissance explicite, verbale, de chaque catégorie de problème. Les deux sont importantes et il ne faut pas sous-estimer l'importance des connaissances inductives forgées lors de la résolution des exercices.
Et ce mécanisme est assez général, il est très important dans de nombreux domaines. Les études sur l'expertise ont montré qu'il est à la base des compétences dans le domaine des échecs, des capacités de diagnostic médical, des performances des contrôleurs aériens, et j'en passe. Dans un grand nombre de domaines, les experts reconnaissent qu'un problème/situation appartient à une catégories de problèmes/situation déjà acquise, auquel est associée la solution. Les catégories en question sont généralement acquises aussi bien verbalement que tacitement, les experts reconnaissant de manière presque intuitive qu'un problème colle à une catégorie, sans raisonnement verbal.
L'apprentissage des connaissances conditionnelles se fait en même temps que l'apprentissage procédural, lors de la pratique, les deux ayant lieu en même temps. Il est supposé que les connaissances procédurales/conditionnelles se forment par un processus progressif. Au tout début, les élèves mémorisent les exercices qu'ils font, ou qu'on leur présente. Puis, lors des exercices ultérieurs, ils tendent à raisonner par analogie. Ils tentent de résoudre les exercices présentés en faisant des analogies avec les exemples mémorisés. Si les deux exercices se ressemblent, l'élève utilisera l'exercice mémorisé pour trouver la solution de l'exercice à résoudre. Ce processus d'analogie/similarité/ressemblance est une sorte de seconde étape, mais ne permet pas de résoudre tous les exercices. Après un certain temps, le processus d'analogie/calcul de similarité aura permis de dégager une ou plusieurs catégories de problèmes, qui serviront de connaissances conditionnelles.
Les deux systèmes de mémoire à long-terme : déclarative et procédurale
[modifier | modifier le wikicode]La distinction peut paraitre sortir de nulle part, même si elles est intuitive. Mais dans les faits, diverses observations et expériences nous laissent penser que la mémoire à long-terme fait cette distinction entre procédures et concepts ! D'après les connaissances actuelles, la mémoire à long-terme subdivisée en deux grands sous-ensembles : une mémoire explicite pour les connaissances et souvenirs et une mémoire implicite pour les automatismes acquis. Les deux n'impliquent pas les mêmes aires cérébrales : lobe temporal médian et néocortex pour la mémoire déclarative, cervelet et noyaux gris centraux pour la mémoire procédurale.
De nombreux patients ayant eu un AVC perdent l'une ou l'autre de ces mémoires. Un cas classique est celui du patient Henri Mollaison, atteint d'une lésion au lobe temporal médian. Il était atteint d'un syndrome amnésique assez particulier. Il n'avait pas oublié quoique ce soit d'avant la lésion (ou presque, mais simplifions), mais n'était plus capable de mémoriser ou d'apprendre quoi que ce soit. Il ne formait plus de souvenir, ne pouvait plus apprendre de concepts, il oubliait toutes les explications qu'on lui présentait, il oubliait tout ce qu'on lui disait en à peine quelques minutes. En clair, l'apprentissage pour ce qui est de la mémoire explicite/sémantique/déclarative était fortement endommagé. Pourtant, il était capable d'apprentissages procéduraux assez élaborés. Les scientifiques qui ont étudié son cas lui ont fait apprendre à reproduire un dessin présenté à travers un miroir (donc inversé), à résoudre le problème des tours de Hanoi, et quelques autres apprentissages procéduraux dans le même genre. Sa mémoire procédurale était intacte, l'apprentissage associé l'était aussi !
Le contenu de la mémoire explicite est assez compliqué à expliquer car elle peut mémoriser des informations très diverses. En effet, la mémoire explicite est souvent subdivisée en une mémoire sémantique pour les connaissances sémantiques, et une mémoire épisodique pour les souvenirs. Nous pouvons facilement passer outre la mémoire épisodique et n'allons nous intéresser qu'à la mémoire sémantique, qui est très liée au langage. Elle regroupe les connaissances sémantiques en général, à savoir aussi bien les connaissances verbales et tacites/inductives vues plus haut, avec éventuellement les connaissances conditionnelles.
Dans la mémoire sémantique, les concepts sont représentés par des mécanismes mentaux différents, que nous verrons au cours de ce cours : catégories, concepts, schémas, règles définitionnelles mentales, prototypes, et autres structures mentales aux noms barbares. Notons que la mémoire sémantique mémorise aussi bien des connaissances verbales/déclaratives que des connaissances autres. Une bonne partie du contenu de la mémoire déclarative est tacite, intuitif, non-codifié, difficile à exprimer avec des mots.
La mémoire procédurale, dont le nom trahit là aussi son fonctionnement, mémorise des procédures, à savoir un ensemble d'étapes à effectuer dans un certain ordre. Dès qu'on doit séquencer quelque chose, la mémoire procédurale est impliquée. Elle est impliquée dans les apprentissages moteurs, pour mémoriser des séquences de mouvements, mais elle est aussi impliquée dans des séquences d'actions abstraites, qui ne sont autres que les connaissances procédurales. Pensez aux procédures de calcul en mathématique. La mémoire procédurale a son rôle à jouer dans l'apprentissage de certains automatismes, notamment pour la lecture, l'écriture, le calcul et d'autres contenus.
Les mémoires explicite et procédurale se distinguent par le fait que l'apprentissage ne se fait de la même manière. Pour faire rentrer un automatisme dans la mémoire procédurale, il faut le faire répéter un grand nombre de fois. On observe alors une augmentation de la performance avec les répétitions, qui progresse lentement mais sûrement. À l'inverse, la mémoire explicite se caractérise par la capacité d'apprendre en une seule fois. Il suffit que l'élève soit exposé une première fois au matériel à apprendre pour s'en souvenir. Cela ne marche pas à tous les coups et la répétition aide à consolider les connaissances, mais elle n'est parfois pas nécessaire. Et pour comprendre pourquoi, il faut comprendre comment fonctionne la mémoire explicite, pour l'utiliser plus efficacement. Passons maintenant au fonctionnement de la mémoire explicite.
Le fonctionnement de la mémoire à long-terme (sémantique)
[modifier | modifier le wikicode]La mémoire sémantique/déclarative est constituée d'un réseau de connaissances reliées entre elles. Par exemple, un mot est associé au concept qui porte ce nom, plusieurs idées sont reliées entre elles par un lien logique, etc. L'ensemble de nos connaissances est mémorisé dans un gigantesque réseau de concepts, réseau qui mémorise le sens des choses, les liens entre concepts.
Reconnaissance, rappel et indices de récupération
[modifier | modifier le wikicode]Il existe plusieurs manières d'étudier le réseau sémantique et la mémoire. Les plus simples demandent à des sujets d'apprendre quelque chose (une liste de mots, une carte géographique ou n'importe quelle autre connaissance), avant de les interroger sur ce qu'ils en ont retenu.
- Les tests de reconnaissance demandent de reconnaître les informations de la liste parmi des pièges, des informations qui n'étaient pas dans la liste à apprendre.
- Les tâches de rappel demandent au sujet de se souvenir du matériel appris. Si le sujet doit réciter les informations apprises, sans aucune contrainte, on dit qu'il doit effectuer un rappel libre. Si le sujet doit réciter les informations apprises, mais qui reçoit des indices sur le matériel appris, il s'agit d'un test de rappel indicé. S'il doit réciter les informations dans l'ordre de présentation, c'est une tâche de rappel sériel.
On observe alors que la reconnaissance est nettement plus facile que le rappel indicé, qui est lui-même plus facile que le rappel libre. Reste à expliquer pourquoi.
Dans les tâches de reconnaissance, l'activation de la connaissance suffit à la récupérer. La reconnaissance d'un item va automatiquement activer celui-ci en mémoire. Il s'agit donc d'un accès direct à l'information mémorisée. Elle se base purement sur un processus de familiarité, qui permet de reconnaître des choses connues. Il s'agit d'un processus relativement primitif et qui échoue rarement. Pour simplifier, le processus de reconnaissance "active" les connaissances : plus l'activation est forte, plus la probabilité de rappel/reconnaissance est grande.
Dans les tâches de rappel, les choses changent. Commençons par les tâches de rappel indicé, qui sont plus simples à comprendre. Avec elles, la tâche de rappel va fournir des indices qui permettent de retrouver l'information demandée (les mots d'un énoncé, par exemple). L'information va devoir être retrouvée dans la mémoire, grâce à un processus de recherche qui parcourt le réseau mnésique de proche en proche, en partant des indices données par la tâche de rappel. On peut faire une analogie avec un moteur de recherche. Quand vous cherchez quelque chose sur le net, vous tapez des mots-clés dans le moteur de recherche et celui-ci récupère les informations sur le réseau en fonction de ces mots-clés. Ces mots-clés sont au réseau ce que les indices de la tâche de rappel indicé sont à notre mémoire. Mais l'analogie s’arrête là : les moteurs de recherche actuels ne fonctionnent absolument pas comme notre mémoire. Ce mécanisme de récupération est tellement efficace que Proust a écrit un livre rien qu'à partir de la perception d'une seule odeur, c'est vous dire ! Cependant, ce processus de recherche reste moins efficace que la familiarité testée en reconnaissance. Tout cela explique pourquoi la reconnaissance est plus facile que le rappel indicé ou libre.
Passons maintenant au rappel libre, qui n'est en soi pas si différent du rappel indicé. Avec le rappel libre, on se souvient forcément des derniers mots de la liste, qui sont encore en mémoire de travail et qui servent d'indices pour récupérer les mots manquants. En réalité, toute tâche de rappel fait intervenir des indices, aussi subtils soient-ils, qui guident la recherche en mémoire. Par exemple, si vous prenez un énoncé de mathématique ou de physique, les mots de l'énoncé sont autant d'indices. Ces indices sont appelés des indices de récupération. Notons que plus on donne d'indices de récupération, plus le sujet a de chances de se rappeler de l'information voulue. Preuve en est que les sujets se souviennent de certaines informations en rappel indicé, qu'ils n'arrivent pas à récupérer en rappel libre. Les informations n'étaient pas oubliées, elles étaient juste inaccessibles. L'oubli de ces informations provient alors d'un raté du processus de rappel, comme quand on a un mot « sur le bout de la langue ».
Le processus de rappel : l'activation diffusante
[modifier | modifier le wikicode]Détaillons plus en détail le processus de rappel. La reconnaissance d'un indice l'active, et c'est là que le processus de recherche commence. L'activation se propage alors dans le réseau à travers les relations, ce qui peut déclencher le rappel des informations voisines. L'activation diffuse alors de proche en proche et active les concepts voisins de l'indice de récupération. Ce mécanisme s'appelle l'activation diffusante. Si une information est suffisamment activée par ses voisins, il est automatique rappelé. Et plus une information reçoit de l'activation en provenance de plusieurs relations, les activations propagées s'additionnent, facilitant d'autant plus le rappel ultérieur.
Pour résumer, les associations d'idées sont autant de routes qui permettent d’accéder à l'information, de s'en souvenir. Les indices de récupération sont les points de départ de l'activation diffusante, l'information à rappeler étant un des points d'arrivée. Si un concept n’est pas relié à d’autres, il sera totalement isolé dans la mémoire sémantique et ne sera pas accessible. À l'inverse, plus un concept est connecté à un grand nombre de voisins, plus il peut être rappelé facilement : chacun des voisins peut servir de voie d'accès. C'est ce qui explique que plus on donne d'indice, plus le rappel est facile : l'activation d'un indice supplémentaire ajoute de l'activation, favorisant le rappel.
Les mécanismes de l'oubli
[modifier | modifier le wikicode]Plus haut, j'ai dit que les performances sont souvent meilleures dans des tâches de rappel indicé que dans les tâches de rappel libre. La raison est que l'oubli n'est pas forcément lié à l'absence de l'information en mémoire, mais est souvent lié à son inaccessibilité. L'information est bien en mémoire, mais le processus de recherche d'une information en mémoire n'arrive pas à l'atteindre. Les indices de récupération ne permettent pas à l'activation d'arriver en quantité suffisante jusqu'au concept à rappeler. L'inaccessibilité d'une information en mémoire peut provenir de deux mécanismes : ou l'information n'a pas été reliée à beaucoup de voisins, ou elle interfère avec des informations voisines.
Le premier mécanisme fait appel à un encodage peu élaboré, léger, mal fait. Une information fortement intégrée dans un réseau de connaissances est facilement accessible. Des situations très diverses réussiront à activer les indices qui mènent à cette information, quand cela est pertinent. Plus les connaissances sont associées à un réseau sémantique touffu, rempli de connaissances et d'associations d'idées, plus le travail de l'activation est facilité et l'oubli rare. En comparaison, un réseau sémantique contenant peu de connaissances et de relations fera moins bien son travail, certaines informations étant peu accessibles. C'est pour cela que les connaissances abstraites sont facilement transférables dans de nombreuses situations. C'est parce qu'il s'agit de connaissances fortement intégrées dans le réseau mnésique, les rendant facilement accessibles, et donc adaptables/transférables, dans de nombreuses situations.
Le second mécanisme est le phénomène d'interférence, où une information parasite le souvenir d'une autre. Ces interférences ont lieu quand deux informations sont accessibles à partir des mêmes indices de récupération. Elles entrent alors en compétition pour le rappel et le cerveau va devoir choisir l’information à rappeler. Selon l'ordre d’apprentissage des informations interférentes, on distingue deux types d'interférences. L'interférence rétro-active remplace des connaissances anciennes par des connaissances plus récentes, alors que l'interférence pro-active fait que des connaissances anciennes gênent d'acquisition de nouvelles connaissances. La première permet de remplacer des connaissances erronées. Présenter les informations comme un ensemble de faits isolés favorise ce phénomène d'interférence, alors que les relier dans un cadre conceptuel général le diminue fortement.
Une mémoire verbale et une mémoire visuelle
[modifier | modifier le wikicode]Certains chercheurs considèrent que la mémoire déclarative ne mémorise pas que des connaissances proprement dites, mais aussi des informations visuelles, auditives, etc. Par exemple, la théorie du double-codage stipule que la mémoire contiendrait un système verbal qui mémorise des connaissances verbales, et un système visuel qui mémorise des images mentales et des représentations visuelles.
Le système verbal serait lié au langage et mémoriserait des informations comme les mots, leur orthographe, mais aussi leur sens. Il serait formé d'un réseau d'informations interconnectées entre elles. Le système visuel mémoriserait des images abstraites, qui permettent de reconnaître les objets connus, les visages des personnes connues, etc. Les connaissances des deux systèmes seraient reliées entre elles par des associations référentielles, qui permettent de relier les concepts concrets avec leur image. Par exemple, il existe une liaison référentielle entre le concept "chat" et l'image d'un chat.
Cette théorie a été inventée pour expliquer les différences de mémorisation entre concepts concrets et abstraits. Expérimentalement, il est observé que les concepts concrets sont plus faciles à retenir que les concepts abstraits. Cela viendrait du fait que les concepts concrets sont généralement visualisables, contrairement aux concepts abstraits. On peut s'imaginer mentalement à quoi ressemble un chat, alors qu'il est plus difficile de donner une représentation des concepts de liberté ou de justice (pour lesquelles on doit utiliser des métaphores ou des analogies). Ainsi, les concepts concrets seraient mémorisés à la fois sous forme verbale et visuelle, tandis que les concepts abstraits le seraient uniquement dans le réseau verbal. La redondance des concepts concrets/imaginables les rendrait plus mémorables.
Et mine de rien, cette théorie donne des conseils assez utiles pour la création de supports pédagogiques. Le principe est de faire en sorte que les informations soient mémorisées à la fois dans la mémoire verbale et dans la mémoire visuelle, autant que possible. La conséquence est qu'utiliser des illustrations, dessins et schémas est une bonne pratique pédagogique. Évidemment, ce n'est pas possible pour les concepts abstraits, rétifs aux illustrations. Difficile de donner des schémas en cours de philosophie, par exemple. Mais beaucoup de concepts peuvent recevoir une représentation visuelle, et l'usage de schémas, de notations, de graphiques, et autres est clairement un atout. Nous détaillerons davantage ce conseil dans le chapitre consacré aux supports pédagogiques.
L'importance du stock de connaissances acquises sur les capacités intellectuelles
[modifier | modifier le wikicode]On vient de voir que notre mémoire est un gigantesque réseau qui interconnecte des unités de connaissances. Elle contient des connaissances très diverses : mots, connaissances concrètes, images mentales, concepts, catégories d'objets/évènements, propositions, etc. Et ces unités de connaissances sont reliées entre elles par des associations d'idées, des liens logiques, des connexions très diverses. Faire une cartographie des types unités de connaissances et des types de connexion est possible, mais nous n'allons pas le faire maintenant. À la place, nous allons voir en quoi ce fonctionnement en réseau est utile dans notre vie intellectuelle. En quoi cette organisation en réseau est impliquée dans la mémoire, la compréhension orale/écrire, le raisonnement, la résolution de problèmes, etc.
Les connaissances antérieures facilitent l'apprentissage
[modifier | modifier le wikicode]Lorsque l'on apprend de nouvelles connaissances, il se passe toujours la même chose. Les connaissances à apprendre sont d'abord stockées temporairement en mémoire de travail. Là, elles vont alors être associées et connectées entre elles. De plus, et c'est beaucoup plus important, elles vont aussi être connectées à des connaissances antérieures, déjà présentes en mémoire à long-terme. Évidemment, ces associations ne se font pas n'importe comment. Les connaissances se connectent si elles se ressemblent, si elles ont un lien logique entre elles, si elles partagent un élément en commun, etc. Toujours est-il que ces connexions ont quelque chose de logique, elles ont un sens plus ou moins explicite. Et ce sont ces associations qui vont arrimer les connaissances à apprendre en mémoire à long-terme. Apprendre, c'est faire des liens.
A ce propos, plus un élève a de connaissances antérieures, plus il pourra créer d'associations lors de l'apprentissage. Apprendre beaucoup de choses donne une bonne base aux apprentissages futurs[1][2]. Pour le dire autrement, l'apprentissage est un processus cumulatif dans lequel le savoir appelle le savoir. Plus on sait de choses, plus on pourra facilement relier de nouvelles informations à des connaissances antérieures. Une grande partie des mauvais résultats des élèves provient du fait qu'ils n'ont pas assez connaissances antérieures, ce qui ne permet de former beaucoup de connexions. Ce fait est bien illustré par le fait que les résultats scolaires sont bien corrélés aux savoirs acquis, bien plus qu'au QI ou toute autre mesure des capacités cognitives. Pour donner quelques chiffres, une étude d'Alain Lieury nous dit que la corrélation entre connaissances encyclopédiques en classe de 5ᵉ et résultats scolaire l'année suivante est d'approximativement 0,72. La corrélation est la même avec le taux de redoublement 4 ans plus tard. Notons que ces deux corrélations sont plus élevées que les corrélations avec les tests de QI ou de raisonnement (0,50)[3].
Mais alors, qu'en est-il du par cœur, représentation iconique de l'acte de mémoriser ? Difficile d'interpréter cela comme un processus d'association. Quand on apprend des informations par cœur, on n'a pas l'impression de former de nouvelles associations à chaque répétition. Certes, les scientifiques ont observé divers phénomènes qui leur font penser que l'apprentissage par cœur implique malgré tout des phénomènes d'association, mais ceux-ci ne suffisent pas à expliquer pourquoi la répétition marche. En clair, les études scientifiques ont montré que la répétition est une bonne chose pour la mémoire, sans forcément que cela implique la formation de nouvelles associations. La répétition consolide les associations préexistantes, elle les renforce pour les rendre plus efficaces. Mais toutes les formes de répétition ne se valent pas. Nous passerons un chapitre complet sur les méthodes de révision et nous verrons que relire ses cours ou apprendre par cœur n'est pas la méthode la plus efficace pour cela. Certes, apprendre par cœur marche, mais d'autres méthodes fonctionnent bien mieux. Et ces méthodes forcent les élèves à former de nouvelles connections, à donner un sens à ce qui doit être appris. Les procédés mnémotechniques en sont un bon exemple : ils permettent d'associer ce qu'il faut apprendre à des choses connues, ils permettent d'imposer du sens à du matériel qui n'en a pas. Mais on pourrait aussi citer d'autres méthodes : faire un résumé de son cours, poser des questions de réflexion sur son cours, compléter son cours avec des informations extérieures, etc. Difficile d'échapper au fait que la mémoire fonctionne par association.
Les connaissances sont importantes pour la compréhension orale/écrite
[modifier | modifier le wikicode]Le mécanisme d'association décrit précédemment est aussi à la base de la compréhension de texte ou de discours. Quand on lit un texte, les phrases sont traduites dans une représentation mentale qui contient le sens de la phrase : une proposition. Les dernières propositions lues sont mémorisées temporairement en mémoire de travail et sont connectées entre elles, si elles ont un lien logique. Le résultat est ensuite mémorisé en mémoire à long-terme, qui contient un réseau de propositions qui regroupe toutes les informations du texte et les liens qu'elles ont entre elle. Ce dernier est appelé la base de texte. Jusque là, rien d'étonnant, on se doute que le texte lu/écouté est mémorisé en passant par la mémoire de travail et que le lecteur/auditeur connecte les informations du texte entre elles.
Mais les propositions du texte ne sont pas connectées que entre elles. Elles sont aussi connectées avec les connaissances en mémoire à long-terme. L'ensemble des informations du texte, les connaissances antérieures reliées et les connexions entre tout cela forme un gigantesque réseau de propositions, appelée le modèle de situation. Ce dernier contient un grand nombre de connexions, d'inférences, d'associations d'idées qui ne sont pas dans le texte, mais qui ont été créés grâce aux connaissances antérieures. Plus ce réseau est dense, complexe, riche en connexions et informations, plus le lecteur aura compris en profondeur le texte. La différence entre un lecteur qui aura juste mémorisé les informations du texte et celui qui a associé celles-ci à un stock de savoir conséquent se voit facilement dans les expériences de compréhension de texte. Si on fait lire un texte sur la vitamine D, les personnes qui ont des bases en biologie feront plus de connexions et donc d'inférences que ceux qui n'en ont pas. Et cela se verra quand on leur demandera de réfléchir sur le texte lu, quand on leur posera des questions de compréhension, etc.
Les inférences à partir des connaissances antérieures permettent aussi de combler l'implicite qui est naturellement présente dans certains textes. Toute personne qui écrit un texte explicatif l'écrit pour un certain public, qui est censé avoir certaines connaissances. Ce faisant, le rédacteur ne mentionne pas certaines informations, qui sont importantes pour la compréhension du texte, mais qui sont supposées sues du lecteur. Un bon moyen de s'en rendre compte est de lire un texte sur des sujets qu'on ne connait pas du tout et pour lesquels on n'a pas les bases. Même si le vocabulaire est connu, on aura du mal à comprendre un tel texte, car il nous manquera le savoir implicite qui est attendu du lecteur. Mais on peut l'illustrer avec un autre exemple. Prenez cette phrase, par exemple :
- Je l'ai cru quand il m'a dit qu'il avait une maison au bord du lac Léman, mais je me suis rendu compte qu'il mentait quand il m'a dit qu'il péchait dans le lac à marée basse.
Pour comprendre cette phrase, il faut savoir qu'il n'y a pas de marées dans un lac (pour être précis, les marées dans le Lac Léman sont de quelques millimètres, tout au plus). L'information n'est pas marquée dans le texte, mais le rédacteur de la phrase a supposé que le lecteur connaissait cette information. Et ce phénomène se rencontre énormément dans les textes explicatifs. Un bon moyen de s'en rendre compte est de faire lire un journal quotidien généraliste à un enfant. L'enfant n'a pas les connaissances en géographie et en politique nécessaire pour comprendre les articles, même si le vocabulaire est là.
Les connaissances sont le fondement de l'expertise
[modifier | modifier le wikicode]Les connaissances sont très importantes pour devenir un expert dans un domaine. Rien d'étonnant à cela, tant il va de soi qu'un expert a accumulé une grande quantité de connaissances dans son domaine de compétence. Mais on pourrait aussi penser que les experts ont acquis des capacités de réflexion ou des compétences générales bien précises qui peuvent se transférer à d'autres domaines. Les études scientifiques sur ce qui s'appelle le transfert d'apprentissage montrent qu'il n'en est rien. Elles montrent que les experts sont bons dans leur domaine de compétence, mais qu'ils ont les mêmes résultats que les novices dans d'autres domaines, même proches. Les quelques rares cas où un expert a de meilleures performances dans un autre domaine sont ceux où il peut réutiliser ses connaissances directement. Par exemple, un mathématicien sera meilleur en physique qu'un novice, mais c'est parce qu'il peut réutiliser ses connaissances mathématiques en physique.
Les expériences sur l'expertise, à savoir la compétence supérieure qu'ont les experts dans un domaine, ont étudié les joueurs d'échecs, les compétences en développement informatique, en passant par les capacités de diagnostic médical, l'expertise tactique des joueurs professionnels de sports collectifs, l'expertise pédagogique des professeurs de physique, etc. Et elles convergent toutes sur un point : les capacités supérieures des experts dans leur domaine dépendent presque uniquement de leur stock de connaissances acquises. Si un expert est capable de mieux réfléchir qu'un novice dans son domaine de compétence, c'est parce ses connaissances acquises lui permettent d'utiliser des méthodes de raisonnement efficaces que les novices ne peuvent pas utiliser. Par exemple, les experts raisonnent beaucoup par analogie, là où les novices procèdent par essais et erreurs. Les experts se ramènent systématiquement à des situations connues et des classes de problèmes maîtrisés. Mais ces méthodes de raisonnement par analogie ne fonctionnent pas à vide. Elles demandent que l'expert ait fait siens un grand nombre de connaissances, d'exemples, de problèmes résolus. De plus, ces méthodes de raisonnement sont utilisables par les experts pour deux raisons.
Premièrement, les connaissances des experts sont particulièrement organisées. Elles sont fortement reliées entre elles et sont aussi connectées à de nombreuses connaissances concrètes comme des exemples, des situations vécues d'expériences, des problèmes déjà résolus, etc. Les connaissances d'un expert ne se résument pas en un simple catalogue de concepts abstraits, mais sont de véritables réseaux de connaissances, riches aussi bien en savoirs qu'en liens logiques pour les relier. Et il va de soi que plus les connaissances enseignées le sont d'une manière structurée, organisée, plus l'apprentissage par l'élève sera efficace. Comme indice qui tend à valider cette hypothèse, on peut citer l'étude de Sexton et Poling (1973) : celle-ci montre que les élèves qui ont de mauvais résultats voient ce qu'on tente de leur apprendre comme un ensemble de connaissances séparées, non-reliées, non-structurées, alors que les élèves avec de bons résultats relient celles-ci et les intègrent dans des structures, des classifications, des analogies.
De plus, les connaissances des experts peuvent s'appliquer à un grand nombre de situations, là où celles des novices sont trop précises et pointues. Le savoir des personnes expertes est générale, abstrait et flexible. Il prend le plus souvent la forme de catégories d'objets ou de situations, qui permettent de faire des inférences et des déductions. Pour en donner un exemple, on peut citer la fameuse étude de Chi et al. (1981). Dans celle-ci, les expérimentateurs à des experts (des professeurs de physique) et des novices (des étudiants en début de cursus) de catégoriser des exercices de physique. Leur étude a montré que les novices ont tendance à fonder leurs analyses sur des détails présents dans l'énoncé (coefficients numériques, vocabulaire utilisé, ...), alors que les experts ont tendance à penser en fonction d'idées générales et de principes abstraits (la loi de conservation de l'énergie, la quantité de mouvement, ...). Au fur et à mesure que les étudiants progressent dans leurs études, ils classent de plus en plus ces exercices en fonction des caractéristiques générales. Le but de l'apprentissage est donc de permettre à l'élève d'acquérir des concepts généraux, qui se rapportent à un large spectre de situations, seules connaissances réellement « rentables ».
Si les experts ont acquis de nombreuses connaissances différentes, la recherche dans le domaine a mis l'accent sur un type particulier de connaissances abstraites : les schémas. Définir ce qu'est un schéma, au sens de la psychologie cognitive, est assez compliqué, car ce terme regroupe des acceptations diverses. Ici, nous allons définir un schéma comme une construction mentale qui permet de reconnaître toute une classe de problèmes semblables, qui se résolvent avec la même procédure. Les schémas permettent de classer les problèmes en fonction de la manière dont on les résout, et non sur d'autres critères. De plus, ces schémas ne sont pas que ces catégories, mais ils sont reliés à la méthode de résolution, la procédure à appliquer. Quand on les met face à un problème dans leur domaine, les experts vont simplement reconnaître que le problème présenté colle à un type de problème familier et récupérer la procédure associée. Au pire, ils vont découper le problème en sous-problèmes connus, qu'ils savent résoudre. Les schémas permettent cette reconnaissance rapide du type de problème à résoudre.
Les connaissances sont la base de la créativité et de l'imagination
[modifier | modifier le wikicode]L'organisation en réseau de la mémoire joue aussi un grand rôle dans la résolution de problèmes, le raisonnement et la créativité. Prenons l'exemple de la créativité. Comme le disait Steve Jobs :
« creativity is just connecting things (La créativité consiste juste à connecter des choses entre elles). »
Il faut dire qu'engendrer une chose originale demande systématiquement de la fabriquer à partir de connaissances antérieures : les idées ne naissent pas de nulle part ! Imaginer quelque chose consiste juste à activer les bonnes informations en mémoire pour les associer, ce qui implique fatalement une recherche des informations pertinentes en mémoire, via l'activation diffusante.
Mais dans le cas de la créativité, les associations formées relient des concepts lointains, éloignés dans le réseau sémantique, qui partagent peu de propriétés. Être créatif demande donc de passer outre les associations les plus évidentes, pour se concentrer sur des associations éloignées, rares, incongrues. Diverses études ont tenté de mesurer les connexions formées dans les tests de créativité simple. Et le résultat conforte l'intuition : les associations formées dans les tests de créativité relient des informations ou concepts éloignés.
La mémoire de travail et la charge cognitive
[modifier | modifier le wikicode]Si la mémoire à long terme est très importante en milieu scolaire, il ne faut pas oublier le rôle déterminant de la mémoire de travail. Pour rappel, cette mémoire maintient à l'esprit, durant une dizaine de secondes, une quantité limitée d'informations. L'idée principale est qu'elle a une capacité limitée à environ 4 informations. Or, la mémoire de travail est fortement utilisée quand il s'agit de réfléchir, peu importe que l'on doive réfléchir pour comprendre un texte, résoudre un problème, raisonner sur la base d'informations contrefactuelles, ou autre. Toute réflexion manipule des items en mémoire de travail et relie ces derniers pour former une nouvelle combinaison. Lors d'un apprentissage, les informations à apprendre sont maintenues en mémoire de travail, afin d'être associées et reliées à des connaissances antérieures, et afin de faire des déductions. La mémoire de travail est donc primordiale pour l'apprentissage et nous devons en parler en détail.
La charge cognitive
[modifier | modifier le wikicode]Des informations trop complexes font saturer la mémoire de travail, perturbant la réflexion et/ou l'apprentissage, contrairement à des informations simples. Pour prendre un exemple, c'est ce qui fait qu'un calcul trop compliqué est souvent un calcul qui demande de maintenir temporairement trop de résultats temporaires. Par exemple, c'est ce qui fait que vous aurez du mal à résoudre le calcul suivant de tête, vu que votre mémoire de travail ne peut pas stocker tous les résultats temporaires nécessaires pour mener à bien ce calcul :
4565 * 891
De plus, les informations à mémoriser ne sont pas les seules à utiliser la capacité de la mémoire à court terme : les relations qu'elles entretiennent entre elles vont aussi prendre de la place en mémoire de travail. Par exemple essayez de dire si la phrase suivante est vraie ou fausse :
Le grand-père des frères de mon père est-il le fils du frère de mon grand-père ?
Difficile, non ? C'est parce le nombre d’éléments et de relations qu'ils entretiennent est supérieur à ce que peut supporter la mémoire de travail.
Pour résumer, plus une information à apprendre ou une situation à comprendre est composée d'un grand nombre de sous-éléments, plus elle aura tendance à saturer la mémoire de travail. Le nombre d’éléments présents en mémoire de travail s'appelle la charge cognitive : plus elle est élevée, moins la tache ou le concept abordé est facile.
En situation d'apprentissage, la charge cognitive va de très faible pour certaines tâches à très élevée pour d'autres. Pour donner un exemple, apprendre du vocabulaire ou une notation technique ne demande pas une charge cognitive élevée. Par exemple, apprendre que le cuivre se note Cu en chimie, que le mot anglais "useless" veut dire "inutile" en français, sont autant d'apprentissage qui ne demande pas une charge cognitive élevée. Cela ne veut pas forcément dire que ce soit facile, vu qu'il existe des tâches à faible charge cognitive qui sont malgré tout difficiles. Par contre, les situations à forte charge cognitive, dans lesquelles beaucoup d'informations sont reliées entre elles, sont systématiquement plus difficiles. Typiquement, les situations d'apprentissage par cœur de vocabulaire, de notations, de définitions ou de formules, ont une charge cognitive faible. Par contre, comprendre quelque chose implique souvent une charge cognitive élevée.
La charge cognitive est une des raisons qui fait que faire plusieurs choses en même temps est rarement une bonne idée. Contrairement à ce que certains peuvent penser, l'esprit humain n'est pas vraiment conçu pour le multitâche. Vous serez moins performant si vous téléphonez en conduisant, si vous faites vos devoirs en écoutant de la musique ou la télévision, etc. La raison est que si vous essayez de réaliser deux tâches en même temps, la mémoire de travail sera utilisée par les deux tâches. Chaque tâche a sa propre charge cognitive, elle a besoin de maintenir un certain nombre d'items à traiter dans la mémoire de travail. Les charges cognitives des deux tâches vont donc s'additionner, mais la capacité de la mémoire de travail reste la même. En conséquence, la mémoire de travail surcharge, réduisant drastiquement les performances. Et cela aura des conséquences dans la suite du cours, certaines situations d'apprentissage étant techniquement des situations de double tâche, à savoir que votre esprit doit faire deux choses en même temps. Mais laissons cela pour plus tard.
Les connaissances antérieures et l’entraînement influencent la charge cognitive
[modifier | modifier le wikicode]Les limites de la mémoire à court terme semblent s’évanouir quand on est face à une situation familière. Par exemple, les experts dans un domaine peuvent retenir de grandes quantités d’informations, bien au-delà de la capacité de la mémoire de travail. Cela vient du fait que les experts ont acquis de grandes quantités de connaissances en mémoire à long-terme, qu'ils utilisent pour réduire leur charge cognitive. La première raison est que si la mémoire de travail ne peut traiter que quelques données simultanément, la taille de ces données ne semble pas être limitée. Or, les experts ont mémorisé des motifs familiers qui permettent de combiner plusieurs items en un seul, alors qu'un novice n'a pas acquis ces motifs et doit se débrouiller avec des informations élémentaires qu'il doit traiter individuellement. La seconde est qu'ils ont appris à automatiser certaines manipulations, à savoir que leur entraînement leur permet de faire certaines manipulations sans utiliser de mémoire de travail.
Le chunking, la capacité de reconnaître des regroupements
[modifier | modifier le wikicode]Nous allons introduire cette section par un exemple. Prenez la suite de lettres suivante :
XON UCF FTF BIC IAS NCF
Si je vous demande de me restituer cette liste de lettre immédiatement après l'avoir lu, sans vous laisser la possibilité de la relire ou de vous entraîner, vous devriez pouvoir mémoriser 7 lettres environ. Maintenant, réorganisez les lettres comme suit :
X ONU CFDT FBI CIA SNCF
Cette fois-ci, vous arrivez à vous souvenir de toutes les lettres, du moins en moyenne. La raison est que vous n'allez pas mémoriser les lettres individuelles, mais les abréviations. Chaque abréviation sera prise comme un seul item en mémoire de travail. Là où vous deviez mémoriser 18 lettres sans regroupement, sans abréviation, vous n'avez plus que 5 abréviations et une lettre à mémoriser, ce qui fait que vous n'aurez aucun mal à tout mémoriser. Cela ne marche cependant que parce que vous connaissez les abréviations et que vous pouvez les utiliser. Faite l’expérience avec un enfant de 5 ans, qui ne connaît pas ces abréviations et qui ne sait pas ce qu'elles veulent dire, et vous n'aurez pas le même résultat. À la place, l'enfant ne pourra mémoriser que quelques lettres dans les deux cas, guère plus.
L'expérience précédente est certes simple, mais elle illustre à merveille un phénomène appelé chunking. Ce terme est traduit en français par le terme "regroupement", mais le chunking est en réalité différent d'un simple regroupement. En réalité, il s'agit plus de la reconnaissance d'un motif connu et familier, qui est déjà en mémoire à long-terme. Comme exemple, on peut citer l'exemple de l'apprentissage de la géométrie. L'étude de Koedinger et Anderson, datée de 1990 montre que les élèves qui ont de bonnes performances en géométrie ont acquis des regroupements visuels qui leur permettent de reconnaître des figures géométriques particulières (triangles, carrés, angles alternes-internes, etc). Et ces regroupements ne permettent pas de reconnaître des figures dans un schéma, mais permettent aussi de récupérer les informations associées à ces figures, comme la formule de calcul de leur surface, ou certains théorèmes (comme le théorème des angles alternes-internes pour certaines configurations de droites). Ainsi, la capacité à résoudre certains exercices de géométrie dépend en partie de cette capacité à reconnaître des configurations et les informations associées.
On peut aussi citer l'exemple des joueurs d'échec auxquels on demande de mémoriser une configuration de jeu. Un joueur d'échec expert a tendance à mémoriser 4 à 5 fois plus de pièces qu'un novice. La raison à cela est que les novices doivent mémoriser des pièces indépendantes, tandis que les experts reconnaissent des blocs de 3 à 5 pièces qui leur sont familiers. Mieux : ces regroupements sont associés à des informations stratégiques, chaque regroupement étant associé aux meilleurs coups à jouer associés à cette configuration. Notons que l'avantage mnésique des joueurs experts ne vaut que pour des configurations de jeu rencontrées fréquemment. Ils ont des performances similaires à celles des novices pour des configurations de jeu aléatoires. Ce qui prouve bien que les joueurs d'échecs experts reconnaissent des motifs familiers, ils ne créent pas des regroupements de toute pièce.
Pour donner un dernier exemple, on peut prendre les recherches d'Egan and Schwartz, datées de 1979. Ces expériences comparaient les performances entre des spécialistes en électroniques et des novices. Les sujets devaient mémoriser un circuit électronique qui leur était présenté durant quelques secondes. Tandis que les novices se rappelaient de chaque pièce indépendamment, les experts se rappelaient d'ensembles de pièces assez conséquents, chacun de ces ensembles ayant un sens. Par exemple, les experts regroupaient un ensemble de résistances électriques, condensateurs, et bobines dans un sous-circuit qui correspond à un amplificateur de tension ou un amplificateur de courant. Dans cette situation, le regroupement était une catégorie d'objet, à savoir un amplificateur de tension, ou autre.
Les exemples précédents portent sur des regroupements divers. Les regroupements les plus simples portaient autrefois le nom de chunks, mais ce terme est surtout utilisé pour des tâches de mémorisation simples. Pour des tâches plus complexes, les regroupements sont beaucoup plus élaborés et ont une nature purement conceptuelle, au point qu'on ne peut pas les qualifier de regroupements ou de motifs. De tels regroupements sont appelés des schémas, le terme étant réutilisé pour nommer ces regroupements en plus de son sens vu auparavant. Les schémas correspondent ici à des concepts, des connaissances abstraites, des catégories d'objets ou d'évènements. Loin d'être de simples regroupements, les schémas encapsulent les liens logiques et associations entre les informations regroupées. Ce sont de véritables constellations d'informations interconnectées entre elles. De plus, ils ont une organisation hiérarchique : chaque schéma peut contenir des schémas plus élémentaires, qui sont eux-mêmes potentiellement constitués de sous-schémas, et ainsi de suite. Pour résumer :
- un schéma est une abstraction qui mémorise ce qui est commun à plusieurs objets ou situations, comme une catégorie ;
- un schéma relie plusieurs concepts simples et unifie le tout en un seul concept complexe ;
- le schéma contient les relations logiques et les associations d'idées que ses éléments entretiennent entre eux ;
- un schéma a une organisation plus ou moins hiérarchique où chaque schéma peut lui-même contenir des schémas plus élémentaires, qui sont eux-mêmes potentiellement constitués de sous-schémas, et ainsi de suite.
L’entraînement réduit la charge cognitive en automatisant certaines procédures
[modifier | modifier le wikicode]Le processus de regroupement permet de réduire la charge cognitive en regroupant plusieurs items en un seul, libérant ainsi de la place en mémoire de travail. Mais ce n'est pas le seul processus qui permet d'économiser de la mémoire de travail. Il faut aussi lui ajouter l'automatisation. Ce terme barbare désigne le fait que certaines procédures deviennent de plus en plus efficaces avec l’entraînement. Comme exemple de la vie courante, pensez à la conduite, l'apprentissage du calcul mental, la lecture, l'écriture.
Prenons par exemple un élève auquel on apprend une procédure de calcul mental complexe. Au début, il va mettre beaucoup de temps pour faire des calculs simples, et fera beaucoup d'erreurs. L'application de la procédure est lente, utilise la mémoire de travail, est contrôlée consciemment, et requiert toute l'attention du sujet. Mais avec de l’entraînement, il arrivera à faire des calculs extrêmement complexes, sans pour autant faire d'erreurs. La raison à cela ne tient pas dans le phénomène de regroupement, mais dans le fait que l'élève sera capable d'appliquer la procédure en utilisant de moins en moins de mémoire de travail. On dit que la procédure s'automatise : elle devient plus rapide, utilise peu de mémoire de travail, ne requiert plus d'attention et n'est plus contrôlable consciemment.
Ce phénomène d'automatisation peut s'expliquer de plusieurs manières. Mais la principale, celle qui va nous intéresser, est liée à la mémoire. L'automatisation se produit quand le sujet acquiert des connaissances qui lui permettent de prendre des raccourcis. Par exemple, au lieu d'appliquer une procédure longue et avec beaucoup d'étape, le sujet va sauter des étapes, voire utiliser une procédure plus simple qui ne marche dans des cas particuliers. Une autre possibilité est que le sujet peut directement récupérer le résultat depuis sa mémoire, sans avoir à réfléchir pour trouver la solution. Prenons par exemple le cas du calcul mental. Les spécialistes en calcul mental sont capables de multiplier deux nombres à 6 chiffres sans erreur et très rapidement. Cela peut paraître surprenant, mais cela l'est moins quand on sait qu'ils connaissent leurs tables de multiplication pour tous nombres à deux chiffres, là où le commun des mortels ne connaît que les tables de 0 à 10. Cela permet de grandement réduire le nombre d'étapes de calcul. Par exemple, pour multiplier 8546 par 1254, ils n'ont besoin que de combiner les résultats de 85*12, 85*54, 46*12 et 46*54.
Les liens entre expertise et charge cognitive
[modifier | modifier le wikicode]Si on analyse la manière de réfléchir de nombreux experts dans divers domaines, on voit que leur vaste répertoire de connaissances leur permet d'utiliser le regroupement dans des situations très variées. De plus, l'expertise passe par l'automatisation de certaines procédures. Automatisation et regroupement permettent aux experts de faire de la place dans leur mémoire de travail, ce qui libère de la place pour la réflexion. Cette constatation a été vérifiée dans une grande quantité de domaines différents, comme l'expertise médicale, la programmation, la conception de circuits électronique, ou l'expertise mathématique. Les exemples de la section précédente, avec les joueurs d'échecs ou l'analyse de schémas électronique en est un exemple. Mais on en a d'autres, comme pour la compréhension de programmes informatiques ou l'expertise des contrôleurs aériens.
Les différences de performances entre experts et novices proviennent en partie de la mémorisation d’un grand nombre de schémas spécifiques à ce domaine. Comme le dit Mislevy :
« […] comparés aux novices, les experts dominent plus de faits et établissent plus d’interconnexions ou de relations entre eux. Ces interconnexions permettent de surmonter les limitations de la mémoire à court terme. Alors que le novice ne peut travailler qu’avec au maximum sept éléments simples, l’expert travaille avec sept constellations incarnant une multitude de relations entre de nombreux éléments. »
Par exemple, les expériences de Yntema et Mueser montrent que des contrôleurs aériens experts ne peuvent pas faire de regroupements dans des tâches de laboratoires déconnectées de leur expertise : leur mémoire de travail reste limitée à 7 informations en moyenne. Mais les études de Bisseret montrent que pour des tâches liées à leur domaine d'expertise, les contrôleurs aériens peuvent mémoriser jusqu’à 20 voire 30 informations dans leur mémoire de travail. En réalité, ces 20 à 30 informations correspondent à 4/5 regroupements d'informations.
Les liens entre charge cognitive et apprentissage
[modifier | modifier le wikicode]Plus la capacité de la mémoire de travail est élevée, plus l'élève peut faire de connexions et d'inférences. C'est notamment le cas pour la compréhension de la transitivité par les enfants de 4 à 6 ans : les enfants ont souvent du mal à comprendre cette notion et à l'appliquer parce que leur mémoire de travail est trop faible. Il faut dire que comprendre la transitivité A -> B -> C demande de maintenir en mémoire de travail A, B, C, et les relations A->B, et B->C : cela fait beaucoup pour un enfant dont la mémoire de travail est très nettement inférieure à celle des adultes. Et à ce petit jeu, les enfants qui ont une mémoire de travail de plus grande capacité que leurs camarades ont nettement plus de facilité à comprendre la transitivité. De nombreuses expériences ont d'ailleurs relié l'évolution de la pensée chez l'enfant avec la capacité de la mémoire de travail[4].
Le lien avec l'apprentissage est évident, au regard de ce qu'on a appris sur la mémoire déclarative. Si la mémoire de travail est utilisée pour faire des associations et des liens logiques, alors elle a un grand rôle dans la mémorisation et la compréhension, ces deux processus demandant de former des connexions. En conséquence, si une tache d'apprentissage sature la mémoire de travail, l'apprentissage se passe mal, voire n'a pas lieu. Pour le dire autrement, la mémoire de travail est la porte d'entrée de la mémoire à long terme. Toute information doit passer en premier lieu par la mémoire de travail pour y être reliée à des connaissances antérieures. Il s'agit de la première limitation de la mémoire de travail sur l'apprentissage : si la mémoire de travail sature, l'apprentissage se passe mal, voire pas du tout. Il n'est donc pas étonnant que quelques études aient montré que la réussite scolaire est fortement corrélée à la capacité de la mémoire de travail. Par exemple, la capacité de la mémoire de travail à 5 ans est un bon indicateur de la réussite scolaire ultérieure [5]. De même, il existe une forte corrélation entre faible capacité de la mémoire de travail et échec scolaire[6].
Les méthodes pédagogiques ne sont pas égales en termes de charge cognitive
[modifier | modifier le wikicode]La mémoire de travail est donc très importante lors de l'apprentissage. Idéalement, on aimerait trouver des solutions pédagogiques pour la réduire afin d'améliorer les performances d'apprentissage. Ce constat remet sur le devant de la scène une théorie pédagogique assez ancienne : la théorie de la charge cognitive. Créée par Sweller dans les années 1970, cette théorie a reçu de nombreuses vérifications expérimentales. Assez mal connue en France, elle commence à avoir une grande influence dans les pays anglo-saxons. Plusieurs chapitres de ce cours lui seront dédiés.
Par ailleurs, certaines pratiques pédagogiques ne tiennent pas compte la mémoire de travail. Les pédagogies actives, dans lesquelles l'élève doit réfléchir de manière autonome et découvrir le savoir à apprendre, sont une catastrophe de ce point de vue. Et ce pour plusieurs raisons. En premier lieu, elles demandent explicitement que l'élève soit mis face à des situations complexes dès le début de l'apprentissage. Ensuite, elles ont intrinsèquement une charge cognitive plus élevée, à situation équivalente. Prenons l'exemple des pédagogies par problèmes, où les élèves sont mis en face d'un problème complexe dont ils doivent découvrir un savoir spécifique pour le résoudre. Pour simplifier, elles placent les élèves en situation de double tâche : les élèves doivent réfléchir pour "résoudre le problème" et apprendre en même temps. La résolution du problème a une charge cognitive qui s'additionne à celle utile pour l'apprentissage. Et cela entraîne une charge cognitive supérieure à une situation d'apprentissage seule. Les études expérimentales sur le sujet montrent clairement que ces pédagogies ont des résultats inférieurs aux autres [7][8].
Les trois types de charge cognitive : intrinsèque, pertinente et inutile
[modifier | modifier le wikicode]Lorsque l'on soumet un élève face à un apprentissage quelconque, sa mémoire de travail va être occupée par divers items qu'il va relier entre eux et connecter avec des connaissances antérieures. Cependant, il arrive que des items inutiles pour l'apprentissage soient présents en mémoire de travail. Cela arrive si la présentation des informations est mal structurée, ou contient des détails superflus. Cela peut aussi arriver si certains items sont déjà connus de l'élève ou qu'ils sont redondants. D'un autre côté, certains items ne sont pas nécessaires, mais ils améliorent l'apprentissage malgré tout. Dans diverses situations, rajouter certains items bien précis permet de faciliter l'apprentissage si la charge cognitive ne fait pas déborder la mémoire de travail.
Tout cela pour dire qu'on doit distinguer trois types de charge cognitive :
- La charge cognitive intrinsèque : la charge cognitive minimale, obligatoire pour que l'apprentissage ait lieu.
- La charge cognitive pertinente : les informations facultatives, qui améliorent l'apprentissage si on les ajoute.
- La charge cognitive superflue : la charge cognitive superflue qui occupe la mémoire de travail pour inutilement.
- On peut aussi utiliser les termes charge intrinsèque, charge essentielle et charge extrinsèque.
Les charges cognitives intrinsèque et pertinente sont utiles pour l'apprentissage, la superflue ne l'est pas. Idéalement, on doit réduire la charge cognitive superflue au minimum, tout en laissant le reste inchangé. Pour le moment bornons-nous à dire que réduire la charge superflue est une solution plus simple à appliquer que celles qui réduisent la charge intrinsèque.
Réduire la charge cognitive superflue demande de supprimer les informations inutiles pour l'apprentissage, mais déceler ces informations inutiles est souvent compliqué. Un premier conseil est d'éliminer les détails et d'aller à l'essentiel. Une expérience faite par Richard Mayer permet d’illustrer ce phénomène. L’expérience a comparé deux versions d’un texte scientifique, dont l’une était expurgée des informations quantitatives : cette dernière était nettement mieux retenue et comprise. Un autre conseil est d'éviter ce qui s'appelle les détails séduisants. Les détails séduisants sont définis comme des détails qui sont ajoutés pour rendre un cours plus motivant, plus interactif, mais qui n'ont pas un lien direct et manifeste avec le sujet de la leçon. Par exemple, ce peut être des illustrations superflues qui sont placées dans un texte, mais sans pour autant compléter son contenu. Même chose pour des animations décoratives sur un site web d'apprentissage en ligne, ou autres. De nombreuses expériences en compréhension de texte ont montré que de tels détails nuisent à la compréhension et font baisser les performances d'apprentissage, en partie par ce qu'ils augmentent la charge cognitive, en partie parce qu'ils perturbent les processus d'association et de connexion avec les connaissances antérieures.
Il est possible de modifier la charge intrinsèque en utilisant efficacement les processus de regroupement/chunking et l'automatisation. Pour l'utilisation du regroupement, l'idée est d'organiser les connaissances à apprendre de manière à permettre des regroupements. Idéalement, il faut segmenter le cours en unités de petite taille qui sont assemblées pour donner des concepts de plus en plus complexes. Le plan du cours, ou du moins son organisation, est donc organisé de manière hiérarchique, où chaque concept est vue comme une pièce d'un grand tout. Obtenir une telle organisation n'est cependant pas facile, organiser un cours de manière à profiter du regroupement est compliqué et demande de l'expérience. Nous aurons un chapitre entier dédié à cette problématique.
Pour ce qui est de l'automatisation, il n'y a pas vraiment le choix : la répétition est le seul moyen. Il ne faut pas hésiter à faire de l'apprentissage par cœur, à faire répéter des exercices, à tester régulièrement ses élèves. Les exercices de base sont à travailler et les élèves doivent être capables de les réaliser sans efforts particuliers. Il est nécessaire d'automatiser toute tâche simple qui est utilisée dans des tâches plus complexe. Pour donner un exemple très simple, les tables de multiplication doivent être mémorisées par cœur pour pouvoir multiplier deux entiers à plusieurs chiffres, la procédure de multiplication demandant d'appliquer les tables de nombreuses fois. De même, automatiser la lecture permet évidemment de libérer de la mémoire de travail, au profit des processus de compréhension. Les tâches de compréhension de texte sont très difficiles pour les élèves qui n'ont pas acquis une lecture fluide, automatique[9][10]. De telles activités automatiques simples, à la base de procédures plus complexes, sont nombreuses en mathématiques, en science ou en technologie.
Les implications pédagogiques de l'effet de l'expertise sur la charge cognitive
[modifier | modifier le wikicode]On a vu plus haut que la charge cognitive dépend des connaissances antérieures de l'élève. Les processus de regroupement et d'automatisation font que la charge cognitive est diminuée chez un expert, par rapport à un novice. Et cela a une implication pédagogique importante : les méthodes pédagogiques destinées à des élèves novices/débutants ne sont pas les mêmes que pour ceux qui ont une solide base de connaissances antérieures. Rien d'étonnant à cela : on sait qu'un cours destiné à un débutant n'est pas le même que pour quelqu'un de familiarisé avec le domaine. On n'explique pas de la même façon à un débutant et à quelqu'un qui s'y connaît. Avec un habitué, on peut prendre des raccourcis qui permettent de simplifier les explications, alors qu'un novice a besoin d'une explication beaucoup plus complète. Une des raisons à cela est justement l'effet de l'expertise sur la charge cognitive.
Diverses expériences, réalisées dans le cadre de la théorie de la charge cognitive, ont bien montré que les méthodes pédagogiques utiles pour les novices ne le sont pas pour les experts. Un exemple assez parlant est l'utilisation d'exemples travaillés, des exercices qui contiennent non seulement l’énoncé du problème, mais aussi la solution détaillée et explicitée et le résultat. L'expérience de Kalyuga et Sweller en 2004, sur les compétences en algèbre, a comparé quatre groupes : deux groupes d’élèves performants et non-performants, qui reçoivent chacun soit des exemples travaillés, soit une pratique autonome à base d’exercice. Ces expériences ont clairement montré que les exemples travaillés ne sont utiles que pour des élèves qui ont peu de connaissances antérieures dans le domaine, ceux qui ont beaucoup de connaissances antérieures bénéficiant plus d’exercices et de pratique autonome.
Les méthodes utiles pour les novices sont celles qui cherchent à réduire au maximum la charge cognitive intrinsèque. À l'inverse, les experts bénéficient de méthodes différentes, qui ne tentent pas de réduire la charge cognitive intrinsèque. C’est ce que les scientifiques nomment l’expertise reversal effect. La raison principale à cela est que réduire la charge intrinsèque demande de présenter aux élèves des connaissances qui sont inconnues des novices, mais connues des experts. Les novices gagnent à ce qu'on leur présente beaucoup d'informations de manière structurée, car ils ne les connaissent pas et doivent les acquérir. À l'inverse, les élèves qui ont acquis ces connaissances n'ont pas besoin qu'on les leur présente une nouvelle fois. Ces informations utiles pour les novices sont redondantes avec ce que savent les experts. Et ces informations redondantes forment une charge cognitive superflue pour l'expert.
Références
[modifier | modifier le wikicode]- ↑ Bandalos, Finney, & Geske, 2003
- ↑ E. Wood, Willoughby, Bolger, & Younger, 1993
- ↑ Alain Lieury (1996)
- ↑ néo-piagétiennes
- ↑ "Investigating the predictive roles of working memory and IQ in academic attainment", Alloway en 2010
- ↑ "The cognitive and behavioral characteristics of children with low working memory", Alloway, Gathercole, Kirkwood, Elliott (2009)
- ↑ "Why minimal guidance during instruction does not work: an analysis of the failure of constructivist, discovery, problem-based, experiential, and inquiry-based teaching"
- ↑ "Putting students to the path for leaning, a case for fully guided instruction", par Clark, Sweller et Krishner.
- ↑ Perfetti, 1988
- ↑ Yuill et Oakhill, 1991
Aborder une notion : définitions et exemples
Dans les chapitres précédents, nous avions abordé la distinction entre mémoire sémantique et procédurale, et nous avions expliqué que la mémoire sémantique est organisée sous la forme d'un gigantesque réseau d'informations interconnectées. Les informations en question sont très variés et vont d'unités de connaissances très précise à des concepts plus généraux. Dans ce chapitre, nous allons voir comment aborder des concepts et les catégories, qui sont des unités de connaissance comme les autres dans ce réseau.
Les concepts abstraits sont généralement un défi pour les professeurs, beaucoup de professeurs ont certainement eu l'impression que les connaissances concrètes sont plus faciles à apprendre/comprendre que les concepts abstraits. La recherche en sciences cognitives semble confirmer cette observation, dans dans une certaine mesure seulement, avec des résultats très disparates. Malgré tout, la recherche donne quelques clés pour faciliter l'acquisition des concepts abstraits.
L'idée est d'aider à connecter les concepts abstraits à des connaissances plus concrètes, plus faciles à apprendre. Dit autrement, il faut compléter les explications abstraites avec des exemples concrets. En clair, il faut utiliser des exemples et contre-exemples. Dans ce chapitre, nous allons voir non seulement pourquoi les exemples permettent d'aider l'apprentissage, mais aussi comment les utiliser efficacement. Mais pour cela, il faut commencer par voir comment le cerveau gère les concepts abstraits, comment il les représente dans sa mémoire sémantique.
De la représentation mentale des concepts
[modifier | modifier le wikicode]Les concepts abstraits appris en milieu scolaire sont souvent ce qu'on appelle des catégories. Une catégorie regroupe ce qui est commun à un ensemble d'individus ou d'entités, appelés des exemples. Avec cette terminologie, un concept est quelque chose qui regroupe ce qui est commun à un ensemble d'exemples, c'est un regroupement de points communs.
Pour toute catégorie, on peut en donner une définition claire et non-ambiguë. Celle-ci prend la forme d'une liste de propriétés que tous les exemples possèdent (ou non, dans certains cas, l'absence d'une propriété quelconque est partagée par tous les exemples). Pour donner un exemple de catégorie, on peut prendre l'exemple du concept de carré. On peut en donner la définition suivante : "quadrilatère convexe dont les côtés ont la même longueur et à quatre angles droits". La définition se décompose en plusieurs propriétés :
- quadrilatère, à savoir polygone à quatre côtés ;
- dont les côtés sont égaux ;
- dont les quatre angles sont des angles droits.
Cependant, nous utilisons beaucoup de catégories dans la vie courante, sans pour autant en connaitre la définition exacte. Par exemple, essayez de me donner la définition du concept "Chat". Vous aurez certainement du mal : peut-être direz-vous que c'est un mammifère de l'ordre des félins, qu'il a des poils, une queue, une petite taille, etc. Mais vous ne fournirez pas une définition complète de ce qu'est un chat. À vrai dire, l'idée intuitive qu'on se fait d'un chat comprend les propriétés principales de la définition, mais certaines sont en trop (le fait d'avoir des poils : que penser des chats de la race sphynx ?), alors que d'autres pourraient manquer. Mais sans avoir une définition parfaite, vous remarquez quand même que tous les chats se ressemblent, qu'ils ont un air de famille, des points communs difficilement formalisables et tacites mais que vous comprenez malgré tout. Vous avez dans votre cerveau, non pas une définition mentale du concept "chat", mais des connaissances concrètes très diverses : une représentation visuelle (vous voyez à quoi ressemble un chat), des informations sur son comportement, sur le fait que c'est un animal/mammifère.
La définition que vous avez d'un chat est imparfaite, voire inexistante, et on peut en dire autant de beaucoup des concepts que vous avez appris durant votre vie. Par exemple, essayez de me définir ce qu'est un ordinateur, un pays, un continent, un médicament, etc. Pour résumer, nous avons appris des concepts qui, soit peuvent être définis mais pour lesquels nous ne connaissons pas la définition exacte, soit pour lesquels la définition est impossible. Beaucoup des concepts que nous manipulons au quotidien sont des connaissances difficiles à verbaliser, peu codifiés, que l'on a appris par la force de l'habitude. Nous avions vu dans le chapitre précédent qu'il s'agit de connaissances dites objectuelles, de connaissances tacites, aussi appelées connaissances induites, qui sont séparées des connaissances verbales et ne s’apprennent pas de la même manière. On a donc un mécanisme dans notre cerveau qui nous permet de former des concepts, sans pour autant passer par des définitions, ni même pas une transmission verbale. Et ce mécanisme de transmission des connaissances tacite est important à comprendre.
Les deux systèmes de catégorisation : règles verbales et similarité
[modifier | modifier le wikicode]Depuis les années 2000, de nombreuses observations semblent indiquer que les concepts peuvent s'apprendre par plusieurs mécanismes, localisés dans des régions distinctes du cerveau. Mais cela ne veut pas dire que tous les systèmes d'apprentissage des catégories sont utiles en contexte scolaire. Pour les concepts et catégories, il existerait deux grands mécanismes de catégorisation et d’apprentissage des catégories :
- un système qui gère des règles verbalisables ;
- un système qui se base sur la similarité avec des exemples connus.
Le premier système va simplement induire et appliquer des définitions, des règles mentales qui permettent de dire avec certitude si un item appartient ou non à une catégorie. Apprendre de nouvelles catégories avec ce système demande d'induire une règle à partir d'exemples ou de recevoir une définition claire et précise via un apprentissage, les deux sont possibles.
Le second système va mémoriser des exemples et potentiellement utiliser leur similarité pour abstraire un concept. Ce calcul de similarité entre deux entités est souvent très rapide et inconscient, contrairement à l'utilisation de définitions et de règles. L'apprentissage de catégories avec ce système se fait par l'étude d'exemples. Tout cela appuie l'idée que définitions et exemples sont complémentaires et non opposés.
Le système de calcul de similarité : exemples et prototypes
[modifier | modifier le wikicode]Le second système mémorise les catégories de deux manières : soit sous la forme d'un ensemble d'exemples distincts, soit sous la forme d'un "résumé" qui conserve les points communs des exemples connus.
Si l’élève a vu peu d’exemples d'un concept, le cerveau le représentera comme un simple ensemble d’exemples qui contient les exemplaires déjà rencontrés. Il n’y a aucune abstraction, ce qui fait que la catégorisation est peu performante.
À force de voir des exemples, le cerveau va progressivement dégager leurs propriétés communes et en abstraire une catégorie. À ce stade, les catégories sont représentées par un représentant idéal, appelé le prototype. Ainsi, une chaise sera un meilleur exemple de meuble qu'un rideau, vu qu'il est plus proche de ce prototype idéal. Une armoire sera assez proche du prototype et sera considérée comme un meuble, mais moins qu'une chaise.
Notons que le prototype n'est pas une définition. En effet, le cerveau va extraire des exemples toutes les propriétés fréquentes, qu'on retrouve chez les plupart des exemples. Mais il ne va pas éliminer une propriété du prototype juste parce qu'elle manque chez un petit nombre d'exemples. Le prototype comprend les propriétés essentielles, partagées par tous les membres de la catégorie et qui sont la définition proprement dite, mais il contient aussi des propriétés facultatives qui sont fréquentes chez certains membres de la catégorie mais pas chez tous. En somme le prototype est vu comme le représentant idéal de la catégorie.
Lors de la catégorisation, l'entité à classer est comparée aux exemples et/ou aux prototypes mémorisés. Elle est classée dans la catégorie liée à l'exemple ou le prototype le plus similaire. Et ce processus de comparaison peut facilement induire en erreur. Par exemple, posez la question suivante à une de vos connaissance :
- Est-ce que les dauphins et les baleines sont des poissons ?
Il y a de bonnes chances qu'il vous réponde que oui. Alors que ce n'est pas la bonne réponse. Si vous réfléchissez bien vous vous souviendrez que dauphins et baleines sont des mammifères marins. Mais le second système, qui catégorise en fonction de la similarité, aura répondu Oui. Le second système, qui mémorise les définitions, est passé au second plan. Mais ce n'est pas une fatalité : dans cet exemple, la similarité l'a emportée sur la définition, mais les exemples où c'est l'inverse sont nombreux. Simplement, le fait que les dauphins et baleines sont des mammifères marins n'était pas très frais, ce qui a rendu la similarité plus forte. Mais pour beaucoup de concepts, la définition est plus forte, plus ancrée dans la mémoire, et passe en premier. En clair, la catégorisation par similarité et par définition entrent en compétition et c'est la plus forte qui l'emporte. D'où l'importance de bien travailler les deux types de représentations : exemples pour la similarité, définitions pour les règles verbales.
Du bon usage des exemples : les difficultés de l'abstraction
[modifier | modifier le wikicode]Lorsqu'on lui présente plusieurs exemples d'un même concept, le cerveau va extraire les propriétés communes des exemples présentés. Le problème est que le cerveau ne peut pas vraiment faire la différence entre les propriétés qui font partie de la définition et celles qui ne le font pas. Il se peut que les points communs extraits ne correspondent pas exactement à la définition. Cela arrive quand on ne choisit pas correctement les exemples présentés. Dans ce cas, il se peut que des points communs soient en trop, à savoir que l'élève les a extrait alors qu'ils ne font pas partie de la définition. Cela entraîne des sur-généralisations, dans lesquelles l'élève croit que certaines propriétés sont valides pour une classe de phénomènes ou d'objets alors que ce n'est pas le cas. À l'inverse, il peut arriver à l'élève de croire que certaines propriétés ne sont valables que pour une classe restreinte de concepts alors que ce n'est pas le cas : de telles sous-généralisations sont assez courantes.
Prenons l'exemple d'un élève à qui on souhaite apprendre ce qu'est un carré. D'ordinaire, on présente les carrés à l'horizontale, les carrés des exemples étant rarement penchés. La conséquence est que le prototype formé sera un carré à l'horizontale. Si on présente un carré penché à un élève, il se peut qu'il ne le classe pas comme un carré : l'élève considérera que la propriété "pas penché" est une propriété essentielle du concept de carré. La faute à un prototype trop strict, qui contient des propriétés en trop.
Une situation familière a été mise en évidence par l’expérience de Lupyan (2012). Dans celle-ci, il a demandé à un premier groupe de cobayes de dessiner un triangle, tandis qu'un second groupe devait dessiner une figure à trois côtés. Dans le groupe triangle, le triangle a été dessiné avec une base horizontale dans 82% des cas et il était isocèle dans 91% des cas. Mais dans le groupe "trois côtés", ces deux proportions sont de 50% seulement ! De même, les participants ont tendance à surévaluer l'inclinaison d'un triangle quand on leur dit qu'il s'agit d'un triangle, comparé à un groupe test dans lequel on dit aux participants que la figure est un polygone à trois côtés. Pourtant, les élèves connaissaient la définition d'un triangle, mais leur prototype de triangle était faussé.
Tout le défi de l'abstraction à partir d'exemples est là : il faut choisir les exemples présentés de manière à ce que leurs points communs collent le plus possible à la définition. Intuitivement, cela demande d'utiliser des exemples variés, qui partagent peu de points communs, qui sont très différents, très peu similaires. L'usage de contre-exemples variés est aussi une bonne chose. Toujours est-il que cela demande d'utiliser une suite d'exemples et de contre-exemples bien conçue. Si elle ne l'est pas, l'abstraction du concept à partir d'exemple donnera un résultat imparfait. Une autre manière de le dire que deux élèves ne doivent pas construire des compréhensions différentes d'un même concept à partir d'exemples identiques.
Par exemple, essayez de déduire quelle est la règle à partir des exemples suivant : 1, 3, 7, 5, 9, etc. Vous avez certainement pensé qu'il s'agissait des nombres impairs, mais cette suite est aussi cohérente avec les règles comme "nombres à un chiffre", "nombres impairs à un chiffre", ou "nombres entiers impairs", ou bien d'autres encore. C'est tout le problème de l'induction à partir d'exemples : un ensemble d'exemples est souvent compatible avec plusieurs interprétations, mais une seule de ces interprétations est compatible avec le concept à communiquer. Ces fautes de communication proviennent d'exemples mal choisis et ont peu de chances d'arriver avec des définitions. Les définitions ne sont ni plus ni moins que des ensembles de propriétés essentielles et elles n'engendrent donc pas ce problème. Mais elles ne mettent pas en œuvre le processus inconscient de catégorisation par similarité, qu'il est important de travailler.
Pour éviter les problèmes mentionnés dans la section précédente, il existe diverses techniques qui visent à diminuer l’ambiguïté inhérente à l'abstraction à partir d'exemples. Le professeur peut faciliter l'abstraction des points communs et différences en choisissant des suites d'exemples qui n'ont qu'une seule interprétation possible. Il existe une méthode pédagogique à la pointe de ce genre de procédés : le Direct Instruction d'Engelmann (à ne pas confondre avec les autres formes de direct instruction, comme la pédagogie explicite, qui n'utilisent absolument pas ces techniques d'apprentissage des concepts). Cette méthode se fonde sur des scripts pédagogiques qui décrivent les exemples et contre-exemples à donner aux élèves, ainsi que leur ordre de présentation. L'existence de ces scripts tient au fait que créer soi-même une séquence d'exemples qui ne donne pas lieu à de telles confusions est très difficile et demande souvent des années de travail : les créateurs du Direct Instruction ont préféré créer eux-mêmes de telles séquences. Dans ce qui va suivre, nous en verrons surtout les grandes lignes et les recommandations les plus importantes.
Varier les exemples
[modifier | modifier le wikicode]Plus on donne d'exemples et de contre-exemples variés, plus l'élève aura une représentation fidèle de la catégorie. Donner un grand nombre d'exemples est une bonne chose, mais l'important est surtout que ces exemples soient variés, dans le sens où les exemples ne doivent pas beaucoup se ressembler. En effet, rappelons que l'élève va abstraire les points communs des différents exemples et va les regrouper dans une catégorie (soit pour former une définition implicite, soit pour former un prototype mental, soit les deux). Moins les exemples ont de points communs, plus on est sûr que la catégorie formée collera de près à la définition, dans le sens où elle contiendra moins de propriétés facultatives. Par variés, on veut dire que les exemples donnés doivent être le moins similaires possibles. En effet, plus deux exemples d'une même catégorie sont similaires, plus ils partagent de propriétés facultatives. La similarité minimale entre deux membres d'une même catégorie est obtenue quand les deux exemples ne partagent que des propriétés essentielles.
Dans une de ses expériences datée de 1979, John Bransford et ses collègues de la Vanderbilt University au Tennessee ont cherché à savoir si varier les exemples avait un effet sur la capacité à transférer la catégorie dans de nouvelles situations. Un premier groupe devait apprendre des concepts avec des exemples similaires, tandis que l'autre groupe recevait des exemples très différents. Dans un test ultérieur, portant sur un contexte d'utilisation jamais vu auparavant lors des exemples, les chercheurs ont vérifié quel était le pourcentage de réussite des deux groupes : 84% dans le second groupe contre 64% dans le premier.
Une autre méthode pour varier l'apprentissage est d'utiliser des contre-exemples. Ici, la stratégie est différente qu'avec les exemples. Avec des exemples, les points communs peuvent faire partie de la définition ou être des propriétés facultatives. Pour éliminer une propriété facultative, il faut présenter au moins un exemple qui ne l'a pas. Avec des contre-exemples, la stratégie est de présenter un contre-exemple qui possède la propriété facultative. Quand un exemple et un contre-exemple partagent une même propriété, il y a de fortes chances qu'elle ne fasse pas partie de la définition. Dit autrement, les contre-exemples permettent de réfuter les règles ou prototypes malformés, induits par erreur. Si l'élève a induit une règle ou un prototype qui prend à tort un contre-exemple comme un membre de la catégorie, il sait qu'il devra le réviser lors de la présentation d'un contre-exemple. Expérimentalement, on constate que l'apprentissage est nettement meilleur quand les exemples et contre-exemples sont mélangés. Là encore, les contre-exemples doivent le plus variés possible.
Distribuer les exemples
[modifier | modifier le wikicode]Mais outre le fait de varier les exemples, il faut aussi les voir dans un certain ordre. Durant longtemps, les scientifiques pensaient cependant qu'amasser les exemples était une bonne solution, dans le sens où cela permettait de juxtaposer des exemples similaires, facilitant ainsi l'extraction de leurs similarités/points communs. Par exemple, supposons que je dispose de neuf exemples d’une même catégorie, qui peuvent être groupés en trois paquets A, B et C selon leurs similarités. Intuitivement, on pourrait penser qu’il vaut mieux présenter les exemples dans cet ordre : A1, A2, A3, B1, B2, B3, C1, C2, C3.
Mais dans le chapitre précédent, on a vu que l'apprentissage des concepts devait mettre l'accent sur leurs différences, ce que le séquencement vu plus haut ne permet pas de faire, car il met l'accent sur les similarités entre exemples. De plus, on a vu au chapitre précédent que la distribution de l'apprentissage permettait un meilleur apprentissage. Or, dans le type de séquencement précédent, les exemples similaires sont amassés les uns après les autres et non distribués. Cela va plutôt dans le sens d'une distribution des exemples, des exemples similaires devant être le plus éloignés possibles (dit autrement, des exemples consécutifs soient les plus dissemblables possibles). Par exemple, dans l'exemple ci-dessus, il vaudrait mieux utiliser un ordre du style A1, B1, C1, A2, B2, C2, A3, B3, C3. Tout l'enjeu est de mettre l'accent sur les différences entre exemples, pour faciliter l'induction d'une catégorie.
Quelques études récentes vont dans le sens de la deuxième possibilité. On peut notamment citer l'étude "Learning concepts and categories : is spacing the ennemy of induction ?" de Kornell et Bjork. Dans cette étude, des étudiants devaient apprendre à reconnaître le style de peintures de divers artistes peu connus. Cette étude a comparé deux groupes. Le premier voyait les tableaux appartenant à un même peintre les uns à la suite des autres, tandis que l'ordre des tableaux était complètement mélangé pour le second. C'est ce dernier qui avait les meilleurs résultats à long terme. Cette étude a été reproduite depuis, notamment par Kang et Pashler dans leur étude "discriminating painting styles : Spacing is advantageous when it promotes disciminative contrast". D'autres études du même genre ont montré que l'apprentissage distribué favorisait l'apprentissage de classifications d'oiseaux.
Quand on fait intervenir des contre-exemples, les choses deviennent plus compliquées. Il est ainsi déconseillé de voir tous les exemples ensembles, suivis par les contre-exemples : les prototypes ou règles mal induits seront alors réfutés plus tôt ou n'auront pas le temps de se former. Plutôt que de présenter les exemples par blocs, suivis des contres-exemples, il vaut mieux alterner exemples et contre-exemples, intercaler chaque contre-exemple entre deux exemples : il ne faut pas que les contre-exemples soient regroupés. De plus, chaque contre-exemple doit être le plus semblable aux exemples qui l'entourent : cela permet à l'élève de nettement mieux distinguer les propriétés essentielles des propriétés facultatives.
Résumé de la section
[modifier | modifier le wikicode]Pour résumer, une bonne utilisation des exemples et contre-exemples demande de respecter les conseils suivants autant que nécessaire :
- présenter une série d'exemples les uns à la suite des autres à un rythme assez rapide ;
- intercaler des contre-exemples entre les exemples ;
- varier le plus possible les exemples et contre-exemples présentés ;
- rendre les plus dissimilaires possible des exemples consécutifs ;
- rendre les plus similaires possible un exemple et un contre-exemple consécutifs ;
- construire une suite d'exemples/contre-exemples qui n'a qu'une seule interprétation possible et ne peut permettre d'induire qu'une seule et unique règle ;
- faire précéder les exemples par une définition, une règle ou une procédure quand c'est possible : celle-ci permet de donner des indications sur ce qui est pertinent dans la série d'exemples, ce qui est commun aux différents exemples, facilitant l'abstraction d'une règle.
Du bon usage des définitions
[modifier | modifier le wikicode]Si nous nous sommes intéressés à l'usage d'exemples dans la section précédente, celui-ci n'est pas exclusif, mais reste complémentaire à l'usage de définitions. Reste que définir un concept n'est pas une chose aussi simple qu'on pourrait le croire. Simplement donner une définition n'est pas suffisant pour qu'elle soit comprise, il faut aussi que les explications soient bien faites. Intéressons-nous donc à ce qui peut aider les élèves à mieux comprendre une définition.
Toutes les définitions ne sont pas égales
[modifier | modifier le wikicode]Notons avant toute chose qu'une catégorie peut se définir de plusieurs manières. Dit autrement, on peut donner plusieurs définitions équivalentes d'un même concept, d'une même catégorie. Par exemple, un carré peut être défini comme étant "Un rectangle avec quatre côtés égaux", "Figure qui est à la fois un rectangle et un losange". Ou encore, comme étant "un losange avec un angle droit".
Et qui dit définitions différentes dit : pré-requis différents pour chaque définition, charge cognitive différente, etc. Toutes les définitions ne se valent pas et certaines sont plus simples que d'autres. Toujours est-il qu'il est utile, voire fortement intéressant, de présenter toutes les définitions et montrer en quoi elles sont équivalentes. C'est là un premier conseil important à connaître.
- Un concept peut souvent s'expliquer de plusieurs manières différentes compréhensibles par les élèves. Ces explications ne sont pas exclusives, mais complémentaires et il est préférable, si le temps et les conditions le permettent, d'aborder un concept de plusieurs manières au lieu d'en choisir une bien précise.
Les définitions demandent des prérequis
[modifier | modifier le wikicode]Dans l'exemple du carré, on peut remarquer que la définition fait appel à d'autres concepts. Par exemple, la définition "Quadrilatère dont les côtés ont la même longueur et à quatre angles droits" fait appel au concept de quadrilatère. Même chose pour la définition "Figure géométrique qui est à la fois un rectangle et un losange", qui demande de savoir ce qu'est un rectangle et un losange. Ce cas est loin d'être le seul et arrive très souvent que les propriétés utilisées dans une définition sont des concepts qui doivent être connus de l'élève au préalable. Ces définitions dérivent une catégorie en spécialisant une catégorie plus générale, en ajoutant des propriétés à un concept déjà connu. Par exemple, la définition suivante est dans ce cas : "Un carré est un rectangle avec quatre côtés égaux". On prend la catégorie plus générale "rectangle" (un carré est un rectangle) et on ajoute le fait d'"avoir ses côtés égaux".
Techniquement, les concepts utilisés dans la définition sont des prérequis, à savoir des connaissances qu'il faut obligatoirement connaître pour comprendre l'explication et/ou la définition. Dans ce cas, cela impose de voir les concepts dans un ordre bien précis : voir ce qu'est un quadrilatère avant de parler de carré, pour l'exemple précédent. On voit aussi que toutes les définitions n'ont pas les mêmes prérequis, sans compter que le nombre de prérequis n'est pas le même. Mais tout cela pose la question de l'ordre dans lequel voir les concepts, chose que nous allons aborder dans le chapitre suivant. De manière générale, on doit prendre en compte les liens que les concepts ont entre eux pour savoir dans quel ordre en parler. Mais ces relations entre concepts sont le sujet du chapitre suivant, aussi nous n'en parlerons pas plus que cela ici.
Deux approches pour aborder un concept : quels avantages et inconvénients
[modifier | modifier le wikicode]Un autre point est de savoir dans quel ordre aborder exemples et explications abstraites. Il est possible de fournir une définition et ensuite de présenter une suite d'exemples. Ou on peut le faire dans le sens inverse : on peut présenter une suite d'exemples, suffisante pour que les élèves en abstraient les points communs, puis de la faire suivre par une définition formelle.
En soi, l'ordre de présentation (définition avant ou après exemples) dépend du concept en question. Beaucoup de concepts simples seront plus simples à expliquer en fournissant une définition complétée ensuite par des exemples. C'est le cas si la définition est facile à comprendre et assez intuitif. En faisant cela, la définition indique ce qui est pertinent dans les exemples qui vont suivre, rendant leur analyse plus facile. Mais pour des concepts moins intuitifs, plus compliqués, ou dont la définition n'est pas facile, l'usage d'exemples en premier lieu peut se révéler plus intéressant. L'approche à utiliser dans de tels cas est de commencer par voir des exemples concrets avant de progressivement aborder des explications de plus en plus abstraites. Les exemples vont alors fournir une base qui permet de comprendre la définition abstraite, alors que celle-ci aurait été peu intuitive ou incompréhensible sans.
Les définitions et exemples n'ont pas la même charge cognitive
[modifier | modifier le wikicode]Du point de vue de la charge cognitive, définitions abstraites et exemples ont des avantages et des inconvénients distincts. La recherche a identifié de nombreux avantages et inconvénients théoriques pour chaque approche et en faire la synthèse est quelque peu complexe.
Comparé aux définitions, l'induction à partir d'exemples est cognitivement coûteuse. La raison principale à cela est qu'analyser des exemples demande de conserver beaucoup de choses en mémoire de travail. Les exemples sont en effet riches en propriétés, que le sujet doit filtrer au fur et à mesure pour ne conserver que les plus pertinentes. Et la mémoire de travail est impliquée dans ce processus. C'est elle qui conserve les propriétés extraites au fur et à mesure de la présentation des exemples. Le problème est que la mémoire de travail a une capacité suffisamment limitée pour que quelques exemples suffisent à la faire surcharger. Dans les faits, dès qu'un concept est un peu compliqué, l'usage des exemples va surcharger la mémoire de travail et l'apprentissage va mal se passer. Alors que fournir une définition et l'illustrer par des exemples n'a pas ce problème : les propriétés pertinentes sont fournies au début de l'explication et le sujet ne doit pas mémoriser temporairement quoique ce soit de plus.
Mais attention : si les définitions ont une charge cognitive moindre comparé aux exemples, cela ne signifie pas qu'il faille remplacer les exemples par des définitions. Au contraire, on a vu dans ce chapitre que les deux méthodes sont complémentaires l'une de l'autre. L'argument sert plus à dire qu'il vaut mieux commencer par une définition que d'aborder en premier des exemples. Un autre argument qui va dans ce sens est que donner une définition en premier permet de réduire la charge cognitive des exemples. La définition indique quelles sont les propriétés pertinentes et celles qui sont inutiles. Ainsi, lors de l'étude des exemples, l'élève aura une petite idée des propriétés à filtrer ou à conserver. Même s'il ne comprend pas totalement la définition, celle-ci donne des indices qui permettent de mieux analyser les exemples. Faire l'inverse, à savoir donner des exemples avant la définition, ne permet pas cela.
Un compromis entre connectivité et distraction
[modifier | modifier le wikicode]Outre la différence en termes de charge cognitive, la recherche a beaucoup étudié deux propriétés des exemples concrets, l'un étant un avantage et l'autre un inconvénient.
Le premier point est que les exemples concrets sont l'idéal pour faire des connexions avec des connaissances antérieures. Les exemples concrets sont riches en détails et sont chacun faciles à connecter à des connaissances antérieures. À l'inverse, les concepts abstraits sont pauvres en informations et en détails, ce qui les rend difficiles à connecter aux connaissances antérieures. De plus, les concepts abstraits ne se visualisent pas ou alors seulement via des analogies et des métaphores, alors que les exemples concrets se visualisent bien.
Le second point, qui est un inconvénient, est leur capacité à distraire l'attention des points essentiels. Le fait que les exemples aient beaucoup de détails rend difficile de déceler quels sont les détails pertinents et ceux qui sont des distractions à éliminer. Identifier les propriétés pertinentes des propriétés facultatives est compliqué pour l'élève, surtout si les exemples sont mal utilisés, peu variés, mal distribués. Mais nous avons abordé cela en profondeur auparavant.
Il y a donc un compromis entre la connectivité et la distractivité des exemples. Tous les exemples ne sont pas égaux de ce point de vue et certains arrivent à réduire la distraction tout en augmentant la connectivité. Bien choisir les exemples est donc primordial. Mais surtout, les définitions et exemples semblent opposés de ce point de vue : peu de connexions et de distractions pour les définitions, l'inverse pour les exemples. Autant dire qu'il vaut mieux profiter des deux approches, qui ne sont pas incompatibles, mais complémentaires.
L'élaboration : faire des liens
Dans les chapitres précédents, nous avons vu qu'apprendre consiste à connecte de nouvelles informations à des connaissances déjà présentes en mémoire. Ce processus d'association à ce qui est déjà connu est appelée l'élaboration. L'élaboration peut, en première approximation, être confondue avec le fait de comprendre quelque chose. Plus on comprend quelque chose lorsqu'on l'apprend, plus le nombre de connexions formées par l'élaboration sera grand. Là où le « par cœur » donne naissance à un très faible nombre d'associations, comprendre quelque chose en profondeur crée un grand nombre de relations lors de la mémorisation. Comme le dit Develay :
« Le sens vient des liens construits entre les savoirs et non pas de leur empilement. […] apprendre, ce n’est pas amasser, mais c’est relier des notions pour en construire d’autres plus abstraites. »
Mais l'élaboration n'a pas systématiquement lieu ou elle peut mal se passer, pour plusieurs raisons.
La première est la surcharge de la mémoire de travail. Pour rappel, cette mémoire maintient à l'esprit une quantité limitée d'informations durant une dizaine de secondes, afin de les associer. Pour le dire autrement, la mémoire de travail est l'endroit où les relations se forment. C'est elle qui sert à mémoriser un numéro de téléphone avant de le composer ou à comprendre ce que dit un professeur. L'idée principale est qu'elle a une capacité limitée à 4 informations maximum (autrefois, on pensait que c'était 7 ± 2). Si celle-ci est surchargée, du fait d'un nombre trop important d'items, les relations ne peuvent se former. Des informations trop complexes ont donc tendance à saturer la mémoire de travail, perturbant l'apprentissage, contrairement à des informations simples. Un chapitre complet sera dédié à cette problématique.
Une autre raison est que la plupart, si ce n'est tous les concepts, ne peuvent se former qu'en combinant des connaissances antérieures entre elles. Si ces connaissances antérieures ne sont pas acquises, l'apprentissage ne peut avoir lieu. Pour le dire autrement tout concept a des pré-requis, des connaissances sans lesquelles on ne peut pas le comprendre. Cela impose des contraintes assez fortes sur l'ordre d'apprentissage des notions : tel concept doit être appris avant tel autre s'il est un de ses pré-requis.
Enfin, on ne peut faire fi des liens logiques qui existent entre les savoirs. Pour intégrer au mieux les nouveaux concepts dans le réseau mnésique, il faut exploiter les liens avec les connaissances antérieures. Présenter des connaissances comme une suite de faits isolés ne peut convenir. Il semble évident que l'élaboration sera meilleure avec un cours qui explique pourquoi les choses sont ce qu'elles sont, d'où sortent les faits appris dans le cours, quelles sont les principes physiques derrière les choses, comment les déduire à partir de principes de base, etc. Et tout cela demande d'organiser les informations, de structurer ses explications d'une certaine manière. L'ordre dans lequel on aborde les notions ne peut être arbitraire, mais doit refléter une certaine organisation logique, avoir une structure qui dévoile les liens entre les concepts à apprendre.
Ce chapitre va donner quelques techniques pédagogiques pour que les explications données par un professeur favorisent l'élaboration. Nous allons notamment voir l'usage des connaissances propédeutiques, des analogies, des classifications, des histoires, des représentations visuelles et de quelques autres techniques, comme les advance organisers. Dans le prochain chapitre, nous aborderons des techniques que le professeur peut utiliser en classe, qui ne tiennent pas vraiment dans la formulation des explications.
Les connaissances antérieures : de l'ordre primaire des notions
[modifier | modifier le wikicode]Pour être comprise, une nouvelle connaissance doit d'arrimer à ce qui est déjà su, elle doit être élaborée. Les connaissances antérieures sont donc la matière première de tout apprentissage : si elles ne sont pas là, l'apprentissage sera limité à du par cœur, l'élève ne pouvant rien élaborer. Plus les connaissances antérieures sont nombreuses, plus les nouveaux concepts auront de points d’amarrage sur lesquels s'associer. Là où un novice aura du mal à apprendre des définitions ou des connaissances de base, faute de pouvoir les associer à quelque chose de familier, l'expert pourra facilement retenir de nouvelles informations en les reliant à un vaste réseau de connaissances acquises de longue date.[1][2]
Cela a fait dire au psychologue Ausubel que le facteur le plus important dans l'apprentissage est ce que l'élève sait déjà :
« The most important single factor influencing learning is what the learner already knows. Ascertain this and teach him accordingly »
Les pré-requis : des acquis nécessaires
[modifier | modifier le wikicode]Pour commencer, insistons sur une évidence : lors de l'apprentissage, les informations à apprendre doivent avoir quelque chose auquel s'arrimer, se relier. Il arrive qu'elles ne se connectent à rien, alors qu'elles le pourraient. Diverses raisons techniques, comme une surcharge de la mémoire de travail, peuvent entrainer un tel résultat. Mais dans certains cas, il se peut que les connaissances à apprendre n'aient tout simplement rien à quoi se lier, ou tout du moins très peu de choses. Cela arrive pour les informations les plus basiques, celles qui sont à apprendre par cœur. Tel est le cas des tables de multiplications, des relations entre sons et lettres (correspondances graphèmes-phonèmes), des définitions de base en mathématiques (la définition d'un triangle), etc.
Dans d'autres cas, cela arrive à cause de mauvais choix pédagogiques, quand les concepts sont vu dans un ordre inadéquat. Rappelons que tout concept a des pré-requis, c'est à dire qu'il faut que certaines notions soient connues de l'élève pour que le concept puisse être appris. Par exemple, vous ne pourrez pas faire comprendre la notion de multiplication à un élève qui ne sait pas ce qu'est l'addition, car l'addition est un pré-requis pour la multiplication. Dans le même genre, difficile de faire comprendre ce qu'est une dérivée à quelqu'un qui ne sait pas ce qu'est une limite, vu que la notion de limite fait partie intégrante de la définition de la dérivée. Si on peut tenter de faire comprendre un concept sans ses pré-requis, cela n’amènera qu'à un apprentissage par cœur qui donnera au mieux l'illusion de la compréhension. Pour éviter de construire sur des fondations qui ne sont pas là, le professeur doit impérativement construire ses progressions pour que les prérequis soient abordés avant la notion.
Les connaissances propédeutiques : facultatives, mais facilitatrices
[modifier | modifier le wikicode]Si les pré-requis doivent être connus de l'élève, d'autres connaissances antérieures peuvent s'associer aux nouveaux concepts. Par exemple, il est possible que le concept à apprendre s'associe à d'autres connaissances préalables, non-nécessaires pour comprendre le nouveau concept mais qui en facilitent l'acquisition. De telles connaissances sont appelées des connaissances propédeutiques. Par définition, elles ne sont pas nécessaires pour comprendre le concept : ce ne sont pas des pré-requis. Mais elles aident à comprendre le nouveau concept et en facilitent l'apprentissage. Elles permettent grossièrement de rattacher le concept à apprendre à quelque chose de connu.
Elles peuvent être utilisées pour former des analogies, par exemple. Pour illustrer ce cas, je vais prendre l'exemple des méthodes de simplifications des équations logiques, utilisées en électronique. Ces équations décrivent des circuits électroniques en utilisant une algèbre, l’algèbre de Boole, qui ressemble à l’algèbre normale sur certains points, mais pas sur d'autres. Eh bien les élèves qui ont une connaissance correcte de l’algèbre auront beaucoup plus de facilité à comprendre ces méthodes de simplifications que ceux qui sont mauvais en mathématiques. L’algèbre usuelle sert ici de connaissance propédeutique à l’algèbre de Boole. Et on pourrait citer d'autres exemples.
Quoi qu’il en soit, bien utiliser les connaissances propédeutiques demande de les introduire avant le concept dont elles facilitent l'apprentissage. Cela demande donc de bien séquencer les notions, de bien gérer leur ordre d'apprentissage, mais aussi parfois de rajouter des concepts dans le cursus, d'ajouter des connaissances qui sont réutilisées plus tard pour simplifier des explications ultérieures.
L'organisation du matériel à apprendre
[modifier | modifier le wikicode]Si la mémoire est formée d'un véritable réseau de connaissances, celles-ci ne sont pas disposées n'importe comment. L'organisation du matériel à apprendre est fondamentale : du matériel non-organisé, composé d’éléments isolés et déstructuré sera très difficile à apprendre, alors que du matériel structuré et organisé s'apprendra très facilement. Tout le défi est de trouver comment organiser le matériel à apprendre, afin de lui donner un maximum de sens. Il n'y a pas de recette miracle, mais on peut cependant parler de quelques formes particulières d'organisation. Dans ce qui va suivre, nous allons parler des classifications, qui permettent de relier des concepts proches sur la base de leurs ressemblances et de leurs différences. Nous parlerons aussi d'autres formes d'organisation, moins évidentes, mais qui peuvent s'appliquer à beaucoup de sujets.
Les classifications et catégorisations
[modifier | modifier le wikicode]La recherche sur la mémoire dite sémantique, celle des concepts et des faits, a longtemps mis l'accent sur une forme d'organisation bien précise : les classifications. Elles relient des concepts en faisant appel à trois types différents de relations :
- les hyperonymies vont relier les catégories à des catégories plus générales qui englobent la catégorie de base : le concept « Cocker » sera relié au concept « Chien », le concept « Chat » sera relié au concept « Animal », etc. ;
- les hyponymies vont relier chaque catégorie à ses catégories dérivées, les catégories plus concrètes qu'on obtient en spécialisant la catégorie avec l'ajout de propriétés : la catégorie « félins » sera reliée aux concepts de « chat », « tigre », « lion », « panthère », etc. ;
- les relations structurales, qui relient les catégories et exemples à leurs propriétés : c'est grâce à ces relations qu'on sait qu'un oiseau peut voler, qu'un canari est jaune et ainsi de suite.
La recherche a surtout étudié les classifications que l'on peut représenter sous la forme d'une hiérarchie, d'une arborescence de catégories. On peut voir le tout comme un système de poupées russes : les catégories plus spécifiques sont incluses, emboîtées dans les catégories plus générales du niveau supérieur de la hiérarchie. Les concepts les plus concrets sont situés près de la base de la hiérarchie et les plus abstraits en haut. On peut préciser que les exemples sont intégrés dans ces hiérarchies : ils sont situés tout en bas et sont vus comme des catégories très spécialisées. Une telle hiérarchie est appelée une structure cognitive.
Un des premiers modèles de la mémoire sémantique, le modèle de Collins et Quillian se fondait exclusivement sur de telles structures cognitives parfaites. Dans celles-ci, les propriétés sont réparties dans la structure cognitive de manière à éviter toute redondance. Par exemple, les concepts « oiseau » et « canari » partagent les propriétés suivantes : les deux peuvent voler, ont des plumes, des ailes, etc. Cela vient du fait qu'un canari est un oiseau, et qu'il hérite donc des propriétés communes à tous les oiseaux : toute sous-catégorie hérite des propriétés des catégories plus générales auxquelles elle est reliée. Le modèle gère ces propriétés héritées en ajoutant une hypothèse : l'économie cognitive. Cette hypothèse dit que seules les propriétés spécifiques à un concept sont reliées à celui-ci : les propriétés héritées d'un concept plus générales sont reliées uniquement au concept le plus général, mais pas aux autres concepts. Par exemple, les propriétés « peut voler », « a des ailes », « a des plumes » seront reliées au concept « oiseau », mais pas au concept « canari ». Ce mécanisme évite les duplications inutiles de propriétés.
De nos jours, on sait que le modèle précédent est imparfait. Il stipule que la mémoire contiendrait des structures cognitives parfaites, sans défauts, sans redondance. Dans les faits, l'économie cognitive n'est pas parfaitement respectée, la hiérarchie des catégories ne l'est pas plus. Il faut dire qu'apprendre une nouvelle catégorie demande de l'arrimer dans une structure cognitive, si possible à des catégories ni trop générales ni trop spécifiques. Et la structure finale dépend de l'ordre d'acquisition des concepts. Par exemple, un enfant de 6/7 ans sait qu'un chat est un animal, mais ne connaît pas la notion de mammifère. Il reliera donc le concept "chat" avec le concept "animal" directement. L'apprentissage du concept de mammifère ne supprimera pas le lien fait entre chien et animal.
Mais ce n'est pas une fatalité. Déjà les structures imparfaites peuvent être corrigées (on en reparlera dans le chapitre sur le changement conceptuel). Ensuite, les structures acquises à l'école peuvent être parfaites si le professeur les présente correctement. Si il structure ses explications de manière à respecter au mieux une structure cognitive parfaite, le résultat mémorisé sera identique à celui du modèle précédent. Cela nous donne un premier indice sur comment structurer un cours : ne pas hésiter à le structurer autour d'une structure cognitive. De même, décider de l'endroit où aborder un nouveau concept dans un cours est très important. Si on ne l'introduit pas au bon moment, il risque de ne pas être connecté aux bonnes catégories sur-ordonnées ou subordonnées.
L'importance des classifications
[modifier | modifier le wikicode]L'organisation en structure cognitive permet de classer les concepts acquis, mais il rend aussi la mémoire "intelligente", dans le sens où certaines déductions consistent en une simple recherche en mémoire. Ces inférences sont surtout des inférences catégorielles qui entraînent un jugement avec des catégories, à savoir les questions du type "est-ce que X possède la propriété Y ?". Ces déductions sont extrêmement courantes, non seulement dans la vie quotidienne, mais aussi en milieu scolaire. On peut illustrer comment la mémoire permet de répondre à ces questions, avec l'exemple qui va suivre. Supposons qu'on demande à un sujet si un chat a des poumons. Le fait est qu'avoir des poumons n'est pas forcément une propriété intrinsèque au concept de "chat", mais est une propriété de concepts plus généraux, comme le concept de "mammifère". Or, l'activation du concept "Chat" activera automatiquement les catégories superordonnées, permettant d’accéder aux propriétés héritées des concepts plus généraux. Par exemple, un enfant saura qu'un chat a des poumons parce qu'il sait qu'un chat est un mammifère et que les mammifères ont des poumons. En clair : l'activation diffusante dans une structure cognitive permet de faire des inférences, des déductions sur les propriétés des objets et des concepts.
Ces classifications permettent d'organiser ce que l'élève doit apprendre, facilitant ainsi le rappel ultérieur. Comme le dit un peu abusivement Alain Lieury, comprendre, c'est classer. Si l'élève ne dispose pas de ces structures cognitives, l'apprentissage ultérieur sera moins efficace. Lieury, Lemoine et Le Guelte l'ont montré dans une expérience où des enfants de différents niveaux scolaires devaient mémoriser une liste de mots : un groupe témoin recevait une liste désorganisée alors que l'autre avait droit à une liste organisée en structure cognitive. Pour les élèves de 4e et 6e, cette organisation était très efficace : les élèves disposaient des structures cognitives qui permettaient un gain de mémorisation de la liste. En revanche, les élèves de CM1 ne disposaient pas vraiment des structures cognitives nécessaires, qui n'avaient pas encore été acquises par instruction : l'organisation en structure cognitive ne donnait pas de gain comparé au groupe témoin.
Généraliser ou dériver ?
[modifier | modifier le wikicode]Au passage, on peut se demander dans quel ordre parcourir les classifications et autres structures cognitives : faut-il partir du haut pour redescendre, ou au contraire partir des concepts les plus spécialisés et remonter progressivement ? Cette question peut se reformuler ainsi : faut-il partir des concepts généraux pour ensuite en déduire les concepts plus particuliers, ou au contraire faut-il partir du particulier pour abstraire progressivement des concepts plus généraux. Les deux méthodes sont à adopter selon le sujet abordé et les circonstances. La méthode qui va du particulier vers le général est appelée méthode par généralisation. Elle part des concepts particuliers et cherche à en extraire les points communs pour former un concept plus général. Elle met l'accent sur les ressemblances entre concepts, elle demande d'abstraire quelque chose de commun à plusieurs exemples. La méthode opposée, appelée méthode par dérivation, dériver les concepts particuliers en ajoutant des propriétés à un concept plus général. Avec cette méthode, des concepts proches sont abordés séquentiellement, à la suite du concept commun, de la catégorie super-ordonnée. Ce faisant, les concepts semblables sont abordés selon les différences qu'ils entretiennent, les propriétés qu'ils ne partagent pas.
Il est certain que certaines classifications sont plus faciles à comprendre en partant des concepts généraux et en les spécialisant, alors que d'autres sujets sont plus simples à comprendre avec l'autre méthode. Une des raisons à cela est la familiarité des concepts à aborder : mieux vaut commencer par aborder les concepts les plus familiers, ceux que l'élève peut comprendre plus facilement, ceux qu'il peut relier à des choses déjà connues. Les chercheurs ont longtemps pensé que les concepts intermédiaires, ni trop généraux, ni trop particuliers, étaient ceux qui étaient les plus facilement appris, mais la roue a un peu tourné depuis. La réalité est que la familiarité a peu à voir avec la place dans la structure cognitive, certains concepts familiers étant placés très haut et d'autre très bas, selon le sujet abordé. Dans certains cas, les catégories générales peuvent être peu intuitives pour l'élève, contrairement aux catégories particulières. Un exemple serait la classification des animaux : la différence entre un chat et un lion (tous deux des félins) est plus intuitive que la différence entre mammifères marsupiaux et placentaires. Mais ce n'est pas un reproche général : il existe de nombreux cas où les catégories générales sont au contraire plus familières que les catégories particulières. Pensez par exemple à la classification des arbres : la différence entre un feuillu et un conifère est plus simple à comprendre que la différence entre un hêtre d'un chêne. De manière générale, la familiarité ne dépend pas trop de la place dans la hiérarchie de la structure cognitive.
Si l'on se trouve dans un cas où ce détail ne joue pas ou peu, on peut trouver des défauts à la méthode par généralisation, que la méthode par dérivation n'a pas. Déjà, la méthode par dérivation a une charge cognitive plus faible, elle fait un meilleur usage des ressources limitées de la mémoire de travail. Elle part des concepts qui ont le plus petit nombre de propriétés et chaque dérivation d'un nouveau concept ajoute quelques propriétés. À chaque étape, le nombre de propriétés à ajouter tient facilement dans la mémoire de travail. Par contre, la méthode par généralisation demande à l'élève de mémoriser un grand nombre de propriété pour chaque concept. Elle part en effet des concepts les plus particuliers, qui ont un grand nombre de propriétés. De plus, chaque étape demande de comparer divers concepts, et d'en dégager les propriétés communes. Toutes les propriétés de tous les concepts doivent être analysées pour en dégager un motif commun. La charge de la mémoire de travail est alors extrême. Autant dire que cette méthode est assez compliquée à utiliser et qu'elle donnera de mauvais résultats chez les élèves qui ont une mauvaise mémoire de travail.
Un dernier défaut de la méthode par généralisation est qu'elle met l'accent sur les ressemblances entre concepts. Or, plus deux concepts sont semblables, plus ils ont de chances d'être reliés aux mêmes indices de récupération. Ils peuvent alors interférer entre eux lors du rappel, ce qui les rend plus faciles à confondre. Ausubel qualifie ce genre de phénomène d'assimilation oblitératrice. Ce phénomène n'a pas lieu si on met l'accent sur les différences entre deux concepts, ce que fait la méthode par dérivation. Deux concepts différents, dérivé du même concept général, seront mis en contraste l'un avec l'autre, ce qui accentuera leurs différences. Cela nous dit qu'il vaut mieux aborder les concepts en partant du général pour aller vers le particulier, pour limiter les interférences.
Pour résumer, les deux méthodes sont assez opposées, mais on ne peut pas dire que l'une est meilleure que l'autre. Suivant le sujet abordé, il vaudra mieux procéder par généralisation ou par dérivation. Certains concepts s'abordent assez laborieusement avec la généralisation alors qu'il passent facilement en procédant par dérivation, alors que ce sera l'inverse pour d'autres sujets. Cela dépend aussi de la matière : les mathématiques font ainsi un fort usage de la dérivation, du fait de la nature déductive des mathématiques (sans nier qu'elle font cependant parfois usage d'induction). On pourrait tenter de savoir quand utiliser telle ou telle méthode, mais force est de constater qu'il n'y a pas de recette miracle et qu'une telle décision tient d'un véritable travail d'artisanat pédagogique. Quoiqu'il en soit, rappelons que donner des exemples variés est un bon moyen pour relier un concept général à des concepts particuliers.
Les relations thématiques
[modifier | modifier le wikicode]Il est vite apparu que les classifications ne sont pas l'alpha et l'oméga de l'organisation mentale. Cette organisation rigide qu'est la structure cognitive ne suffit pas à rendre compte des résultats expérimentaux, même les plus simples. Les structures cognitives ne sont pas forcément aussi bien organisées, le principe d’économie cognitive est au mieux approximatif, et la forme exacte des classifications dépend de l'ordre d'apprentissage des concepts. Il existe aussi des classifications qui ne s'expriment pas facilement sous la forme de structures cognitives, mais passons. Attardons-nous à la place sur un fait bien plus intéressant : on sait aujourd'hui que d’autres formes de relations existent, qu'il s'agisse de relations de causalité entre évènements, de relations qui permettent de localiser des objets, et bien d'autres encore. Ces relations sont regroupées, par convention, dans un ensemble extrêmement hétérogène appelé relations thématiques.
Les relations thématiques permettent décrire des objets ou de former une représentation de situations ou d'évènements. Pour simplifier, les professeurs sont intéressés par deux types de relations thématiques : les relations de causalité, et les relations de méronymie (les relations partie-tout). Les premières sont clairement les plus intéressantes, car elles sont le fondement même des explications (ou tout du moins de la majorité d'entre elles). Elles permettent de comprendre pourquoi certains évènements ont lieu, elles permettent de se représenter des systèmes, des mécanismes, des évènements. Mais il y a malheureusement peu à dire sur le sujet. Par contre, les relations de méronymie sont plus intéressantes. On peut aussi parler de manière générale des autres relations thématiques, notamment pour parler des concepts abstraits, des détails et autres.
Les relations de méronymie : le lien entre un tout et ses parties
[modifier | modifier le wikicode]Les relations de méronymie décrivent les relations entre un objet et ses parties. Tout ce que l'on peut dire est qu'elles permettent de représenter des objets ou situations complexes, que l'on peut décomposer en éléments plus petits. Dès qu'un regroupement spatial existe, ces relations interviennent systématiquement. Par exemple, on peut citer le cas d'un sous-domaine de l'électronique : l'architecture d'un ordinateur. Ce domaine étudie comment fonctionnent les ordinateurs, comment concevoir leurs circuits, etc. Les ordinateurs sont composés de circuits (processeurs, RAM, I/O), qui sont eux-mêmes composés de sous-circuits (ALU et décodeur d'instruction pour le CPU, plan mémoire et décodeur pour la RAM, et autres), qui eux-mêmes sont composés de sous-sous-circuits (additionneurs, ...) et ainsi de suite jusqu'aux transistors. Un autre exemple est celui de l'anatomie : le corps humain est composé de systèmes (immunitaire, digestif, nerveux, ...) eux-mêmes composés d'organes, eux-mêmes composés de tissus, eux-mêmes composés de cellules, elles-mêmes composé d'organites, etc. On peut se représenter le tout sous la forme d'une hiérarchie d'objet imbriqués les uns dans les autres, comme des poupées russes.
Nous en reparlerons plus en détail dans le chapitre sur la charge cognitive, où nous verrons comment exploiter ces relations au mieux. Pour anticiper, on va montrer que dans certains cas, il vaut mieux voir les parties indépendamment les unes des autres, avant de les combiner pour former un tout. La problématique est assez similaire à celle des relations taxonomiques : doit-on partir des morceaux pour les combiner en un tout, ou doit-on partir du tout et le décomposer en parties ? Dans le premier cas, on parle d'approche ascendante, alors que le second est celui d'une approche descendante. Le fait est que cela dépend du sujet abordé, mais certains sujets sont plus faciles à aborder avec une approche ascendante, pour des raisons qui impliquent la mémoire de travail. Quand cela arrive, il faut alors mieux voir chaque partie indépendamment les unes des autres, avant de les combiner. Cela n'est pas forcément facile, et faire ainsi peut réduire l'élaboration. Le fait de séparer ainsi les parties peut forcer à retard l'introduction de certaines notions, retardant l'établissement d'associations d'idées. Mais cela réduit la charge de la mémoire de travail, pour diverses raisons.
Les relations générales (causalité et autres)
[modifier | modifier le wikicode]Du point de vue de l'élaboration, il est possible de placer les concepts sur un continuum qui va des détails (les plus précis et plus ciblés) aux grands principes et idées générales (plus abstraites). Les détails sont souvent isolés, reliés à un petit nombre de concepts, guère plus, alors que les idées générales sont souvent des concepts centraux, qui servent de « hub » dans les réseaux sémantiques. Si les détails se mémorisent, les idées générales et grands principes se comprennent. Alors certes, les détails et anecdotes sont importants, mais ils devraient idéalement être intégrés dans un socle de connaissances conceptuelles qui leur donnent un sens, qui permettent de les relier entre eux. Et pour cela, les idées générales sont les plus indiquées : elles servent de liant qui colle les détails entre eux. Les faits ne valent rien par eux-mêmes, du moins tant qu'ils ne sont pas interconnectés entre eux.
Une raison à cela est que les cas abstraits regroupent un grand nombre de situations, ils sont capables de s'adapter à de nombreuses situations ou problèmes. Par exemple, une méthode assez générale permet de résoudre un grand nombre de problèmes, là où les méthodes ciblées sont moins rentables. Les connexions sont alors plus nombreuses avec les méthodes générales, qui s'associent avec un grand nombre d'exemples et d'applications, contrairement aux méthodes ciblées. Attention : cela ne signifie pas que les méthodes ciblées soient inutiles : elles peuvent être plus rapides à appliquer, mais elles sont plus difficiles à retenir. Une méthode très situationnelle sera souvent moins entrainée, moins associée à des exercices ou exemples, contrairement aux méthodes générales, appliquées sur un plus grand nombre d'exercice/exemples. Le raisonnement vaut aussi pour les concepts généraux, qui s'instancient dans un plus grand nombre de cas, comparé aux concepts plus précis et ciblés.
Les recherches en compréhension de texte ont montré que l'extraction des idées générales d'un texte est un processus extrêmement important pour la compréhension. On peut le montrer avec quelques expériences assez simples. Une des expériences les plus marquantes à ce sujet fut celle sur « l'effet intégrateur du titre ». Dans celle-ci, l'expérimentateur constitua trois groupes de cobayes qui devaient tous lire un même texte compliqué : un des groupes de cobayes connaissait le titre après avoir lu le texte, tandis que l'autre avait accès au titre avant la lecture. Le groupe qui avait eu accès au titre avant le texte réussissait mieux que l'autre. Cela vient du fait que le titre donne l'idée générale du texte, idée sur laquelle les informations vont venir s'associer progressivement : cela permet de donner du sens au texte et de créer un maximum d'associations. Le fait que le titre doit être placé avant le texte pour avoir un effet le montre : il n'y a pas beaucoup d’associations retardées, à rebours.
Les analogies et les métaphores
[modifier | modifier le wikicode]Il existe un moyen très simple pour connecter un concept à quelque chose de connu : l'usage d'analogies. L'analogie est un processus mental relativement simple, qui consiste à créer des relations entre une situation cible et une relation source. Le cas le plus simple d'analogie correspond à des problèmes du style : « trouver un A qui est à B ce que C est à D ». Ces problèmes se résolvent en plusieurs étapes :
- l'encodage sélectif, qui consiste à identifier les propriétés des concepts utiles pour résoudre le problème ;
- l'inférence de la relation entre C et D ;
- la mise en correspondance, la découverte de la relation entre B et D ;
- et enfin l'application, qui consiste à relier A et B par une relation analogue à celle entre C et D.
Par exemple, prenons l'analogie suivante : « Freud est à la psychanalyse ce que Mendel est à la génétique ». La première étape consiste à relier Freud avec Mendel, et psychanalyse avec génétique. Ensuite, la deuxième étape consiste à copier la relation entre Freud et psychanalyse sur les éléments qui correspondent, à savoir Mendel et génétique.
Les analogies plus complexes sont gérées par un processus identique, mais appliqué à des situations plus complexes. Ces situations sont représentées mentalement par des ensembles d’éléments reliés entre eux par des relations (logiques ou non). L'analogie met en correspondance chaque élément ou relation de la situation cible avec son équivalent dans la situation source. Pour faire une analogie parfaite, les éléments des deux situations doivent être connectés de la même manière dans les deux situations : si deux éléments d'une situation source sont reliés entre eux, alors les deux éléments correspondant dans la situation cible doivent aussi être connectés entre eux par une relation similaire. Les deux situations ont donc la même structure, elles partagent un même motif abstrait.
Quand utiliser des analogies ?
[modifier | modifier le wikicode]Utiliser une analogie demande de respecter quelques recommandations. Premièrement, l'analogie n'est utile que pour les élèves qui n'ont pas beaucoup de connaissances antérieures. En effet, les élèves ont tendance à effectuer automatiquement les analogies qui leur paraissent évidentes. Cela arrive quand les élèves reçoivent un enseignement dans des domaines qu'ils maîtrisent bien, ou qu'ils ont étudiés depuis quelques années. En clair, les analogies doivent introduire des concepts nouveaux, jamais vus auparavant. Cet effet est bien illustré par l'expérience de Donnelly et McDaniel, datée de 1993, qui a étudié la compréhension de principe de conservation du moment cinétique par des élèves de collège.
Ensuite, les analogies sont utiles uniquement pour les concepts complexes, difficiles à comprendre. Diverses études ont ainsi échoué à montrer un quelconque avantage de l'analogie, parce que les concepts à apprendre étaient trop simples, ce qui rendait l'analogie inutile. Dans ces conditions, l’analogie était une redondance inutile.
Comment utiliser des analogies ?
[modifier | modifier le wikicode]En plus de savoir quand utiliser les analogies, il faut savoir comment bien les utiliser. Pour faire une analogie parfaite, les éléments des deux situations doivent être connectés de la même manière dans les deux situations : si deux éléments d'une situation source sont reliés entre eux, alors les deux éléments correspondant dans la situation cible doivent aussi être connectés entre eux par une relation similaire. Cependant, cette mise en correspondance n’est pas toujours parfaite. Par exemple, certains éléments ne peuvent pas être mis en correspondance. De même, la structure des deux situations n’est pas forcément identique : les deux structures sont partiellement analogues. Dans ces conditions, il est important d’expliciter les différences entre situation cible et source. Sans cela, les élèves vont croire que les deux situations ont la même structure, et vont mal transférer.
Prenons un exemple bien connu : l'analogie entre intensité d'un courant électrique et débit hydraulique. Il est courant de comparer courant électrique et écoulement d'eau : le débit de l'écoulement est à l'eau ce que le courant électrique est aux charges électriques. De nombreux aspects des courants électriques suivent des lois physiques similaires ou identiques à celles qui gouvernent les écoulements hydrauliques. Dans une étude de 1983, Gentner a étudié les effets de cette analogie sur des élèves de collège. Son étude a montré que l'analogie permettait aux élèves de mieux comprendre les phénomènes électriques à l’œuvre dans une batterie. Mais cette analogie ne fonctionnait pas pour la compréhension des montages avec des résistances en série ou en parallèle. Cela provenait du fait que les élèves qui avaient reçu l'analogie pensaient que le courant fournit par le générateur restait constant quelle que soit la disposition des résistances, de la même manière que le débit fourni par un réservoir reste constant. En réalité, le courant émis par un générateur dépend de la disposition des résistances : le courant n'est pas le même si le montage utilise des résistances en série ou en parallèle
Les histoires
[modifier | modifier le wikicode]Raconter des histoires en classe peut sembler relativement incongru mais il s'agit pourtant d'une technique qui semble faire ses preuves. Il se trouve que les histoires ont des avantages pédagogiques intéressants. Elles sont plus intéressantes, plus faciles à comprendre qu'un texte explicatif, et plus faciles à mémoriser[3]. Ces trois avantages proviennent d'une raison commune : la structure narrative force l'auditeur à relier les divers évènements de l'histoire suivant des liens de cause à effet[4]. Il faut dire que les évènements d'une histoire ne surviennent pas par hasard et les auditeurs s'attendent à ce qu'ils soient causés par d'autres. Lors de l'écoute ou de la lecture, les auditeurs vont naturellement chercher les relations de cause à effet entre évènements, favorisant l'élaboration, et donc la compréhension, la mémorisation de l'histoire, mais aussi l'intérêt de l'auditeur. En comparaison, les auditeurs d'un discours explicatif ne s'attendent pas forcément à ce que les connaissances évoquées soient reliées par des relations de cause à effet, celles-ci n'étant saillantes que si les explications sont correctement formulées ou que l'élève essaie de comprendre au mieux ce qu'on lui raconte. La structure narrative elle-même favorise de telles attentes et donc un traitement élaboratif du matériel lu/énoncé.
Ce conseil peut sembler limité, les contenus n'étant pas tous adaptés à une exposition narrative. Certes, les leçons d'Histoire (la matière) pourraient suivre une telle approche. Certaines leçons de sciences peuvent aussi suivre une approche historique qui explique comment les connaissances ont été découvertes, en illustrant les expériences réalisées par les savants qui ont fait l'histoire. Mais au-delà de ces exemples, ce conseil semble peu avisé.
Pour ceux qui veulent en savoir plus, je conseille la lecture de l’article suivant, écrit par Daniel Willingham, spécialiste en psychologie cognitive et sciences de l'éducation américain : Why people love and remember stories.
L'usage du support visuel pour présenter les associations entre idées
[modifier | modifier le wikicode]Le proverbe le dit si bien : un bon schéma vaut mieux qu'un long discours. Et les expériences nous disent que ce proverbe est vrai. Le visuel est toujours mieux mémorisé que le verbal ou l'auditif[5][6] : on parle d'effet de supériorité de l'image sur le mot. La raison à cela est qu'utiliser des schémas, des diagrammes et des illustrations peut rendre plus évidentes les relations entre différents concepts. Un long discours ou texte est souvent assez compliqué à comprendre. Il faut se concentrer sur ce que le professeur raconte, ne pas en oublier une miette, tout en réfléchissant pour traiter ce qui est entendu. Les associations entre idées ne sont alors pas toujours des plus visibles, surtout si l'explication est longue et/ou complexe. En comparaison, un bon schéma rend visible les associations entre concepts, sans pour autant saturer la mémoire de travail. Toutes les associations entre idées sont visibles simultanément, là où le discours ne le permet pas. Pour l'illustrer, Kourilslcy et Wittrock ont montré dans leur étude de 1987 qu'ajouter des graphiques pour illustrer les relations entre concepts abstraits améliorait les performances en compréhension et de rappel d'un cours d'économie.
Outre les schémas et diagrammes usuels, divers outils de visualisation ont été inventés. Les cartes mentales et schémas conceptuels en sont de bons exemples. Il s'agit de dessins sur lesquels on représente les concepts par des bulles, qui sont reliées entre elles par des associations ou relations logiques. Expérimentalement, ces cartes mentales sont un outil de prise de notes assez efficace[7][8][9][10]. Elles sont généralement organisées de manière hiérarchique, en arbre, mais ce n'est pas systématique.
Les synthétiseurs sont un type particulier de carte mentale, en lien avec les sections précédentes. Il s'agit de diagrammes ou de dessins qui permettent de résumer et d'intégrer les informations apprises dans un cours dans un tout cohérent. Dans ceux-ci, les noms des concepts sont simplement reliés entre eux par des flèches qui indiquent quelle est la relation entre chaque concept. Cependant, on ne doit pas mélanger les relations d'inclusion, de causalité et de méronymie. On trouve ainsi un synthétiseur différent pour les relations catégorielles et les relations causales. Dans le cas des relations d'inclusion et de méronymie, l'ensemble forme une hiérarchie. Dans le cas des relations causales, l'ensemble doit former un réseau, éventuellement une chaîne de concepts ou d’événements reliés entre eux par des flèches.
Un problème des cartes mentales est qu'elles sont souvent très chargées, brouillonnes. Elles mélangent de grandes quantités d'informations avec beaucoup de liens. Les relire est rarement facile. Inutile de préciser que des cartes mentales trop chargées ont une charge cognitive très élevée. Les synthétiseurs ont moins ce problème, car ils regroupent moins d'informations. Ainsi, mieux vaut présenter plusieurs synthétiseurs qu'une seule grosse carte mentale. Outre la faible charge cognitive, les informations seront mieux rangées. Les relations taxinomiques seront séparées des relations de méronymie, elles-mêmes séparées des relations causales, etc.
La prise de notes
[modifier | modifier le wikicode]Aussi bizarre que cela puisse paraître, la méthode utilisée pour prendre des notes influence l'élaboration du matériel reçu, que ce soit en bien ou en mal. Toutes les prises de notes ne se valent pas. La prise de notes usuelle, qui consiste à recopier verbatim ce que raconte le professeur, est ainsi peu utile. Il s'agit en effet d'une situation de double tâche où le sujet doit faire deux choses à la fois : écouter et recopier demande d'analyser la forme, pas le fond. Les traitements sur cette forme utilisent des ressources cognitives qui auraient pu servir pour la compréhension. L'élève devant se concentrer sur les aspects orthographiques et phonétiques du discours ne pourra pas traiter en même temps le sens de ce qui est dit.
Cela explique que la prise de notes sur ordinateur est moins efficace que la prise de notes manuscrite chez la majorité des élèves. L'ordinateur permet de noter rapidement, ce qui fait que les élèves ont tendance à noter tout ce que raconte le professeur. En comparaison, noter à la main est nettement plus lent, ce qui fait que les élèves ne peuvent noter tout le cours, mais seulement ce qui est important. Ils doivent donc faire un résumé de ce que raconte le professeur, ce qui demande d'analyser ce que le professeur raconte pour en dégager les idées générales et les principes importants. Et cela entraîne de facto une élaboration du matériel écouté. La prise de notes sur ordinateur est donc une prise de notes verbatim, contrairement à la prise de note écrite. Pour éviter les défauts de la recopie manuscrite verbatim, il est possible de prendre des notes sous la forme de cartes mentales ou d'autres supports visuels.
Références
[modifier | modifier le wikicode]- ↑ Rittle-Johnson, B., Star, J. R., & Durkin, K. (2009). The importance of prior knowledge when comparing examples: Influences on conceptual and procedural knowledge of equation solving. Journal of Educational Psychology, 101(4), 836-852.http://dx.doi.org/10.1037/a0016026
- ↑ Memory & Cognition, October 2007, Volume 35, Issue 7, « The effects of prior knowledge and text structure on comprehension processes during reading of scientific texts ».
- ↑ Graesser et al., 1994
- ↑ Meyers & Duffy, 1990
- ↑ Denis, 1979
- ↑ Lieury, 1997
- ↑ Cunningham (2005) : Mindmapping: Its Effects on Student Achievement in High School Biology
- ↑ Brian Holland, Lynda Holland, Jenny Davies (2004). An investigation into the concept of mind mapping and the use of mind mapping software to support and improve student academic performance.
- ↑ Farrand, Hussain, and Hennessy (2002) : "The efficacy of the mind map study technique". Medical Education.
- ↑ Marzano, R et al (2001) : Classroom Instruction that Works.
L'effet de génération : application et controverses
Dans le chapitre précédent, nous avons vu des méthodes qui consistent à organiser le matériel présenté de manière à ce qu'il soit plus simple à comprendre. Dans ce chapitre, nous allons voir une autre méthode qui ne demande pas d'organiser des explications, mais qui fonctionne sur un principe assez controversé : faire réfléchir les élèves, le faire générer une partie du savoir à apprendre.
Le fait que l'élève réfléchisse le force à élaborer, à former des relations, à générer des associations d'idées. Évidemment, l'élève réfléchit aussi quand il écoute son professeur, vu qu'il essaye de comprendre ce qui est raconté. Cependant, la situation où l'élève réfléchit est intuitivement plus efficace de ce point de vue, elle force l'élève à réfléchir, elle garanti qu'il n'est pas passif. La conséquence est que les connaissances générées par soi-même sont mieux mémorisées que celles qui sont simplement lues ou écoutées. Cela est bien résumé par Daniel Willingham, quand il dit que la mémoire est le résidu de la pensée. Les scientifiques résument cet état de fait sous le nom d'effet de génération.
Cependant, cet effet est à utiliser avec précaution dans une salle de classe, comme nous allons le voir dans ce qui va suivre. De nombreuses expériences ont montré que l'effet de génération demande des conditions particulières pour se manifester, qui ne sont pas encore bien comprises. Dans de nombreux cas, faire réfléchir l'élève peut être moins efficace que simplement lui expliquer : l'effet de génération ne se manifeste pas, mais est même inversé ! Pour simplifier, faire réfléchir l'élève est utile s'il dispose des connaissances nécessaires pour que réfléchir lui permette de trouver la réponse, et que cette réflexion soit assez simple. Le premier point impose des contraintes sur les connaissances antérieures de l'élève, le second est surtout lié à la charge cognitive. Les deux font que toutes les questions ne sont pas bonnes à poser.
L'interrogation élaborative : l'art de poser les bonnes questions
[modifier | modifier le wikicode]Faire penser les élèves demande des méthodes pédagogiques ne demande pas forcément de changer ses pratiques pour des méthodes révolutionnaires. Le simple fait de poser des questions peut suffire, sous condition que l'élève doive réfléchir pour trouver la réponse. En clair, il suffit de poser aux élèves des questions ou des exercices qui demandent de la réflexion, comme des questions de compréhension ou des questions dont la réponse se trouve par un petit raisonnement. Ces questions doivent forcer les élèves à réfléchir sur ce qu'ils viennent d'apprendre. On donne parfois le nom, assez pompeux, de questions profondes à de telles questions/énoncés. Ce terme souligne le fait qu'une réflexion superficielle ne permet pas d'en trouver la réponse. Utilisé intelligemment, et avec parcimonie, ce questionnement permet de faire penser les élèves.
Il est recommandé de poser des questions qui demandent à l'élève d'expliquer et de justifier sa pensée. L'élève ne doit pas seulement donner la réponse, mais aussi la justifier, l'expliquer, montrer le raisonnement qui lui a permis d'atteindre la réponse. Cela force l'élève à réfléchir à sa réponse et à faire de nombreuses inférences et associations d'idées. Cela permet aussi de vérifier que l'élève a bien compris - l'élève peut donner une bonne réponse pour de mauvaises raisons - et de corriger ses erreurs cas échéant. Il faut cependant bien faire attention à corriger l'élève si son raisonnement et/ou sa réponse sont fausses. Cela pour ne pas laisser des erreurs s'installer. Par exemple, il est possible de demander à un élève d'expliquer pourquoi un fait énoncé dans le cours est vrai (ou faux). Ces questions, qui demandent de répondre à une question qui commence par "pourquoi", portent le doux nom d'interrogation élaborative. Les expériences réalisées sur le sujet[1] montrent que les explications formulées par les élèves sont mieux retenues que les explications lues ou fournies par le professeur. Mais ces études ont aussi montré que quelques conditions doivent être remplies pour que cette technique marche. Comme on le verra plus tard, cette technique fonctionne aussi en tant que technique de révision pour les élèves.
Quoi qu'il en soit, cette technique peut s'appliquer facilement et à un grand nombre de contenus à enseigner. Par exemple, les questions peuvent être posées lors d'un cours magistral/frontal, ou lors d'une séance d'exercice. Dans le premier cas, le professeur interrompt son cours de temps en temps pour poser des questions aux élèves. Il peut interroger un élève en particulier (quitte à le désigner volontaire...), ou interroger toute la classe. Donner la bonne réponse et le raisonnement qui mène à celle-ci est alors assez facile. Dans le second cas, les questions de réflexion sont données en exercices, parfois en même temps que d'autres exercices d'entraînement. Il faut cependant faire attention à en donner la correction avant la fin du cours, sans quoi la méthode marchera moins bien. On peut aussi en donner lors d'interrogations écrites ou d'évaluations, mais cela sert plus à vérifier que l'élève a compris le cours que comme apprentissage.
Le questionnement profond a cependant un défaut : les élèves doivent disposer des connaissances antérieures nécessaires pour trouver la réponse. Appliquer l'interrogation élaborative ou l'usage du questionnement ne donnera aucun résultat si les élèves n'ont pas beaucoup de connaissances antérieures, ou si celles-ci sont peu accessibles, mal maîtrisées. Si ce n'est pas le cas, l'élève ne pourra pas trouver la réponse et ses réflexions resteront vaines. Sa pensée ne pourra pas créer les associations d'idées nécessaires pour répondre aux questions et/ou les justifier et le questionner ne portera pas ses fruits. Cette conclusion ne devrait pas vous surprendre, compte tenu de ce que nous avons dit dans les chapitres précédents. Une illustration, assez frustre, de ce phénomène est disponible dans l'étude de Woloshyn, Pressley, et Schneider (1992). Dans celle-ci, des étudiants canadiens et allemands ont subi diverses interrogations élaboratives à propos de provinces allemandes et canadiennes. L'effet de ces questions était très fort pour les provinces connues, mais pas pour les provinces inconnues. Les élèves allemands ne bénéficiaient pas beaucoup de l'interrogation élaborative pour les provinces canadiennes, alors qu'ils en bénéficiaient pour les provinces allemandes, et réciproquement.
Les pédagogies par découverte
[modifier | modifier le wikicode]Le courant constructiviste est un courant pédagogique née des théories sur le développement intellectuel de l'enfant de Piaget et de Lev Vygotsky, très lié à la pensée du philosophe Dewey et aux travaux des pédagogues Montessori et Freinet. Ces pédagogues ont, sans forcément le savoir, inventé des pédagogies qui mettent l'effet de génération au premier plan.Ces pédagogues pensent que l'élève doit être actif, à savoir qu'il doit penser par lui-même, expérimenter, découvrir, apprendre en faisant. Les constructivistes pensent aussi que la démarche d'apprentissage est plus importante que ce qui est appris. Le constructiviste met l'accent sur le processus de recherche d'une solution : c'est la recherche autonome, la formulation d'hypothèses, et le tâtonnement expérimental, qui permettent d'apprendre à réfléchir et à penser. Ces pédagogues ont, sans forcément le savoir, inventé des pédagogies qui mettent l'effet de génération au premier plan.
Les méthodes utilisées par les pédagogies de ce genre sont généralement :
- des discussions ou débats entre élèves ;
- des expérimentations autonomes ;
- des recherches autonomes de solutions à un problème ;
- des découvertes de concepts à partir d'exemples ;
- des projets pédagogiques ;
- des travaux en groupes ;
- etc.
Les types de pédagogies actives
[modifier | modifier le wikicode]Il existe deux types de pédagogies actives, aussi appelées pédagogies par découverte. Avec les pédagogies non-guidées, le principe « apprendre en faisant » est appliqué un peu trop à la lettre. L'élève doit tout redécouvrir par lui-même sans aide du professeur. Généralement, les élèves ne sont pas guidés par le professeur dans leurs expériences, et doivent être autonomes. Par exemple, prenons le cas d'un cours sur la perception des couleurs. Avec une pédagogie par découverte non-guidée, le professeur commence simplement par un très léger cours sur la façon dont les couleurs sont perçues en fonction de l'intensité lumineuse, et demande ensuite aux élèves de concevoir une expérience pour examiner en détail cette relation entre couleur et intensité. Les élèves devront alors conduire cette expérience par eux-mêmes et découvrir seuls la relation demandée.
Les pédagogies par découverte guidée proviennent de la pensée de Bruner, un pédagogue des années 1960, psychologue cognitiviste de formation. Dans sa vision, l'élève ne devait pas réinventer la roue et seule une partie du savoir devait être découverte. Le professeur devait aborder en premier lieu des connaissances à fort pouvoir déductif, qui permettent à l'élève de déduire lui-même de nouvelles informations, de remplir les blancs, d'extrapoler avec efficacité. Si ces connaissances sont apprises, l'élève peut découvrir par lui-même ce qu'il faut apprendre. Ainsi, Bruner défendait une pédagogie par découverte fortement guidée par le professeur, et non des pédagogies dans lesquelles l'élève était laissé à lui-même. Lors des phases de découverte, le cours peut être vu comme une sorte de dialogue entre un professeur qui guide l'élève, et un élève qui formule des hypothèses. Il doit ainsi orienter les élèves vers les bonnes hypothèses, les suggérer, donner des indices, etc. Pour cela, le professeur peut utiliser les outils résumés dans le tableau qui suit. L'aide de la part du professeur est ce qu'on appelle en terme technique, de l'étayage.
L'efficacité des pédagogies actives
[modifier | modifier le wikicode]Les pédagogies actives, guidées ou non, ont cependant plusieurs problèmes. Premièrement, l'apprentissage par découverte est beaucoup plus long, et prend plus de temps pour enseigner la même chose qu'une exposition didactique. Ce désavantage peut être véritablement rédhibitoire. Bruner a même dit à propos des pédagogies non-guidées qu'il s'agissait « de la technique la plus inefficace qui soit pour regagner ce qui a été accumulé par l'humanité durant de longues périodes de l'histoire humaine ». Un autre pédagogue, du nom d'Ausubel, disait que le cours magistral a existé de tout temps pour une bonne raison : il s'agit tout simplement de la seule manière efficace pour enseigner une grande quantité de connaissances en un temps limité, ce dont est incapable l’apprentissage par découverte. Il disait d'ailleurs, dans un de ses livres daté de 1963 :
« Didactic exposition has always constituted the core of any pedagogic system, and, I suspect, […] it always will, because it is the only feasible and efficient method of transmitting large bodies of knowledge. »
Il y a plusieurs raisons qui font que c'est le cas, mais celles-ci sont assez liées les unes avec les autres. La première, certainement la plus importante, est que l'apprentissage actif impose une charge cognitive plus forte, c'est à dire qu'elle demande à l'élève de maintenir plus d'items dans sa mémoire de travail. Dans le document nommé « Why Minimal Guidance During Instruction Does Not Work: An Analysis of the Failure of Constructivist, Discovery, Problem-Based, Experiential, and Inquiry-Based Teaching », Sweller, Clark et Kirschner prétendent que l'apprentissage basé sur des problèmes serait incompatible avec la limitation de la mémoire de travail, en utilisant des arguments provenant de la théorie de la charge cognitive.
Ensuite, l'apprentissage par découverte ne convient pas du tout à des élèves novices, du fait de leur manque de connaissances antérieures. C'est ce qui fait qu'une grande majorité d'élève n'arrive tout simplement pas à découvrir ce qu'il faut par lui-même, et ce d'autant plus quand les tâches données aux élèves sont complexes, difficiles, inadaptées aux élèves. Ce n'est pas pour rien que la majorité des découvertes scientifiques ont mis des années ou des siècles à être découvertes par certains savants. L'intelligence ne fonctionne pas à vide et elle est d'autant plus efficace qu'elle est guidée par un savoir maîtrisé. Ce manque de connaissances entraîne de plus une mauvaise utilisation de la mémoire de travail, ce qui est à mettre en lien avec ce qui a été dis au paragraphe précédent.
À l'appui de cette affirmation, on peut citer l'expérience réalisée par Tuovinen et Sweller en 1999[2], dans laquelle quatre groupes sont comparés. L'expérience utilise deux groupes de novices et deux autres composés d'élèves dotés de connaissances antérieures. Dans ces deux groupes, le premier subit un enseignement par découverte (résolution autonome de problèmes), alors que l'autre subit un enseignement instructionniste (à base d'exemples guidés). Le résultat est que le groupe novice qui subit un enseignement par découverte a les pires résultats de tous les groupes, les résultats étant inférieurs à la moitié de la moyenne des trois autres sous-groupes ! Par contre, les étudiants disposant de connaissances antérieures arrivaient à se débrouiller correctement dans la tâche d'enseignement par découverte. En somme, l'enseignement par découverte est utile pour des élèves doués, disposant d'une base solide de connaissances qui leur permettent de faire leurs propres déductions. Mais pour des élèves novices, qui découvrent une matière ou un concept, l'enseignement par découverte est à bannir.
Enfin, un dernier défaut est que le professeur a peu d'emprise sur la réflexion des élèves. Un élève libre de réfléchir par lui-même peut parfaitement se perdre dans sa réflexion, suivre de fausses pistes, faire des déductions fausses, et ainsi de suite. L'élève peut parfaitement déduire un grand nombre d'informations fausses ou erronées, qui s'accumulent en mémoire et perturbent les apprentissages futurs par interférence. Alors certes, le professeur peut, dans les pédagogies guidées, corriger ces erreurs, ce qui atténue le problème. Mais encore faut-il que le professeur puisse vérifier la manière dont les élèves ont réfléchi, et quels sont les résultats qu'ils ont obtenus. Ce qui n'est pas possible pour toutes les matières. Pour illustrer ce genre de cas de figure, imaginez un élève disséquer une grenouille sans instructions, de manière totalement libre...
Des comparaisons expérimentales entre ces deux types de pédagogies par découverte donnent des résultats très nettement en faveur des pédagogies par découverte guidée. Par exemple, les études de Fay et Mayer (1994) et de Lee et Thompson (1997) montrent que les pédagogies par découvertes guidées donnent de meilleurs résultats que les pédagogies par découverte non-guidée pour l'apprentissage de la programmation. Un autre exemple vient de l'étude de l'apprentissage basé sur des problèmes, une forme de pédagogie active. Une revue de la littérature, effectuée par Hattie dans son ouvrage Visible Learning montre que l'apprentissage basé sur des problèmes n'est pas efficace que prévu. L'efficacité est mesurée par ce qu'on appelle une taille d'effet, qui vaut 0.15 dans le cas de l'apprentissage basé sur des problèmes. Un effet inférieur à 0.20 est tellement faible qu'on le considère comme quasiment inefficace.
Pour résumer, l'usage d'un minimum de pédagogie active guidée peut être bénéfique dans des situations bien maîtrisées. Mais demander aux élèves de tout redécouvrir par eux-mêmes est une erreur. Rendre les élèves actifs demande de la parcimonie, et une certaine maîtrise de sa classe et de la gestion de la séance.
Références
[modifier | modifier le wikicode]- ↑ Quelques expériences de ce type sont résumée dans le document récapitulatif "Improving Students’ Learning With Effective Learning Techniques: Promising Directions From Cognitive and Educational Psychology", rédigé par Dunlosky, Rawson, Marsh, Nathan, et Willingham.
- ↑ A comparison of cognitive load associated with discovery learning and worked examples, Tuovinen et Sweller, 1999.
Réduire la charge cognitive intrinsèque
Pour rappel, la mémoire de travail est utilisée pour comprendre ce que raconte un professeur, un texte, etc. Lors de cette compréhension, les informations à apprendre sont maintenues en mémoire de travail, afin d'être associées et reliées à des connaissances antérieures. Plus une information à apprendre est composée d'un grand nombre de sous-éléments, plus elle aura tendance à saturer la mémoire de travail. Le nombre d’éléments présents en mémoire de travail s'appelle la charge cognitive : plus elle est élevée, moins la tache ou le concept abordé est facile. Dans ces conditions, diminuer la charge cognitive est de première importance, reste à voir comment.
Dans les grandes lignes, on peut identifier deux types de charge cognitive : une charge intrinsèque induite par la structuration des explications et des connaissances à apprendre, et une charge extrinsèque inutile qui dépend de la méthode de présentation utilisée. Diminuer la charge cognitive extrinsèque demande d'aller à l’essentiel, d'éliminer les informations superflues. Pour ce qui est de réduire la charge intrinsèque, les choses sont plus compliquées et ce chapitre est là pour rendre les choses plus claires.
L'idée générale est de séquencer les informations de manière à faire des regroupements conceptuels. Au lieu de présenter mettons 15 informations sans faire de regroupements, il vaut mieux organiser le tout de manière à avoir des regroupements logiques de 5 informations chacun. Idéalement, un bon cours doit être découpé en petites unités d'information simples, qui sont assemblées progressivement pour donner des connaissances de plus en plus complexes. La raison à cela est que les regroupements conceptuels seront mémorisés dans la mémoire à long-terme et pourront être chargés ultérieurement en mémoire de travail. Et peu importe la complexité du regroupement, celui-ci sera considéré comme un seul item en mémoire de travail, ce qui fait que les utiliser dans une explication est particulièrement économe. Pour rappel, de tels regroupements conceptuels composé d'une constellation d'informations reliées entre elles, qui a une organisation hiérarchique, est appelé un schéma (voir le premier chapitre du cours). Voyons maintenant comment séquencer des notions et structurer un cours, afin de réduire la charge intrinsèque.
Séparer les connaissances théoriques et pratiques
[modifier | modifier le wikicode]Quelques études recommandent de séparer l'apprentissage des connaissances théoriques et les connaissances pratiques (procédures ou méthodes). Cela vient du fait que les connaissances qui portent sur les connaissances verbales ont souvent une forte charge cognitive, surtout comparé aux connaissances procédurales. Les aborder en même temps risque de faire saturer la mémoire de travail. Pour éviter cela, il est donc préférable d'aborder un maximum de connaissances verbales séparément des connaissances procédurales. Les connaissances procédurales doivent être abordées quand on en a besoin, alors que les connaissances verbales peuvent être abordées n'importe quand.
Une expérience faite par Kester, Kirschner et van Merriënboer (2006) semble montrer que cette séparation augmentait la compréhension et la mémorisation. Leur étude a montré que, dans le cas qu'ils étudiaient, le séquencement de la théorie avant la pratique ou de la pratique après la théorie marchait mieux qu'une présentation intégrée. L'ordre n'avait pas d'importance dans ce cas précis, peut-être en a-t-il dans d'autres exemples. Le choix dépend sûrement de l'enseignement en question et il n'y a pas d'ordre parfait, ni même de tendance générale.
La méthode du pré-entraînement
[modifier | modifier le wikicode]Pour réduire la charge cognitive intrinsèque, il existe diverses méthodes très reliées entre elles qui sont regroupés sous le terme de pré-entraînement (pre-training en anglais). L'idée consiste à introduire de manière précoce certaines notions, afin de les utiliser pour réduire la charge cognitive des apprentissages ultérieurs. Globalement, l'idée consiste à identifier des connaissances particulières, qui gagnent à être introduites au préalable. Précisons que le pré-entraînement ne se confond pas avec les connaissances propédeutiques, même si les deux se ressemblent. Les connaissances propédeutiques sont facultatives et ne sont pas obligatoires. On doit souvent les rajouter dans un cours qui n'était pas prévu pour. À l'inverse, le pré-entraînement consiste à réorganiser les connaissances présentes dans le cours, à en modifier le plan, pour que certaines notions soient introduites précocement.
Introduire le vocabulaire et les concepts importants en priorité
[modifier | modifier le wikicode]La première idée est de présenter le vocabulaire et les concepts importants au début d'une leçon, avant que l'on doive les utiliser. Pour le dire autrement, au lieu de présenter le vocabulaire et les concepts importants juste avant qu'on en ait besoin, il vaut mieux les introduire à l'avance.
Pour donner un exemple, on peut citer l'étude de Mayer, Mautone, et Prothero, datée de 2002. Dans cette étude, des sujets jouaient à un jeu basé sur une leçon de géologie. Les élèves qui avaient reçu une instruction sur les termes de base (faille, arc, chaîne de montagne, etc) avant de jouer avaient une meilleure performance que les sujets qui découvraient la signification de ces termes en cours de jeu. Les élèves qui découvraient les termes en cours de jeu devaient acquérir ces connaissances en même temps qu'ils réfléchissaient sur les problèmes. En comparaison, les sujets ayant reçu un enseignement préalable pouvaient se concentrer sur la résolution des problèmes posés lors du jeu.
Précisons à ce sujet que bien utiliser le jargon technique permet de réduire la charge cognitive intrinsèque. Le jargon est souvent rebutant, surtout pour les novices, mais s'il existe c'est pour une bonne raison. Le jargon permet de simplifier les explications ultérieures à sa présentation. Introduire un nouveau mot de jargon, c'est avant tout mettre une étiquette sur un concept ou un principe important afin de le réutiliser par la suite sans devoir faire de longues périphrases difficiles à comprendre. Et en termes de charge cognitive, le jargon est plus économe que la périphrase qu'il remplace. Le jargon rentre donc dans le cadre du pré-entraînement s'il est introduit assez tôt. C'est tout le paradoxe du jargon : d'un côté il est compliqué à apprendre, de l'autre il rend les explications plus simples, plus claires, moins chargées. On comprend ainsi qu'introduire un mot de jargon n'est utile que si cela simplifie les explications qui suivent. Et encore, seulement sous la condition que l'explication du jargon soit simple, pour ne pas perdre d'un côté ce qu'on gagne de l'autre.
Factoriser certaines portions "indépendantes" d'une explication
[modifier | modifier le wikicode]Une solution reliée à la précédente est de factoriser certaines portions du cours qui ont peu de liens avec les autres, pour en faire un chapitre ou une section séparée. Comme exemple, on peut citer l'étude de Clarke, Ayres, et Sweller, datée de 2005. Dans cette étude, des étudiants recevaient un cours de mathématiques sur les graphes, et devaient utiliser un tableur pour faire les exercices. Un premier groupe de sujets n'avait aucune connaissance des tableurs avant d'entrer en cours et recevait des instructions sur le fonctionnement du tableur lors du cours, les explications étant intercalées entre les explications mathématiques sur les graphes. Le second groupe avait déjà reçu une instruction sur les tableurs avant le cours, et recevait uniquement une instruction sur le concept mathématique à aborder. Le second groupe voyait tout ce qui a rapport aux tableurs séparément de ce qui a rapport aux graphes : les informations liées aux tableurs étaient alors mémorisées avant leur utilisation, diminuant la charge cognitive lors de l'apprentissage ultérieur sur les graphes. Et conformément à ce qui était attendu, le second groupe avait des performances nettement meilleures.
Mais cela vaut aussi à l'intérieur des explications, qu'il est parfois bon de scinder en plusieurs parties interdépendantes. Un exemple est celui des démonstrations qui utilisent des lemmes. Dans certains de mes cours d'université, les professeurs commençaient la démonstration du théorème, et l'interrompait au fil de l'eau pour démontrer les lemmes dont ils avaient besoin. Au lieu de faire cela, ils auraient du démontrer les lemmes avant de commencer la démonstration.
La séparation entre modèle componentiel et modèle dynamique/causal
[modifier | modifier le wikicode]Factoriser, scinder des explications en portions indépendantes est souvent compliqué et demande d'avoir des idées. Mais il existe des situations un peu particulières où scinder les explications est assez simple. Il s'agit d'un cas assez particulier, qui revient souvent dans les sciences et les matières technologiques : l'étude d'un système composé de composants/parties qui interagissent entre elles de manière dynamique. Avec un peu d'expérience, on peut facilement déceler de telles situations.
Un exemple est donné dans l'étude de Mayer, Mathias, et Wetzell, datée de 2002. Dans cette étude, les élèves devaient apprendre le fonctionnement de certains freins, à partir d'une explication orale. Lors de cet apprentissage, les élèves devaient apprendre deux choses différentes : un modèle qui décrit les composants du frein et un autre qui décrit son fonctionnement dynamique (comment les composants du frein interagissent lors du freinage). L'application du pré-entraînement consistait ici à décrire les composants du frein/parties dans une explication séparée de l'explication dynamique. Juste donner le nom des différents composants et de leur composant suffisait à améliorer la compréhension des élèves.
La logique de l'exemple précédent s’applique dans d'autres exemples similaires. Typiquement, on trouve beaucoup d'exemples de ce type dans les matières technologiques. Par exemple, prenez le cas d'un professeur de technologie/physique qui veut expliquer le fonctionnement d'une centrale thermique : il gagnera à expliquer ce qu'est une turbine, un condenseur et les autres composants du circuit de production d'électricité, avant de montrer comment ceux-ci interagissent lorsque la centrale fonctionne. Même chose en électronique, où les circuits électroniques sont composés de circuits élémentaires reliées entre eux : mieux vaut décrire chaque circuit élémentaire avant de voir comment ils interagissent lorsque le circuit global fonctionne. Autre exemple, en informatique cette fois-ci : vous voulez enseigner comment fonctionne un processeur simple. Celui-ci contient plusieurs composants bien précis : une unité de calcul, un séquenceur, des registres, etc. Certains professeurs commencent directement leur cours par montrer comment une instruction s’exécute sur ce processeur : ils abordent chaque composant au fil de l’eau, quand ils en ont besoin. La théorie de la charge cognitive recommande de voir indépendamment chaque composant du processeur un par un, avant de montrer le déroulement de l’exécution d'une instruction avec cet ensemble de composants.
Mais on peut trouver des situations semblables dans les matières scientifiques. Pensez par exemple à la médecine, où il est souvent nécessaire de donner des notions d'anatomie (décrire les parties du corps, d'un organe ou d'un tissu) avant de parler de physiologie (le fonctionnement du corps, de l'organe ou du tissu). Par exemple, si vous voulez expliquer le fonctionnement du circuit anatomique du réflexe du genou, il est préférable de décrire chaque composant de l'arc réflexe indépendamment, avant de montrer comment le tout fonctionne lors de l'exécution du réflexe.
Dans les exemples précédents, il y a une séparation entre le "modèle de composants" qui décrit les parties d'un système, et le "modèle causal/dynamique" qui décrit comment ces éléments interagissent entre eux lorsque le système fonctionne/évolue. Le conseil à tirer des études sur la charge cognitive est le suivant : lorsqu'on décrit un système, il vaut mieux d'abord présenter le modèle de composants, avant d'aborder le modèle causal/dynamique (comment le système fonctionne/évolue). La raison est que le modèle causal/dynamique est incompréhensible sans le modèle de composants, mais que la réciproque n'est pas vraie. Dans ces conditions, autant factoriser la présentation des parties du système, avant de passer au modèle dynamique.
La méthode d'isolation des éléments
[modifier | modifier le wikicode]La mémoire de travail surcharge facilement lors de l’apprentissage de concepts composés d’un grand nombre de composants/sous-concepts interagissant entre eux. Dans ce cas, la théorie de la charge cognitive recommande d’aborder chacun des composants indépendamment, avant de montrer comment ceux-ci interagissent ensemble. La méthode conseillée consiste à ne pas étudier la tâche complète et à en retirer certains éléments. Les éléments à retirer sont ceux qui servent de liant entre les éléments. S'ils sont présents, l'élève est obligé de maintenir à l'esprit tous les éléments simultanément. Si on les retire, les autres éléments peuvent se voir indépendamment les uns des autres, de manière isolée.
Cette méthode est appelée la méthode d'isolation des éléments ou encore méthode d'isolation. En faisant cela, la charge cognitive sera répartie dans le temps, améliorant l’apprentissage : on parle d’effet de l'isolation des éléments. La méthode d'isolation donne un cours dont la progression va généralement du simple vers le complexe. Elle commence par étudier des cas particuliers simples, avant d'arriver aux cas généraux. Typiquement, elle commence par étudier une version simplifiée d'une tâche ou d'un système, puis elle le complète progressivement en rajoutant des éléments.
Les premières expériences sur le sujet
[modifier | modifier le wikicode]Les premières expériences sur le sujet ont été réalisées par Pollock, Chandler, et Sweller en 2002. La première expérience portait sur l'apprentissage de procédures de sécurité électrique assez complexes qui requièrent beaucoup d'étapes. Appliquer les procédures testées demande de savoir utiliser plusieurs instruments comme des voltmètres ou des ampèremètres, de s'adapter à l'appareil à diagnostiquer, de gérer l'isolation électrique, etc. Lors de la phase d'apprentissage, les élèves étaient regroupés en deux groupes : un groupe qui voyait la totalité de la procédure avec les explications détaillées, et un autre dans lequel une partie de la procédure était présentée sous la forme d'un exemple travaillé qui expliquait une partie de la procédure. En théorie, la procédure complète avait une charge cognitive de 16 éléments, contre 7 dans la procédure modifiée. Les résultats ont clairement montré l'efficacité de ce principe d'isolation, sur les élèves ayant peu de connaissances antérieures dans le domaine. Les élèves avec suffisamment de connaissances antérieures ne bénéficiaient pas de la méthode d'isolation.
L'expérience précédente était cependant assez peu concluante, car elle testait l'application d'une procédure, sans compter que la méthode d'isolation appliquée se basait sur des exemples travaillés. Aussi, ils ont réalisé une seconde expérience, qui cette fois-ci impliquait surtout des connaissances conceptuelles. Dans celle-ci, ils devaient étudier un circuit électronique de commande d'un four industriel. Les deux groupes recevaient un diagramme légendé qui décrivait le circuit. Le premier groupe recevait un diagramme simplifié avec seulement les éléments principaux et essentiels, l'autre le diagramme complet et plus d'explications sur la dynamique du circuit. Les résultats allaient encore une fois en faveur de la méthode d'isolation pour les novices/débutants.
Le cas où une procédure combine les résultats de plusieurs sous-procédures indépendantes
[modifier | modifier le wikicode]Maintenant, voyons voir un autre cas particulier, qui a été étudié par l’expérience de Ayres de 2006 sur l'apprentissage de l'algèbre et l'expérience de 2010 de Blayney, Kalyuga, et Sweller sur l'apprentissage de l'utilisation d'un tableur pour des applications de comptabilité. Dans cette dernière, les élèves devaient apprendre à utiliser un tableur pour faire des calculs de comptabilité afin de faire un budget. Lors de la première phase de l'expérience, les élèves étaient séparés en deux groupes. Le premier effectuait la tâche complète dans une seule feuille de tableur, en utilisant une formule dans laquelle de nombreux sous-calculs étaient combinés pour donner le résultat. Dans le second, chaque sous-calcul était réalisé dans une feuille de tableur séparée et leurs résultats étaient combinés dans une autre feuille de tableur. Lors de la seconde phase, les élèves étaient testés sur la tâche complète. Les résultats montraient que le second groupe faisait mieux que le premier.
Pour donner un autre exemple, je vais citer l'exemple de la procédure des minterms en électronique, qui parlera surtout aux professeurs de matières technologiques. Cette méthode permet de créer un circuit électronique numérique simple, qui prend en entrée une suite de bits fournit un résultat de 1 bit (0 ou 1). La méthode permet de concevoir ce circuit à partir de sa "table de vérité", un tableau qui dit quel est le bit de sortie en fonction de l'entrée. La méthode des minterms demande de sélectionner certaines lignes de la table, d'appliquer une sous-procédure sur celles-ci, avant d'en combiner les résultats. La sous-procédure permet de calculer ce qui s'appelle un minterm. Dans la plupart des cas, la procédure est présentée complète et les élèves appliquent la totalité de la procédure dans les exercices d’entraînement (c'était comme cela quand j'étais élève, c'est le cas dans tous les manuels que j'ai lu ou utilisé en tant que professeur dans le domaine). Appliquer la méthode d'isolation dans ce cas particulier donnerait un tout autre résultat. À la place, les élèves verraient la sous-procédure indépendamment et feraient des exercices dessus. On apprendrait aux élèves à calculer le minterm d'une suite de bit, les élèves feraient des exercices d'application, et ainsi de suite. Puis, dans une seconde phase, on apprendrait aux élèves la procédure complète, qui revient juste à sélectionner certaines lignes bien précises de la table de vérité, calculer le minterm de celles-ci, puis combiner le résultat.
Références
[modifier | modifier le wikicode]
Supports pédagogiques
En 2009, Mayer a créé une théorie généraliste concernant la création de documents pédagogiques. Les recommandations de cette théorie, basée sur la théorie de la charge cognitive, vont vous permettre de comprendre comment diminuer la charge cognitive des documents et autres supports pédagogiques (notamment les supports numériques). Dans ce qui va suivre, nous allons voir comment utiliser au mieux le support visuel, le support texte, l'oral et les animations. Nous verrons comment les mélanger de manière optimale, d'une manière qui n’entraîne pas une charge cognitive trop élevée. Cet apprentissage, qui utilise plusieurs sources, plusieurs types de supports, s'appelle l'apprentissage multimédia. Mais pour le faire intelligemment, il faut gérer la charge de la mémoire de travail, qui peut être diminuée en suivant quelques règles de design simples.
Précisons une chose importante. La théorie de Mayer se base sur la théorie de la charge cognitive, mais aussi sur une théorie de la mémoire de travail particulièrement robuste et bien étayée. Cette dernière est la théorie de Baddeley, la théorie de référence sur la mémoire de travail, qui explique un très grand nombre d'observations. Elle n'est pas très complexe, mais elle est un petit peu plus détaillée que la vision naïve de la mémoire de travail que nous avons utilisé jusqu’à présent. D'après cette théorie, la mémoire de travail est composée de plusieurs sous-mémoires indépendantes :
- une mémoire de travail orale/auditive, la boucle phonologique ;
- une mémoire de travail visuelle, le calepin visuo-spatial ;
- et une mémoire de travail qui permet d'intégrer les informations verbales et visuelles.
Pour résumer rapidement, un humain dispose de deux canaux d'entrée : un canal visuel et un canal auditif. Les images ne peuvent passer que par le canal visuel. Ce qui n'est pas le cas des mots, qui peuvent être entendus par le canal auditif (écoute) ou lu par le canal visuel (lecture). Lors de l'apprentissage multimédia, le choix des supports permet ou non d'utiliser deux canaux simultanément, ce qui permet de profiter de la somme de leurs capacités. Mais pour cela, il faut bien choisir entre utiliser du texte, une présentation orale, des images, des animations et autres. Suivant le choix réalisé, on observe ou non une amélioration de l'apprentissage. Voyons ce qu'il en est.
Les différents supports ne sont pas égaux
[modifier | modifier le wikicode]Il arrive que l'on ait le choix entre plusieurs supports pour présenter une information quelconque. Par exemple, on peut se demander s'il vaut mieux lire un texte à l'oral ou le faire lire par les élèves. Ou encor,e pour expliquer un phénomène dynamique, on peut hésiter entre présenter une animation ou une suite d'images. De même, on peut se demander s'il vaut utiliser un bon schéma plutôt qu'un bon discours. Voyons ce qu'il en est.
Lecture versus présentation orale : dépend de la situation
[modifier | modifier le wikicode]Lors de la lecture, les mots sont d'abord placés dans la mémoire de travail visuelle, avant d'être traduits et transférés dans la mémoire de travail verbale. Tout cela pour dire que l'oral et le texte ne sont pas équivalents. En théorie, la traduction d'un texte en représentations verbales demande un effort cognitif certain. On devrait donc en déduire que lire du texte est plus compliqué qu’écouter une explication orale. Après, cette traduction est assez facile une fois qu'on a appris à lire et va demander un effort certain seulement pour les enfants qui apprennent à lire. Néanmoins, ce désavantage a beau être faible chez l'adolescent/adulte, il existe.
De nombreuses expériences ont cherché à savoir si le texte était plus facile à comprendre et à mémoriser que l'oral. Ces expériences ont été faites sur des collégiens (Lieury, Badoul, Belzic, 1996), des adolescents (Gunter, Furhnam, Gietson, 1984) et des adultes (Furhnam, Gunter, 1987; et aussi Bells Perfetti, 1994). Dans une petite minorité de cas, l'oral passe mieux que le texte. Mais cela n'arrive que pour des textes courts. Dès que le texte à lire est un peu long, le texte écrit est nettement mieux mémorisé que l'oral. C'est ce que l'on appelle l'effet de supériorité de l'écrit. La raison est que la mémoire de travail orale est de faible capacité et ne donne un avantage que pour des courts textes. Les textes longs ont cependant des avantages. Par exemple, le texte permet de relire les portions de texte mal comprises. Et ces avantages l'emportent sur le fait que le cerveau doit traduire du texte écrit en représentations orales. Surtout que chez les sujets qui ont appris à lire, cette traduction est très rapide, quasiment automatique.
Image contre discours/texte : avantage pour l'image
[modifier | modifier le wikicode]Une idée reçue courante chez les enseignants est que certains élèves sont « visuels », d'autres « auditifs » ou « tactiles ». Le choix entre image et texte/oral dépendrait alors de l'élève. Mais dans les faits, les expériences montrent que ce n'est pas le cas. Elles montrent que le visuel est toujours mieux mémorisé que le verbal ou l'auditif[1][2] : on parle d'effet de supériorité de l'image sur le mot. Après tout, le proverbe le dit si bien : un bon schéma vaut mieux qu'un long discours.
La raison à cela est qu'un long discours/texte est souvent assez compliqué à comprendre, il impose une charge cognitive qui n'est pas négligeable. Les associations entre idées ne sont alors pas toujours des plus visibles, surtout si l'explication est longue et/ou complexe. En comparaison, un bon schéma rend visible les associations entre concepts, sans pour autant saturer la mémoire de travail. Toutes les associations entre idées sont visibles simultanément, là où le discours ne le permet pas.
Schémas/images versus animations : avantage pour une suite d'images
[modifier | modifier le wikicode]La théorie de la charge cognitive donne des recommandations spécifiques pour l'utilisation d'animations : il est préférable de les éviter et de les remplacer par des suites de dessins statiques. Le Transient information effect stipule que si on va plus vite que la mémoire de travail, de nouvelles informations vont venir remplacer les anciennes alors que celles-ci n'ont pas pu être traitées convenablement. En conséquence, seule une partie des informations est mémorisée et l'apprentissage se passe mal. Or une animation est un document dans lequel les informations sont fournies à un rythme relativement rapide : le transient information effect fonctionne à plein. Pour éviter cela, il vaut mieux recourir à des suites de dessins statiques. De plus, il vaut mieux faire en sorte que l'élève puisse choisir de passer d'un dessin à un autre de son propre chef, de façon qu'il puisse aller à son rythme et bien prendre son temps pour mémoriser et analyser les images qui lui sont présentées. Mais cette dernière recommandation n'est possible qu'avec des outils numériques avancés (sites web, ou autres).
L'effet de modalité : la co-présentation de schémas avec des explications orales
[modifier | modifier le wikicode]Dans les chapitres précédents, nous avons dit que l'usage de dessins, schémas et autres informations visuelles renforce la mémorisation. La raison à cela serait une sorte de complémentarité : les informations seraient mémorisées à la fois sous forme visuelle et sous forme verbale. La théorie du double codage, vu dans le tout premier chapitre de ce cours, formalise cet argument. Cependant, on peut se poser la question de l'interaction entre ce double codage et la charge cognitive. La théorie de la charge cognitive nous dit que la redondance est une mauvaise chose et la redondance visuelle-verbale ne devrait pas faire exception. Un moyen d'éviter cela serait de se passer de support visuel, ou encore de séparer la présentation verbale et la présentation visuelle, les faire l'une après l'autre. La charge cognitive est alors censée être réduite comparé à une présentation conjointe, simultanée, des supports verbal et visuel.
Dans les faits, cela ne marche pas du tout. Par exemple, Mayer et Anderson ont étudié le cas de l'explication du fonctionnement d'une pompe à vélo. Un groupe d'élèves recevait une explication orale en même temps qu'une animation visuelle, alors qu'un autre groupe recevait uniquement l'explication orale. Les résultats étaient meilleurs avec la co-présentation qu'avec l'explication orale seule. Une autre étude Mayer a montré la même chose, mais pour une explication sur la formation des éclairs. Les premières études sur le sujet furent celles de Mousavi et al. (1995) sur du matériel géométrique. Elles ont été suivies par TindallFord et al. (1997), qui ont reproduit ces résultats lors de l'apprentissage d’ingénierie électrique. Depuis, les études sur le sujet se sont accumulées[3][4][5][6][7][8][9].
L'effet de modalité et ses conditions d'apparition
[modifier | modifier le wikicode]Précisons que les résultats de ces expériences sont différents selon que le support verbal utilisé est du texte ou de l'oral. Si l'on mélange des informations visuelles et du texte, une présentation séparée réduit la charge cognitive. Rien d'étonnant à cela, les mots écrits et les images passent par le même canal d'entrée visuel, et sont tous deux placés dans la mémoire de travail visuelle. Mais si le support verbal est de l'oral, les choses changent du tout au tout. La présentation simultanée d'informations visuelles et orales n'entraine pas de surcharge cognitive (dans une certaine mesure). Cette observation est appelée l'effet de modalité et elle est parfaitement compatible avec la théorie de la charge cognitive. La raison est que les informations orales passent directement dans la mémoire de travail orale, alors que les images passent dans le canal visuel. On utilise alors la capacité des deux canaux séparés, ce qui facilite l'apprentissage.
Précisons néanmoins que certaines études ont montré une absence d'effet de modalité dans certaines conditions expérimentales, voire un effet totalement inverse où la co-présentation dégrade l'apprentissage. Par exemple, des études ont étudié l'effet de modalité pour de l'apprentissage par ordinateur. Et si on en croit la méta-analyse de Ginns, datée de 2005, on peut observer une absence d'effet de modalité dans ces conditions. La raison est que les logiciels laissent l'élève gérer les présentations lui-même, il peut décider quand les lancer, à quel rythme, il peut aussi décider du format de présentation de l'information, etc. Et dans ces conditions, l'effet de modalité ne se manifeste pas forcément. Par contre, si la présentation n'est pas contrôlable par les élèves, l'effet de modalité se manifeste.
Mais d'autres hypothèses sont possibles pour expliquer pourquoi l'effet de modalité ne se manifeste pas toujours. Une hypothèse alternative est que la longueur de la présentation orale modulerait l'effet de modalité. Pour que l'effet de modalité se manifeste, la présentation orale doit être assez courte. Cela rappelle ce qui a été dit au début du chapitre : l'oral l'emporte sur l'écrit pour des textes courts. Des textes trop longs font surcharger la mémoire de travail, ce qui entraine de mauvaises performances, peu importe qu'il y ait co-présentation oral-image ou non. L'effet de modalité ne peut pas se manifester avec un texte oral trop long.
Optimiser la présentation orale et les images
[modifier | modifier le wikicode]La présentation orale marche mieux si elle met l'accent sur les concepts importants et met de côté les détails. Mayer a montré dans une de ses études que l'on peut avoir une amélioration d'environ 50% (dans le cadre de cette étude précisément) des performances de compréhension si le texte est épuré des détails annexes et se concentre sur l'explication. En soi, cela n'a rien d'étonnant et ce n'est que la réplication d'un effet assez connu dans le domaine de la compréhension de texte. Mais l'effet marche d'autant mieux quand les illustrations complètent la présentation orale.
Les expériences de Mayer indiquent qu'il existe des conditions pour utiliser efficacement ces images :
- les images ne doivent pas être surchargées en informations ;
- le texte et les illustrations doivent aussi être explicatifs ;
- cela ne fonctionne pas sur les élèves avec de bonnes connaissances antérieures sur le sujet à apprendre ;
- les images ne permettent que d'améliorer la compréhension de quelque chose, pas la mémorisation pure et simple de faits.
L'effet d'attention divisée : regrouper pour éviter de diviser l'attention
[modifier | modifier le wikicode]On vient de voir qu'utiliser les deux canaux visuel et verbal en même temps donne de meilleures performances. Mais à l'intérieur de chaque canal, plusieurs informations sont présentées en même temps. Et il arrive que les informations ne soient pas compréhensibles seules et on qu'on doive les combiner pour obtenir un résultat. Par exemple, il se peut que l'on doive mixer du texte avec une image, pour légender une image, par exemple. Dans ce cas, on doit organiser les informations de manière à éviter de saturer le canal visuel ou verbal, ce qui demande de faire des regroupements bien précis. Intuitivement, on comprend qu'il vaut mieux regrouper les informations qui doivent être combinées. L'effet d'attention divisée nous dit que traiter ensemble des informations éloignées entraîne des performances inférieures à une situation où les informations sont proches les unes des autres. Avec des informations éloignées, l'élève devra maintenir chaque élément dans sa mémoire de travail avant de pouvoir les combiner. Alors que si elles sont rapprochées, elles pourront être traitées simultanément. Ce conseil peut s'appliquer dans des situations très diverses, comme les exemples qui vont suivre vont vous le prouver.
Par exemple, il semble préférable d'apprendre le fonctionnement d'un ordinateur grâce à un manuel intégrant des photographies de l'écran, plutôt qu'au moyen d'un manuel qui n'en a pas[10][11]. Prenez un manuel sans photographies de l'écran. Pour expliquer une procédure, le manuel décrit chaque étape et l'utilisateur doit alors faire la navette entre l'écran et le manuel. À chaque étape, il doit lire le manuel, taper au clavier ce qui est marqué dans le manuel ou cliquer à l'endroit indiqué, puis regarder le résultat sur l'écran, avant de revenir au manuel. L'attention est alors divisée par les aller-retour incessants et les performances sont médiocres. Une meilleure solution serait que le manuel intègre des photographies de l'écran après chaque étape, qui indiquent ce qui a changé, où cliquer, etc. Toutes les informations sont alors dans le manuel et l'utilisateur n'a pas besoin de regarder l'écran ou d'utiliser le clavier pour comprendre la procédure. À vrai dire, l'utilisateur n'a même pas besoin d'utiliser l'ordinateur lors de l'apprentissage, mais peut apprendre sur le livre avant de s’entraîner sur l'ordinateur.
La co-présentation de texte et d'images
[modifier | modifier le wikicode]De nombreux schémas ont des légendes écrites : pour comprendre le schéma, on doit relier chaque élément de l'image à la portion de la légende correspondante. En pratique, il vaut mieux éviter de placer des légendes en dessous des schémas : les élèves comprennent mieux quand le texte est intégré aux schémas, et placé immédiatement à côté du dessin correspondant[12]. Pour en donner un exemple, prenons les deux schémas de cerveau ci-contre. Le premier utilise une légende, et est donc déconseillé par l'effet d'attention divisée. Précisons cependant que cela fonctionne car le texte et l'image passent par le même canal, par la même mémoire de travail, en l’occurrence le canal visuel.
Les premières expériences ont observé cet effet pour l'enseignement de la géométrie. Les toutes premières études portaient d'ailleurs sur des exemples en géométrie, et plus précisément sur des exemples travaillés. Les exemples travaillés en question donnaient la solution pour résoudre un exercice, avec un schéma et des explications textuelles séparées. De tels exemples travaillés ne marchaient pas très bien et ne donnaient pas les résultats escomptés. Mais les chercheurs ont réalisé que changer le format des exemples travaillés, en plaçant le texte dans le schéma, marchait nettement mieux. Ce qui a amené à la découverte de l'effet d'attention divisé. De puis, ces expériences ont été répliquées et généralisées. L'effet se manifeste aussi bien pour des cartes géographiques ou géologiques[13], que pour les schémas électriques ou électroniques[14].
L'organisation du support texte
[modifier | modifier le wikicode]De nombreuses expériences ont montré qu'un abus de liens hypertexte peut rendre la navigation relativement labyrinthique. L'usager a alors de sérieuses difficultés à se souvenir de l'endroit où il est sur le site et ne sait donc plus vraiment se repérer dans celui-ci. Cela arrive quand des liens hyper-texte sont imbriqués : un lien renvoie vers une page qui a un hyper-lien, et ainsi de suite. On appelle cela l'effet de désorientation.
Mais dans le cas d'un site bien construit, l'usage de liens hypertexte permet de diminuer la quantité d'informations présentes sur la page et de déplacer les détails dans des sections annexes. Cela permet de mieux mémoriser les idées générales du texte lu, ce qui favorise l'apprentissage. En somme, les liens hyper-texte sont à utiliser avec parcimonie, dans le but de cacher/déplacer les détails et d'alléger le texte.
L'effet de redondance
[modifier | modifier le wikicode]Dans la section précédente, on a étudié ce qui se passe quand plusieurs informations doivent être combinées dans la mémoire de travail. On observe alors un effet d'attention divisée si les informations sont éloignées, effet qui disparaît si ces informations sont regroupées. Il s'agit là d'un cas assez particulier où les informations sont complémentaires. Mais ce n'est pas la seule situation possible. Dans certains documents ou certaines présentations, il se peut que les informations données ne soient pas complémentaires mais redondantes. Par exemple, un texte peut décrire le contenu d'un schéma, ce qui répète les informations du schéma sous forme textuelle. Lorsque des informations redondantes sont présentées, les performances sont réduites comparé à une situation sans informations redondantes. C'est ce qui s'appelle l'effet de redondance.
La co-présentation de texte redondant avec une image
[modifier | modifier le wikicode]Pour reprendre l'exemple du texte qui décrit un schéma, il vaut mieux utiliser un schéma compréhensible seul, sans texte redondant. Cela a été montré dans une expérience de Chandler et Sweller, datée de 1991, qui portaient sur l'explication de la circulation sanguine. Elles comparaient un schéma auto-suffisant seul ou combiné avec un texte explicatif. Le schéma décrivait le mouvement du sang dans la petite et la grande circulation, à savoir entre le cœur, les poumons et le reste du corps. Le schéma était auto-suffisant et permettait à lui seul de comprendre comment le sang circule dans le corps. La présentation du schéma seule était supérieure à la présentation schéma + texte redondant. De même, un schéma avec des phrases intégrées dans le texte, pour éviter l'effet d'attention divisée, fonctionnait moins bien que le schéma sans les phrases intégrées.
Une autre expérience a répliqué l'effet, mais cette fois-ci sur un exercice de pliage de papier sur des élèves de primaire. Là encore, l'explication était présentée à la fois sous forme de diagramme et de texte, les deux étant redondants. La présentation du texte seul donnait de meilleurs résultats.
La co-présentation de texte et d'explications orales
[modifier | modifier le wikicode]L'effet de redondance s'observe à l'intérieur d'un canal, ici le canal visuel. Mais on observe aussi la même chose si les informations redondantes sont présentées dans des modalités sensorielles différentes. Si une présentation orale est redondante avec un schéma auto-suffisant, l'effet de redondance se manifeste aussi.
Le cas le plus parlant est la co-présentation d'un texte avec l'oral associé. Par exemple, présenter un texte à la fois sous forme écrite et orale sur un écran d'ordinateur a un effet sur les performances d'apprentissage. Dans ce cas, les deux canaux verbal et visuel sont utilisés. Mais ils sont utilisés pour présenter deux fois la même information, ce qui fait qu'on ne double pas les performances. Dans les faits, les études ont montré que les résultats sont plus faibles avec une double présentation oral+écrit qu'avec une présentation orale seule ou une présentation écrite seule. Son explication tient dans le fait que le texte est traduit en représentation verbales, qui occupent la mémoire de travail verbale. Cette dernière est alors remplie avec à la fois l'oral et le texte traduit. Mine de rien, beaucoup de présentations Powerpoint contenant du texte tombent dans ce piège, le texte des documents étant redondant avec ce que raconte le présentateur.
Un exemple de ce type se rencontre dans l'enseignement d'une langue étrangère, lorsqu'un enseignant lit un texte avec ses élèves. Les élèves lisent le texte écrit, pendant que le professeur lit le texte à voix haute. Il y a alors redondance entre le texte écrit et le texte lu. Si on en croit l'étude de Diao, Chandler, et Sweller datée de 2007[15] et une autre étude de Diao et Sweller datée de 2007[16], l'effet de redondance se manifeste dans cette situation. Les performances d'apprentissage lexical (apprentissage du vocabulaire et de l'écriture des mots). Il vaudrait mieux laisser les élèves lire le texte seuls, sans que l'enseignant ne lise le texte à voix haute. Précisons cependant qu'il existe des études dans le cadre de l'étude de la compréhension de texte qui semblent montrer l'inverse. Mais ces études testent la compréhension du texte, pas l'acquisition de connaissances lexicales ou phonologiques, ce qui peut changer la donne. Précisons aussi que la double présentation permet aux élèves de savoir comment tel mot se prononce, ce que le texte écrit seul ne permet pas de faire. En résumé, la situation est compliquée.
Références
[modifier | modifier le wikicode]- ↑ Denis, 1979
- ↑ Lieury, 1997
- ↑ Kalyuga, Chandler, & Sweller, 1999, 2000
- ↑ Tindall-Ford, Chandler, & Sweller, 1997
- ↑ Jeung, Chandler, & Sweller, 1997
- ↑ Mousavi, Low, & Sweller, 1995
- ↑ Mayer & Moreno, 1998
- ↑ Moreno & Mayer, 1999
- ↑ Mayer, 2009
- ↑ Sweller & Chandler, 1994
- ↑ Chandler & Sweller, 1996
- ↑ Sweller et al. (1990)
- ↑ Purnell, Solman, and Sweller (1991)
- ↑ Chandler and Sweller (1991)
- ↑ The effect of written text on comprehension of spoken English as a foreign language
- ↑ Redundancy in foreign language reading comprehension instruction: Concurrent written and spoken presentations
Exercices et exemples : comment rendre la pratique efficace ?
Apprendre à résoudre des problèmes est un point crucial dans certaines disciplines. Qu'il s'agisse de problèmes mathématiques, de problèmes de physique, d'exercices de biologie, etc; les mécanismes mentaux de résolution de problème sont presque toujours les mêmes, et les connaître permet de déduire des recommandations pédagogiques diverses et variées. Or, la charge cognitive va aussi jouer dans l'acquisition de stratégies ou de procédures, et pourra diminuer l'efficacité des exercices donnés aux élèves. Dans ce qui va suivre, nous allons voir quelles recommandations peut nous donner la théorie de la charge cognitive quand il s'agit de résolution de problème.
Les stratégies de résolution de problèmes
[modifier | modifier le wikicode]Résoudre un problème demande d'utiliser ses connaissances, ou de mobiliser des procédures connues pour les appliquer. Il est donc évident que connaître les connaissances et procédures nécessaires est un pré-requis absolu pour résoudre des problèmes. Mais cela ne suffit pas, mobiliser ses connaissances demandant de pouvoir activer les connaissances et procédures quand c'est nécessaire ou pertinent. Cela demande des connaissances conditionnelles, qui indiquent quand il faut mobiliser telle ou telle connaissance/procédure/stratégie/méthode, etc.
Les stratégies de réflexion d'un expert
[modifier | modifier le wikicode]Seul l'expert a pu forger, avec son expérience, de telles connaissances conditionnelles, qui lui permettent d'appliquer ses connaissances de manière efficace. Elles lui permettent d’accéder aux informations pertinentes pou résoudre un problème sans avoir à réfléchir, en se basant uniquement sur leur mémoire. Ces connaissances prennent la forme de schémas (le terme a plusieurs sens en psychologie cognitive), des catégories de problèmes qui sont reliées aux informations pertinentes pour leur résolution. C'est grâce à eux que l'expert peut reconnaître si un problème correspond ou non à une situation connue. Ces schémas sont reliés aux connaissances et aux concepts nécessaires pour résoudre le problème. Ils sont aussi reliés à des procédures de résolution, ce qui permet d'appliquer des solutions stéréotypées à une classe de problème bien précise sans avoir à formuler d'hypothèses.
Pour donner un exemple, on va prendre l'exemple d'un joueur de Football professionnel, qui doit gérer à tout moment sa position sur le terrain et ses actions en fonction de divers paramètres tactiques. Ce Footballer a mémorisé lors de son entraînement une grande quantité de configurations de jeu, chacune d'entre elle étant reliée à une solution tactique stéréotypée. La même chose a lieu chez les joueurs d'échec : ils ont mémorisé un grand nombre de configurations de jeu, chaque configuration étant reliée au meilleur coup à jouer. Ce genre de chose permet aussi d’expliquer les performances en mathématique ou en physique de nombreux élèves.
Les stratégies de réflexion d'un novice
[modifier | modifier le wikicode]Cette mobilisation efficace n'est pas à la portée du novice, même si celui-ci dispose des connaissances et procédures nécessaires. Celui-ci a beau savoir comment faire, il ne dispose pas des schémas sus-mentionnés et ne sait donc pas quand utiliser telle procédure/connaissance. Sans connaissances conditionnelles, un novice n'a accès qu'à quelques stratégies générales, comme procéder par analogie ou par essais et erreurs. Ces stratégies générales fonctionnent quelle que soit la situation, mais on ne peut pas dire qu'elles soient efficaces. Elles demandent une certaine réflexion et utilisent donc la mémoire de travail. Dans les grandes lignes, il existe deux stratégies générales de ce type, outre l'analogie : le Hill Climbing et la Means-End Analysis. Les deux fonctionnent par essais et erreurs, le sujet formulant des hypothèses et décomposant le problème en sous-problèmes.
Avec le Hill climbing, l’élève va partir des données du problème pour progressivement se rapprocher de la solution : il va planifier la suite d’étapes en partant des données du problème. À chaque étape, l’élève vérifie s’il s’est approché de la solution : si c’est le cas, il continue à partir de l’étape obtenue, et revient en arrière sinon.
Ce Hill climbing est souvent comparé avec une de ses variante : la Means-end analysis. Avec celle-ci, le sujet peut décomposer le problème en sous-problèmes. Dans le cas le plus courant, l’élève va partir du but demandé, pour poursuivre à rebours vers les données du problème. Lors de ce parcours à rebours, chaque étape va créer un nouveau sous-problème à résoudre, sous-problème qui sera résolu avec la même méthode, et ainsi de suite : le problème est résolu quand on atteint un sous-problème peut être résolu directement à partir des données du problèmes.
Prenons l’exemple suivant :
y = x + 6, x = z + 3, et z = 6. Trouvez la valeur de y.
- Un novice va se focaliser sur le but : trouver la valeur de y.
- Il va d’abord lire y = x + 6. Il va alors chercher à résoudre le sous-problème : trouver x.
- Il va ensuite lire x = z + 3. Il va alors chercher à résoudre le sous-problème : trouver z.
- Enfin, il va lire z = 6, et il va rembobiner le tout.
La résolution d'un problème par analogie
[modifier | modifier le wikicode]L'analogie est une méthode de résolution de problème générale, au même titre que les deux précédentes. L'analogie permet de reconnaître qu'un problème est analogue à une situation déjà rencontrée. Celle-ci est utilisée à la fois par les sujets intermédiaires/novices et les experts, avec toutefois une petite différence : les novices utilisent des analogies inefficaces, contrairement aux experts.
Les sujets peu performants utilisent des analogies de surface, où les situations source et cible partagent des caractéristiques de surface, des éléments qui peuvent être remplacés par d'autres sans que cela change la manière de résoudre le problème. Par exemple, les deux problèmes qui vont suivre sont analogues du point de vue de l'analogie de surface, vu que leurs énoncés partagent les mêmes mots/concepts et valeurs numériques, mais ne se résolvent pas de la même manière :
Paul possède 50 euros, il en donne 3 à Vanessa, combien Paul a-t-il d'argent ?
Paul possède 50 euros, Vanessa lui en donne 3, combien Paul a-t-il d'argent ?
En comparaison, les sujets performants utilisent des analogies structurales où les relations des deux situations peuvent être mises en correspondance. Par exemple, les deux problèmes qui vont suivre sont analogues du point de vue de l'analogie structurale et se résolvent de la même manière, mais ne sont pas analogues du point de vue de l'analogie de surface :
Paul possède 50 euros, il en donne 3 à Vanessa, combien Paul a-t-il d'argent ?
Un patron possède 20 usines de fabrication de composants électroniques, il se fait racheter 5 de ses usines par un concurrent, combien lui en reste-t-il ?
Un oiseau a pondu une vingtaine d’œufs. Au total, 7 œufs se font manger par des prédateurs avant d'éclore. Les œufs ont éclos, combien de poussins sont nés ?
Là ou les analogies de surface demandent simplement de remarquer des points communs, les analogies profondes permettent de reconnaître des catégories de problèmes qui se résolvent d'une certaine façon. Le traitement des sujets performants se base donc plus sur un traitement conceptuel que sur la simple présence de points communs entre les deux situations. Mais ce traitement conceptuel n'est possible que parce que les sujets performants ont abstrait des structures mentales élaborées, qui permettent de reconnaître des types de problèmes bien précis. Ces catégories de problèmes sont de plus connectées à la procédure de résolution du problème. Le tout, la somme catégorie et procédure, est appelée un schéma dans la littérature sur la résolution de problèmes.
Des méthodes de raisonnement différentes
[modifier | modifier le wikicode]Pour résumer, novices et experts n'utilisent pas les mêmes méthodes de raisonnement face à des problèmes identiques. Les débutants font appel à des méthodes faibles, qui ont un caractère général, et peuvent s'appliquer à de très nombreuses situations, si ce n'est toutes. Mais ces méthodes faibles sont peu performantes, non seulement parce qu'elles saturent la mémoire de travail, mais aussi parce qu'elles n'utilisent pas les connaissances du sujet. Ces méthodes sont les seules utilisables chez les sujets qui ne disposent pas de connaissances utiles pour résoudre la tâche demandée. Autant dire que les sujets experts peuvent utiliser des méthodes fortes, qui font usage des connaissances acquises et notamment des schémas. Seules les connaissances acquises leur permettent d'utiliser ces méthodes, que ce soit par usage de l'analogie ou de schémas.
Cependant, l'usage des méthodes faibles par le novice peut interférer avec l'apprentissage. En effet, les méthodes faibles utilisent fortement la mémoire de travail, pour mémoriser les buts et sous-buts à résoudre, et planifier les différentes étapes à effectuer. On peut alors se demander, compte tenu de cette occupation de la mémoire de travail, comment se forment les schémas. Quelques chercheurs ont suggéré, autrefois, que les schémas s'apprenaient à force de pratique, par l'action. Mais la formation de schémas demande une certaine forme d'abstraction, qui utilise les ressources de la mémoire de travail. Dans ces conditions, l'usage des stratégies générales nuit à l'acquisition des schémas. L'élève qui résout un problème est dans une situation de double-tâche : il doit non seulement résoudre le problème, mais aussi former les schémas nécessaires à l'apprentissage. Limiter la surcharge de la mémoire de travail lors de la résolution d'exercice facilite donc l'abstraction de schémas. Les premières expériences sur le sujet, réalisées par Sweller, montrent que ce phénomène est une réalité, ont d'ailleurs posées les bases de la théorie de la charge cognitive. Dans ce qui va suivre, nous allons voir comment diminuer la charge cognitive lors de la résolution de problème.
L'apprentissage de la procédure, avant les exemples et exercices
[modifier | modifier le wikicode]Avant de passer aux exemples et aux exercices, il est possible de fournir quelques explications qui aident l'élève à mieux réaliser les exercices. Ces explications sont implicites, dans le sens où un élève qui a mémorisé la procédure et sait la réaliser ne connaît pas forcément ces informations. Par exemple, un élève qui sait multiplier sait reconnaître les types de problèmes qui se résolvent par multiplication, mais il aura du mal à expliquer pourquoi il faut multiplier pour tel problème et pas pour tel autre. Il le sait, mais cette connaissance reste implicite, non verbalisable. De même, il ne sait peut-être pas ce qui se cache derrière la procédure de multiplication, pourquoi on procède en enchaînant telle étape avec telle étape. Pourtant, ces informations sont utiles pour l'élève et lui permettent de mieux réussir les exercices. Il faut donc les expliciter, les enseigner verbalement aux élèves.
Découper les procédures en sous-procédures
[modifier | modifier le wikicode]Quelques études recommandent de découper une procédure complexe en sous-procédures simples. L'idée est ici de regrouper certaines étapes consécutives de la procédure, en faisant en sorte que le regroupement soit logique. Les étapes regroupées doivent former une sous-procédure qui donne un résultat interprétable. Le résultat donné par le regroupement d'étape doit avoir une interprétation logique, il doit avoir un sens. En faisant cela, la sous-procédure sera vue comme un seul item en mémoire de travail et les élèves auront moins de mal à mémoriser l’enchaînement des étapes de la procédure. Par exemple, on peut imaginer segmenter une procédure de huit étapes en deux sous-procédures de quatre étapes. Ce faisant, on apprend les quatre étapes de chaque procédures indépendamment, puis on apprend à enchaîner les deux sous-procédures. La charge cognitive est alors répartie dans le temps. Ou encore, pour une procédure de 10 étapes, on peut imaginer regrouper les quatre premières dans une sous-procédure. Ce faisant, on peut apprendre à l'élève la sous-procédure, avant de l'utiliser pour réaliser la procédure complète.
Par exemple, on peut imaginer le cas d'une procédure de plusieurs étapes, dont les premières sont regroupées dans une sous-procédure, sous-procédure dont le résultat sert de base à la suite. La sous-procédure peut recevoir son propre nom, être séparée visuellement de la procédure complète, ou tout autre séparation entre la sous-procédure et le reste de la procédure complète. Les études de Catrambone montrent les bienfaits qu'il y a a identifier une sous-procédure dans une procédure plus complexe.
Son étude de 1990 portait sur l'enseignement de procédures statistiques bien précises. Dans cette étude, des étudiants d'université devaient apprendre des manipulations statistiques impliquent la distribution de Poisson. Les étudiants étaient regroupés en deux groupes : un où les exemples mettaient en avant les sous-procédures et les sous-buts via des annotations, et un autre avec des exemples avec la procédure complète sans les annotations. Par la suite, les étudiants étaient testés sur deux exercices semblables aux exemples étudiés, et quatre exercices conceptuellement similaires, mais dont la résolution se faisait différemment mais faisait usage des sous-procédures. Sans mettre l'accent sur des sous-procédures, les sujets n'arrivaient pas à utiliser ce qu'il avaient appris pour résoudre les exercices un peu différents. Mais ils y arrivaient si l'expérimentateur indiquait quelles étapes de la procédure pouvaient se regrouper, avec des annotations.
Dans des études ultérieures, Catrambone documenta deux outils très importants pour mettre en avant les sous-buts et les sous-procédures. Leur but est de mettre en avant la séparation entre la sous-procédure et le reste de la procédure, de l'expliciter.
- Premièrement, donner un nom, un titre ou tout autre label verbal à la sous-procédure ou à son résultat. Et le simple fait de lui donner un nom suffit, même si son sens n'est pas compris par les élèves. Le nom seul indique à l'élève qu'il faut regrouper certaines étapes de la procédure complète et suffit pour extraire la sous-procédure. Et ce même si le sens de la sous-procédure ou son résultat n'ont pas d'interprétation claire et semblent arbitraires. Au pire, l'élève peut essayer de lui-même de trouver une explication aux faits que les étapes puissent se regrouper, ce qui rend les explications parfois superflues. Évidemment, il est toujours utile de donner un sens au regroupement, quitte à donner quelques explications, même si le label en lui-même suffit souvent.
- Deuxièmement, dans le cas d'exemples présentés sous forme de textes, il ne faut pas hésiter à donner des indices visuels. Ces indices doivent indiquer que telles étapes forment une sous-procédure. Le simple fait de séparer la sous-procédure du reste par des interlignes est une solution possible.
- Formellement, ce conseil aurait eu toute sa place dans le chapitre "Réduire la charge cognitive intrinsèque". Après tout, ce conseil se base sur le processus de regroupement, comme toutes les autres méthodes de réduction de la charge cognitive intrinsèque. Mais j'ai préféré le placer ici car c'est un conseil qui ne s'applique qu'aux procédures, sujet de ce chapitre. Alors que les conseils du chapitre sur la charge intrinsèque s'appliquent surtout aux connaissances conceptuelles, factuelles ou verbale.
Expliquer pourquoi on passe d'une étape à une autre
[modifier | modifier le wikicode]Un autre conseil est d'expliquer non seulement comment passer d'une étape à une autre, mais aussi pourquoi on fait ainsi. Une expérience, réalisée en 2006 par van Gog, Paas, et van Merriënboer, a montré que les exemples qui indiquaient juste quel opérateur appliquer à chaque étape ne sont pas les plus efficaces, et qu'il vaut mieux expliquer pourquoi tel opérateur est appliqué pour passer à l'étape suivante. On pourrait donner à cette observation le nom d'effet de justification.
Expliciter les catégories de problèmes
[modifier | modifier le wikicode]Un autre conseil est d'expliciter les différents types de problèmes, de montrer que les problèmes peuvent se ranger dans quelques types bien précis. Il peut être utile de modifier les exercices de manière à ce que l'élève doive identifier ou nommer le type de problème auquel il est confronté avant de tenter de le résoudre. Le premier exemple est celui de l'apprentissage des quatre opérations fondamentales : addition/soustraction, et multiplication/division. Il existe une méthode d'apprentissage du calcul qui explicite au maximum les différentes catégories de problèmes mathématiques qui se résolvent avec une addition/soustraction ou une multiplication/divisions : on l'appelle sous le nom anglais de Schema Based Intervention.
Mais nous avons vu dans les chapitres précédents que former des catégories était un processus relativement compliqué, et que donner des définitions ne suffisait pas. Les catégories doivent être illustrées avec des exemples, et éventuellement des contre-exemples. Et les catégories/types de problèmes ne font pas exception. D'où l'utilité des méthodes qui vont suivre.
L'usage d'exemples résolus ou partiellement résolus
[modifier | modifier le wikicode]La seconde méthode consiste à présenter des exemples de problèmes résolus à l’élève, que l’on appelle des exemples travaillés. Ces exemples travaillés sont des exemples d’exercices que le professeur résout devant les élèves, ou dont il fournit la solution détaillée. En présentant ces exemples, le professeur pense à haute voix, montre explicitement comment il résout le problème, montre bien quelles sont les étapes de résolution et comment il les enchaîne, il explicite ses raisonnements, etc. Expérimentalement, ces exemples travaillés sont systématiquement plus efficaces que de passer directement aux exercices : on parle d’effet des exemples travaillés (worked exemples effect).
La raison est simplement que les exemples travaillés ont une charge cognitive inférieure à celle de la résolution d'un exercice. Lors de la résolution de l’exercice, l'élève se retrouve à utiliser sa mémoire de travail à la fois pour résoudre le problème, mais aussi pour mémoriser ce qu'il faut. De plus, la résolution de l'exercice utilise des méthodes faibles pour résoudre le problème, qui saturent sa mémoire de travail. Écouter le professeur résoudre des exemples, ou simplement lire l'exemple sur papier, n'a pas ce problème : toute la mémoire de travail est utilisée pour la compréhension de la solution.
Les études sur les exemples résolus ou partiellement résolus
[modifier | modifier le wikicode]L'effet se manifeste pour de nombreux domaines, mais le domaine le plus étudié est de loin les mathématiques. En 1985 et 1987, Sweller and Cooper ont testé l’efficacité des exemples travaillés dans l’apprentissage de manipulations algébriques. Par la suite, une étude faite par Carroll (1994), a reproduit ces résultats et a montré que l’usage d’exemples travaillés donne de bons résultats sur des étudiants faibles ou avec des difficultés lors de l’apprentissage mathématique. Paas (1992) a ensuite validé cet effet sur des problèmes de statistique. Ce même auteur a aussi validé cet effet pour des exercices de géométrie avec une autre étude avec son collègue van Merriënboer, en 1994.
On pourrait croire que les exemples travaillés sont surtout utiles pour les domaines bien structurés, dans lesquels il y a des procédures algorithmiques strictes, comme les mathématiques, les sciences, l'informatique, etc. Mais d'autres études ont répliqué l'effet des exemples travaillés dans des domaines non-scientifiques. Par exemple, Owens et Sweller ont montré, dans leur étude de 2008, que les exemples travaillés pouvaient être utilisés dans des cours de musique. D'autres études datée de 2007, réalisées par Diao, Chandler, et Sweller, ont montré que l'apprentissage d'une seconde langue bénéficiait aussi de l'usage d'exemples travaillés.
D’autres expériences ont évalué l’efficacité des exemples partiellement travaillés dans lesquels le professeur résout partiellement les exercices présentés et laisse les élèves finir. Expérimentalement, on peut constater que cela donne de bons résultats sur pas mal d’élèves. C’est ce qu’on appelle le problem completion effect. Cet effet a notamment été étudié par Van Merriënboer (1990), pour l’apprentissage de la programmation informatique. Dans son étude, il a comparé deux classes : une qui recevait un enseignement dans lequel les élèves devaient créer eux-mêmes des morceaux de programmes, et une autre qui devait modifier et étendre des programmes existants. Après une période de dix leçons, les deux classes étaient invitées à créer des programmes dans leur intégralité. Le groupe à base d’exemples partiellement travaillés avait les meilleurs résultats. Ces résultats ont été reproduits dans une étude faite par Van Merriënboer et de Croock (1992). Dans cette étude, les élèves étaient encore répartis en deux groupes : un dans lequel les élèves devaient créer totalement des programmes, et un autre dans lequel les élèves devaient terminer des programmes partiellement écrits et remplir les blancs.
Le contenu des exemples travaillé doit être varié
[modifier | modifier le wikicode]La théorie de la charge cognitive ne se borne pas à dire qu'il faut utiliser des exemples travaillés. Elle donne aussi quelques conseils sur le contenu des exemples travaillés. Rappelons qu'un objectif des exemples est de faciliter l'abstraction d'une catégorie de problèmes analogues. En donnant plusieurs exemples de problèmes analogues, l'élève va abstraire une catégorie de problème et identifier leurs points communs. Nous avons vu il y a quelques chapitres de cela comment favoriser l'abstraction de catégories à partir d'exemples. Pour résumer rapidement, il faut varier les exemples et faire en sorte que des exemples consécutifs soient les plus dissemblables possibles. On peut appliquer ce conseil aux exemples travaillés, ce qui nous dit qu'il vaut mieux utiliser des exemples travaillés variés, assez différents les uns des autres. On parle d'effet de variation.
Pour donner un exemple, on peut citer les résultats des études de Sweller et Cooper, datée de 1985 et 1987. Elles ont testé l’efficacité des exemples travaillés dans l’apprentissage de manipulations algébriques. Les élèves devaient apprendre à simplifier et à résoudre des équations. La première catégorie de groupes d’élèves passait directement aux exercices après le cours, tandis que l’autre avait droit à des exemples travaillés intercalés entre les exercices. L'usage d'exemples travaillés a augmenté de manière significative les résultats des élèves, mais seulement lorsqu'on interrogeait les élèves sur des problèmes similaires. Les élèves du groupe "exemples travaillés" répondaient plus vite et faisaient moins d'erreurs que le groupe "pratique immédiate", mais seulement pour des problèmes similaires aux exemples travaillés. Si on interrogeait les élèves sur des problèmes dissimilaires aux exemples travaillés, les résultats étaient bien plus faibles. La faute à des exemples travaillés trop semblables.
Varier les exemples travaillés a un impact sur la charge cognitive
[modifier | modifier le wikicode]Les études sur le sujet ont clairement montré que varier les exemples travaillés entraîne une augmentation subjective de la charge cognitive. Ce qui est économisé d'un côté en utilisant des exemples travaillés est dépensé de l'autre en variant les exemples. Mais ce n'est pas un mal car le fait de varier les exemples permet un meilleur apprentissage, en permettant à l'élève de mieux comprendre l'ensemble des situations qui correspond à un type de problème. Généralement, l'usage d'exemples travaillé est à l'origine d'une économie suffisante pour que l'usage d'exemples variés ne soit pas un problème. Mais il peut y avoir des situations où ce n'est pas le cas. Toute tendance a des exceptions, qu'il vaut mieux ne pas laisser de côté.
À ce sujet, on peut citer l'étude de Paas et Van Merrienboer (1994), sur le sujet. Cette étude portait sur les calculs pour déterminer la longueur et les coordonnées d'un segment dans un plan. Elle compara les résultats de quatre groupes : un avec des exemples travaillés très variés, un autre avec des exemples travaillés peu variés, un autre avec des exercices très variés et un dernier avec des exercices peu variés. Dans les groupes avec des exercices/exemples variés, les étudiants recevaient des problèmes où ils devaient calculer les coordonnées d'un segment et d'autres où ils devaient calculer la longueur du segment. Dans les groupes avec des exercices/exemples peu variés, ils recevaient des problèmes de calcul de longueur uniquement. Les résultats étaient les plus élevés pour les deux groupes avec des exemples travaillés, avec un avantage pour les exemples variés. Par contre, dans les groupes qui travaillaient des exercices sans exemples travaillés, l'effet de variation ne se manifestait pas.
L'étude précédente dit que si varier les exemples travaillés est très utile, varier des exercices seuls ne l'est pas forcément, en raison de la charge cognitive induite par la variation des exemples/exercices. Précisons que l'expérience précédente portait sur des exercices non-précédés par des exemples travaillés. Utiliser des exercices variés après des exemples travaillés n’entraîne pas forcément une charge cognitive insoutenable. Et sous ces conditions, varier les exercices serait alors une bonne solution. À ce propos, nous verrons plus tard dans le chapitre que certaines techniques de variation marchent bien pour les exercices, études à l'appui. Et ces techniques devraient être d'autant plus efficaces que l'on utilise des exemples travaillés (variés ou non).
Varier la structure profonde des exemples, pas leurs caractéristiques de surface
[modifier | modifier le wikicode]Il faut donc varier les exemples, c'est à dire utiliser des exemples doivent sont différents les uns des autres sur certains points. Mais là encore, il faut bien le faire et le diable est dans les détails. Plus haut dans le chapitre, nous avons vu les deux types d'analogies : analogie de surface et analogie profonde. La première a lieu quand deux problèmes sont analogues car ils partagent des caractéristiques de surface, comme le même vocabulaire, les mêmes valeurs numériques, les mêmes phrases dans l'énoncé ou autres. Ces caractéristiques de surface ne sont par pertinentes pour résoudre le problème et elles ne sont pas des données utiles pour résoudre le problème. À l'inverse, les analogies profondes relient des problèmes qui ont la même structure et se résolvent de la même manière. Les problèmes d'une même catégorie partagent la même structure profonde et se résolvent de la même manière, ce qui fait qu'ils partagent une analogie profonde. Mais ils ne partagent pas forcément les mêmes caractéristiques de surface.
En, 1989, Ross émit l'hypothèse qu'il valait mieux présenter des problèmes structurellement similaires avec des caractéristiques de surface similaires, afin de faciliter la formation des catégories de problèmes par les élèves. Par exemple, il vaudrait mieux présenter les problèmes de proportionnalité avec des problèmes de prix de limonade en fonction du volume acheté, alors que les problèmes de conversion entre unités devaient être présentés avec des problèmes sur la construction d'un port. Après un peu d’entraînement, les problèmes peuvent être variés un peu plus et avoir des caractéristiques de surface différentes.
Mais les études sur le sujet n'ont pas montré que cette stratégie était la bonne. Par exemple, citons l'étude de Quilici et Mayer, datée de 1996. Dans cette étude, trois groupes d'élèves devaient apprendre à utiliser des concepts statistiques (le T-test, le test chi-square, et la corrélation). Le premier groupe recevait des exemples avec des caractéristiques de surface similaires, comme conseillé par Ross. Les histoires et situations des différents exemples étaient similaires. L'autre recevait des exemples structurellement similaires, mais cachés derrière des caractéristiques de surface différentes. Les histoires et situations des exemples étaient totalement différents, mais la structure des exemples était la même. Le dernier n'avait pas d'exemples et recevait juste le cours et une description des procédures à appliquer. Le second groupe avait de meilleures performances que les deux autres, le premier et le dernier groupe ayant des performances identiques.
Pour résumer, il vaut mieux varier les caractéristiques de surface des problèmes et mettre l'emphase sur la structure profonde. Les caractéristiques de surface sont trompeuses au cours de l'apprentissage. Les élèves vont naturellement classer les problèmes en fonction de leurs caractéristiques de surface, qui sont les plus visibles, les plus saillantes. Mais cette classification ne servira à rien et les élèves devront l'abandonner pour une classification basée sur des caractéristiques profondes. On ne souhaite pas que les élèves croient que les caractéristiques de surface sont des caractéristiques utiles. À la place, on veut que les élèves les filtrent et n'y fassent pas attention, le but étant de se concentrer sur les données utiles pour classer les problèmes. En conséquence, les exemples travaillés doivent avoir des caractéristiques de surface très différentes d'un problème à l'autre, ils doivent varier leurs caractéristiques de surface. Ainsi, les élèves comprennent rapidement que celles-ci ne permettent pas de résoudre les problèmes et ils se concentrent sur les caractéristiques profondes.
Passer progressivement des exemples travaillés aux exercices autonomes
[modifier | modifier le wikicode]Les expériences précédentes ont été répétées de nombreuses fois, pour vérifier quelque chose : quand ces exemples travaillés deviennent inutiles ? Il apparaît qu’au bout d’un certain temps, les exemples travaillés ont de moins en moins d’effets positifs. Les premières expériences sur le sujet furent des études qui comparaient la performance de deux groupes de sujets dans la durée. Elles regardaient comment les élèves évoluaient durant de longues durées, suivant qu’ils aient droit ou non à des exemples travaillés. Mais il semblerait que ce ne soit pas le temps qui soit la variable pertinente. À la place, il semblerait que les exemples travaillés deviennent inutiles quand les élèves ont acquis les catégories de problèmes adéquates. Il ne leur reste plus qu'à automatiser la procédure de résolution avec de l’entraînement, ce pour quoi les exemples travaillés sont inutiles.
Dans une de leurs études datée de 2001, Kalyuga, Chandler, Tuovinen, et quelques collègues, ont vérifié si cela jouait sur l’efficacité des exemples travaillés. Dans leur première expérience, les élèves devaient apprendre à programmer des équipements industriels. Dans une expérience additionnelle, citée dans la même étude, les mêmes expérimentateurs ont reproduit cet effet sur un groupe de sujets qui apprenait à créer des équations booléennes de circuits à base de relais (ça date, je sais…) Les résultats étaient clairs : plus on présente d'exemples travaillés, plus l’effet des exemples travaillés diminue. L'explication de cet effet est assez simple : si l’élève a acquis les catégories de problèmes voulues, de nouveaux exemples travaillés ne font que répéter ce qui est déjà su et agissent comme une sorte de redondance. Cela arrive après une dizaine d’exemples travaillés, voire un peu plus (15/20).
Au vu de ce qui vient d'être dit, on se dit qu'il faut donc faire suivre les exemples travaillés par des exercices réalisés en autonomie. Cependant, ce n'est pas la méthode la plus efficace. La transition entre exemples travaillés et exercices est trop brutale et elle n'a pas forcément lieu au bon moment pour tous les élèves en même temps. Pour éviter cela, il est possible de passer progressivement des exemples travaillés aux exercices en utilisant un intermédiaire : les exemples partiellement travaillés. Après la présentation d’exemples totalement travaillés, le professeur poursuit par des exemples partiellement travaillés, avant de laisser les étudiants résoudre les exercices eux-mêmes. La transition doit se faire de la manière la plus douce possible. Lors de l’usage d’exemples partiellement travaillés, le nombre d’étapes que les élèves doivent réaliser pour résoudre totalement l’exercice doit graduellement augmenter à chaque exercice. En utilisant cette organisation, on observe que les résultats sont meilleurs que sans. C’est ce qui est appelé le Guidance fading effect.
Cependant, cette tactique peut s’appliquer de deux manières, qui dit comment effectuer des exemples partiellement travaillés. Dans le premier cas, le professeur commence par résoudre les exemples travaillés devant les élèves, et il leur demande de les terminer à partir d’un certain point. Au fur et à mesure des exemples, le professeur s’arrête de plus en plus tôt, jusqu’à ce qu’il n’y ait plus d’étapes à enlever. Dans la seconde tactique, les élèves doivent commencer par résoudre le début de l’exercice, et le professeur termine les exercices à partir d’un certain stade. Au fil du temps, le professeur est repoussé de plus en plus vers la toute fin de l’exercice, et ne doit plus résoudre que les toutes dernières étapes de l’exemple travaillé. L’étude de Renkl, Atkinson, Maier, and Staley, datée de 2002, a montré que les deux stratégies ne sont pas égales. La tactique qui consiste à laisser les élèves résoudre la fin de l’exercice donne de meilleurs résultats. En tout cas, les deux stratégies font mieux que l’usage d’une rupture brutale entre exemples travaillés et exercices.
Les exercices et autres travaux autonomes
[modifier | modifier le wikicode]La théorie de la charge cognitive nous dit que laisser un élève résoudre de lui-même des problèmes est peu efficace en début d'apprentissage, mais que cela devient utile quand l'élève a vu suffisamment d'exemples travaillés. Des méthodes actives forcent l'élève à utiliser des méthodes faibles pour résoudre le problème, ce qui sature sa mémoire de travail. Mais au niveau des exercices eux-mêmes, il y a des techniques qui permettent de réduire la charge cognitive. Ils permettent de laisser les élèves réfléchir par eux-mêmes, sans pour autant saturer leur mémoire de travail.
L'interleaving et l'effet de variation
[modifier | modifier le wikicode]Le contenu des exercices peut être travaillé afin de compléter au mieux les exemples travaillés. Et certains conseils applicables aux exemples travaillés le sont aussi aux exercices. Nous avons vu plus haut que l'effet de variation se manifeste à la fois pour les exercices et les exemples travaillés, mais surtout pour les exemples travaillés. Pour les exercices, la variation ajoute une charge cognitive qui peut être délétères et peut compenser les effets positifs. Mais si l'on fait précéder les exercices par des exemples travaillés, la charge cognitive des exercices devrait diminuer, les exemples travaillés ayant servi d’entraînement permettant de faciliter la résolution des exercices. En réduisant la charge cognitive des exercices, l'effet de variation se manifeste alors.
Sous ces conditions, il est préférable que les exercices soient variés, tout comme les exemples travaillés. Les exercices qui appartiennent à la même catégorie de problème doivent être différents les uns des autres, au moins superficiellement. Notons qu'en théorie, varier les exercices/exemples augmente la charge cognitive ressentie par l'élève. Lors des exemples travaillés, en début d'apprentissage, ce qui est économisé en utilisant des exemples travaillés est compensé par la variabilité des exemples. Lors des exercices, varier les exercices peut entraîner une charge cognitive plus élevée qu'avec ces exemples peu variés. Mais l'apprentissage est bien meilleur, pour une charge cognitive assez variable, qui va de moindre à légèrement supérieure. Tout est histoire de compromis entre charge cognitive et variation des exemples/exercices, mais ce compromis est surtout important pour les exemples travaillés. Lors des exercices, l'élève a acquis les connaissances antérieures qui réduisent sa charge cognitive, ce qui fait que sa charge cognitive est de base assez basse. On peut alors augmenter la charge cognitive en faisant varier les exercices sans trop de problèmes : on sait qu'il y aura la place en mémoire de travail.
Un autre conseil, qui peut être vu comme une variation assez extrême du précédent, est de mixer différents types de problèmes dans une même session d'exercices. D'habitude, chaque chapitre porte sur un type de problèmes particulier, qui fait l'objet d'exemples et d'exercices, avant de passer au chapitre suivant. Ce faisant, les élèves savent que les exercices visent à appliquer le cours du chapitre, et en déduisent que les exercices portent sur le type de problèmes qu'ils viennent d'aborder en cours. L'élève n'a pas besoin de former de catégories de problèmes pour résoudre ces exercices, mais a juste besoin de se souvenir du sujet du chapitre en cours. Mais lors des épreuves finales, ou dans la vie réelle, les problèmes ne surviennent pas dans l'ordre des chapitres vus en cours. Pour éviter cela, il vaut mieux mixer des problèmes liés au chapitre en cours avec des problèmes liés aux chapitres précédents. Ainsi, l'élève devra, pour répondre correctement, déduire à quel type de problème appartient chaque exercice et donc abstraire les catégories de problèmes adéquates. Cette technique, l'interleaving, donne de très bons résultats et ne demande pas beaucoup d'efforts de la part de l'enseignant.
L'usage de problèmes dits "goal-free"
[modifier | modifier le wikicode]Il est possible de diminuer la charge cognitive en modifiant le format des exercices. Pour comprendre pourquoi, il faut savoir que les stratégies de résolution de problème ne sont pas égales du point de vue de la mémoire de travail. La Means-End Analysis sature rapidement la mémoire de travail, contrairement au Hill climbing : dans ces conditions, la mémorisation des exemples et la formation de schémas s’effectue mal, voire n’a pas lieu. Pour que le novice ne puisse pas utiliser la Means-End Analysis, la théorie de la charge cognitive recommande de modifier le format des exercices : c’est ce qu’on appelle le Goal-free effect. Les exercices donnés à l’élève ne doivent pas donner un but précis : à la place, les exercices doivent demander à l’élève de déduire tout ce qu’ils peuvent à partir des données contenues dans l’énoncé.
Par exemple, l’exercice suivant :
> y = x + 6, x = z + 3, et z = 6. Trouvez la valeur de z.
doit être modifié en :
> y = x + 6, x = z + 3, et z = 6. Trouvez le maximum de valeurs.
Autre exemple, l’exercice suivant :
> Une particule a une vitesse de 2 mètres par seconde à un instant t. Elle accélère de 5 mètres par secondes carrées durant 25 secondes. Calculez la distance parcourue à l’instant t + 5 minutes.
Doit être reformulé comme ceci :
> Une particule a une vitesse de 2 mètres par seconde à un instant t. Elle accélère de 5 mètres par secondes carrées durant 25 secondes. Trouvez un maximum de valeurs.
Cet effet a été validé expérimentalement. Les expériences de Owen et Sweller (1985) ont comparé deux groupes d’élèves de même niveau qui recevaient des exercices de géométrie : un groupe avait un énoncé sans but, et l’autre un exercice conventionnel. On entraînait les deux groupes d’élèves, chacun avec un type bien précis d’exercice, et on comparait les résultats avec des exercices conventionnels tout ce qu’il y a de plus normaux. Des expériences complémentaires, effectuées par Bobis, Sweller, et Cooper (1994), ont confirmé l’efficacité de cette stratégie avec des exercices de géométrie. Enfin, les études de Sweller, Mawer, et Ward (1983) ont testé l’efficacité de cette technique sur des exercices de physique. La différence était en faveur du groupe sans but dans tous les cas.
L'explication de la démarche
[modifier | modifier le wikicode]Un des défauts des exercices est qu'ils permettent à l'élève de trouver la solution par essai ou erreur, sans avoir réellement compris la démarche à utiliser. Un élève qui a réussi à trouver la solution ne saura pas forcément se souvenir de comment celui-ci à fait et encore moins de savoir pourquoi il a procédé ainsi. Ce problème est souvent résolu par l'usage d'exemples travaillés, mais cela ne marche pas toujours chez certains élèves. Il arrive que les élèves se contentent de reproduire une procédure sans la comprendre.
Pour éviter cela, il est possible de demander à l'élève de justifier sa démarche, pourquoi a-t-il procédé ainsi, de le forcer à expliquer pourquoi ce qu'il a fait permet de trouver la solution. Ces explications permettent à l'élève d'identifier quels sont les types de problèmes et pourquoi ceux-ci doivent être résolus d'une certaine manière. Cette explication de la démarche (le terme anglo-saxon, mal-nommé, est "self-explanation"), donne expérimentalement de bons résultats, du moins si l'élève arrive à donner des explications correctes et élaborées.
L'usage de travaux de groupe
[modifier | modifier le wikicode]De nos jours, les pédagogies basées sur des travaux de groupe deviennent de plus en plus courantes. Ces **pédagogies coopératives** demandent aux élèves de travailler en groupes de deux personnes ou plus, que ce soit en utilisant des débats de classe, des jeux de rôles, des travaux pratiques en groupe, etc. On peut se demander pourquoi faire travailler les élèves en groupe permettrait d'améliorer l'apprentissage. On peut supposer un effet sur la motivation, mais il existe aussi une raison liée à la mémoire de travail. L'effet de la mémoire de travail collective nous dit que la charge cognitive est diminuée quand on fait travailler les élèves en groupe. De plus, cet effet est valable pour tous les élèves, même ceux qui ont peu de connaissances antérieures : il ne s'agit pas d'un expertise reversal effect.
Cela vient du fait qu'avec une bonne répartition des tâches entre élèves, la charge cognitive est répartie sur plusieurs personnes, diminuant la charge cognitive pour chaque élève. Cela implique que le travail de groupe ne fonctionne que pour des tâches complexes et est contre-productif pour les tâches simples. Avec des tâches simples, la charge de la mémoire de travail est suffisamment faible pour que les élèves puissent la gérer individuellement : il n'y a pas besoin de la répartir entre plusieurs élèves.
Mais à cette répartition de la charge cognitive, il faut ajouter les coûts de communication entre élèves : ceux-ci doivent échanger des informations. Et ces coûts de transaction vont augmenter légèrement la charge cognitive : pour savoir à qui demander l'information, il faut conserver des informations sur la répartition des tâches dans le groupe en mémoire de travail. Ainsi, un bon apprentissage coopératif doit explicitement concevoir les problèmes de manière à diminuer les coûts de transaction et faciliter la répartition des tâches. Cela expliquerait pourquoi les études et recherches sur l'apprentissage coopératif donnent des résultats si variés : suivant la qualité de la répartition des tâches, l'apprentissage peut être très efficace ou très laborieux. Ainsi, la majorité des études sur l’efficacité de l'apprentissage coopératif sont à jeter à la poubelle : elles ne tiennent pas en compte la qualité de la séparation des tâches.
Références
[modifier | modifier le wikicode]- Learning from examples: Instructional principles from the worked examples research, par Atkinson, Derry, Renkl et Wortham, datée de 2000.
Les stratégies de répétition
On a vu dans les chapitres précédents que mémoriser une information consiste à la relier avec des connaissances antérieures. Ce processus ne laisse aucune place à la "répétition par cœur". D'ailleurs, les expériences faites sur le sujet ont montré que cette forme de répétition, comme la relecture ou le par cœur, n'a aucun effet à long terme. Pour être précis, elle améliore les performances de reconnaissance mais pas de rappel.
Pour vérifier sa mauvaise efficacité, des chercheurs ont demandé à des volontaires de décrire du mieux qu'ils pouvaient une pièce d'un penny, un centime américain. De plus, ils leur ont posé quelques questions simples sur cette pièce. Bilan : les volontaires ne se souvenaient pas des détails de la pièce. Par exemple, ils ne savaient pas si le visage était tourné vers la droite ou la gauche. Pourtant, ces personnes voient cette pièce tous les jours et y sont exposés en permanence. Dans le même genre, on peut demander à des cobayes quelle est la disposition des chiffres (les touches) sur leur téléphone : le taux de fausses réponses est particulièrement élevé. Pourtant, les sujets font attention à la disposition des touches quand ils utilisent le clavier, pour ne pas faire d'erreurs de frappe. Mais cela ne permet que de faire passer l'information en mémoire à court terme, la répétition ne permettant que de l'y maintenir. Cela n'a aucune influence sur l'encodage. Répéter mentalement un numéro de téléphone permet de le garder à l'esprit, dans la mémoire à court terme mais aucunement de l'encoder en mémoire à long-terme.
La relecture/révision
[modifier | modifier le wikicode]Cette constatation a naturellement des conséquences pour les apprentissages scolaires. Par exemple, relire ses cours sur un faible intervalle de temps n'a pas vraiment d'influence, les connaissances étant encodées lors de la première présentation (sauf cas de surcharge de la mémoire à court terme). Cela ne signifie pas que relire ses cours est inutile, vu que de nouvelles associations peuvent se former à chaque relecture. Mais l'efficacité de cette stratégie est alors rapidement décroissante. Ce cas est non seulement possible, mais aussi extrêmement fréquent, au point qu'il peut s'observer avec une simple liste de mots ! Cela se voit très bien dans les expériences de rappel libre répété, où des sujets doivent apprendre une liste d'items, avant de devoir les rappeler dans l'ordre de leur choix, plusieurs fois de suite, avec des intervalles de pause entre chaque rappel. On observe alors qu'au fil des rappels, les sujets réorganisent les items suivant leurs connaissances antérieures (les items sont de plus en plus classés par catégorie, par exemple). De manière générale, l'effet de la relecture se limite à l'élaboration de nouvelles inférences, à quelques exceptions près. C'est très utile si on a pas très bien compris le cours, ou si on veut l'approfondir. Mais pour qui a bien compris le cours, pas besoin de relire une dizaine de fois son cours dans la même soirée. Quelques relectures devraient suffire à un bon élève.
Les études sur l'efficacité de la relecture sont légion et on peut notamment citer un article de 2008, paru dans le journal "Comtemporary educationnal psychology", qui a étudié l'impact de la relecture sur la mémorisation/compréhension d'un texte en prose. Cet article visait à répliquer diverses études précédentes, aux résultats hétérogènes. Celles-ci montraient que la relecture était relativement inefficace, sauf dans deux cas précis.
- Dans le premier cas, les relectures sont nombreuses et le test a lieu immédiatement après les relectures. Malheureusement, l'effet s'estompe rapidement, retarder le test de quelques heures ou jours suffisant à faire disparaître l'effet.
- Dans le second cas, les relectures étaient espacées de plusieurs heures ou plusieurs jours. Cette fois-ci l'effet était durable.
En somme, la relecture est utile, mais seulement si on relit quelque chose que l'on a pas lu depuis longtemps. Bachoter n'a strictement aucune efficacité à long terme. Cela permet juste d'avoir de bonnes notes à un examen ayant lieu le lendemain, mais vous avez des chances de tout oublier quelques jours ou semaines après. Nous reviendrons plus loin sur le cas des relectures espacées, qui est plus intéressant qu'il n'y paraît.
Mais alors pourquoi l'intuition nous dit-elle que bachoter et relire ses cours est une méthode efficace ? Deux raisons à cela. Premièrement, il existe un effet positif à court terme, qui peut induire en erreur. Mais sur le long terme, l'effet du bachotage se réduit très rapidement et n'a pas d'effet durable, contrairement à d'autres méthodes de révision. Ensuite, il faut savoir que relire, apprendre par cœur, améliore la familiarité avec le matériel. Sa reconnaissance est donc plus facile. Cette familiarité avec le matériel à apprendre n'augmente pas ses performances de rappel, mais donne l'illusion d'avoir appris. Cette illusion de connaissance est à l'origine de notre foi dans l'apprentissage par cœur pour la mémorisation. Notre évaluation d'un apprentissage se base en effet beaucoup sur ce sentiment de familiarité, là où les performances de rappel sont plus difficiles à connaître. Le seul moyen pour avoir une bonne idée de ce que l'on sait, à savoir ce que l'on peut rappeler, est de se tester, de se faire évaluer avec un test ou une interrogation. On verra plus tard que cette technique a de nombreux autres avantages.
Comme on le devine, l'efficacité de la répétition varie suivant différents paramètres, qu'il vaut mieux optimiser le plus possible : les élèves doivent répéter efficacement. Or, leurs méthodes de travail ont leur importance dans ce processus de répétition. Il existe ainsi de nombreuses stratégies de révisions qui permettent d'optimiser les révisions au maximum.
La répétition de rappel
[modifier | modifier le wikicode]Les informations qu'on retient le mieux ne sont pas forcément celles qu'on a vues le plus souvent, mais celles dont on s'est souvenu régulièrement. À chaque fois que vous vous rappelez quelque chose, ce quelque chose en question va être consolidé un peu plus à la suite du rappel. Par exemple, si vous recevez un nouveau numéro de carte bleue, il va vous falloir un certain temps avant de le connaître par cœur. Au tout début, vous aurez du mal à vous en souvenir, et il se peut que vous utilisiez des procédés mnémotechniques pour vous faciliter la vie. Par contre, à force de vous rappeler de le code de carte bleue, vous finirez par vous en souvenir de mieux en mieux. Chaque rappel successif fait de moins en moins appel à votre concentration et demande de moins en moins d'efforts. Ainsi, des rappels répétés consolident la connaissance en mémoire à long terme, ce qui immunise la connaissance rappelée contre l'oubli.
La retrieval practice
[modifier | modifier le wikicode]Diverses résultats suggèrent d'utiliser une méthode de révision appelée retrieval practice, terme que j'ai décidé de traduire par répétition de rappel. Elle consiste à forcer l'élève à se rappeler l'information plutôt que de la relire plusieurs fois de suite. Celle-ci est plus efficace que la simple relecture/révision. Pour donner un exemple, je vais prendre une expérience effectuée par Roediger & Karpicke. On demandait à des étudiants de lire des textes scientifiques relativement courts. Le premier groupe devait lire le texte 4 fois, le second groupe lisait le texte trois fois et se faisait tester une fois, tandis que le troisième groupe avait droit à une seule lecture et trois interrogations. Une semaine plus tard, les trois groupes étaient testés : plus un groupe avait été testé, mieux c'était.
Comme autre exemple, nous allons prendre une étude réalisée dans un collège américain (dans l'Illinois). Dans celle-ci, des chercheurs ont organisé un cours d'histoire-géographie de manière que les divers points du cours fassent l'objet d'interrogations régulières. Les élèves subissaient ainsi des interrogations régulières, à faible coefficient, plusieurs fois par semestre. Le rythme d'interrogation était nettement plus important comparé à la situation avant l'expérience. Lors d'une évaluation un mois après l'expérience, les élèves obtenaient la note moyenne de A- sur les notions apprises et testées lors de l'expérience, alors que les autres notions recevaient une note moyenne de C+. Autant dire qu'une telle différence est particulièrement appréciable.
Il semblerait que la répétition de rappel soit plus efficace si elle demande des efforts. Si une information met du temps à être rappelée, si elle est difficile à se remémorer, son rappel la consolidera d'autant plus. Il s'agit d'un bon exemple de ce que l'on appelle une difficulté désirable. En somme, apprendre n'est pas quelque chose de facile, qui ne demande pas d'efforts. Il est des difficultés qui, loin de nuire à l'apprentissage, le facilitent.
Les interrogations et évaluations sont donc des techniques d'apprentissage et non un moyen de vérifier les connaissances de l'élève : elles doivent être fréquentes. De même, s'auto-tester ou se faire tester par un pair est une méthode de révision efficace. Si vous allez travailler chez un ami, essayez de vous poser des questions à tour de rôle. Si vous révisez seul, vous pouvez essayer de ré-expliquer le cours avec vos propres mots. Cela demande d'écrire des résumés de cours, sans regarder ses notes de cours, ou d'utiliser la technique du canard en plastique : prenez un objet quelconque (typiquement, un canard en plastique), et faites comme s'il s'agissait d'un humain auquel vous expliquez votre cours. Le bilan de cette technique semble être vraiment positif[1][2][3][4][5][6][7][8][9].
Les flashcards
[modifier | modifier le wikicode]La répétition de rappel peut aussi s’implémenter avec des flashcards, des cartes sur lesquelles on marque une question d'un côté et la réponse à mémoriser de l'autre côté. Le but est, à chaque carte tirée, de répondre à la question posée, avant de retourner la carte pour voir si la réponse donnée est correcte. Cette technique peut s'utiliser pour beaucoup de choses, comme des listes de mots, des définitions, des formules mathématiques, des dates, etc.
Pour utiliser ces flashcards, un psychologue du nom de Leitner a inventé un système assez simple. Ces cartes sont classées en groupes numérotés, qui sont visités à des intervalles de temps différents : les premiers groupes sont plus souvent visités que les derniers. Au tout début, toutes les cartes sont placées dans le premier groupe. Ensuite, si on réussit à se souvenir de ce qu'il y a sur la carte, on la met dans le groupe suivant, si on échoue, on remet celle-ci dans le premier groupe. Par la suite, on traite tous les groupes un par un.
Bien sur, d'autres variantes existent : en cas d'échec, on peut simplement rétrograder la carte d'un rang.
La distribution de l'apprentissage
[modifier | modifier le wikicode]Un exemple similaire de difficulté désirable, fortement lié à la répétition de rappel, va là aussi à l'encontre de notre intuition. Beaucoup d'entre vous ont passé des soirées à bachoter et à réviser sans relâche avant un examen important ou une interrogation quelconque. Ce faisant, vous avez certainement révisé vos cours ou refait des exercices durant une heure, peut-être plus, sans vous arrêter. Mais cette méthode, appelée apprentissage massé est en réalité assez mauvaise pour mémoriser. Ses effets sont similaires à ceux de l'apprentissage par cœur : efficace à court-terme, mais sans effet notable au bout de quelques jours ou semaines. Autant dire que les illusions de savoir vues plus haut jouent encore une fois à plein. La recherche montre qu'il est beaucoup plus efficace de distribuer ses révisions dans le temps, dans plusieurs sessions espacées dans le temps. Cet effet est connu sous le nom de distribution de l'apprentissage
On a vu auparavant que relire ses cours est une mauvaise méthode de révision. Elle fonctionne lors des premières relectures, mais son effet s'estompe rapidement après 2 à 4 relectures, une fois que toutes les élaborations possibles ont été faites. Au-delà, la relecture n'a que peu d'influence sur la mémorisation ultérieure, vu qu'elle n'implique ni élaboration, ni rappel répété. Mais il faut cependant nuancer un peu les choses. La relecture peut être efficace sous certaines conditions bien précises. Il faut dire qu'elle est le plus souvent utilisée sous la forme de révisions massées, à savoir des révisions condensées sur une période unique, généralement importante. Une étudiant va ainsi relire ses cours plusieurs fois durant une heure ou deux, sans s'arrêter. C'est moins efficace que de distribuer les révisions, à savoir étaler les révisions dans le temps, découper le travail en petits morceaux séparés par des intervalles de temps assez longs, à faire de nombreuses pauses assez longues entre chaque répétition.
Expérimentalement, on constate que l’apprentissage distribué surpasse l’apprentissage massé, quelle que soit la situation d’apprentissage ou le matériel à apprendre. Cette supériorité de la distribution de l’apprentissage a été démontrée par une quantité absolument incroyable d’études [10]. Cette supériorité de la distribution sur l'apprentissage massé s'appelle le spacing effect. Les études sur le sujet ont aussi montré que cet effet vaut pour une large gamme de matériel : les faits ne sont pas les seuls concernés. Cela marche aussi pour la révision de cours magistraux, l’acquisition de procédures cognitives et même l’apprentissage moteur. Un élève aura donc tout intérêt à répartir ses devoirs sur la semaine de façon à en faire un petit peu à chaque fois. De même, faire de longues pauses tous les deux-trois exercices aidera fortement l’élève. De même, les professeurs gagnent à étaler les devoirs dans la semaine ou le mois. De ce point de vue, les statistiques montrent clairement qu’il y a du chemin à faire : les élèves ont souvent tendance à utiliser l’apprentissage massé.
L’intervalle de temps idéal entre deux répétitions n’est pas encore connu avec certitude. Les chercheurs recommandent toutefois des intervalles très longs, de plusieurs jours. Des intervalles de 4 à 5 jours donneraient de bonnes performances, même si les chercheurs s’autorisent à penser à des intervalles plus longs pour certains types de matériel. Il semblerait que la durée entre deux révisions dépende de la facilité d'apprentissage du matériel. Du matériel facile à retenir se marie bien avec des intervalles longs entre deux révisions, là où du matériel complexe peut gagner à avoir des temps inter-révisions de l'ordre du quart d'heure.
La distribution de l'apprentissage peut aussi s'implémenter en prenant en compte le fait que l'élève n'a pas qu'une seule matière à réviser. Par exemple, un élève peut avoir des devoirs de mathématique et de biologie à faire dans la même soirée. D'ordinaire, les élèves ont tendance à travailler par blocs : ils font tous leurs devoirs de mathématiques d'abord, puis passent à la biologie. En réalité, il est préférable de distribuer les apprentissages entre les matières. Ainsi, il vaut mieux faire quelques exercices de mathématique, avant de passer à la biologie, puis de revenir aux mathématiques, et ainsi de suite. Cette méthode, qui consiste à remplir les vides dus à la distribution avec les révisions d'une autre matière, s'appelle l'interleaving.
Lire aussi
[modifier | modifier le wikicode]Pour aller plus loin, je vous conseille deux lectures :
- l'article nommé Improving Students’ Learning With Effective Learning Techniques: Promising Directions From Cognitive and Educational Psychology ;
- et le livre nommé "Mets-toi ça dans la tête !", par Brown, Roediger et McDaniel.
Références
[modifier | modifier le wikicode]- ↑ Bielaczyk, Pirolli, & Brown, 1995
- ↑ Chi, Bassok, Lewis, Reimann, & Glaser, 1989
- ↑ Chi, de Leeuw, Chiu, & LaVancher, 1994
- ↑ Mwangi & Sweller, 1998
- ↑ Renkl, 1997
- ↑ Renkl, Stark, Gruber, & Mandl, 1998
- ↑ Roy & Chi, 2005
- ↑ VanLehn, Jones, & Chi, 1992
- ↑ Renkl, 1999
- ↑ Using Spacing to Enhance Diverse Forms of Learning : Review of Recent Research and Implications for Instruction
Les stratégies d'élaboration
Outre la répétition de rappel, il est aussi possible de jouer sur l'élaboration lors des révisions, afin d'ajouter de nouvelles associations d'idées à chaque révision du matériel à apprendre. À ce petit jeu, les devoirs un peu plus actifs demandent souvent à l'élève de réfléchir, voire de générer quelque chose à partir de connaissances antérieures, permettant ainsi de créer de nouvelles connections dans ce réseau. En environnement scolaire, les études de 2003 et 2007 du Conseil canadien sur l’apprentissage ont clairement montré que les devoirs basés sur du par cœur ou de la répétition de maintien ont une efficacité inférieure aux devoirs demandant d'être actif.
Compléter son cours avec des sources annexes/alternatives
[modifier | modifier le wikicode]Un bon moyen pour cela est tout bonnement de compléter son cours, avec des sources alternatives de qualité. Par exemple, lire, en plus de ses cours, des livres sur le sujet, voir des vidéos youtube sur le sujet, lire des articles de vulgarisation, etc. Un avantage est que l'approche suivie par ces sources secondaires est parfois différentes, ce qui permet de revoir le contenu à réviser d'une autre façon. Et cela aide à mieux comprendre et mieux mémoriser le contenu originel. Le fait que l'approche soit différente fait que les mêmes informations seront reliées à d'autres indices de récupération qui ne sont pas dans le matériel source de base, d'où un meilleur rappel et tout ce qui va avec (meilleur transfert d'apprentissage, etc).
Une possibilité souvent mise de côté par les élèves est de réviser avec le manuel à leur disposition. En plus de relire ses notes de cours, il est utile de relire le cours ou la synthèse qui en est faite dans le manuel, bien que cela demande d'avoir un manuel qui contient une synthèse de cours à disposition (chose de plus en plus rare). Généralement, la synthèse est une sorte de résumé qui dit clairement ce qui est important, quelles sont les idées générales, etc. Et qui aide donc à mettre en avant les idées générales, indispensables à la compréhension globale du sujet, et centrale dans le réseau sémantique/mnésique.
L'effet de génération
[modifier | modifier le wikicode]Pour élaborer, on peut utiliser ce qu'on appelle l'effet de génération : générer soit-même le matériel à apprendre demande de générer des associations entre connaissances antérieures, pour construire la connaissance voulue. Sous certaines conditions très restrictives, cela permet de créer plus d'associations qu'avec un apprentissage direct. On peut utiliser cet effet en demandant aux élèves de répondre à des questions de compréhension, de réaliser des résumés du cours, etc. On peut aussi appliquer ce conseil aux langues étrangères : une fois que les élèves ont appris suffisamment de vocabulaire, mieux vaut les faire parler que de leur faire lire des textes. Cependant, cet effet de génération ne marche pas à tous les coups. Il est essentiel que l'élève trouve la réponse demandée, ou réussie à effectivement générer quelque chose.
Stratégies de révision
[modifier | modifier le wikicode]Par exemple, visualiser mentalement le concept à apprendre donne quelques résultats. De nombreux procédés mnémotechniques de l'antiquité se basaient sur ce principe : la méthode des lieux en est un bon exemple. Cette imagerie mentale a été testée expérimentalement, par diverses études. On pourrait citer l'étude de Leutner, Leopold, and Sumfleth (2009), qui a clairement montré que cette visualisation mentale permettait de diminuer la charge cognitive lors de l'apprentissage, comparé à la création manuelle de dessins. De plus, les élèves gagnaient fortement à imaginer visuellement le matériel à apprendre. Citons aussi l'étude de Leutner et al. (2009) a aussi montré que cette imagerie mentale a des effets positifs pour la compréhension. Pour donner un dernier exemple, l'étude de Leahy and Sweller (2004) a montré que demander à des étudiants d'imaginer les contours d'une carte permettait de mieux mémoriser celle-ci, comparé à un groupe qui étudiait la carte. Malheureusement, cette imagerie demande de l’entraînement, et ne s'applique que pour une quantité limitée de matériel.
Comme autre exemple un peu plus utile, créer des résumés du cours demande de sélectionner les informations du cours et de les traiter, ce qui permet de créer des associations. De plus, cela permet d'extraire les idées générales du cours, ce qui permet une réorganisation efficace du matériel en mémoire. Cependant, l'efficacité de cette technique dépend de la capacité de l'élève à créer ce résumé. Créer efficacement des résumés demande d'utiliser quelques stratégies, qui ne sont pas forcément bien connues des élèves. Mais pour les élèves bons en création de résumé, cette technique est à utiliser dès que possible.
Autre méthode : pour chaque fait présent dans le cours, tenter d'en donner une explication. Cette technique qui consiste à poser des questions du style « pourquoi », pour chaque fait du cours, aurait une efficacité qui ne serait pas négligeable[1]. Elle permet non seulement d'élaborer, mais elle permettrait à l'élève de se rendre compte de certaines conceptions, de certaines incohérences, et de les corriger. Il est évident que cette méthode a cependant une efficacité limitée : elle ne marche que pour mémoriser des faits relativement simples, que l'on peut réussir à expliquer par soit-même.
Stratégies de prise de notes
[modifier | modifier le wikicode]Cet effet de génération a aussi des effets sur la prise de notes. Lors d'un cours magistral, au lieu d'écrire ce que raconte le professeur, il vaut mieux sélectionner ce que l'on va noter, en prenant en compte les idées générales du discours du professeur, et d'autres paramètres[2]. Faire ainsi permet d'augmenter le traitement fait sur les informations à écrire : on crée plus d'associations. Les chercheurs ont aussi pu constater que l'effet sur la mémoire et la compréhension des cartes mentales est maximal si l'élève crée lui-même la carte mentale à apprendre. En somme, les cartes mentales sont de très bon outils de prise de notes.
La création de cartes mentales à partir du cours est légèrement reliée à cette technique de génération. L'effet est d'ailleurs maximal si l'élève crée lui-même la carte mentale. La recherche est très claire là-dessus : ça fonctionne, et les professeurs ne devraient pas s'en priver [3][4][5][6].
Procédés mnémotechniques
[modifier | modifier le wikicode]Les procédés mnémotechniques sont de techniques qui permettent de mémoriser facilement une gamme limitée de matériel (une liste de mots, de dates, ou autre). Tous fonctionnent sur le même principe : organiser le matériel à apprendre de manière à lui donner une "signification", imposer du sens à du matériel qui n'en a pas. Ils permettent notamment d'associer les éléments du matériel à rappeler avec des indices, qui permettront de se remémorer le matériel appris. Ces procédés sont malheureusement trop peu utilisés et je tiens à signaler qu'il existe un wikibooks sur le sujet, accessible via ce lien : Liste de mnémoniques). Évidemment, ces procédés sont utiles pour une gamme très limitée de matériel, ce qui a tout de même son utilité.
Chunking
[modifier | modifier le wikicode]Une première mnémotechnique est la technique du chunking. Elle consiste à regrouper les éléments du matériel à apprendre en plusieurs groupes qui ont une signification bien précise. Se souvenir du regroupement est alors plus facile que de se souvenir des éléments individuels, qu'il est possible de retrouver en décomposant chaque regroupement. Ces regroupements sont généralement chargés en mémoire de travail lors du rappel. Pour gérer la mémoire de travail au mieux, on doit trouver un compromis idéal entre nombre de regroupements (de chunks), et taille des groupes. Des groupes trop gros saturent la mémoire de travail avec un trop grand nombre d’éléments, tandis qu'un trop grand nombre de groupes va saturer la mémoire de travail de groupes. Idéalement, la taille d'un groupe, doit être inférieur à la capacité de la mémoire de travail, et est donc limité à 4 ou 5.
Par exemple, essayez de mémoriser le numéro de téléphone suivant, sans regrouper les chiffres :
0 3 2 4 5 3 4 6 7 8
Et maintenant essayez en regroupant les chiffres deux à deux :
03 24 53 46 78
La seconde suite était plus facile : le fait de regrouper les chiffres fait que le nombre de chunks à mémoriser était plus faible.
Historiquement, le premier scientifique a avoir découvert cela était Miller, celui qui a découvert que la mémoire à court terme pouvait retenir 7 +- 2 chunks. Son expérience était simple : il devait retenir un maximum de chiffres binaires, présentés les uns après les autres. Pour information, le binaire est un système d'écriture des nombres qui n'utilise que deux chiffres : 0 et 1. Dans son expérience, il devait retenir une suite de 0 et de 1, dans ce genre : 1011110011010101100000. En travaillant sur des chiffres isolés, il arrivait à retenir 7 chiffres. Mais il eut l'idée d'utiliser des groupements de deux, trois, ou quatre chiffres binaires. Il eut l'idée d’interpréter chacun de ces groupe comme un nombre écrit en décimal. Il lui suffisait d'apprendre la correspondance entre groupes de chiffres et nombres, et de l'utiliser pour mémoriser les chiffres.
0 = 0000 1 = 0001 2 = 0010 3 = 0011 4 = 0100 5 = 0101 6 = 0110 ...
Hiérarchies
[modifier | modifier le wikicode]On peut aller encore plus loin en regroupant les regroupements : on peut rassembler des chunks "simples" en chunks de plus haut niveau. Idéalement, on peut poursuivre ainsi de suite jusqu’à ce que l'on ait rassemblé toutes les informations dans un seul groupe, un seul chunk. On obtient ainsi une hiérarchie, qui respecte certaines contraintes.Cette hiérarchie est ce que l'on appelle une structure de récupération, aussi appelés plan de récupération. Expérimentalement, cette organisation hiérarchique permet d'obtenir un meilleur rappel que d'autres formes d'organisation.
- Prenons un exemple : l'expérience de Bousfield (1953). Dans cet expérience, il était demandé à des élèves de mémoriser une liste de 60 mots. Ces 60 mots appartenaient à 4 catégories différentes : animaux, profession, légumes, et vêtement. Les mots sont présentés aléatoirement aux cobayes. Seulement, au fil des essais, on s’aperçoit que les cobayes ont tendance à regrouper les mots dans leurs réponses. Au final, après un grand nombre d'essais, ils rappellent les mots catégorie par catégorie. Et ce regroupement est fortement corrélé à un taux de rappel de plus en plus élevé.
- Prenons un autre exemple : Clark, Lesgold et Winzenz (1969) ont fait apprendre des listes de mots à deux groupes de cobayes. Le premier avait une liste de mots organisée hiérarchiquement, et l'autre une liste complètement désorganisée. Le bilan est très clair : les participant du groupe hiérarchique ont rappelés 3 fois plus de mots que les autres.
- Wittrock and Carter (1975) ont montré que des élèves du secondaire qui organisaient eux-même une table de minéraux en hiérarchie avaient de meilleures performances que des élèves qui ne faisaient que recopier et relire la liste de minéraux. Par contre, relier une hiérarchie crée par le professeur donnait de meilleurs résultats que générer soit-même la hiérarchie.
- D'autres expériences sur des listes de mots sont arrivées aux même résultats : classer les informations dans une hiérarchie permet de faciliter fortement le rappel et l'apprentissage, d'un facteur pouvant aller de 3 à 5.
Cette efficacité des hiérarchies provient en partie du processus de chunking, de regroupement. Dans toutes les expériences faites sur le sujet, les expérimentateurs ont remarqué que lors du rappel d'une hiérarchie, le rappel d'un concept était suivi du rappel des sous-concepts situés juste en-dessous dans l'arbre dans 90% des cas. En clair, chaque information sert d'indice de rappel pour les sous-informations placées immédiatement en dessous de lui. La recherche de l'information à rappeler se fait en parcourant la hiérarchie, en partant du sommet, jusqu’à trouver l'information à rappeler. Lors de ce parcours, les indices parcourus lors de la recherche de l’information sont aussi conservés en mémoire de travail, et servent à se repérer dans la hiérarchie. La somme d'indices parcourus + taille du groupe en cours de visite ne doit donc pas dépasser la capacité de la mémoire de travail.
Il est donc conseillé de créer des hiérarchies pour mieux mémoriser. Mais comment faire ? Voici quelques exemples, qui vous permettront de mieux comprendre comment organiser le matériel à apprendre autour d'un plan de récupération. Ces exemples vont aborder le cas de matériel simple, souvent destiné à être appris par cœur.
Par exemple, essayez de deviner laquelle de ces deux listes fonctionne le mieux :
Liste 1 :
- vache
- cheval
- poney
- poulain
- cochon
- rat
- souris
- lézard
Liste 2 :
- vache
- cochon
- poulain
- souris
- cheval
- lézard
- poney
- rat
C'est évidemment la première, vu que les mots sont regroupés par catégorie.
Le fait d'indiquer explicitement les catégories permet d'améliorer encore la mémorisation.
Liste 1 :
- vache
- cheval
- poney
- poulain
- alligator
- crocodile
- caïman
- lézard
Liste 2 :
- équidés :
- vache
- cheval
- poney
- poulain
- reptiles :
- alligator
- crocodile
- caïman
- lézard
De plus, si on montre un petit dessin montrant la hiérarchie des catégories, le rappel de la liste de mots est clairement meilleur comparé à une liste de mot convenablement triée.
On peut donner un premier exemple, avec des groupements en catégories un peu plus subtils : l'apprentissage de cartes. Les départements sont un bon exemple : les catégories sont alors les régions.
Ainsi, au lieu d'utiliser une liste dans ce genre :
*01 = Ain ;
- 02 = Aisne ;
- 03 = Allier ;
- etc ;
Vous devriez utiliser une liste dans ce genre :
Départements du nord-pas-de-calais :
- 59 = Nord ;
- 62 = Pas-de-calais.
Départements d'île-de-France :
- 75 = Paris ;
- 77 = Seine-et-Marne ;
- etc.
On peut aussi appliquer cette technique à l'apprentissage de dates, en histoire, à condition d'utiliser les nœuds qui conviennent. Les nœuds les plus élevés dans la hiérarchie seraient du style : Moyen-age, antiquité, etc. Quand aux nœuds un peu plus bas, ils seraient du style : règne de Louis 16, règne de Louis 14, etc. Cela peut aussi s'appliquer facilement à l'apprentissage de listes de vocabulaire, comme des listes de verbes irréguliers, des listes de mots d'une langue étrangère, etc.
Former des phrases
[modifier | modifier le wikicode]L'apprentissage verbatim d'une liste de mots est clairement une tâche très difficile. Aussi, imposer du sens à un tel matériel peut sembler compliqué. Cependant, il existe une méthode tout simple pour ce faire : former une phrase avec les mots à apprendre. Il est aussi possible de ne prendre que la première lettre d'un mot pour former des acronymes, ou former de nouvelle phrases. Diverses mnémoniques de ce genre existent, notamment pour mémoriser les formules de la thermodynamique, les décimales du nombre PI, la liste des planètes, ou le code couleur des résistances.
Références
[modifier | modifier le wikicode]- ↑ http://www.education.com/reference/article/self-explanation/
- ↑ Classroom Instruction that Works. Marzano, R et al (2001)
- ↑ Cunningham (2005) : Mindmapping: Its Effects on Student Achievement in High School Biology
- ↑ Farrand, Hussain, and Hennessy (2002) : "The efficacy of the mind map study technique". Medical Education
- ↑ Brian Holland, Lynda Holland, Jenny Davies (2004). An investigation into the concept of mind mapping and the use of mind mapping software to support and improve student academic performance
- ↑ Marzano, R et al (2001) : Classroom Instruction that Works
Développer sa méta-cognition
Maintenant, nous allons quitter le domaine du fonctionnement de la mémoire. Nous allons aborder une compétence appelée la méta-cognition, qui est fortement corrélée avec la réussite scolaire. Pour résumer, la méta-cognition est la capacité à évaluer et contrôler son apprentissage ou ses processus mentaux. Pour cela, les élèves ont souvent à leur disposition diverses stratégies de mémorisation, de compréhension de texte, de résolution de problèmes, etc. Certaines de ces stratégies de mémorisation représentent la capacité à « apprendre à apprendre ». En gros, plus un élève a une bonne méta-mémorisation, plus il sait quelles sont les méthodes pour apprendre facilement. À côté, on trouve aussi des stratégies de compréhension de texte : se baser sur la structure du texte, chercher l'idée générale, relier le contenu du texte avec des connaissances antérieures, etc. Mais concentrons-nous sur les stratégies de mémorisation.
La méta-mémoire et ses mécanismes
[modifier | modifier le wikicode]Pour bien réviser un élève doit savoir ce qu'il sait et ce qu'il ne sait pas, histoire de se concentrer sur ses points faibles. Cette capacité à savoir ce qu'on sait et ce que l'on ignore s'appelle la méta-mémoire. Plus un élève a une bonne méta-mémoire, plus il sait quelles sont ses lacunes, et quelles sont ses points forts. Cette méta-mémoire est fortement corrélée à la réussite scolaire ultérieure. Cette capacité de méta-mémoire permet de savoir où nous en sommes dans notre apprentissage, de voir notre progression, de savoir si nos stratégies de mémorisation sont adaptées, d'identifier nos lacunes et nos points forts, de savoir ce que l'on doit revoir. Elle permet aussi de savoir si on va arriver à résoudre une tache bien précise. Par exemple, elle permet à un élève de savoir s'il saura résoudre tel ou tel exercice. Et je peux vous assurer que cela sert beaucoup lors des contrôles : cela permet de gérer son temps efficacement, de savoir sur quoi passer du temps si on veut gratter des points, etc.
Pour étudier la méta-mémoire, les scientifiques se contentent de poser des questions à des sujets. Ceux-ci peuvent alors soit se rappeler de la réponse, soit ne pas s'en souvenir du tout, soit avoir le sentiment qu'ils connaissent la réponse mais ne peuvent pas s'en rappeler immédiatement (ils ont la réponse sur le bout de la langue). Généralement, on donne des définitions de mots rares aux sujets, qui doivent retrouver le mot correspondant. Si le sujet a un mot sur le bout de langue, il doit donner un maximum d'informations sur ce mot, et dire s'il arrivera à s'en rappeler d'ici quelques minutes. Le dernier cas est assez intéressant. En attendant un peu, le sujet se souvient du mot recherché dans 95% des cas. De plus, il arrive à prédire s'ils se souviendra du mot ultérieurement avec une bonne efficacité : si on leur demande si "ça vient", une réponse positive est presque toujours suivie d'un rappel. Dans ce qui va suivre, nous allons parler de TOT pour le phénomène déclenché dans ce protocole expérimental.
Un protocole expérimental similaire est souvent utilisé, la différence étant ce que fait l'expérimentateur quand un sujet a un mot sur le bout de la langue. L’expérimentateur présente alors au sujet un mot, et le sujet doit dire s'il s'agit bien du mot qu'il avait sur le bout de la langue : le sujet doit reconnaître le mot. De plus, avant la présentation du mot, les sujets doivent prédire s'ils se tromperont ou réussiront à reconnaître le mot présenté. Ce protocole évalue ainsi le sentiment de connaissance, appelé Feeling Of Knowing en anglais, et abrévié FOK dans ce qui va suivre. Les deux types de jugement sont fortement corrélés entre eux dans la majorité des expériences. Il existe cependant des manipulations qui favorisent ou diminuent l'occurrence d'un TOT, mais n'influent pas sur l’occurrence des FOK, et réciproquement. À l'heure actuelle (2015), on ne sait pas si TOT et FOK sont des phénomènes différents ou deux faces d'une même pièce.
Ceux qui ont un mot sur le bout de la langue savent qu'ils connaissent le mot, même s'ils n'arrivent pas à s'en souvenir. En conséquence, l'effet du mot sur le bout de la langue rentre dans le cadre de la méta-mémoire, la capacité à savoir ce que l'on sait et ne sait pas. Les mécanismes de l'effet du mot sur le bout de la langue sont donc liés aux mécanismes de la méta-mémoire, ce qui fait que ce qui va suivre est plus une revue des théories sur la méta-mémoire qu'une revue des théories spécialisées sur le manque du mot proprement dit.
Accès direct
[modifier | modifier le wikicode]La théorie de l'activation incomplète dit que le cerveau utilise le niveau d'activation de l'information à rappeler pour en déduire sa présence en mémoire : on suppose qu'on ne connaît pas la réponse quand son niveau d'activation est en deçà d'un seuil de détection, alors qu'on la connaît dans le cas contraire. On a un mot sur le bout de la langue quand ce niveau d'activation est insuffisant pour se rappeler de l'information : au-dessous d'un certain seuil de rappel, l'information n'est pas rappelée. Mais le niveau d'activation peut malgré tout être supérieur au seuil de détection ou au seuil de reconnaissance.
La théorie du déficit de transmission améliore la théorie de l'activation incomplète en postulant que les informations sur le sens d'un mot et sa prononciation sont des informations séparées en mémoire. Quand on a un mot sur le bout de la langue, le sens d'un mot s'active, mais pas sa prononciation : le lien entre ces informations n'est pas assez fort pour propager suffisamment l'activation. Le faible force de ce lien peut être causé par une faible fréquence d'usage du mot ou le vieillissement.
La théorie du blocage expliquerait pourquoi on n'arrive pas à se rappeler du mot sur le bout de la langue. Celle-ci postule que d'autres mots similaires ou reliés s'activent, et entrent en compétition pour le rappel : ces mots similaires bloquent le rappel du mot demandé. Mais cette théorie est très difficile à tester. Le seul protocole le permettant compare un groupe contrôle, et un groupe où l’expérimentateur présente des bloqueurs potentiels avant de demander le rappel du mot. Mais ce protocole souffre d'un problème : les bloqueurs potentiels présentés peuvent servir d'indice de récupération, augmentant alors la probabilité de rappel.
Familiarité des indices
[modifier | modifier le wikicode]D'autres théories complètent les théories précédentes en postulant que la présence d'une information en mémoire est aussi déduite à partir d'un ensemble de soupçons qui indiquent la présence de l'information en mémoire. Un premier indice est la familiarité des indices de récupération. Cette familiarité des indices leur permet de s'activer facilement : ils atteignent un haut niveau d'activation lors de leur présentation. Le niveau d'activation des indices de récupération est donc utilisé, en plus du niveau d'activation du mot à rappeler. Cette familiarité dépend de deux mécanismes : la familiarité des mots utilisés dans la question et la familiarité avec le domaine de la question et sa formulation. Par exemple, à la question "qui a peint la Guernica ?", quelqu'un de peu cultivé répondra directement : "j'en sais rien, j'y connais rien en peinture !". Comme autre exemple, la question "quel est votre nom?" est très familière et vous en déduisez que vous connaissez la réponse.
Pour prouver l'influence de la familiarité des indices, on peut donner des pièges aux sujets, et plus précisément des questions sans réponses valable, mais qui sont très similaires à des questions familières. Celles-ci déclenchent un effet du mot sur le bout de la langue très facilement, pour un mot qui n'existe pas. Par exemple, c'est le cas avec la question suivante « De quel pays le Jacque est-il l'unité monétaire ? ». On peut aussi comparer un groupe où des indices sont présentés plusieurs fois, pour des mots différents, avec un groupe contrôle. C'est cette méthode qui a été utilisée par Metcalfe, Schwartz, et Joaquim dans leur étude de 1993. Le résultat est que le groupe où les indices étaient réutilisés avait plus de mots sur le bout de la langue que les autres, pour un taux de rappel similaire aux autres groupes.
Heuristique d’accessibilité
[modifier | modifier le wikicode]En plus de la familiarité des indices, le cerveau utilise une heuristique d’accessibilité. Pour simplifier, il se base sur les informations liées au mot sur le bout de la langue pour en déduire sa présence : si les indices activent un grand nombre de connaissances supposément reliées au mot sur le bout de la langue, alors le mot est présent en mémoire. Comme preuve expérimentale de l'existence de cette heuristique, on peut citer l'étude de Schwartz et Smith, datée de 1997. Dans cette étude, les sujets devaient mémoriser une liste de correspondances entre un animal et sa localisation géographique. Le groupe contrôle ne recevait aucune information supplémentaire, alors que deux autres groupes recevaient des informations en plus, comme la taille et le régime alimentaire de l'animal. Les trois groupes avaient un taux de rappel identique, mais les deux derniers groupes avaient plus de situations de mots sur le bout de la langue que le groupe contrôle.
À l'heure actuelle, on pense que la familiarité des indices, l'heuristique d’accessibilité, et le niveau d'activation du mot à rappeler sont intégrés par un système de Monitoring, pour déduire si le mot est présent en mémoire ou non. Il semblerait que le mécanisme de familiarité avec les indices de récupération soit utilisé en premier, laissant de plus en plus la place à l'heuristique d’accessibilité. En effet, la reconnaissance des indices active ceux-ci avant d'activer les informations reliées (il faut que l'activation se propage). Cela explique pourquoi la majorité des jugements subjectifs de TOT et de FOK sont très rapides, inférieurs aux temps de rappel d'une information.
Ce système de Monitoring est situé quelque part dans le cerveau, et on suppose qu'il est localisé dans le cortex frontal : des patients avec des lésions dans cette aire du cerveau ont des jugements méta-cognitifs altérés, avec une mémoire normale. Par contre, des patients avec des troubles de la mémoire ont des performances métacognitives normales : c'est le cas des patients avec des lésions dans le lobe temporal inférieur, ou des malades d'Alzheimer. Certains patients ont toutefois des déficits marqués à la fois pour la mémoire et la méta-mémoire : les patients atteints du syndrome de Korsakoff en sont un exemple.
Développer sa méta-mémoire
[modifier | modifier le wikicode]Reste que la méta-mémoire est faillible. Celle-ci se base en effet beaucoup sur la familiarité des indices, la facilité à les exploiter dans des tâches de reconnaissance. Or, on a vu il y a quelques chapitres que cette familiarité est influencée par les méthodes de répétition les plus inefficaces. Relire ses cours ou apprendre par cœur développe ce sentiment de familiarité avec la matériel appris, ainsi que les indices qu'il contient, mais n'a aucune influence sur les capacités de rappel ultérieures. D'où la persistance des méthodes de révision basées sur le par cœur et la relecture des cours. Mais alors comment faire pour que nos élèves puissent développer leur méta-mémoire ? Développer leur expertise, afin de profiter au maximum de l'heuristique d'accessibilité, est une première solution. Mais il y en a d'autres, comme nous allons le voir maintenant.
Des objectifs pédagogiques explicites
[modifier | modifier le wikicode]Pour que l'élève régule efficacement ses apprentissages, le mieux est de fournir explicitement des buts d'apprentissage clairs et précis : l'élève doit savoir ce qu'on attend de lui, ce qu'il est important de savoir ou de savoir faire. Par exemple, les buts peuvent être : "Utiliser la loi de la conservation de la quantité de mouvement pour résoudre des problèmes de physique", "Utiliser l'algorithme de résolution d'une équation du second degré", etc. Ces buts doivent être les plus précis possible : il faut éviter des buts généraux ou trop vagues pour l'élève, tels que "apprendre à lire un texte", "apprendre à chercher de l'information", etc.
Plus les buts sont difficiles, plus l'élève s'orientera vers des stratégies d'apprentissage efficaces. Cela a été montré dans une expérience faite par Fenouillet, en 2003. Dans son expérience, les élèves devaient apprendre des listes de mots. Un premier groupe recevait un but vague : "faites de votre mieux", le second groupe n'avait pas de but, tandis qu'un troisième groupe devait rappeler la totalité de la liste. Au final, le groupe qui recevait le but précis (rappeler toute la liste) avait des performances nettement meilleures : des études complémentaires ont montré que cela provient du fait que le but forçait les élèves à utiliser des stratégies mnémotechniques au lieu d'apprendre par cœur.
Retour sur performance
[modifier | modifier le wikicode]Reste qu'une fois les buts explicités, l'élève doit avoir un moyen de savoir s'il a atteint ces buts, ou s'il s'en approche. En clair : il doit savoir s'il a compris ou s'il a correctement mémorisé ce qu'on lui a appris. Pour développer cette méta-mémoire, il n'y a qu'un seul moyen : fournir aux élèves un feedback, un retour de performance. Il faut que le retour sur performance soit précis, et permette à l'élève de correctement identifier ses lacunes et ses points forts. Il doit de plus indiquer pourquoi les buts n'ont pas été atteints : un feedback élaboratif est plus efficace qu'un feedback simple. Dire simplement : « tu n'as pas réussis à résoudre l'équation du second degré ne suffit pas ». Il faut aussi expliquer pourquoi les buts n'ont pas été atteints : « tu n'as pas réussit parce que tu as fait des erreurs de calculs, mais la méthode de résolution est comprise ». Contre-intuitivement, il vaut mieux que ce retour sur performance ait lieu non pas immédiatement, mais avec un délai. Il faut donc faire beaucoup d'évaluations, fréquemment.
À ce petit jeu, les notes ne sont pas assez précises. Elles ne permettent pas à elles seules de savoir ce que l'on sait et ce que l'on ne sait pas. À la place, il vaut mieux utiliser l'évaluation formative, aussi appelée évaluation diagnostic. Cette évaluation formative consiste à dire explicitement aux élèves quelles sont leurs forces et leurs faiblesses. Par exemple, on peut donner des commentaires relativement normés sur la copie, au lieu d'une note. Ce commentaire devrait expliciter clairement, pour chaque copie ce que l'élève doit revoir, afin qu'il sache quoi faire pour y remédier. Les recherches sur le sujet sont claires : l'évaluation formative est plus efficace que l'évaluation sommative. De plus, l’évaluation formative seule est plus efficace qu'une évaluation formative secondée par des notes. Quand une note est donnée, les élèves ont tendance à se focaliser sur celle-ci et à ne pas regarder les appréciation et commentaires écrits[1].
Pour résumer, la méta-cognition recommande :
- un enseignement explicite des méthodes de travail efficaces et des techniques de mémorisation ;
- des objectifs d'apprentissage clairs, précis, et exigeants ;
- un retour sur performance précoce et détaillé ;
- une évaluation formative.
Références
[modifier | modifier le wikicode]- ↑ John Hattie et Helen Timperley, "The Power of Feedback"
Le changement conceptuel
« Tu dois désapprendre tout ce que tu as appris. »
Cette maxime de maître Yoda peut sembler saugrenue. Après tout, pourquoi désapprendre ce qu'on a mis tant de temps à apprendre ? C'est d'autant plus étrange pour les professeurs et formateurs, qui n'aimeraient pas que leur travail n'ait servi à rien. Cependant, il est des situations où il faut désapprendre des informations erronées. Et cela est beaucoup plus dur qu'on ne pourrait le penser. Remplacer des connaissances inadaptées ou obsolètes par des connaissances plus appropriées est souvent un véritable calvaire qui demande beaucoup de temps. Dans de nombreuses situations, des connaissances antérieures inadaptées ne s'oublient pas, elles se cristallisent, et persistent. Pire : elles peuvent empêchent la compréhension de nouvelles idées. L'acquisition de connaissance étant fortement cumulative, toute conception erronée va faire office de grain de sable dans une machine bien huilée. Difficile de façonner un château sur des fondations branlantes. Mais qu'on se rassure : la recherche a étudié le remplacement de connaissances erronées par des connaissances plus adéquates.
Les conceptions erronées
[modifier | modifier le wikicode]Dans la littérature anglaise, les connaissances antérieures inadaptées sont appelés des misconceptions, ce que l'on peut traduire en français par conceptions erronées ou, plus simplement, par idées fausses. Elles sont très nombreuses et elles sont loin de toutes se ressembler. Chose intéressante, certaines idées fausses sont récurrentes, présentes chez un très grand nombre d'élèves. Par exemple, n'importe quel élève assez jeune croira que les corps tombent dans le vide à une vitesse qui dépend de leur poids (alors qu'en fait, tous les corps tombent à la même vitesse dans le vide). Connaître à l'avance ces conceptions est clairement un gros plus.
Le terme "idée fausse" regroupe des situations très différentes, allant de simples faits erronés faciles à corriger à des erreurs très élaborées, très difficiles à éradiquer. Pour simplifier, nous allons faire la distinction entre les conceptions simples et les conceptions élaborées. La différence est que les premières portent sur une connaissance isolée, alors que les secondes portent sur des connaissances centrales, fortement connectées à d'autres, qui sont la base d'un réseau de connaissances variées. Les conceptions simples peuvent se corriger simplement en corrigeant la connaissance erronée, alors que les conceptions complexes se corrigent lentement et assez mal.
Les conceptions simples
[modifier | modifier le wikicode]Les conceptions simples font que l'étudiant se trompe sur un détail ou un fait assez superficiel, sans grandes conséquences. L'exemple le plus classique : les faux amis en anglais ! Demandez ce que veut dire actually en anglais à un élève qui ne connaît pas ce mot : il vous répondra actuellement, alors que actually veut dire en fait. Comme autres exemples, on pourrait citer les jeunes enfants qui croient que le jour et la nuit sont causés par la rotation de la Terre autour du Soleil (pour les moins jeunes), que les quatre saisons proviennent de l'éloignement de la terre par rapport au soleil, ou que les premiers humains ont cohabité avec les dinosaures. De telles erreurs se corrigent assez facilement, de simples explications orales et un peu d'entrainement suffisant à résoudre le problème.
Basiquement, les conceptions simples peuvent approximativement se classer en trois types : les conceptions vernaculaires, factuelles et conceptuelles. Une classification plus détaillée ne serait pas vraiment utile, aussi nous allons nous contenter de ces trois types superficiels. Voici la classification en détail :
- Avec les erreurs vernaculaires, la conception est liée au fait qu'un mot a des sens différents, qui peuvent porter à confusion. Le cas le plus évident est celui où un terme n'a pas le même sens dans le langage courant et dans les matières scientifiques. Un exemple classique serait les termes de "chaleur", "force", "puissance" : leur sens en physique n'est pas le même que celui du langage courant. Pour un élève, accélérer signifie "gagner de la vitesse", alors que cela veut dire "changer de vitesse, aussi bien en gagner qu'en perdre" pour le physicien. Pour le second exemple, prenons un débutant en programmation qui aborde les notions de variable et de fonction : ces deux concepts sont très différents des concepts de variables et de fonction abordés en mathématique, mais l'étudiant aura tendance à faire la confusion. Un dernier exemple serait ceux qui pensent que "les schizophrènes ont une double personnalité", ce qui n'est pas du tout le cas et vient de l'utilisation du terme "schizophrène" dans le langage courant.
- Avec les erreurs factuelles, l'élève se trompe sur un fait précis, sans que cela ait des conséquences importantes. Le fait en question est isolé et n'est pas centrale dans la compréhension d'une discipline ou d'une théorie. Voici quelques exemples de conceptions de ce type : "les vikings portaient des casques à corne", "les vikings buvaient dans les crânes de leurs ennemis", "les vierges de fer et les ceintures de chasteté ont réellement été utilisées au Moyen Âge", "les humains n'utilisent que 10% de leur cerveau", "en été, le Soleil est plus près de la Terre qu'en hiver", "la mémoire d'un poisson rouge est de quelques secondes", "les souris adorent le fromage", etc.
- Avec les conceptions conceptuelles, l'élève a une compréhension incomplète d'un concept. Soit parce qu'il n'a pas vu assez d'exemples, soit qu'il n'a pas vu assez d'informations sur le concept. Un tel exemple serait le cas d'un élève qui penserait que tous les volcans sont de type effusif, à savoir qu'ils émettent tous des coulées de lave rouge/orange. Un tel élève aurait une compréhension partielle du concept de volcan, par ignorance de l'existence des volcans explosifs (ceux qui émettent des cendres ou de la lave très visqueuse, parfois quasi-solide). De telles conceptions se corrigent avec un peu plus d'explications que les précédentes et/ou en ajoutant de nombreux exemples.
Les conceptions de ce genre semblent certes assez simples, mais les corriger peut avoir une grande importance, pédagogique ou non. Par exemple, prenez les conceptions suivantes : "les dyslexiques sont moins intelligents que la moyenne", "les vaccins causent l'autisme", "les bébés ne ressentent pas la douleur". Il est évident que de telles conceptions ont fait et continuent de faire beaucoup de mal. Mais même en mettant de côté de tel extrêmes, des conceptions peuvent avoir des conséquences pédagogiques assez importantes. Par exemple, prenez la conception suivante : "le Moyen Âge était une période barbare, où l'ignorance et la superstition régnaient en maitre, ce qui s'est terminé à la renaissance". Les élèves qui croient à cette conception, et ils sont nombreux, risquent d'avoir du mal à suivre des cours d'histoire et à se faire une idée claire de ce qu'était le Moyen Âge. Notons que cette conception est reliée à quelques autres, comme le fait que "les paysans du Moyen Âge pensaient que la terre était plate", "les paysans du Moyen Âge mourraient tous avant 40 ans", mais ces conceptions peuvent se corriger indépendamment les unes des autres sans trop de problèmes.
Les conceptions de ce type peuvent avoir des origines assez variées. Mais dans la plupart des cas, elles proviennent d'un raisonnement par induction. Quelques idées fausses de ce type naissent à partir d'analogies trompeuses, comme le montre l'exemple du mot "actually". Un autre exemple serait le cas où un élève pense que les chauve-souris sont des oiseaux, car elles sont capables de voler et qu'elles ressemblent de loin à des oiseaux. D'autres proviennent de la généralisation abusive à partir d'exemples. Par exemple, beaucoup d'élèves de primaire pensent qu'une division entre deux nombres donne un résultat plus petit que le dividende, ou qu'une multiplication donne toujours un résultat plus grand que le multiplieur et multiplicande. Cette règle marche bien quand on utilise des nombres entiers naturels, mais elle ne marche plus quand on commence à manipuler des décimaux ou des fractions. Le problème est que les élèves ont acquis, consciemment ou non, cette règle en manipulant les nombres entiers et qu'ils vont la généraliser aux décimaux.
D'autres conceptions simples, plus rares, proviennent de déductions logiques, mais qui sont fausses à cause de l'ignorance d'un détail technique. Tel est le cas de la conception qui dit que "le Soleil est plus près de la Terre en été et plus loin en Hiver". Une telle conception est naturelle pour qui sait que l'orbite de la Terre autour du Soleil n'est pas exactement circulaire, mais elliptique. Le problème ici est que les élèves surestiment le caractère elliptique de l'orbite de la Terre, qui est en réalité très proche d'un cercle parfait. Surestimation qui est sans doute aggravée par les représentations utilisées pour illustrer l'orbite de la Terre.
Les conceptions élaborées
[modifier | modifier le wikicode]Les conceptions élaborées ne portent pas que sur une connaissance simple, factuelle, mais portent sur tout un ensemble de connaissances fortement reliées entre elles. Les connaissances en question forment un réseau de connaissances qui se soutiennent les unes les autres. Tenter de corriger une information appartenant à ce réseau ne marchera pas. L'information corrigée sera en effet incompatible avec toutes les autres informations du réseau, et l'élève sera perdu. La correction elle-même ne s'insérera pas bien dans le réseau de connaissances préalables, elle sera incompatible avec ce qui est déjà connu.
Une bonne partie des conceptions élaborées sont des connaissances naïves tirées de l'expérience, fortement consolidées par les années, qui sont très difficiles à corriger. Généralement, quand un élève arrive à l'école, il a derrière lui plusieurs années durant lesquelles il s'est construit des modèles implicites du monde, sur les quantités, le poids et la chute des corps, les nombres, etc. Cet apprentissage par découverte "naturel", dans lequel l'enfant apprend seul, entraine naturellement l'apparition d'idées fausses. Les conceptions erronées de ce genre sont très nombreuses dans l'enseignement de la physique : un kilo de plomb est plus lourd qu'un kilo de plume (confusion poids/densité), si une fusée spatiale dans le vide qui coupe ses moteurs va freiner (mauvaise compréhension du principe d’inertie), les corps tombent dans le vide à une vitesse qui dépend de leur poids, etc.
Autre exemple, un peu plus complexe : le courant électrique est souvent mal compris. Par exemple, si vous posez la question suivante aux élèves : "on branche une dizaine d'ampoules en série, et une autre dizaine en parallèle : quel est le montage qui éclaire le mieux ?", les élèves répondront souvent que ce sera le montage série : les élèves pensent que le courant ne se séparera pas en deux (ce qui arrive avec les bifurcations dans le montage parallèle), ce qui est faux. Le problème dans ce cas précis, provient de la conception erronée du courant électrique comme un ensemble matériel produit par la pile à débit constant.
Évidemment, il vaut mieux connaître ces idées reçues fréquentes pour prendre les devants. Mais se contenter de corriger ces conceptions erronées ne suffit pas à les faire disparaître. Les conceptions complexes sont extraordinairement résistantes à l'oubli et elles perdurent, même chez les élèves qui ont subi un enseignement correctif élaboré. Pour donner un exemple, je vais citer une expérience faite par Laurence Viennot sur des élèves de terminale S, de DEUG (oui, l’étude date...), et de maîtrise. Elle leur a posé la question suivante : "quand on lance une balle en l'air, quelles forces s’appliquent quand celle-ci monte et descend, frottements mis à part ?". Près de 55% des élèves de terminale et 33% des étudiants de DEUG pensaient qu'il y avait deux forces, une qui faisait tomber la balle (pesanteur), et une autre qui faisait se mouvoir la balle contre la gravité. Ils utilisaient un modèle de force naïf, qui relie fortement la force à la vitesse. En réalité, il n'y a qu'une seule force : la pesanteur... Pourtant, ces étudiants connaissaient la définition technique d'une force et savaient l'utiliser dans des exercices académiques. Mais dans la situation de l'interrogation, c'était l'idée reçue qui était la plus accessible et qui prenait le dessus.
Le processus du changement conceptuel
[modifier | modifier le wikicode]Les conceptions complexes peuvent cependant se corriger progressivement, par restructuration complète d'un réseau complexe de connaissances fortement interconnectées. Ce processus de correction est appelé le changement conceptuel par les chercheurs. Et le moins que l'on puisse dire est que ce processus est complexe et mal compris, les théories sur le sujet étant nombreuses. Un point important à comprendre est qu'expliquer le changement conceptuel demande de préciser la nature du réseau de connaissances incluant la conception élaborée. Et à ce petit jeu, deux visions assez opposées s'affrontent.
La première vision considère que ce réseau représente une véritable théorie. Par théorie, on veut dire qu'il forme un ensemble de connaissances cohérent, unifié autour de quelques principes basiques plus ou moins implicites, qui permet d'expliquer un grand nombre de situations, et qui permet de faire des déductions et des prédictions. Évidemment, ces théories ne sont pas aussi élaborées et formalisées que les théories scientifiques. Elles restent assez naïves, sont surtout basées sur des connaissances implicites, font souvent preuve d'une logique pas vraiment formalisée, etc. Mais ces théories naïves sont cependant basées sur une certaine forme de logique et un raisonnement causal. Cette vision, appelée la perspective knowledge-as-theory par les auteurs anglo-saxons, est opposée au paradigme knowledge-as-elements qui stipule que les connaissances des élèves ne sont pas aussi bien structurées. Sans forcément n'être qu'un amas de connaissances reliées n'importe comment, cette vision pense que les connaissances ne sont pas organisées de manière cohérente. Un élève peut très bien avoir des connaissances contradictoires sans s'en rendre compte.
Pour bien comprendre la différence, il faut regarder ce que les deux visions prédisent. La première prédiction tient à l'incohérence des constructions mentales. Avec la vision knowledge-as-theory, l'élève ne peut pas avoir de connaissances incohérentes, ou alors seulement à la marge. Après tout, les éléments d'une théorie se contredisent rarement entre eux, ou alors seulement d'une manière qui n'est pas du tout évidente. Si il y a incohérence dans une théorie naïve, elle n'est pas facile à déceler. À l'inverse, la vision knowledge-as-elements dit qu'il est possible que l'élève ait des connaissances ou des idées franchement incohérentes, sans s'en rendre compte, et qu'il utilise l'une ou l'autre suivant la situation.
Une prédiction liée à cette différence se voit quand un élève doit utiliser ses connaissances pour raisonner, réfléchir, résoudre des problèmes. Le cas à étudier est celui où on soumet l'élève à deux tâches conceptuellement similaires, qui utilisent toutes deux le même ensemble de connaissances et de méthodes. Si l'élève utilise une théorie naïve, il fournira des explications qui sont consistantes, à savoir qu'il n'y aura pas d'explications incohérentes entre les deux tâches. Mais si l'élève n'utilise pas une théorie, mais un réseau mal organisé, le résultat est tout autre. L'élève va alors construire des explications à la volée en utilisant les connaissances qui lui viennent à l'esprit, celles qui sont activées par la tâche demandée. Suivant la tâche, les connaissances activées seront différentes et il n'est pas impossible que l'élève utilise des connaissances incompatibles ou incohérente d'une tâche à l'autre.
Un autre point important est que le changement conceptuel n'a pas lieu de la même manière dans les deux visions. À l'heure actuelle, les chercheurs ne savent pas trop si le changement conceptuel est soudain, le réseau se réorganisant rapidement, ou progressif, par accumulation incrémentale de nouvelles connaissances qui remplacent les anciennes. Les premières théories sur le sujet (les théories de Piaget, notamment) penchaient plutôt du côté d'une réorganisation rapide et soudaine. Mais aujourd'hui, beaucoup de chercheurs pensent que le changement conceptuel peut se faire progressivement, lentement, par construction incrémentale d'un nouveau réseau alternatif du réseau initial. Ce débat est relié à la controverse sur la nature du réseau de connaissances. La première vision, à savoir celle des théories naïves, est plutôt compatible avec un changement brutal. Les théories naïves doivent être réfutées en bloc, avant d'être remplacées par une théorie alternative. La seconde vision, quant à elle, est plutôt compatible avec un changement conceptuel graduel. Les connaissances adéquates sont acquises progressivement, alors que les connaissances inadéquates sont progressivement enfouies dans les tréfonds de la mémoire.
knowledge-as-theory | knowledge-as-elements |
---|---|
Les deux visions s’accordent sur les points suivants :
| |
Les connaissances naïves sont organisées en théorie cohérentes. | Les connaissances naïves forment un réseau peu organisé. |
Les connaissances sont appliquées de manière consistante dans des contextes différents pour formuler des explications. | Les connaissances ne sont pas appliquées de manière consistante dans des contextes différents, mais elles le sont pour un même contexte. |
Les explications sont des déductions de la théorie naïves, formulées à partir de modèles mentaux consistants. | Les explications sont construites à la volée à partir des connaissances activées par les éléments de la tâche. |
Le changement conceptuel est soudain, basé sur une réorganisation catastrophique des théories naïves. | Le changement conceptuel est graduel, lent, basé sur une acquisition incrémentale de connaissances. |
Les conceptions ne s'oublient pas et interférent avec l'activité mentale
[modifier | modifier le wikicode]Les conceptions simples et élaborées continuent à avoir des conséquences, même une fois qu'elles sont "corrigées" et que l'élève connaît les informations valides. Elles ont tendance à se manifester quand elles ne devraient pas. Évidemment, il faut de la répétition et de l’entraînement pour que la conception disparaisse et que l'élève cesse de faire des erreurs. Mais même après cela, il arrive que la conception ressorte dans des situations peu familières, si l'élève ne fait pas attention, ou dans des cas d'étude un peu particuliers. La raison à cela est que la conception erronée et l'information valide seront toutes deux en mémoire et le deux peuvent être rappelées. Elles vont entrer en compétition pour le rappel et un processus de sélection va choisir quelle est l'information pertinente. Suivant les indices de récupération activés par la tâche, la conception peut ressortir en priorité.
Cela a été plus ou moins montré dans l'étude d’Andrew Shtulman et Joshua, publiée dans le journal cognition. Dans leur étude, 200 cobayes devaient dire si des affirmations étaient vraies ou fausses le plus rapidement possible, les temps de réaction étant mesurés. Parmi ces affirmations, certaines étaient conçues de manière à évoquer des conceptions erronées : "la Lune produit de la lumière", "1/13 est plus petit qu'1/30", "les atomes sont principalement composés de vide", "un kilo de plomb pèse plus qu'un kilo de plumes", etc. Bilan : les temps de réaction et le taux d'erreur étaient plus élevés pour les affirmations qui évoquaient des conceptions erronées. La raison est que la sélection de l'information valide parmi plusieurs compétiteurs prend un peu de temps, qui se mesure assez bien dans les épreuves de chronométrie mentale.
Cet effet d'interférence est de plus confirmé par quelques rares observations d'imagerie cérébrale. Dans une étude[1], les chercheurs analysaient le cerveau de deux groupes de cobayes lors de la résolution d'exercices d’électricité : un groupe était constitué de novices, et un autre d'experts en électricité. Ces deux groupes devaient résoudre deux types d'exercices : certains étaient conçus de manière à forcer l'utilisation d'une conception erronée, et les autres non. Cette étude montre que chez le novice, les informations incohérentes avec la conception erronée sont d'abord interprétées par le cerveau comme des erreurs et sont passés sous le tapis : les zones du cerveau chargées de la détection de la surprise s'activent, avant de laisser la place aux zones du cerveau activés lors du désintérêt. En somme, notre esprit n'aime pas remettre en cause ce qu'il sait déjà. Par contre, les zones du cerveau qui s'activaient chez les experts étaient celles dévolues à l'inhibition, à savoir la capacité à empêcher le rappel d'une connaissance depuis la mémoire à long terme. En clair, la conception erronée était encore présente dans le cerveau, mais le cerveau se chargeait d’en empêcher le rappel et l'utilisation.
Les implications pédagogiques : provoquer le changement conceptuel
[modifier | modifier le wikicode]Première recommandation : il faut éviter l'apparition de conceptions erronées, et faire en sorte que les connaissances des élèves soient d'emblée les plus fiables possibles. Toute connaissance apprise à un niveau donné d'étude doit être conçue pour ne pas interférer avec des apprentissages ultérieurs. Les simplifications outrancières dans les premières années d'études sont en effet très préjudiciables pour la progression future. Les pédagogies actives sont aussi une catastrophe de ce point de vue : les élèves procèdent par séries d'essais et d'erreurs, il existe un risque que les erreurs soient mémorisées avec la connaissance correcte. La progression devient très lente si les élèves assimilent des connaissances boiteuses et des erreurs de compréhension.
Seconde recommandation : il ne faut pas laisser l'erreur s'installer. Les conceptions erronées que forme l'élève au cours de son apprentissage doivent être corrigées au plus vite, avant d'être inscrites dans la mémoire à long terme. Pour cela, le professeur doit réserver sur chaque cours une période de feedback, qui permet aux élèves d'identifier leurs erreurs de compréhension et de les corriger. Dans cette phase, le professeur va tester les élèves avec des questions de compréhension, voire par une série d'interrogations écrites. La solution privilégiée est l'utilisation massive d'interrogation écrites fréquentes.
Une autre recommandation tient dans la formulation des explications, de la correction. Quand on veut remplacer une conception par une information valide, il faut que cette dernière soit présentée d'une certaine manière pour être vraiment efficace. Déjà, il faut que l'élève soit en quelque sorte préparé à remettre en cause la conception. Il doit sentir que quelque chose ne va pas avoir la conception, qu'elle est incompatible avec certaines connaissances tenues pour certaines, certains résultats expérimentaux fiables, qu'elle mène à des incohérences. Il ne suffit pas de présenter une explication alternative, il faut que celle-ci soit justifiée et serve vraiment à répondre à des objections auxquelles la conception ne peut répondre. Présenter une explication alternative seule risque de na pas passer très bien si l'élève pense que la conception donne le même résultat. Ensuite, il faut que l'explication soit simple, claire, facile à mémoriser et à comprendre. Une explication incompréhensible ne donnera évidemment pas de bons résultats. Et il faut aussi qu'elle soit plausible. Par plausible, on veut dire qu'elle doit être intuitive (idéalement), mais aussi qu'elle doit répondre aux objections formulées envers la conception.
Références
[modifier | modifier le wikicode]- ↑ Étude des mécanismes cérébraux liés à l'expertise scientifique en électricité à l'aide de l'imagerie par résonance magnétique fonctionnelle
Transfert d'apprentissages
Si l'on apprend, c'est avant tout pour que les connaissances apprises soient réutilisables dans des contextes variés, relativement différents de celui d'apprentissage. Cette problématique du transfert de connaissances est absolument cruciale pour l'apprentissage.
Les types de transfert d'apprentissage
[modifier | modifier le wikicode]Ce transfert de connaissances peut prendre diverses formes, et les classifications des différents types de transferts sont nombreuses : transfert proche/lointain, vertical/horizontal, spontané/assisté, etc. Dans ce chapitre, nous allons passer en revue ce phénomène de transfert, dans les diverses situations où celui-ci se présente, qu'il s'agisse de la résolution de problèmes, d'apprentissages verbaux ou scolaires.
Transfert proche contre transfert lointain
[modifier | modifier le wikicode]Une première distinction serait celle du transfert qui a lieu dans les limites d'un domaine de connaissance (discipline scolaire, par exemple), comparé au transfert plus large, qui transcende les bornes des domaines de connaissances usuels. La première est essentiellement basée sur des savoirs liés à une discipline scolaire, ou tout du moins à un ensemble de disciplines fortement imbriquées (mathématiques et physique, par exemple). La seconde est une forme de transfert plus générale, entre domaines très différents. Ces deux formes de transfert sont appelées respectivement transfert proche (dans un domaine ou entre disciplines proches) et transfert lointain (entre domaines sans rapports).
Notons que la notion de transfert lointain a un lien, bien qu'indirect, avec la notion de compétences. Par compétences, on veut parler du concept tel qu'il est utilisé dans le domaine de l'éducation, pas dans le sens commun. Par définition, l'acquisition de compétences générales a des conséquences au-delà des limites d'une discipline, ce qui permet le transfert lointain. Mais attention : tout transfert lointain n'est pas forcément lié à l'acquisition d'une compétence générale. La question principale, pour certains auteurs, serait de favoriser l'acquisition de compétences générales. Leurs interrogations visent à savoir comment développer certaines compétences, de manière indirecte. Par exemple, certains de ces auteurs peuvent supposer que faire des mathématiques ou du latin forme à la logique et au raisonnement. Beaucoup de spécialistes en psychologie cognitive en doutent, comme on le verra plus loin.
Transfert vertical contre transfert horizontal
[modifier | modifier le wikicode]Une autre distinction utile est celle entre transfert vertical et horizontal. Le premier fait référence aux transferts à l'intérieur d'une même discipline, d'un même domaine, l'acquisition d'une connaissance/compétence de haut niveau étant facilité par la maîtrise de connaissances/compétences de plus bas-niveau. Le second fait référence aux transferts de connaissances d'un domaine de connaissance à un autre, et correspond au cas où une connaissance est réutilisée dans une autre discipline. Pensons notamment aux connaissances mathématiques, fortement utilisées en physique et dans d'autres sciences naturelles. Il est important de noter que les deux formes de transfert se retrouvent conjointement dans les systèmes scolaires, à tous les niveaux de pratique, du simple exercice à la structure scolaire, en passant par l'organisation des séquences.[1]
Le transfert horizontal correspond à des situations où les connaissances transférées ne sont pas nécessaires pour résoudre la nouvelle situation, mais ne sont qu'une aide facultative. Par exemple, les analogies entre deux situations sont une forme de transfert horizontal.
Le transfert vertical s'illustre quand la connaissance d'un concept facilite la compréhension d'un autre. Par exemple, maîtriser les fractions facilitera la compréhension des pourcentages, de même que connaître les symboles des différents éléments chimiques est un pré-requis pour pouvoir écrire des équations stœchiométriques. Pour illustrer ce transfert vertical, on peut citer l'étude de Uprichard (1970), qui montre que les notions d'infériorité ou de supériorité nécessitent d'avoir maîtrisé le concept d’égalité avant de pouvoir être apprises. De même, la maitrise de l’algèbre a pour pré-requis de maîtriser les opérations arithmétiques de base et l’égalité (Gagné, 1962). Et ces résultats peuvent se généraliser à de nombreux autres domaines, comme la trigonométrie (Winkles, 1986), l’écologie (Griffiths et Grant, 1985), la chimie (Griffiths, Kass, et Cornish, 1983), l’économie (Hurst et al. 1978), etc. Mais on peut aussi citer les cas où une connaissance est réutilisable dans un autre domaine. Par exemple, on peut citer l'exemple classique des mathématiques et de la physique : les connaissances mathématiques peuvent être utilisées dans des cours de physique, dans des formules, des démonstrations, etc. Ce transfert vertical est la conséquence de l'existence de pré-requis et de connaissances propédeutiques. Il implique que l'acquisition de connaissances ou compétences complexes est plus facile si l'élève a maîtrisé des habiletés et connaissances plus simples et que les pré-requis sont maîtrisés.
Précisons que le transfert horizontal a surtout été étudié par des auteurs francophones, tels Jacques Tardif et Philippe Meirieu[2], dont les travaux ont été beaucoup cités dans un débat qui a animé le Québec autour du transfert, juste avant la grande réforme scolaire lancée en 2000. De manière générale, les auteurs anglo-saxons donnent plus d'importance au transfert vertical qu'au transfert horizontal. La raison tient dans la difficulté à observer avec certitude un transfert horizontal dans les études de psychologie cognitive, basée sur l'étude de tâches assez simples, dans un contexte expérimental, qui réduit assez fortement les ambiguïtés. Autant les phénomènes de transfert vertical sont assez visibles et intuitifs (tous les enseignants savent ce qu'est un pré-requis), autant ce n'est pas le cas des phénomènes de transfert horizontal. Autant le transfert analogique est beaucoup étudié dans le domaine de la résolution de problèmes, autant les autres formes de transfert horizontaux sont moins bien connus.
Transfert positif ou négatif
[modifier | modifier le wikicode]D'ordinaire, le transfert d'apprentissage a un effet positif sur l'apprentissage et la performance, d'où le nom de transfert positif qui est donné à de telles situations. Mais il arrive que ce transfert nuise à l'acquisition de nouvelles connaissances. On peut imaginer que les nouvelles connaissances soient incompatibles ou contradictoires avec des connaissances acquises. Dans une telle situation, on fait face à un transfert négatif. Néanmoins, le transfert négatif est toujours transitoire, l'apprentissage final finissant par se faire. C'est ainsi que d'anciennes connaissances erronées sont remplacées progressivement par de nouveaux savoirs, plus à jour.
La difficulté du transfert d'apprentissage
[modifier | modifier le wikicode]Le transfert d'apprentissage est généralement compliqué à obtenir. Et toutes les formes de transfert ne se valent pas de ce point de vue. Le transfert est un phénomène relativement peu commun. La raison principale est qu'il n'a lieu que si le sujet dispose d'un certain niveau d'expertise. Mais il peut cependant être provoqué, avec quelques indices ou analogies bien placées.
Le transfert proche : possible avec de l'expertise
[modifier | modifier le wikicode]Le transfert proche est avant tout une question de connaissances, et plus précisément de leur accessibilité. Plus une connaissance est accessible en mémoire, connectée à un riche réseau sémantique, plus elle sera accessible à partir d'indices de récupération différents, et donc de situations différentes. On retrouve encore une fois l'utilité d'un solide stock de savoirs interconnectés avec pertinence.
Le transfert proche a souvent lieu entre des tâches relativement similaires. C'est ainsi qu'un élève qui a appris à résoudre des calculs simples peut appliquer ces compétences pour résoudre des problèmes d'épicerie, ou qu'un élève qui sait appliquer ses règles de grammaire dans des exercices scolaires peut les utiliser lors de la rédaction d'un texte assez court. De manière générale, deux situations doivent avoir quelque chose en commun pour qu'il y ait transfert entre elles. Ce quelque chose en commun peuvent être aussi bien de simples aspects perceptifs (comme le stipule la théorie des éléments identiques de Thorndike), que des connaissances abstraites comme des concepts, une catégorie, de propriétés partagées, ou autre. Ces dernières permettent de capturer un grand nombre de situations de part leur structure. À ce petit jeu, les catégories sont assez importantes. Ainsi, le but de l'apprentissage est de permettre à l'élève d'acquérir des abstractions, des concepts, des catégories qui capturent un large spectre de situations.
Une connaissance accessible uniquement dans des contextes limités, identiques à celui d'apprentissage, est une connaissance très concrète. Daniel Willingham qualifie ces apprentissages de connaissances inflexibles. Néanmoins, ces connaissances peuvent, suite à un apprentissage bien conçu, évoluer en connaissances flexibles, plus abstraites et générales. L'acquisition de connaissances inflexibles est vue, dans la vision de Willingham, comme une première étape de l'apprentissage, les connaissances se flexibilisant de plus en plus avec la pratique, ou des acquisitions ultérieures[4]. Cette forme de transfert, par abstraction progressive de connaissances concrètes, contextuelles, est une forme puissante de transfert, qui se base sur des processus de généralisation, comme la formation de catégories, l'analogie.
Pour en donner un exemple, on peut citer la fameuse étude de Chi et al. (1981). Dans celle-ci, les expérimentateurs ont observé comment des experts (des professeurs de physique), et des novices (des étudiants en début de cursus), catégorisaient et se représentaient mentalement des exercices de physiques. Leur étude a montré que les novices ont tendance à baser leurs analyses sur des détails présents dans l'énoncé (coefficients numérique, vocabulaire utilisé, etc), alors que les experts ont tendance à penser en fonction d'idées générales et de principes abstraits (la loi de conservation de l'énergie, la quantité de mouvement, etc). Au fur et à mesure que les étudiants progressent dans leurs études, ils classent de plus en plus ces exercices en fonction des caractéristiques générales.
Le transfert lointain : une quasi-utopie ?
[modifier | modifier le wikicode]De manière générale, de telles capacités de transfert lointain sont douteuses.
Les études de Thorndike semblent montrer que la même chose vaut pour le latin, qui ne permet pas de favoriser la mémoire ou de structurer l’esprit, contrairement aux idées reçues. Différents programmes éducatifs ont aussi tenté d'enseigner le raisonnement en mettant fortement l'accent sur la logique mathématique, avec ses implications, modus tollens, etc. On pourrait citer les programmes "Head Start" américains, par exemple. Malheureusement, les résultats de ces programmes furent décevants : les élèves n'avaient pas vraiment appris à mieux raisonner, et les améliorations étaient au mieux marginales. Comme autre exemple, les études faites sur l'apprentissage de la programmation[3][4] montrent que celui qui apprend à programmer apprend juste à programmer, et n'acquiert pas de méthodes de résolution de problèmes, de capacité à raisonner ou à abstraire, ni quoique ce soit d'autre. Ces expériences ne furent pas les seules tentatives pour entraîner des élèves ou des adultes à mieux raisonner. Mais les résultats concernant ce genre d’entraînement sont clairs : cela ne permet pas d'acquérir des compétences de raisonnement transférables dans des situations différentes de celles abordées lors de l'apprentissage.
Dans un tout autre registre, William James a effectué une étude assez simple sur l'apprentissage de poèmes, en 1890. Il commença par apprendre un premier poème, et mesura le temps et la fiabilité de son apprentissage. Par la suite, il continua à apprendre de nouveaux poèmes, et refit les mêmes mesures sur un poème totalement inédit, après avoir appris un grand nombre de poèmes en guise d’entraînement : aucune différence en termes de vitesse ou de fiabilité après entraînement.
Les études sur l'expertise montrent que les compétences générales transdisciplinaires sont de peu d'utilité, l'expertise dans un domaine étant surtout dépendante du stock de connaissances spécifiques à un domaine de l'apprenant[5].
Lire aussi :
[modifier | modifier le wikicode]- Le transfert des apprentissages et la réforme de l’éducation au Québec : quelques mises au point., par Normand Péladeau, Jacques Forget, et Françoys Gagné.
- Domain-specific knowledge and why teaching generic skills does not work., par Tricot, A. & Sweller, daté de 2014.
- Transfer of learning, par Perkins et Salomon, daté de 2010.
Références
[modifier | modifier le wikicode]- ↑ https://fairecours.com/2019/12/27/le-transfert-dapprentissage/
- ↑ http://w3.uqo.ca/moreau/documents/Tardif1996.pdf
- ↑ Pea and Kurland 1984
- ↑ Salomon and Perkins 1987
- ↑ La cécité aux connaissances spécifiques, par André Tricot et John Sweller
L'importance de la pratique
Dans les chapitres précédents, nous avons surtout parlé de la manière d'enseigner des connaissances, qu'il s'agisse de notions, de concepts, de faits, d'algorithmes, de procédures. Mais l'apprentissage ne s'arrête pas une fois que l'élève a appris. Encore faut-il qu'il n'oublie pas. Pour cela la pratique est indispensable, comme nous le verrons dans les chapitres suivants. Mais la pratique n'a pas pour seul effet de lutter contre l'oubli. Elle peut aussi automatiser les connaissances ou procédures apprises. Par automatiser, on veut dire que l'utilisation de celles-ci demande de moins en moins de mémoire de travail. Par exemple, à force de pratique, l'élève devient de plus en plus rapide pour appliquer un algorithme quelconque.
L'automatisation de tâches de bas niveau est primordiale pour les performances dans les tâches de plus haut niveau, qui font intervenir en leur sein ces automatismes. Le philosophe Alfred North Whitehead a d'ailleurs résumé cet état de fait avec la maxime suivante :
« C'est un truisme erroné répété par tous les manuels et par de nombreux gens éminents dans leurs discours, que de croire que nous devrions cultiver l'habitude de penser à ce que nous sommes en train de faire. Mais c'est évidemment le contraire qui est vrai. La civilisation progresse en multipliant les opérations importantes que nous pouvons effectuer sans y penser. »
Mais alors comment favoriser l'acquisition de cette automaticité ? La pratique joue un rôle primordial, comme nous allons le voir.
Traitements automatiques et contrôlés
[modifier | modifier le wikicode]Les sciences cognitives ont depuis longtemps étudié cette automatisation. Loin d'être un simple concept du langage commun, il est apparu que certains traitements cognitifs ne font pas, ou très peu, appel à la conscience et à l'attention soutenue. De tels traitements automatiques sont à opposer aux traitements contrôlés, qui font appel à la conscience, à une attention soutenue, et qui utilisent la mémoire de travail. Les processus automatiques seraient rapides, économes en ressources attentionnelles, et provoqués par un stimulus quelconque.
L'existence de processus automatiques est apparue lors d’expériences dites de double tâche, où des sujets devaient effectuer deux choses à la fois. De telles tâches sont extrêmement dures pour les sujets, ceux-ci effectuant un grand nombre d'erreurs et ayant des performances nettement inférieures aux situation mono-tâche. Cela vient du fait que les sujets doivent partager leur attention et leur mémoire de travail sur plusieurs choses à la fois. Or, la quantité d'attention, ainsi que la capacité de la mémoire de travail, sont disponible en quantité limitée. Leur partage réduit donc les performances. Cependant, il est vite apparu que certains traitements pouvaient être effectués avec une tâche concurrente sans diminution de performance. De tels traitements étaient des traitements de routine, acquis de longue date par un entraînement relativement long et progressif. De plus, ces traitements étaient automatisés : ils n'utilisaient pas d'attention, demandaient peu d'efforts et n'utilisaient pas ou peu la mémoire de travail. Ainsi fût déduite la distinction entre traitements contrôlés et automatiques.
L'exemple de la lecture
[modifier | modifier le wikicode]Pour donner un exemple, la lecture des mots chez un adulte est un processus automatique. Pour le prouver, on peut utiliser l'effet Stroop, qui nous dit que réprimer des automatismes a tendance à allonger les temps de réaction. Et c'est ce qu'on observe dans le cas de la reconnaissance des mots. Par exemple, si on vous demande de donner la couleur d'un mot, vous prendrez beaucoup plus de temps si jamais le mot en question est un adjectif de couleur qui ne correspond à la couleur de l'encre. Essayez par vous-même :
Vert Rouge Bleu Jaune Bleu Jaune |
Bleu Jaune Rouge Vert Jaune Vert |
Par contre, la lecture chez un enfant qui n'a pas appris parfaitement à lire n'est pas automatisée. Un enfant en primaire doit déchiffrer consciemment les mots, lettre par lettre, syllabe par syllabe. L'enfant est alors dans une situation de double tâche, dans le sens où déchiffrage et compréhension doivent être effectués en même temps. Il n'est pas rare que toute leur attention soit portée sur ce processus de déchiffrage, ne laissant pas la place pour les processus de compréhension de texte. Automatiser la lecture permet alors de libérer de la mémoire de travail, au profit des processus de compréhension. D'ailleurs, les études montrent que la pratique rend le déchiffrage relativement économe en mémoire de travail, ce qui a un effet largement positif sur la vitesse de lecture et la compréhension de texte. Ainsi, les mauvais décodeurs ont des difficultés pour comprendre un texte[1][2].
Les théories de l'automaticité
[modifier | modifier le wikicode]Dans les grandes lignes, les traitements contrôlés font appel à ce que les scientifiques appellent les fonctions exécutives, là où les traitements automatiques en sont décorrélés. Ces fonctions exécutives regroupent la gestion de la mémoire de travail (mise à jour ou rafraîchissement de son contenu), l'inhibition et l'attention. Elles sont prises en charge dans de zones anatomiques précises, dans le cortex frontal (pré-frontal, précisément). Les fonctions automatiques ne font pas appel à ces fonctions exécutives, ou alors de manière minimale. Elles impliquent des traitements différents des traitements contrôlés.
Des théories permettent d'expliquer quels sont les mécanismes qui se cachent derrière l'automaticité, et pourquoi celles-ci ne font pas appel aux fonctions exécutives. Toutes se mettent d'accord sur un point : les processus automatiques font appel à la mémoire à long-terme, contrairement aux processus contrôlés qui font appel à un traitement algorithmique qui utilise la mémoire de travail. Là où les processus contrôlés demandent d'effectuer une suite d'étapes distinctes, dont les résultats temporaires sont pris en charge par la mémoire de travail, les processus automatiques se réduisent à un simple accès en mémoire. Plusieurs mécanismes permettent d'expliquer la formation de l'automaticité, qu'il s'agisse de l'accès direct en mémoire ou de la procéduralisation.
L'accès direct en mémoire
[modifier | modifier le wikicode]Une première méthode d'automatisation implique la mémoire sémantique/déclarative. Pour faire simple, ce processus permet d'automatiser des matériels comme les tables de multiplication, le calcul mental, la lecture (dans une certaine mesure), et bien d'autres. Le principe est que les processus contrôlés demandent d'effectuer une suite d'étapes pour obtenir une solution. Avec l’entraînement, le sujet va progressivement associer la réponse avec le problème posé, compte tenu des données de celui-ci. Une fois automatisés, le sujet peut directement récupérer la solution du problème en mémoire. Il n'a alors plus à réfléchir pour trouver la solution, supprimant tout besoin d'utiliser la mémoire de travail ou les fonctions exécutives. On peut dire, pour résumer, que cette automaticité de rappel provient de l'acquisition et de la consolidation de faits, qui permettent de répondre immédiatement à un problème.
Pour donner un exemple, prenons l'exemple d'un élève de primaire qui apprend à compter (à faire des additions). Au tout début de l'apprentissage, celui-ci ne connaît pas ses tables d'additions et doit compter sur ses doigts ou mentalement. Alors certes, les algorithmes utilisés par l'élève changent avec le temps. Par exemple, l'élève va progressivement utiliser la commutativité (pour commencer à compter à partir de la plus grande opérande), ou commencera à compter de deux en deux/ de trois en trois/etc. Mais avec le temps, une association entre la somme à effectuer et la réponse se forme. À force de pratique, l'élève pourra récupérer directement la solution, sans efforts, au lieu de compter mentalement[3][4].
La procéduralisation
[modifier | modifier le wikicode]Mais un rappel rapide de faits n'est pas le seul mécanisme d'automatisation. Le second mécanisme, dit de procéduralisation, permet une automatisation non de faits, mais de procédures, d'algorithmes, de méthodes. Cette procéduralisation fait appel à une mémoire totalement différente de celle vue précédemment. Les chapitres précédents impliquaient la mémoire déclarative, qui mémorise les faits et connaissances dans un gigantesque réseau mnésique. Mais certaines procédures automatisées sont mémorisées dans une mémoire séparée de la mémoire déclarative : la mémoire procédurale. Dans les faits, il arrive que certaines procédures, initialement mémorisées dans la mémoire déclarative, migrent progressivement en mémoire procédurale. Ce processus de procéduralisation permet d'automatiser certains algorithmes courants. Cependant, cette procéduralisation prend du temps, de la pratique, et beaucoup de répétitions. Pour donner un exemple, l’acquisition des manipulations algébriques font partie de ce processus.
L'acquisition de l'automaticité
[modifier | modifier le wikicode]Qu'il s'agisse d'un rappel automatique de faits ou d'une consolidation de procédures, la pratique joue un rôle fondamental. Cependant, la pratique idéale diffère suivant que l'automatisme à acquérir soit une connaissance à rappeler ou une procédure à appliquer. Dans le cas des connaissances, pour les tâches où l'automaticité est une automaticité de rappel, la pratique doit se faire à données constantes. Par exemple, pour l'apprentissage du calcul, chaque calcul/fait mathématique doit être revu plusieurs fois, répété avec les mêmes nombres. Mais pour l'automatisation de procédures, il vaut mieux que les données sur lesquelles appliquer l'algorithme soient différentes à chaque fois (sauf éventuellement pour quelques cas très fréquents).
En savoir plus
[modifier | modifier le wikicode]- "Automaticity: A Theoretical and Conceptual Analysis", par Agnes Moors et Jan De Houwer.
Références
[modifier | modifier le wikicode]- ↑ Perfetti, 1988
- ↑ Yuill et Oakhill, 1991
- ↑ How children's brains memorize math facts., daté de 2014
- ↑ "Cognitive psychology and simple arithmetic: A review and summary of new directions", publié dans le journal "Mathematical Cognition", November 1994
Le mythe des styles d'apprentissage
Certains proclament que les élèves ont des points forts et des points faibles, des méthodes d'apprentissage différentes ou des particularités autres auxquelles l'enseignement doit s'adapter. Cette hypothèse les pousse à adapter l'enseignement aux différentes manières d'apprendre, histoire de donner un enseignement plus personnalisé, individualisé. L'enseignement est alors plus varié, plus diversifié, chaque élève ayant accès à un grand nombre d'approches différentes. Cette spécialisation de l'enseignement aux différentes manières d'apprendre est ce qu'on appelle la différentiation pédagogique. Reste que les théories qui se cachent derrière les différentes tentatives de différentiation sont souvent assez bancales, scientifiquement parlant.
La théorie des styles d'apprentissage
[modifier | modifier le wikicode]Certains chercheurs et pédagogues ont supposé l'existence de préférences liées au processus d'apprentissage : certains apprendraient mieux d'une certaine manière, manière qui ne conviendrait pas à d'autres. C'est ce qu'on appelle la théorie des styles d'apprentissage : chaque personne aurait des styles d'apprentissage préférés.
Les différentes variantes de la théorie des styles d'apprentissage
[modifier | modifier le wikicode]La première théorie du genre a été conçue par Kolb, puis redécouverte indépendamment par Peter Honey et Alan Mumford's. Celle-ci classe les élèves sur deux paramètres. Le premier fait la différence entre les élèves qui préfèrent les choses concrètes et ceux qui aiment l'abstraction. Le second fait la différence entre ceux qui préfèrent apprendre en expérimentant et ceux qui préfèrent observer. Ces deux paramètres peuvent se combiner pour former quatre type d'élèves.
- Assimilateurs : aiment expérimenter et préfèrent l'abstrait ;
- Accomodateurs : aiment expérimenter et préfèrent le concret ;
- Convergents : aiment la théorie et préfèrent l'abstrait ;
- Divergents : aiment la théorie et préfèrent le concret.
Le modèle d'Anthony Gregorc est assez similaire. Il conserve la distinction entre abstrait et concret mais change l'autre dimension. Celle-ci classe les élèves selon qu'ils aiment apprendre les choses dans un ordre précis ou de manière plus ou moins aléatoire. Là encore, on trouve quatre combinaisons d'élèves.
Selon d'autres théories, certains élèves auraient une mémoire auditive tandis que d'autres seraient plus visuels ou tactiles. Cette théorie a été lancée en 1979 par Barbe, Swassing et Milone, dans l'article « Teaching Through Modality Strengths: Concepts and Practices », et on peut trouver des théories similaires, comme la théorie VAK/VARK de Neil Fleming. Celle-ci est déjà ancienne et reste assez populaire,elle est même souvent conseillée par certains enseignants. Mais on a vu dans le chapitre sur les supports pédagogiques que de nombreuses constatations expérimentales la contredisent formellement.
D'autres pensent qu'il faut faire une différence entre élèves sériels et holistes : certains élèves préféreraient voir les informations les unes après les autres, en appréhendant les parties individuellement avant de comprendre le tout, tandis que d'autres préfèrent se concentrer sur l'ensemble, sur le tout plutôt que la somme des parties. Évidemment, ce genre de choses est largement incompatible avec une mémoire de travail limitée, qui ne peut gérer simultanément qu'une quantité restreinte d'idées et de connaissances.
Le bilan
[modifier | modifier le wikicode]On pourrait rajouter d'autres théories, comme le MBTI, la théorie de Sternberg et bien d'autres encore. En tout, il doit exister plus d'une centaine de théories des styles d'apprentissage. Mais dans tous les cas, toutes les théories des styles d'intelligence ont de gros problèmes aussi bien théoriques qu’expérimentaux. Premièrement, on voit mal quel est le mécanisme qui ferait que les élèves ont des styles d'apprentissage différents. Il n'y a tout simplement aucune explication théorique derrière les théories des styles d'apprentissage, aucun mécanisme explicatif, aucune cause à ces styles d'apprentissage. Pourquoi un élève apprendrait-il mieux à partir de supports concrets qu'à partir de concepts abstraits ? Pourquoi certains profiteraient-ils de supports visuels et pas d'autres ?
En second lieu, ces théories sont souvent rarement solides du point de vue expérimental : le nombre d'expériences qui montrent une efficacité des pédagogies basées sur ces styles d'apprentissage est très faible, voire inexistant pour certaines théories. En 2009, l'Association For Psychological Science, une grande institution scientifique étasunienne, a publié un rapport sur l'efficacité des théories fondées sur les styles d'apprentissage. Ce rapport, nommé « Learning styles: concepts and evidence » a conclu à un manque de preuves évident de ces théories sur le plan expérimental. En somme, les théories des styles d'intelligence sont des théories dont l'efficacité en classe a de très fortes chances d'être totalement nulle.
Les théories de la différenciation pédagogique soi-disant basées sur le fonctionnement du cerveau
[modifier | modifier le wikicode]Le courant de la neuroéducation est composé de chercheurs qui utilisent les recherches sur le cerveau pour utiliser l'apprentissage. En soit, rien de mal. Certaines recherches sont d'ailleurs d’excellents indicateurs qui permettent de confirmer les recherches en psychologie. En revanche, il arrive souvent que certaines théories pseudo-scientifiques utilisent l'aura des neurosciences pour se faire accepter. C'était le cas de la méthode Brain Gym, une méthode totalement invraisemblable sur le plan scientifique, qui a tenté de se faire passer pour une méthode fondée sur les neurosciences. On pourrait aussi citer le cas de la programmation neuro-linguistique, une pseudo-science qui est la base de la pédagogie PNL. De même, d'anciennes théories totalement réfutées continuent de faire des ravages chez certains enseignants, comme c'est le cas avec la distinction cerveau gauche, cerveau droit. De tels neuro-mythes doivent donc être combattus avec vigueur. Mais ces pseudo-théories de la différenciation n'ont pas encore reçu de confirmations expérimentales et sont souvent fondées sur des théories totalement fausses.
La disitnction entre cerveau gauche et cerveau droit
[modifier | modifier le wikicode]Par exemple, la soi-disant différence entre cerveau gauche et cerveau droit est parfois utilisée dans le milieu éducatif. L'idée reçue qui veut que les deux côtés du cerveau ne traitent pas des mêmes tâches (le cerveau gauche serait plus rationnel et l'autre émotionnel) est encore tenace. Mine de rien, l'étude "Neuroscience and education: myths and messages" de Paul A. Howard-Jones montre que près de 90% des professeurs anglais croient à ces théories. Certains pensent que certains élèves seraient plus cerveau droit que cerveau gauche et qu'il faut adapter le style d'apprentissage en fonction. J'ai d'ailleurs personnellement lu des cours de formation sur les cartes mentales, destinés à des professeurs, qui faisaient référence à cette idée reçue. Mais dans la réalité, cette spécialisation des deux hémisphères est très limitée et n'a rien à voir avec l'apprentissage.
La théorie des intelligences multiples
[modifier | modifier le wikicode]À côté des styles d'apprentissage, on trouve d'autres théories similaires qui stipulent l'existence de différentes formes d'intelligences. La littérature grand public mentionne souvent la théorie des intelligences multiples de Gardner, qui fournit une classification des différentes formes d'intelligences : logico-mathématique, spatiale, interpersonnelle, intrapersonnelle, corporelle, linguistique, musicale et naturaliste. Cette théorie est souvent utilisée pour défendre une certaine forme de différenciation pédagogique. D'ordinaire, l'école se focaliserait surtout sur les intelligences linguistique et logico-mathématique. Mais si un élève n'arrive pas à apprendre, on peut se baser sur une autre forme d'intelligence, qui lui serait plus adaptée. Manque de chance, Gardner lui-même n'est pas d'accord avec cette forme de différenciation et se révèle plutôt contre. De plus, les confirmations expérimentales sont rares, voire inexistantes. En 2004, une revue de la littérature, effectuée par Sternberg, n'a trouvé aucune étude sur le sujet.
De plus, les connaissances actuelles nous disent clairement que la théorie de Gardner a de bonnes chances d'être fausse. Cette théorie est notamment incompatible avec les observations effectuées sur les tests de QI, qui testent plusieurs intelligences à la Gardner : linguistique, logico-mathématique, naturaliste et spatiale (sans compter qu'elles mesurent aussi d'autres paramètres comme la capacité de la mémoire de travail). Or, statistiquement, ces épreuves ne sont pas indépendantes : la réussite à une de ces épreuves est fortement reliée à la réussite de n'importe quelle autre épreuve du test. La réussite à une épreuve prise au hasard dans un test de QI a une corrélation très élevée avec la réussite à n'importe quelle autre épreuve. Ces corrélations statistiques font que toutes les épreuves semblent reliées à un facteur général, qui est appelé le facteur g. Les suppositions vont de bon train sur l'origine de ce facteur, mais il semblerait clairement que celui-ci soit relié aux fonctions exécutives, des capacités cognitives qui s'occupent de gérer la mémoire de travail : planification, inhibition, mise à jour de la mémoire de travail, etc.
Lire aussi
[modifier | modifier le wikicode]- Stop propagating the learning styles myth, par krishner, 2016.
- Do Learners Really Know Best? Urban Legends in Education, par Kirschner et van Merrienboer, 2013.
- Learning Styles: Concepts and Evidence, Pashler, 2008.
L'apprentissage de la lecture
Apprendre à lire est une chose importante, et ceux qui n'y arrivent pas sont souvent promis à un avenir sombre. De nos jours, l’analphabétisme et l’illettrisme sont relativement rares, et ne concernent que 5% de la population, selon les études réalisées lors de la Journée d'Appel de Préparation à la Défense. Selon les études PIRLS, la majorité des difficultés portent essentiellement sur la compréhension de texte. Cependant, quiconque est familier avec le domaine de l'éducation sait que d'interminables débats sont toujours en cours concernant l’efficacité des différentes méthodes de lecture. Cette querelle sur les méthodes de lecture est relativement caricaturée dans les débats grand public, ainsi que dans la majorité des productions sur le sujet, en une confrontation entre deux camps : les méthodes globales (et semi-globales), et syllabiques. Ce chapitre vise à faire une synthèse des faits avérés sur l'apprentissage de la lecture. Cet article n'est pas totalement exhaustif, même si l'auteur cherche à rendre celui-ci le plus complet possible.
Les mécanismes de la lecture
[modifier | modifier le wikicode]Lire est un processus qui fait intervenir diverses zones de notre cerveau, et qui se base sur plusieurs processus : comprendre le sens d'un texte demande l'usage de la mémoire, de nos capacités intellectuelles, d'automatismes liés à la syntaxe, etc. Dans les grandes lignes, comprendre un texte ou un discours implique deux types de processus relativement bien séparés : un processus purement perceptif de reconnaissance des mots et lettres et de nombreux processus grammaticaux, syntaxiques et sémantiques.
La reconnaissance des mots
[modifier | modifier le wikicode]L'ensemble des connaissances sur le vocabulaire forme ce qu'on appelle le lexique mental, ou mémoire lexicale. Celui-ci permet de savoir comment prononcer un mot ou comment l'écrire. Il contient aussi les symboles comme les lettres, les syllabes, les sons d'une langue (maternelle ou non), les chiffres, certains nombres, et toutes les notations possibles et imaginables (comme les notations mathématiques, par exemple). Vision et audition sont des portes d'entrée qui permettent d’accéder à ce lexique mental, afin de comprendre respectivement l'écrit et l'oral. Ce lexique mental ne serait pas unique : il serait composé de plusieurs lexiques mentaux spécialisés. On trouverait ainsi :
- un lexique pour la compréhension orale, qui stocke la prononciation des mots.
- un lexique pour la lecture, qui stocke la représentation visuelle et/ou orthographique des mots ;
- un lexique de sortie, qui stocke comment articuler pour prononcer un mot, et éventuellement comment l'écrire ;
- et la mémoire sémantique, qui stocke le sens des mots, les concepts qui y sont associés.
Le processus de reconnaissance des mots, est la première compétence travaillée par les méthodes de lecture : si l'enfant ne sait pas reconnaître les mots d'un texte, il ne peut évidemment pas comprendre celui-ci. Donc, l'apprentissage de la lecture doit forcément travailler la reconnaissance de mots isolés en premier lieu. Chez la personne qui a appris à lire, la reconnaissance des mots connus est un processus automatique. Pour le prouver, on peut utiliser l'effet Stroop, qui nous dit que réprimer des automatismes a tendance à allonger les temps de réaction. Et c'est ce qu'on observe dans le cas de la reconnaissance des mots. Par exemple, si on vous demande de donner la couleur d'un mot, vous prendrez beaucoup plus de temps si jamais le mot en question est un adjectif de couleur qui ne correspond à la couleur de l'encre. Essayez par vous-même :
Vert Rouge Bleu Jaune Bleu Jaune |
Bleu Jaune Rouge Vert Jaune Vert |
Les autres processus de lecture
[modifier | modifier le wikicode]Les processus sémantiques, syntaxiques et grammaticaux sont impliqués dans la compréhension d'un texte ou d'un discours oral, la mémorisation et le raisonnement. Ceux-ci impliquent fortement la mémoire sémantique, une sous-portion de la mémoire qui stocke les connaissances conceptuelles, la signification des mots. Pour faire très simple, comprendre un texte ou un discours consiste à former un modèle mental de la situation décrite dans le texte/discours. Cela demande juste de former des relations entre connaissances présentes en mémoire sémantique, et à utiliser ces connexions pour récupérer l'information adéquate.
Les paramètres qui influencent l'apprentissage de la lecture
[modifier | modifier le wikicode]Il existe divers paramètres qui font que la lecture est plus ou moins facile. Nous allons commencer par voir quels sont ces paramètres, avant de voir les modèles qui permettent d'expliquer pourquoi ces paramètres ont une influence. La reconnaissance des mots est surtout influencée par les liens entre oral et écrit, là où la compréhension est influencée par l'élaboration des réseaux mnésiques. Dans les grandes lignes, nous prononçons les mots et percevons la parole en la décomposant en composants élémentaires, les phonèmes, sortes de sons élémentaires qui sont assemblés ensembles pour former des syllabes. Pour simplifier, le principe alphabétique stipule que chaque lettre est attribuée à un ou plusieurs phonèmes : chaque phonème est un son qui correspond à une lettre. Par exemple, dans la syllabe "mo", il y a un phonème qui correspond au "m", et un autre au "o" : essayez de décomposer cette syllabe, vous verrez que vous y arriverez (du moins, vous en aurez l'impression…). On peut noter qu'il existe des cas où un son correspond à un groupe de plusieurs lettres, auquel on donne le nom technique de graphème. Dans la suite de cet article, j'utiliserais le terme "lettre" pour faire référence à ces graphèmes, et le terme "son" et lieu et place de phonème, par souci de vulgarisation.
La transparence linguistique
[modifier | modifier le wikicode]Il existe des langues transparentes, où il n'existe qu'une seule lettre par phonème, et réciproquement : c'est le cas du serbe et du croate, par exemple. Mais manque de chance, ce n'est pas le cas du français ou de l'anglais. En français, il existe 44 phonèmes pour 26 lettres : cela s'explique par le fait qu'une lettre peut correspondre à plusieurs phonèmes, suivant le mot ou la syllabe, et réciproquement. Par exemple, la lettre "g" ne se prononce pas de la même manière dans "jauge" et dans "gueule" : dans le premier cas, elle se prononce plutôt à un "j", alors qu'elle se prononce comme un "g" dans le second. De même, on pourrait citer les lettres muettes, et autres situations du même genre.
Le fait qu'une lettre puisse correspondre à plusieurs phonèmes pose problème pour la lecture. Le cas inverse, à savoir la transcription d'un phonème en lettre/groupe de lettre, n'influence pas la lecture, mais joue un grand rôle pour l'écriture. En effet, le non-respect du principe alphabétique fait que l'on ne peut pas déduire facilement la prononciation d'un mot à partir de ses lettres dans une langue non-transparente, ce qui rend l'apprentissage de la lecture plus laborieux. L'apprentissage de la lecture est plus long pour les pays qui utilisent une langue inconsistante, comparé aux pays à langue transparente. De plus, il faut savoir que les locuteurs des langues transparentes sont moins concernés par la dyslexie : elle existe bien dans ces pays, et dans des proportions similaires à ce qu'on trouve en France, mais les dyslexiques de ces pays ont nettement moins de mal à lire et sont nettement moins handicapés que les petits Français ou Anglais.
La conscience phonologique
[modifier | modifier le wikicode]Les études sur le sujet sont très claires : il existe une bonne corrélation entre la capacité à reconnaitre des mots isolés, et la capacité à analyser les différentes unités du langage. Les études en question ont été relativement bien résumées dans une synthèse du National Reading Panel, publié dans les années 2000. Cette capacité à segmenter les mots prononcés en unités plus petites, que l'on peut manipuler, s'appelle la conscience phonologique.
La connaissance de chaque unité du langage a une grande importance pour la lecture. Certaines études semblent montrer que la conscience phonologique mesurée avant l'apprentissage de la lecture est positivement corrélée à l'apprentissage de la lecture, ce qui semble indiquer une relation causale de la conscience phonologique. Mais les différentes consciences n'ont pas la même utilité dans l'apprentissage de la lecture. Au début de l'apprentissage, toutes les consciences phonologique semblent corrélées à de bonnes capacités de lecture. Par contre, au-delà de la seconde année de primaire, la conscience phonémique joue un rôle plus important que les autres. Cela s'expliquerait par le fait que ces différentes consciences n'apparaissent pas au même moment chez l'enfant. Le développement de la conscience phonologique commence tout d'abord par la détection des mots, puis est suivi d'un développement de la conscience syllabique, suivi lui-même par la conscience des rimes et syllabes, puis enfin par la conscience phonémique.
Cependant, il faut savoir que les phonèmes ne sont pas l'unité de base du langage, du moins pour un sujet qui n'a pas reçu un entrainement spécifique. Des expériences faites par Savin et Becker (1970) ont montré que des élèves reconnaissent plus rapidement les syllabes que les phonèmes. Et c'est sans compter que l'on n'a pas pu observer de capacité à découper le langage en phonémes avant 6 ou 7 ans, l'âge auquel l'enfant apprend à lire. Et enfin, les illettrés n'ont généralement pas de conscience phonémique, alors que leur conscience syllabique est presque identique à celle de personnes qui ont appris à lire. Par contre, les études ont clairement montré que le développement de la conscience phonémique était particulièrement bien corrélé à la capacité à reconnaitre des mots : plus l’illettré apprendre à lire, plus sa conscience phonologique se développe. Reste à savoir si c'est le développement de la conscience phonémique qui aide à l'amélioration de la capacité à reconnaitre des mots, ou l'inverse. Le fait qu'entrainer la conscience phonémique semble améliorer les performances de reconnaissance des mots semble attester d'un rôle causal de la conscience phonémique (Ehri, 2001). Par contre, il existe de nombreux cas d'enfants qui ont une très faible conscience phonémique, mais qui savent parfaitement bien lire (Bradley & Bryant, 1985; Stuart-Hamilton, 1986), sans compter que le même phénomène est observé chez des adultes (Campbell & Butterworth, 1985).
La mémoire de travail
[modifier | modifier le wikicode]Au début de l’apprentissage de la lecture, la mémoire de travail est fortement mise à contribution. Il faut dire que la mémoire de travail verbale est utilisée pour mettre en attente les phonèmes/rimes/syllabes lus et les conserver pour les fusionner en unités plus grandes, ce qui très utile pour déchiffrer les mots. Cela explique que la capacité à répéter des pseudo-mots est fortement corrélée à l'acquisition ultérieure du vocabulaire. Plus la mémoire de travail verbale est grosse, plus l'élève pourra facilement répéter de nouveaux mots. On peut citer le cas d'une patiente, étudiée par Baddeley, dont la mémoire de travail phonologique/articulatoire est atteinte à la suite d'un accident vasculaire cérébral. La patiente n'avait aucun problème pour lire des mots familiers ou qui ressemblaient à des mots connus, mais l'apprentissage de nouveaux mots d'une autre langue était laborieux, quand il était seulement possible. On voit donc que l'apprentissage de nouveaux mots dépend de la mémoire de travail auditive, du moins dans les premières étapes de l'apprentissage de la lecture. Par la suite, cette influence diminue, l'élève apprenant de nouveaux mots en les reliant à des mots déjà présents en mémoire à long terme, par analogie.
De plus, la compréhension de texte utilise aussi la mémoire de travail. Automatiser la lecture permet évidemment de libérer de la mémoire de travail, au profit des processus de compréhension. Les expériences sur les élèves montrent que plus l'élève apprend à lire, plus la lecture devient économe en mémoire de travail. Cela a un effet assez positif sur la vitesse de lecture, mais aussi sur la compréhension de texte. Ainsi, les mauvais décodeurs ont des difficultés pour comprendre un texte. Plus un enfant sait déchiffrer vite et bien, plus il sera capable de comprendre le texte qu'il lit[1][2].
Le vocabulaire
[modifier | modifier le wikicode]L'influence du vocabulaire se manifeste essentiellement sur les processus de compréhension, et plus marginalement sur le processus de reconnaissance des mots. En effet, qui dit vocabulaire développé dit mémoire sémantique développée, remplie de connaissances, de concepts, et d'idées. Les personnes avec beaucoup de vocabulaire, et donc beaucoup de connaissances antérieures, pourront former plus de relations en mémoire lors de la lecture, leur donnant un avantage en terme de compréhension de texte. C'est ce qui explique que plus le vocabulaire d'un enfant est développé, plus ses capacités de compréhension sont bonnes. Avec l'âge, le lexique mental se développe progressivement et s'enrichit de mots. Pour pouvoir parler de manière fluide, que ce soit sa langue maternelle ou une langue étrangère, un élève doit connaitre environ 4000 à 5000 mots dans la langue étrangère à apprendre. Mais évidemment, les pratiques pédagogiques et contenus d'enseignement ont aussi un rôle extrêmement important à jouer.
L'acquisition du vocabulaire
[modifier | modifier le wikicode]La reconnaissance des mots écrits est un processus qui se met en place progressivement. Selon le docteur Linnea Ehri, l'apprentissage de la lecture s'effectue en trois grandes phases.
La toute première étape de l'apprentissage de la lecture a lieu avant même la scolarisation en primaire et l'apprentissage explicite de la lecture. Lors de cette étape, les enfants peuvent reconnaître des mots, qu'ils interprètent comme des dessins : ils peuvent ainsi reconnaître des mots vus régulièrement, comme Carrefour ou Auchan. On parle d'étape logographique. Cette reconnaissance ne se fait pas dans le détail des lettres : à la place, les enfants analysent l'image en se basant sur la forme générale du mot, sa couleur, la couleur des lettres, et divers indices visuels. Sans ces indices visuels, les enfants ne peuvent pas reconnaître le mot : il n'y a aucune intervention du langage oral dans la reconnaissance des mots.
Lors de l'étape alphabétique, les enfants prennent conscience de l'existence de lettres, et se basent sur le langage oral pour reconnaître des mots : ils font le lien entre lettres et phonèmes. Ces correspondances entre lettres et sons sont utilisées lors de la lecture : l'enfant va alors traduire les lettres en sons, et reconstruira le mot sous forme auditive : c'est là que le mot "entendu" sera reconnu. Au tout début de l'apprentissage, les enfants se basent non sur une prononciation complète des mots, mais se contentent d'une traduction partielle : ils traduisent certaines zones du mot, qui leur servent d'indices pour identifier le mot complet. Par exemple, les enfants peuvent traduire les lettres du début et de fin de mot, et en déduisent quel est le mot. Ce processus est utile, mais pas efficace : les enfants commencent à savoir lire, mais le font lentement, et ont du mal à reconnaître un grand nombre de mots. Par la suite, les enfants lisent lettre par lettre, et fusionnent les sons individuels pour former de mots complets. Cette capacité à fusionner les sons progresse et devient de plus en plus rapide avec le temps, sans pour autant devenir automatique : l'enfant doit faire les conversions lettres -> sons consciemment.
Puis, progressivement, les enfants font de moins en moins appel à un déchiffrage des lettres et commencent à reconnaître visuellement des portions de mots. Au lieu de traiter les mots lettre par lettre, ils sont capables de reconnaître des groupes de plusieurs lettres, qui correspondent à des syllabes. La lecture est alors de plus en plus rapide, et devient de plus en plus automatique. L'enfant qui a atteint ce stade a mémorisé l'orthographe des mots, qu'il peut alors reconnaître plus ou moins indirectement. L'enfant peut aussi utiliser ces connaissances orthographiques pour effectuer des analogies entre mots, et en déduire la prononciation de mots nouveaux en se basant sur des mots connus similaires. Cependant, les correspondances entre sons et suites de lettres sont encore utilisées dans certains cas particuliers, notamment pour les mots inconnus. L'enfant a alors atteint l'étape orthographique.
Le processus de lecture chez l'adulte
[modifier | modifier le wikicode]L'accès au lexique mental, à savoir le processus de reconnaissance des mots, est activement étudié de nos jours. Une chose est certaine, ce processus ne voit pas des mots entiers , mais des morceaux de mots. En effet, notre œil ne peut voir précisément que sur une portion très limitée du champ de vision, la vision étant totalement floue en dehors de cette zone.
Pour voir une image en entier, notre œil doit bouger sans cesse, balayer une portion plus ou moins importante de l'image. De telles saccades oculaires sont fréquentes, et nous n'en avons souvent pas conscience. C'est la mémoire sensorielle qui se charge de combiner les résultats des différentes prises de vue effectuées par l’œil en une image plus ou moins complète. Ces saccades oculaires durent environ 250 millisecondes, avec des variations suivant la personne. Ce point suffit à réfuter définitivement les méthodes de lecture globale, qui cherchent à faire reconnaitre des mots dans leur totalité. Cela permet aussi de réfuter définitivement les méthodes de lecture rapide.
Le modèle à deux voies
[modifier | modifier le wikicode]Reste qu'une fois perçus, les groupes de lettres doivent être traités, et activer un mot dans le lexique mental. Le modèle psychologique le plus utilisé à ce jour est le modèle du double codage. Ce modèle dit que les mots familiers sont reconnus par un processus visuel, tandis que les mots inconnus sont décodés phonologiquement. Le lecteur expert dispose ainsi d'une voie d'adressage visuelle et d'une voie d'assemblage phonologique. D'après la version la plus récente de ce modèle, les deux voies s'activent en parallèle lors de la lecture d'un mot, et c'est la plus rapide ou la plus adaptée qui l'emporte. Les observations sur des patients ayant des lésions au cerveau a montré qu'une voie peut être touchée sans que l'autre ne le soit.
Lorsque notre cerveau fait face à un mot peu fréquent ou inconnu, c'est la voie d'assemblage qui doit prendre le relai. Celle-ci consiste en un décodage conscient du mot à lire, basé sur une utilisation des correspondances entre graphèmes et phonèmes. Les expériences qui attestent l'existence de cette voie portent sur des mots dont la prononciation ne varie que d'un seul phonème : on parle de voisins orthographiques. Dans ces expériences, on présente un mot indice durant un temps très court (quelques millisecondes), avant de présenter un mot cible. L'indice va s'activer et pré-activer les mots avec lesquels il est relié en mémoire, facilitant leur reconnaissance. Or, le mot cible est reconnu beaucoup plus rapidement avec un indice qui est un voisin phonologique, et les mesures des temps de réaction sont assez intéressantes. Cependant, cet effet n'a lieu que pour les mots relativement rares, et pas pour les mots fréquents. C'est la preuve que la lecture des mots fréquents se base sur un processus indépendant de la phonologie. De plus, les sujets qui ont de faibles résultats aux épreuves de reconnaissance de mots écrits ont plus souvent tendance à avoir un effet d’amorçage prononcé avec des voisins phonologiques : les moins bons lecteurs déchiffrent les mots avec des processus phonologiques, ce que ne font pas les bons lecteurs.
La voie d'adressage est celle du processus de reconnaissance des mots fréquents. L'existence de cette voie est attestée par deux effets expérimentaux, nommés effet de lexicalité et effet de fréquence. Le premier tient au temps de réaction suite à la présentation d'un mot ou d'une suite de lettres inconnue (un pseudo-mot). Il est observé que le temps de lecture est supérieur pour les pseudo-mots. Par exemple, nous reconnaîtrons plus rapidement le mot "pluriel" que "prugarmif". On parle d'effet de lexicalité. Le second stipule que les mots fréquents sont reconnus plus rapidement, ce qui indique un traitement non-phonologique des mots. On peut citer l'expérience de Catherine Martinet, de l'université de Grenoble, effectuée sur une classe de première année de primaire. Elle a commencé par étudier la fréquence des mots présents dans le manuel de lecture utilisé, et a sélectionné 36 mots : 18 mots fréquents, et 18 mots rares. Le résultat est clair : les mots fréquents sont bien orthographiés dans 78% des cas, contre seulement 55% avec les mots rares.
Dans le cas des dyslexies, au moins une des deux voies serait endommagée. Si la voie d'assemblage est lésée, le patient a du mal à décoder les mots de manière phonologique : la reconnaissance des mots et des pseudo-mots (des assemblages de syllabes comme grabeurg, fama, crata, etc) réguliers est alors mauvaise. Lors d'atteinte de la voie d'adressage, le cobaye a du mal à lire les mots irréguliers, qui ne se prononcent pas comme ils s'écrivent (femme, par exemple).
Le modèle à double voie en cascade
[modifier | modifier le wikicode]La version la plus récente du modèle à deux voies postule que les deux voies s'activent en parallèle lors de la lecture d'un mot, la plus rapide ou la plus adaptée l'emportant sur l'autre. Il est stipulé dans le modèle que la voie d'adressage va plus vite que la voie d'assemblage. Cela expliquerait pourquoi les mots fréquents sont reconnus plus rapidement ou pourquoi les vrais mots sont lus plus rapidement : les mots fréquents et vrais mots sont reconnus par la voie d'adressage, qui est plus rapide.
Cependant, on peut se demander si l'accès à la phonologie a lieu avant ou après l'identification visuelle des mots : est-ce que la voie d'adressage est vraiment plus rapide ? Et d'un point de vue expérimental, cette supposition est assez bien vérifiée : l'accès à la phonologie d'un mot a clairement lieu après l'identification visuelle pour les mots fréquents, et même après l'accès au sens des mots. Dans leur étude de 1995, Daneman, Reingold, et Davidson, ont donné à des sujets des phrases dans lesquelles certains mots étaient remplacés par des homophones. Si la lecture procédait comme ceci : mot écrit -> prononciation -> sens, alors le sens des homophones serait immédiatement disponible à partir de la traduction auditive du mot, sans influence de l'orthographe. Par contre, s'il existe bien deux voies, avec une voie visuelle plus rapide que l'auditive, les homophones seraient plus longs à lire : il faudrait attendre que la voie auditive fasse son travail avant de pouvoir accéder à la bonne signification, qui permet de comprendre la phrase.
Cette étude a montré que des sujets avaient des temps de lecture plus longs pour les homophones mal orthographiés que pour ceux correctement orthographiés : on lit plus vite quand le mot correct est utilisé que quand celui-ci est remplacé par un homophone. Cela suggère que le sens des mots est accédé avant leur prononciation. La voie d'adressage est donc bien plus rapide que la voie d'assemblage.
Les modèles connexionnistes
[modifier | modifier le wikicode]De nos jours, les modèles les plus aboutis sont des modèles basés sur des réseaux de neurones. Au début de l'apprentissage, ces réseaux de neurones lisent en passant par la phonologie : ils attribuent des groupes de lettres à des unités du langage et lisent les mots en combinant ces unités orales. Puis, au fil du temps, les liaisons directes entre groupes de lettres et unités de sens sont utilisées pour reconnaître les mots. Chez le bon lecteur, qui a des années d'expérience, les deux processus fonctionnent : reconnaissance visuelle de groupes de lettres, et traduction phonologique.
Références
[modifier | modifier le wikicode]GFDL | Vous avez la permission de copier, distribuer et/ou modifier ce document selon les termes de la licence de documentation libre GNU, version 1.2 ou plus récente publiée par la Free Software Foundation ; sans sections inaltérables, sans texte de première page de couverture et sans texte de dernière page de couverture. |