Cliquez sur l'image pour commander l'ouvrage

vendredi 30 novembre 2012

Un cours sur l'enseignement efficace à l'intention des directions et conseillers pédagogiques


OBJECTIFS du cours

Accompagner des enseignants en exercices en situation de réactualisation de leurs pratiques pédagogiques à la lumière des recherches portant sur l'efficacité de l'enseignement, basées sur les données probantes.

CONTENU

Le contenu est organisé autour des deux thèmes couvrant les compétences fondamentales de l'enseignant en salle de classe : la gestion de la classe et la gestion des situations d'enseignement-apprentissage. Dans le contexte d'un cours destiné à des professionnels non-enseignants en exercice, la version B - volet accompagnement - propose une démarche de coaching et d'animation pédagogiques visant à accompagner les enseignants dans la mise en place des stratégies efficaces de gestion de classe et de gestion de l'enseignement-apprentissage auprès des élèves.

Pour en savoir plus,

jeudi 29 novembre 2012

Pédagogie de projet et travaux de groupe, variables favorisant un faible rendement en mathématiques!






Rapport sur le Programme pancanadien d’évaluation (PPCE) de 2010

Dans ce rapport sur l'évaluation du rendement des élèves en mathématiques, il est montré que le recours à la pédagogie de projet et les travaux de groupe sont des variables associées à un faible rendement des élèves et que l'enseignement direct est une variable associée à un rendement élevé!!! Rapport complet disponible ici 






mercredi 7 novembre 2012

Apprendre au XXIe siècle: interview de Stanislas Dehaene

Vu ici
 
« Derrière chaque lecteur se cache une mécanique neuronale admirable de précision et d’efficacité », nous explique Stanislas Dehaene, professeur au Collège de France et responsable de l’unité INSERM-CEA de neuroimagerie cognitive. L’acte de lire est tellement inscrit dans nos activités quotidiennes qu’il est difficile d’imaginer l’extraordinaire sophistication du “cerveau lisant”. La compréhension de chaque mot passe par un déchiffrage visuel, un traitement phonologique et une recherche du sens. Comment notre cerveau de primate s’est-il adapté à une activité aussi complexe au point de nous transformer en lecteurs experts ?Dans Les neurones de la lecture (Odile Jacob, 2 007), S. Dehaene propose une explication : la lecture est possible grâce au recyclage neuronal d’une région cérébrale spécialisée dans la reconnaissance des objets. La prochaine étape est d’aller au plus près du fonctionnement cérébral, pour découvrir les neurones spécialisés dans chaque étape du décodage du mot, comme l’analyse des paires de lettres. Dès aujourd’hui, les découvertes neuroscientifiques ont des implications pédagogiques, en confirmant que certaines méthodes d’apprentissage sont clairement inadaptées. Ce dossier à été préparé par Gilles Marchand

Stanislas Dehaene
est professeur au Collège de France
et membre de l’Académie des Sciences.
Il compte parmi les neuroscientifiques les plus reconnus 

LMI : Entre le moment où je perçois un mot et celui où je le reconnais, que se passe-t-il ?
Stanislas Dehaene : La lecture est d’abord un processus de saccades oculaires, qui extraient, trois ou quatre fois par seconde, des informations d’un mot ou d’un texte. La reconnaissance du mot commence sur la partie la plus centrale de rétine. Elle se poursuit par l’analyse orthographique, permettant de l’identifier indépendamment de la taille des lettres ou de la police d’écriture. Le traitement orthographique, commun à tous les mots, s’effectue grâce à une zone du cerveau, la région occipito-temporale gauche. Ensuite, deux voies de traitement sont mises en jeu : la voie phonologique, qui retrouve la prononciation du mot, et la voie d’accès au lexique mental, qui permet de distinguer le mot parmi l’ensemble de mots connus et d’accéder à son sens. Les deux voies agissent ensemble, ce qui permet à un mot ambigu dans sa prononciation d’être désambiguïsé par le sens. Par exemple, « femme » ne peut pas être lu correctement en traduction graphème-phonème. Sans le lexique qui renseigne sur la bonne prononciation, le mot serait prononcé « fème » et non « fame ». De façon étonnante, ce processus existe dans tous les systèmes d’écriture, y compris les écritures logographiques (le japonais et le chinois) dans lesquelles chaque caractère représente un mot complet. Là aussi, la composante phonologique n’est pas négligeable. Les deux voies existent dans toutes les langues, l’une dominant plus ou moins sur l’autre.

LMI : Comment l’apprentissage de la lecture se traduit-il dans le cerveau ?
Stanislas Dehaene : Le décodage cérébral est d’abord laborieux, l’assemblage des phonèmes est assez lent puis devient automatique. Grâce à l’expérience, le traitement dans la voie phonologique peut s’accompagner, en parallèle, de la recherche du sens du mot. Chez l’adulte, devenu lecteur expert, un mot de trois lettres ou de huit lettres est reconnu dans le même laps de temps. L’absence d’un effet “longueur de mot” suggère que l’ensemble du mot est traité en parallèle. Ce n’est pas le cas chez l’enfant, qui a besoin d’expérience avant d’y parvenir. Des études américaines montrent que la fluence en lecture de mots (la capacité à lire le maximum de mots en un temps donné) est strictement corrélée avec la quantité d’activation dans la région occipito-temporale gauche. En mesurant l’une on mesure l’autre. Il s’agit d’une des meilleures indications des liens étroits qui existent entre l’activité d’une région cérébrale et le développement d’une fonction intellectuelle.

Les neurosciences confirment que tous les lecteurs disposent de la même architecture cérébrale...


LMI : Comment expliquez-vous que le cerveau humain s’adapte si bien à la lecture ? Est-il “programmé” pour transformer, rapidement et efficacement, l’enfant en bon lecteur ?
Stanislas Dehaene : Le langage parlé, qui se développe depuis plus de deux cent mille ans, a sans doute bénéficié d’une évolution sélective, et le cerveau s’y est adapté en formant des structures cérébrales propres à la langue orale. Mais l’écriture est très différente, car elle est une invention culturelle très récente, datant de huit mille ans. Le cerveau n’a pas pu évoluer pendant une période aussi courte pour permettre la lecture. Pourtant, les études menées grâce aux techniques d’imagerie cérébrale mettent en évidence une forme de spécialisation cérébrale pour les signes écrits, dans la région occipito-temporale gauche. La cause de cette spécialisation doit être complètement renversée : ce n’est pas le cerveau qui a évolué pour l’écriture, mais le système culturel de l’écriture qui a évolué de manière à être adapté au cerveau. Il existe des circuits cérébraux qui vont de la vision vers les aires du langage, suffisamment plastiques pour être recyclés et s’adapter à l’écriture. Il s’agit bien d’une opération de “recyclage” neuronal.
LMI : Comment l’écriture s’est-elle adaptée à la structure du cerveau ?
Stanislas Dehaene : On trouve, dans l’organisation des systèmes d’écriture, des traces des contraintes du système nerveux sur l’apprentissage. Les croisements des traits sont très présents dans l’écriture, certaines formes sont plus fréquentes que d’autres, et leur distribution est la même dans tous les systèmes d’écriture. Par exemple, la forme en T est très fréquente, celle en F l’est beaucoup moins. Ces formes sont également fréquentes dans les images d’objets ou de scènes naturelles, le système visuel de tous les primates s’est adapté à ces régularités présentes dans l’environnement, grâce à des neurones spécialisés dans leur reconnaissance. En partant de formes beaucoup plus complexes, comme la tête d’un taureau, les concepteurs des systèmes d’écriture les ont progressivement simplifiées pour obtenir quelques formes minimales de lettres, à la fois simples à reconnaître, très adaptées à notre système nerveux, et faciles à dessiner.
Si l’apprentissage de la lecture est possible et même aisé, nous le devons à la pré-disposition du cerveau, non pour la lecture mais pour la reconnaissance des objets. Le processus de spécialisation dans la région occipito-temporale gauche est visible par l’imagerie cérébrale, chez l’enfant. Quand l’enfant apprend à lire, il enclenche un recyclage fonctionnel d’une partie des neurones du système visuel et provoque leur spécialisation pour la lecture. L’activation cérébrale, au départ très étendue, se focalise peu à peu sur la zone occipito-temporale gauche. Elle constitue un marqueur biologique de l’apprentissage de la lecture.

LMI : De façon surprenante, la perception des mots écrits sollicite toujours cette zone, chez tout le monde et dans toutes les cultures.
Stanislas Dehaene : C’est une des grandes surprises de nos études. Alors qu’on s’attendait à trouver une importante variabilité culturelle, il n’en est rien. À quelques millimètres près, la région occipito-temporale gauche est la même, comme le montrent les études internationales portant sur l’hébreu ou chinois. Les seules différences se remarquent dans l’intensité et la surface de l’activation, qui diffèrent selon les caractéristiques de chaque écriture. Dans ce modèle du recyclage neuronal, les contraintes cérébrales de reconnaissance des objets sont très fortes. Un modèle plus précis reste encore spéculatif, mais de nombreux laboratoires dans le monde y travaillent : celui des neurones de la lecture. L’objectif de ces recherches est d’identifier les neurones qui codent l’orthographe des mots. Nous sommes plusieurs chercheurs à spéculer qu’il doit exister, en particulier, des neurones « bigrammes » qui répondent à des paires de lettres. L’étude du codage orthographique est en ébullition.

LMI : Quelles sont les applications pédagogiques de ces découvertes ?
Stanislas Dehaene : Elles permettent de mieux comprendre les difficultés dans l’acquisition de la ­lecture. Prenons l’exemple des erreurs en miroir que les enfants commettent fréquemment au début de l’apprentissage. Dans le cadre théorique du recyclage neuronal, ce phénomène devient moins mystérieux. La perception en miroir fait partie des compétences du système visuel des primates. Elle facilite la reconnaissance des objets sans tenir compte de leur orientation. Chez l’enfant, cette compétence spontanée se traduit par l’inversion des lettres, dans leur forme et leur progression de la gauche vers la droite. L’enfant doit désapprendre cette aptitude. Il n’y a donc pas lieu de s’inquiéter des erreurs d’écriture et de lecture en miroir, sauf si elles ne disparaissent pas en l’espace de quelques années. Les principales pistes d’application de la véritable science de la lecture qui est train d’émerger concernent les méthodes d’enseignements, qui doivent faciliter le processus de recyclage neuronal, et donc la spécialisation cérébrale. Des erreurs peuvent être corrigées. Ainsi la forme globale des mots n’intervient à aucun moment de la reconnaissance de l’écrit. Les exercices relevant de la méthode globale ou semi-globale n’ont pas lieu d’être car ils attirent l’attention de l’enfant vers le mauvais niveau de traitement – un de nos collègues a montré qu’ils activent la mauvaise région cérébrale, dans l’hémisphère droit ! Les exercices efficaces attirent l’attention sur les unités graphiques des mots, les lettres, les graphèmes complexes (comme « oi »), les préfixes, les suffixes, et favorisent leur mise en correspondance phonologique et lexicale. Ils permettent de rendre l’enfant-lecteur rapidement autonome. Lorsqu’il sait décoder des lettres et des sons, il peut entrer dans un processus d’auto-apprentissage, en identifiant de nouveaux mots à partir de ses connaissances et en automatisant le lien entre la reconnaissance du mot et l’accès à son sens. Les études en pédagogie le confirment : apprendre les correspondances graphèmes-phonèmes permet de gagner en efficacité et en gain de temps, par opposition à des méthodes idéo-visuelles qui se contentent d’exposer des correspondances entre le mot tout entier et une image, une signification. Il faut enseigner de manière structurée, en commençant avec les correspondances les plus simples avant de progresser vers les plus complexes. Mais ces idées simples laissent énormément de place à la créativité de l’enseignant : décomposer les mots connus (méthode analytique), assembler des lettres (méthode synthétique), colorier, déplacer, découper, écrire ou tracer du doigt les composants des mots sont autant de possibilités ouvertes.

LMI : Quel message souhaitez-vous faire passer aux enseignants ?
Stanislas Dehaene : Les neurosciences confirment que tout lecteur dispose de la même architecture cérébrale. Il faut donc renoncer à l’idée pédagogique, pourtant généreuse, selon laquelle on devrait adapter la méthode d’apprentissage en fonction de chaque enfant. Les choses sont plus simples : certaines méthodes sont mieux adaptées que d’autres à la structure du système nerveux. L’effort d’apprentissage doit être important, grâce à des méthodes qui insistent sur la morphologie des mots, sur l’enrichissement du vocabulaire, sur la discrimination des phonèmes avant même la lecture. Mais de nombreuses inconnues demeurent. Par exemple, le fait de toucher les lettres, d’en tracer les contours avec le doigt, semble avoir un impact très positif sur l’apprentissage de la lecture. On ne sait pas encore l’expliquer. Peut-être le geste permet de désambiguïser des lettres visuelles proches (b et d). Le tracé des lettres est utilisé depuis des décennies par certains enseignants, par exemple dans la méthode Montessori. Les chercheurs ont donc beaucoup à apprendre des pédagogues, et inversement. ♦ 

 


mardi 6 novembre 2012

Neuromyths in education: Prevalence and predictors of misconceptions among teachers


Sanne Dekker1*, Nikki C. Lee1, Paul Howard-Jones2 and Jelle Jolles1
  • 1Department of Educational Neuroscience, Faculty of Psychology and Education, LEARN! Institute, VU University Amsterdam, Amsterdam, Netherlands
  • 2Graduate School of Education, University of Bristol, Bristol, UK
The OECD’s Brain and Learning project (2002) emphasized that many misconceptions about the brain exist among professionals in the field of education. Though these so-called “neuromyths” are loosely based on scientific facts, they may have adverse effects on educational practice. The present study investigated the prevalence and predictors of neuromyths among teachers in selected regions in the United Kingdom and the Netherlands. A large observational survey design was used to assess general knowledge of the brain and neuromyths. The sample comprised 242 primary and secondary school teachers who were interested in the neuroscience of learning. It would be of concern if neuromyths were found in this sample, as these teachers may want to use these incorrect interpretations of neuroscience findings in their teaching practice. Participants completed an online survey containing 32 statements about the brain and its influence on learning, of which 15 were neuromyths. Additional data was collected regarding background variables (e.g., age, sex, school type). Results showed that on average, teachers believed 49% of the neuromyths, particularly myths related to commercialized educational programs. Around 70% of the general knowledge statements were answered correctly. Teachers who read popular science magazines achieved higher scores on general knowledge questions. More general knowledge also predicted an increased belief in neuromyths. These findings suggest that teachers who are enthusiastic about the possible application of neuroscience findings in the classroom find it difficult to distinguish pseudoscience from scientific facts. Possessing greater general knowledge about the brain does not appear to protect teachers from believing in neuromyths. This demonstrates the need for enhanced interdisciplinary communication to reduce such misunderstandings in the future and establish a successful collaboration between neuroscience and education.

jeudi 1 novembre 2012

Une expérience d’enseignement explicite pour favoriser l’autonomie chez les étudiantes et étudiants de Techniques de l’informatique au collégial


Il s'agit d'un essai présenté à l'Université de Sherbrooke par Christiane Lagacé en vue de l’obtention du grade de Maître en enseignement (M.Éd.) Maîtrise en enseignement au collégial en juin 2012. 
Voici le sommaire de l'essai
Le manque d’autonomie des cégépiennes et cégépiens n’est pas un phénomène nouveau. Pourtant, en Techniques de l’informatique au collégial, ce manque d’autonomie devient un obstacle majeur à la réussite puisque les techniques et domaines de programmation sont de plus en plus complexes, ce qui rend la résolution de problèmes plus lourde. C’est pourquoi la chercheure a souhaité expérimenter une méthode pédagogique dans le but d’aider la clientèle étudiante à être plus autonome. Elle s’est intéressée à l’enseignement explicite, une méthode pédagogique dont les différentes phases proposent une augmentation graduelle de l’autonomie.
Une leçon utilisant l’enseignement explicite se déroulera en trois phases. Au départ, l’enseignante ou l’enseignant utilisera le modelage pour démontrer la façon de procéder pour exécuter une tâche donnée. La pratique guidée permettra ensuite aux étudiantes et étudiants d’expérimenter cette tâche tout en bénéficiant du soutien nécessaire. Finalement, la pratique autonome sera atteinte et permettra l’exécution de la tâche sans aide.
Dans cet essai, la chercheure a tenté de répondre à la question suivante : comment l’enseignement explicite peut-il favoriser l’autonomie chez les étudiantes et étudiants de Techniques de l’informatique au collégial ? Pour y arriver, elle s’est donné trois objectifs de recherche : d’abord, déterminer les conditions à mettre en place pour favoriser l’appropriation de l’enseignement explicite par les enseignantes et enseignants, puis expérimenter l’enseignement explicite et, finalement, déterminer les conditions dans lesquelles cette méthode pédagogique peut être avantageuse.
L’exploration de pistes de solution au problème de recherche exposé a pris la forme d’une recherche-intervention. Le but de ce type d’essai est d’intervenir dans le milieu et de modifier une pratique existante. Cette voie semble particulièrement intéressante pour répondre au problème du manque d’autonomie des cégépiennes et cégépiens.
La recherche-intervention, une forme de recherche-action, a comporté plusieurs cycles d’action et de réflexion. La chercheure a accompagné et observé un enseignant volontaire qui a expérimenté l’enseignement explicite à trois reprises. Divers instruments, tels le journal de bord, le questionnaire écrit et l’entrevue semi-dirigée, ont fourni une cueillette de données diversifiée.
L’analyse des données apporte une réponse partielle à la question de recherche. En effet, l’expérimentation n’a pas été d’une envergure suffisante pour confirmer de façon satisfaisante l’impact de l’enseignement explicite sur l’autonomie de la clientèle étudiante. Par contre, elle a su faire ressortir l’importance de l’accompagnement pour aider une enseignante ou un enseignant à s’approprier une nouvelle méthode pédagogique. Elle suggère également que l’enseignement explicite soit réservé à certains apprentissages, notamment dans les cours de début de formation où la matière est généralement plus structurée. Finalement, cette recherche montre que l’enseignement explicite est une méthode pédagogique prometteuse pour laquelle l’expérimentation doit être poursuivie.