Des élèves désormais plus compétents en science et technologie?

Patrice Potvin, Jean-Guillaume Dumont et François Boucher-Genesse, UQAM

Résumé

Une recherche menée par les chercheurs du LaBMECAS tente d’établir une mesure de la compétence 1 en science et technologie (chercher des réponses ou des solutions à des problèmes d’ordre scientifiques et technologiques) à partir de l’utilisation d’un jeu informatisé. Les résultats permettront de savoir si les élèves d’aujourd’hui sont effectivement plus « compétents » que les élèves d’avant la Réforme.

Des difficultés méthodologiques

Étudier l’effet de la Réforme de l’éducation sur les apprentissages des élèves québécois présente un défi méthodologique considérable et ce, pour deux raisons majeures. La première renvoie à l’extraordinaire complexité de la réalité et aux nombreuses variables qui la décrivent. Par exemple, depuis les débuts du processus d’implantation de la Réforme, on peut raisonnablement penser qu’en plus de la Réforme elle-même, de nombreux autres changements (sociaux/économiques, politiques, administratifs) se sont produits, sans qu’on sache vraiment si ceux-ci ont favorisé (ou non) l’atteinte des cibles. Il devient alors logiquement difficile d’affirmer que les variations dans les performances des élèves sont attribuables uniquement (ou même principalement) à l’une ou l’autre de ces variables, puisque ces dernières évoluent toutes simultanément, et pas nécessairement dans le même sens. À titre d’exemple, lorsque les jeunes québécois de 13 ans ont été évalués par le test du Programme pancanadien d’évaluation (CMEC, 2008) et que « de façon générale, le score moyen des élèves du Québec en lecture [fut] significativement supérieur à celui de leurs homologues de l’ensemble du Canada », un universitaire ontarien, de passage à Radio-Canada, a étonnamment suggéré que cela n’était vraisemblablement pas dû à l’avènement de la Réforme des programmes scolaires, mais probablement davantage au développement important… des centres de la petite enfance! Les élèves testés avaient effectivement appartenu aux premières cohortes d’enfants qui avaient bénéficié de l’important développement des CPE. Si cette analyse peut paraître a priori surprenante ou scientifiquement peu crédible, on peut aussi se demander « comment la contredire »?

Étudier l’effet de la Réforme de l’éducation sur les apprentissages des élèves présente également un deuxième défi : puisque les cibles désormais visées par les programmes, c’est-à-dire le développement de compétences, sont d’une nature différente des cibles jadis visées, c’est-à-dire les connaissances seules, une comparaison « avant/après-réforme » paraîtrait alors douteuse parce qu’elle renverrait à l’analogie de la comparaison pommes/oranges. Comparer « avant réforme » avec « après réforme » serait dans cette perspective l’équivalent de comparer les chronométrages d’un skieur de fond nouvellement converti à ses anciens chronométrages du temps qu’il était skieur alpin.

Mais il demeure au moins possible, du point de vue méthodologique, de poser certaines questions de recherche. Ainsi, s’il paraît absurde de se demander si les élèves sont désormais « meilleurs » ou « plus brillants » en raison de la Réforme, la question: « les élèves d’aujourd’hui sont-ils plus compétents que les élèves d’avant la Réforme? » demeure d’un intérêt évident pour les milieux de l’éducation. Malheureusement, pour y répondre, les tests internationaux ne nous semblent d’à peu près aucun secours, car ces derniers, avant 2009, n’ont jamais été que des examens « papier-crayon » qui ne présentent que très peu d’intérêt pour évaluer les compétences, car ils s’en tiennent à des questions unidirectionnelles, souvent à choix multiples, et ne laissent aucune place à l’exploration, à l’interaction et n’attribuent aucun rôle constructif à l’erreur. On peut donc s’attendre à ce que les systèmes éducatifs qui prônent une pédagogie davantage axée sur les produits (un travail de recherche, un exposé oral, une maquette, un protocole expérimental, etc.) et les contextes (actualité, environnement, éthique, etc.) que sur les « bonnes réponses », verraient leur classement international reculer, à moins que les tests internationaux ne finissent eux aussi par évoluer vers des modèles évaluatifs plus conformes aux mouvements pédagogiques qu’on observe actuellement partout en occident (OCDE, 2009).

Bien qu’on puisse admettre que les tests comme le PISA ont bel et bien consenti des efforts en ce sens (Lafontaine, 2009), il n’existe à notre avis aucun test international qui n’ait permis d’obtenir une mesure significative, une « photographie » valable du profil de compétence d’élèves québécois « avant Réforme » pour éventuellement autoriser la tenue d’une comparaison avec la situation actuelle qui tienne la route. Et donc malheureusement, à notre connaissance, aucun test n’avait eu (ou pris) le temps d’obtenir cette photographie des derniers élèves « non-réformés », avant que ceux-ci ne se dissolvent dans la diversité des itinéraires de la vie post-secondaire. C’est pourquoi notre équipe s’est efforcée, juste avant qu’il ne soit trop tard, d’obtenir une telle « photographie ».

Une expérimentation permettant d’espérer une réponse

Ainsi, lors du mois de mai 2009, alors que les derniers élèves de 5e secondaire « non-réformés » de l’histoire du Québec étaient encore sur les bancs d’école, près de 800 d’entre eux, répartis dans quatre institutions québécoises (publiques et privées) ont vécu une situation d’apprentissage et d’évaluation (SAÉ) informatisée dont l’objectif était d’obtenir une mesure de leur compétence de résolution de problème en sciences et technologie (compétence disciplinaire 1 (Gouvernement du Québec, 2004)).

Ces derniers ont interagi pendant une quarantaine de minutes avec la première version d’une simulation informatisée appelée le « jeu de cuisine » (Boucher-Genesse & Riopel, 2009). Conçue par les membres du Laboratoire Mobile pour l’Étude des Cheminements d’Apprentissage des Sciences (LabMECAS) de l’UQAM, cette simulation, qui est en fait une situation-problème, consistait à cuisiner une « soupe idéale » pour un « maître goûteur ». Cette soupe, dont la sélection des quantités de chaque ingrédient, la qualité de la préparation et la régularité du goûteur permettaient à l’élève compétent de pouvoir progressivement améliorer sa valeur « gustative », pouvait faire l’objet d’une étude rigoureuse par des essais successifs et des lectures de résultats et des graphiques. Pour bien progresser, l’élève devait mobiliser sa compétence en « reconnaissant les éléments pertinents au problème », en « planifiant sa démarche », en « cherchant de nouvelles pistes de solution », en « cherchant des tendances significatives dans ses résultats », et en « contrôlant les variables » (Gouvernement du Québec, 2004).
La recherche menée ne prétend pas mesurer toute l’étendue de la compétence de résolution de problème, mais permet tout de même d’obtenir un nombre considérable d’indicateurs (durée d’exploration, analyse des graphiques, raisonnement hypothético-déductif, rapidité, fixation des variables etc.) qui sont directement reliés à l’exercice de la compétence de résolution de problème telle que le programme la prescrit. Par exemple, l’application permet de constater si le joueur tente (ou non) de fixer les variables du problème en ne modifiant la quantité des d’ingrédients qu’un seul à la fois. Si au contraire la série de tests effectués comporte un nombre constamment changeant d’ingrédients, il s’agit d’un indicateur fiable, témoignant d’une démarche moins catégorique, qui présente certaines lacunes quant à la rigueur scientifique.

Le choix du « jeu de cuisine » peut sembler a priori assez éloigné des programmes de science et technologie. Or, ce choix nous est paru judicieux précisément parce qu’il ne renvoie à aucun concept des programmes. Puisque ces derniers autorisent les enseignants à se prévaloir d’une assez grande marge de manœuvre dans leur enseignement pour aborder les concepts dans des contextes différents, il nous aurait apparu au contraire bien plus discutable de créer une situation d’apprentissage qui aurait mobilisé davantage de concepts en biologie ou en physique, par exemple, ou à tout autre univers de connaissance scientifique ou technologique. En effet, un tel biais aurait vraisemblablement surfavorisé les élèves qui pu vivre un enseignement de ces concepts plus tardivement dans leur formation, ou des élèves qui auraient vécu des situations d’apprentissage moins centrées sur les concepts qui font l’objet d’une évaluation. De plus, il était souhaité que la simulation puisse évaluer la compétence des élèves telle qu’elle a été développée dans l’ensemble des niveaux de leur scolarité (qui présentent chacun des angles d’attaque disciplinaires différents) jusqu’en 5e secondaire, en fin de scolarité obligatoire, et ce, peu importe les parcours (« science et technologie » ou « application technologique et scientifique » [ATS]) ou les options de 5e secondaire qu’ils auraient choisis. La simulation est donc « adisciplinaire » au sens de Couture et Meyor (2008), en ce qu’elle permet d’évaluer des habiletés génériques, étroitement apparentées aux compétences. En plus de la SAÉ, le test pose un certain nombre de questions ayant trait aux perceptions des élèves et à leur intérêt pour la science et la technologie. Déjà, une analyse préliminaire nous permet de voir que les performances au jeu vont de pair (corrélation significative) avec certaines questions portant sur l’intérêt des élèves à l’égard de la science et de la technologie, mais pas du tout avec les résultats scolaires de ces élèves. En tenant pour acquis que le « jeu de cuisine » permet effectivement d’obtenir des indicateurs de compétence, il sera intéressant à l’avenir de voir si les résultats des élèves des écoles considérées se rapprochent ou non de leur résultat au jeu.

Et ensuite?

Tous les élèves de 5e secondaire des écoles participantes feront l’objet d’une évaluation semblable durant le mois de mai 2011. Les différentes mesures prises permettront non seulement de répondre à la question : « les élèves d’aujourd’hui sont-ils plus compétents en science et technologie qu’ils ne l’étaient en 2009? », mais aussi à d’autres questions relatives à l’évolution de la perception des élèves et permettront de continuer l’amélioration de la tâche. Les premières réponses seront publiées à l’automne 2011.

Références

Boucher-Genesse, F., & Riopel, M. (2009). Suivi informatique des cheminements pour la recherche en éducation scientifique. In M. Riopel, P. Potvin & J. Vazquez-Abad (Eds.), Utilisation des technologies pour la recherche sur l’éducation scientifique. Québec: Presses de l’université Laval.

CMEC (2008). Programme pancanadien d’évaluation (PPCE-13 de 2007). Toronto, Ontario: Conseil des ministres de l’Éducation du Canada.

Couture, M., & Meyor, C. (2008). Simulations informatiques adisciplinaires et résolution de problèmes ouverts : une étude exploratoire auprès d’étudiants en formation des maîtres. Revue internationale des technologies en pédagogie universitaire, 5(2).

Gouvernement du Québec (2004). Programme de formation de l’école québécoise, Enseignement secondaire, Premier cycle. Québec: Les publications du Ministère de l’Éducation du Québec.

Lafontaine, D. (2009, 14 mai). Les standards internationaux en éducation: la place des situations et des contextes. Communication présentée au Congrès annuel de l’ACFAS, Ottawa.

OCDE (2009). Education at a glance 2009 : OECD indicators. Paris: Organisation for economic co-operation and development.

Le Réseau d’information pour la réussite éducative (RIRE) diffuse de l’information susceptible de répondre aux besoins des acteurs de la réussite éducative. Cette information est repérée grâce aux activités de veille du Centre de transfert pour la réussite éducative du Québec (CTREQ)