Un portrait critique des travaux de John Hattie

Lecture : 3 min.
Mis à jour le 20 Fév 2017

Les travaux de John Hattie sont souvent cités comme étant le « Saint Graal » de l’éducation. Devant ce constat, certains chercheurs ont cru bon d’apporter quelques nuances au discours entourant l’engouement pour ces données dites « probantes ». C’est le cas des auteurs d’un article paru dans la revue Enjeux publiée par l’AQEUS.

critique-hattie

Source de l’image : Shutterstock Sky Motion

Dans l’article, Frédéric Yelle, Marc-André Éthier et David Lefrançois reviennent d’abord sur la démarche utilisée par Hattie pour classer les facteurs associés à un apprentissage « efficace ».

Ces facteurs sont classés selon un indicateur qui leur est attribué : la taille de l’effet. Le seuil établi pour juger si un facteur a (ou n’a pas) d’effet positif sur l’apprentissage est de +0,40. Hattie a fixé ce « seuil de passage » en calculant la moyenne des effets recensés dans les méta-analyses, ce qui rendrait cet indicateur plutôt arbitraire selon les auteurs de l’article.

Hattie et ses stratégies efficaces d’enseignement

Yelle et ses collaborateurs s’interrogent aussi sur les critères utilisés par Hattie pour sélectionner les études qui ont fait l’objet des métaanalyses.

[L]e travail de synthèse d’une métaanalyse […], même bien réalisé, ne s’intéresse qu’aux résultats quantitatifs (ce qui exclut les résultats de recherches qualitatives) et implique une sous-estimation du biais de publication.

Les concepts utilisés par Hattie dans son classement seraient également porteur d’un flou important. Par exemple, l’apprentissage par problème peut être défini de différentes façons d’une recherche à l’autre.

En outre, le concept d’efficacité est remis en question par les auteurs. Ces derniers soutiennent que le fait de classer les approches selon ce critère sous-tend des enjeux « épistémologiques et idéologiques » importants. (À ce sujet, consultez l’article « L’efficacité, une finalité digne de l’éducation? » de Stéphanie Demers.)

L’exemple de l’apprentissage par problème

Dans l’un des classements de Hattie, l’apprentissage par problème s’est vu attribué un effet de 0,14. Selon cet indicateur, cette méthode d’enseignement serait donc généralement peu efficace. Elle serait même contreproductive (-0,78 et 0,04) si l’on vise l’acquisition de connaissances déclaratives (la mémorisation de faits historiques par exemple).

Or, si l’on vise un apprentissage plus « complexe » comme le développement de compétences, l’apprentissage par problème s’avère assez efficace (+0,40 à +0,66). À titre d’exemple, cette méthode serait particulièrement appropriée pour l’apprentissage de la pensée historique, qui nécessite notamment le développement de l’esprit critique.

L’efficacité d’une méthode d’enseignement dépendrait donc, entre autres, des objectifs d’apprentissage visés, ce dont le classement global de Hattie ne tiendrait pas compte.

En bref, les auteurs appellent à la prudence quant à l’interprétation des travaux de Hattie. À leur sens, s’il importe que les praticiens connaissent les travaux de ce chercheur, il est tout aussi important qu’ils demeurent à l’affut d’autres types de recherches, comme celles qui tiennent davantage compte des particularités des disciplines enseignées et des objectifs spécifiques visés.

Si les données quantitatives agissent souvent comme preuves, il ne faut pas oublier que celles-ci, tout comme les données qualitatives, doivent être interprétées en fonction d’un cadre conceptuel et d’une série d’outils construits afin de répondre à une problématique.

[Consultez l’article]

Référence principale

Yelle F., Éthier, M.-A. et Lefrançois, D. (2016). Ce qui est visible de l’apprentissage par la problématisation: une lecture critique des travaux de John Hattie. ENJEUX, 12 (3), 35-38.

Sur le même sujet

Bergeron, P.-J. (2016). Comment faire de la pseudoscience avec des données réelles : une critique des arguments statistiques de John Hattie dans Visible Learning par un statisticien, Revue des sciences de l’éducation de McGill , vol. 51 (2).

Barallobres, G. (2016). De légendes pédagogiques à légendes psychologiques : analyse des critiques de N. Baillargeons et didactique des mathématiques, Revue des sciences de l’éducation de McGill , vol. 51 (2).

Sébastien Béland, Cousineau, D. et Loye, N. (2016). Les dix commandements du nouvel Homo statisticus, Revue des sciences de l’éducation de McGill, vol. 51 (2).

Une réflexion collective sur les données probantes en éducation

Image : © Shutterstock / Your Design

Articles similaires

Wikipédia : le type de contribution comme gage de qualité

Le style de collaboration à la rédaction d’articles sur Wikipédia a un effet direct sur la qualité de ceux-ci.

Voir l’article

Wikipédia dans la classe

L’encyclopédie libre Wikipédia fait partie des outils pouvant avoir une visée pédagogique.

Voir l’article

La voie de la réussite, la voix des étudiants

Les attitudes et les comportements scolaires sur lesquels s’appuient ces deux grands concepts sont nommés par les étudiants eux-mêmes.

Voir l’article

Commentaires et évaluations

Contribuez à l’appréciation collective

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

  • Je trouve intéressant cet article permettant de relativiser diverses conclusions tirées de métaanalyses; comment suggérer des pistes de généralisation liées à diverses pratiques tout en respectant le cadre épistémique propre à chaque objet d’apprentissage? Cette singularité me laisse plutôt perplexe d’autant que lesdits objets d’apprentissages n’ont pour limite que la nature des expériences contextualisées les générant.

    Ainsi, par le soutien apporté par le présent article, je pourrai mieux sensibiliser qui de droit à l’importance d’exercer une saine pensée critique de même qu’à bien exploiter l’information et des ressources ayant pour objet de raffiner ou d’actualiser certaines pratiques.

    Danny R. Grenier
  • Voir une critique ici

    https://scp-pbis.com/2016/11/30/%C2%A8critique-des-travaux-de-hattie/

    Steve Bissonnette
  • Les gens d’Éduveille ont également proposé une série de billets critiques sur Visible Learning. C’est par ici… http://eduveille.hypotheses.org/8285

    David D'Arrisso