Étude : les écoles échouent dans l'application des réformes


Une étude américaine menée par la RAND Corporation conclut que la plupart des écoles qui tentent de réformer leurs pratiques ne réussissent pas à adopter toutes les modalités inhérentes au cadre prévu (EurekAlert! : RAND study finds most schools fail to fully adopt reform models). Selon le rapport, intitulé Evaluating Comprehensive School Reform Models at Scale (PDF), la raison la plus souvent citée pour les lacunes sont le manque de soutien et d’investissement financier, notamment au regard de la formation des enseignants. Quoique les écoles adoptent résolument le nouveau programme de formation, elles sont moins enclines à embrasser les méthodes pédagogiques recommandées. L’étude ne cible nullement un modèle pédagogique en particulier, mais l’implantation du changement.

Malheureusement, les auteurs affirment qu’une application incomplète d’une réforme scolaire aura peu d’incidence sur la réussite des élèves :

At the current level of implementation, comprehensive school reform models are likely to have only modest or no effect on student achievement. [...] Without substantially more support, it is not likely most schools will be able to faithfully adopt these models of school improvement.

À la lecture du compte rendu, on est saisi des parallèles avec la réforme de l’éducation au Québec. Plusieurs des déboires que nous connaissons sont certainement attribuables à l’insuffisance des investissements et à un manque de direction. Dans ce contexte, il est difficile de jeter le blâme sur ses fondements pédagogiques.

En mettant tous l’épaule à la roue, nous y arriverons sans doute. Mais la route s’annonce longue et cahoteuse. C’est le cas des chemins de campagne. Le ministère, semble-t-il, n’a pas les moyens de nous offrir une autoroute.


Par ricochet :

Les affres de la réforme

Attaques contre la réforme

Réforme ou évolution de éducation ?

Les technologies comme agents de réforme

Le jargon de la réforme

Le point sur la réforme


Réussir la réforme de l’éducaition (Mario tout de go)

L’ADQ au sujet de la réforme (Remolino)

Conduire une réforme de l’éducation : analyse d’une expérience ministérielle (Les carnets Dédalus)

Vous pouvez suivre les commentaires en réponse à ce billet avec le RSS 2.0 Vous pouvez laisser une réponse, ou trackback.

7 réponses

  • Normand Péladeau dit :

    Étude très intéressante, même passionnante, qui mérite une lecture très attentive en raison du débat qui a lieu au Québec. Cependant, je ne peux être d’accord avec votre conclusion selon laquelle « Dans ce contexte, il est difficile de jeter le blâme sur ses fondements pédagogiques ».

    Ce qui manque à cette étude pour être tout à fait pertinent à nos propos, c’est le lien entre les différents niveaux d’implantation et les changements dans la réussite des élèves. Elle nous aurait sans doute permis de voir que l’effet observé était directement proportionnel au niveau d’implantation. Faible implantation: effets positifs légers; moyenne implantation: effets positifs moyens; forte implantation: effets positifs importants. C’est en gros les conclusions des deux études citées par la table de pilotage dans son rapport d’évaluation (même si la table de pilotage en a déformé les conclusions comme je l’ai démontré ailleurs). Mais envisageons pour l’instant que les principes pédagogiques d’une réforme s’avèrent mal fondés, quel lien observerait-on alors entre le niveau d’implantation et la performance des élèves? Etes-vous d’accord avec moi pour dire que cette relation serait inversement proportionnelle? Plus la réforme serait bien implantée, plus la performance des élèves diminuerait. D’accord?

    Maintenant, si on se retrouve après 6 ans d’implantation d’une réforme et que l’on constate que celle-ci ne fut pas implantée autant qu’on l’aurait souhaité, et qu’en même temps, l’on constate une baisse significative de la performance des élèves. Ne serait-il pas justifié de soulever des questions non pas uniquement sur l’implantation, mais également sur les bien-fondés de cette réforme? Il me semble qu’il n’est pas déraisonnable de soulever des questions autant au niveau des principes de la réforme que de l’implantation de celle-ci. Je vous rappelle également qu’un tel test a été réalisé en Belgique par Bernard Rey. Dans son étude, il a examiné le lien entre la qualité de l’implantation et les résultats scolaires et il est arrivé à « des résultats surprenants, voire paradoxaux » que plus les écoles étaient engagées dans les projets pédagogiques novateurs, plus les résultats étaient mauvais. Ces résultats sont paradoxaux uniquement si on a la certitude que les effets ne peuvent être que positifs.

    Le communiqué du collectif pour réussir la réforme précise « le succès d’une réforme repose pour moitié sur les idées qui la fondent et pour l’autre moitié sur la qualité de l’implantation ». Je suis totalement d’accord avec eux et l’étude de la Rand Corporation illustre très bien ce fait. Cependant dans ce même communiqué, les déboires connus seraient attribuables selon ses auteurs à 100% à l’implantation. Pourquoi pas moitié-moitié? N’êtes-vous pas d’accord avec l’idée que « L’ÉCHEC, autant que la réussite d’une réforme respose pour moitié sur les idées qui la fondent et pour l’autre moitié sur la qualité de l’implantation ». Malheureusement, le collectif a fait une profession de foi et réitère sa croyance inébranlable aux principes de cette réforme et n’envisage à aucun moment dans ce long document de 20 pages la possibilité qu’ils aient pu se tromper.

    Et si on regardait au Québec le lien entre l’implantation par école et les changements de performances mesurés sur TEIMS et sur les données du MELS en français, ne pourrait ont pas avoir un test intéressant qui nous permettrait de savoir dans quelle mesure l’application des fondements de la réforme résulte en des effets positifs ou négatifs? Ne pensez-vous pas qu’il pourrait s’agir d’une étude intéressante? En fait, il me semble que la Table de Pilotage a entre ses mains toutes les données pour vérifier cette hypothèse. Nous avons donc une opportunité de faire cette vérification du lien entre niveaux d’implantation et effets. Ne pensez-vous pas que l’exercice en vaudrait la peine?

    Mais, avec ce que l’on a vu par le passé, peut-on faire confiance à la table de pilotage pour produire une évaluation indépendante de la sorte? Il est pour moi très clair, qu’en raison du peu de crédibilité de cette table de pilotage, de sa partialité et de son manque d’indépendance, si celle-ci prend l’initiative de faire ces analyses et de les présenter dans son rapport final, aucun opposant à la réforme ne sera disposé à croire les conclusions des analyses. Donc autrement dit, nous ne serons pas plus avancés et le débat risque de reprendre de plus belle. Deux solutions me semblent possibles, permettant d’obtenir plus de transparences et d’impartialité. 1) La table de pilotage rend public l’ensemble des données receuillies et laisse les différents chercheurs faire les analyses qu’ils désirent pour vérifier ces différentes hypothèses. 2) La table de pilotage soumet ses données à une firme indépendante avec un comité bipartite de gens favorables et de gens critiques face à cette réforme. Une espère de recherche évaluative indépendante avec participation des principaux « stakeholders « , mais participation à titre uniquement de consultants, puisque les analyses et le rapport d’évaluation demeureraient du ressort des évaluateurs indépendants.

    Qu’en pensez-vous? Ne serait-ce pas une solution plus civilisée que le débat actuel?

    Pour revenir à votre conclusion: « Dans ce contexte, il est difficile de jeter le blâme sur ses fondements pédagogiques », n’aurait-il pas été plus raisonnable d’ajouter également « mais on ne peut pas exclure non plus cette possibilité ». C’est malheureusement ce que semble faire ce nouveau collectif pour réussir la réforme.

  • Il y a beaucoup de conjectures dans votre argumentation, M. Péladeau. Beaucoup trop, en tout cas, pour vouloir en débattre, puisqu’on n’y trouve rien de nouveau. Ce sont des questions qui ont déjà été retournées cent fois, ici ou ailleurs.

    Ce billet ne fait que jeter un peu de lumière sur les difficultés d’implantations des réformes en éducation sur le plan de la gestion. Au regard de l’étude, il est permis de croire (et non d’affirmer) que…

    1. les déboires de la réforme actuelle ne sont pas reliés à ses fondements pédagogiques ;

    2. l’implantation d’un modèle instructionniste, lequel nécessiterait lui aussi une vaste opération de changement, connaîtrait les mêmes difficultés administratives.

  • Normand Péladeau dit :

    On peut croire en effet tout ce qu’on veut, sans limite aucune.

  • Régine Pierre dit :

    L’étude en question n’apporte rien que l’on ne sache déjà. La première grande évaluation du genre, dont le mandat était d’évaluer le projet Follow Through lancé au début des années 1970, arrivait aux mêmes conclusions. Trente plus tard après des centaines de révisions et près d’un milliard de dollars dépensés, les chercheurs impliqués constataient avec dépit que l’évaluation n’avait eu aucun impact sur l’évolution des approches pédagogiques. Au contraire, les approches qui ont pris de l’expansion sont celles qui étaient ressorties comme les moins efficaces.

    «Project Follow Through, America’s longest, costliest and perhaps, most significant study of public school teaching methods quietly concluded this year. The good news is that after 26 years, nearly a billion dollars, and mountains of data, we now know which are the most effective instructional tools. The bad news is that the education world couldn’t care less.»

    Les didacticiens n’étaient nullement étonnés. Ces évaluations avaient été menées par des non didacticiens qui avaient sélectionné des méthodes d’enseignement dont ils ne reconnaissaient pas la validité. De surcroît les résultats étaient tout à fait prévisibles: les instruments d’évaluation favorisaient nettement les méthodes qui sont ressorties comme les meilleures.

    Le seul point positif de ce vaste échec comme l’admettent les chercheurs eux-mêmes, a été de propulser les recherches en didactique notamment en didactique de la lecture qui n’ont jamais autant progressé que durant ces trente dernières années, malheureusement, en dehors du Québec.

    Toute tentative d’évaluation de la réforme québécoise est impossible pour au moins trois raisons majeures: les fondements de cette réforme ne tiennent pas scientifiquement; en conséquence, cette réforme est impossible à appliquer; on n’a aucune donnée objective sur la situation avant son implantation. Ainsi, bien des aspects positifs que s’attribuent les concepteurs de cette réforme, sont des conséquences de la réforme de 1979 et même de l’Opération Renouveau lancé en 1970 sur le modèle de Head Start, le projet qui avait précédé Follow Through en 1967. C’est le cas notamment des maternelles 5 ans plein temps que j’ai contribuées à développer avec celles qui ont été les pionnières de l’éducation préscolaire au Québec, les enseignantes du préscolaire, les jardinières comme on les appelait joliment à l’époque. Cela faisait 35 ans que nous réclamions au Ministère de l’éducation de généraliser les maternelles 5 ans plein temps et même les maternelles 4 ans, pour permettre notamment aux enseignantes de faire de l’éveil à l’écrit ce qu’elles n’avaient pas le temps de faire quand la maternelle était à demi temps. Le Québec accusait un retard même sur des pays en voie de développement en matière d’éducation préscolaire.

    C’est scandaleux de voir comment certains se donnent le crédit des idées et du travail des autres. Ce n’est pas le seul exemple. La pédagogie par projet n’est qu’un exemple extrême des approches fonctionnelles que nous avons commencé à développer dans le cadre de l’implantation des maternelles 4 ans et 5 ans plein temps et qui ont été intégrées dans la réforme de 1979. Contrairement à l’analyse de papier sur laquelle les concepteurs de la réforme se sont fondés pour développer leur modèle, il y a longtemps qu’au Québec, en tout cas au niveau préscolaire et primaire, les approches fonctionnelles mieux connues sous le nom de pédagogie active,ont été intégrées par les enseignantes. On le doit à toutes celles et ceux qui durant toutes ces années ont investi de leur temps pour suivre les programmes de perfectionnement ou des formations graduées dans lesquelles grâce aux échanges d’expertise et d’expérience entre enseignants et didacticiens le Québec était sorti des modèles traditionnels d’enseignement et avait même pris le leadership sur le plan international. En faisant l’impasse sur ces trente cinq années de développement, les concepteurs de la réforme ont fait reculer le Québec.

    Le Ministre de l’éducation n’a pas le choix de décréter un moratoire pour reprendre le contrôle sur la réforme et la recentrer sur le mandat qui lui avait été donné par les États Généraux de l’éducation, il y a dix ans. Il doit le faire avant d’atteindre le point de non retour. Les enfants cobayes de la réforme arrivent en secondaire 3. Ceux qui n’ont pas pu bénéficier des mesures d’aide coupées par la réforme vont être placés sur les voies de garage que le ministère leur a préparées et qui vont les conduire tout droit vers des vies de misère condamnés qu’ils seront à de ne pouvoir exercer que des petits métiers, eux-mêmes condamnés à disparaître sous les effets de la mondialisation.

    Aucun parent ne voudrait que cela arrive à son enfant. Aucun grand-parent ne voudrait que cela arrive à ses petits-enfants. Même les gens d’affaires, qui attendaient des États Généraux que l’école prépare une main d’oeuvre compétente qui leur permette de faire face à la concurrence mondiale, ne voudraient pas d’un tel système s’ils comprenaient vers quelle impasse cette réforme nous mène collectivement.

    Collectivement la société québécoise doit prendre conscience que cette réforme, telle qu’elle a été conçue, nous ramène avant le Rapport Parent dont l’objectif était de permettre à tous les enfants d’obtenir une éducation de base commune soit un vrai secondaire 5 pas un secondaire 5 à rabais.

  • J’ai l’impression que toutes ces discussions et tergiversations ne mènent nulle part. Elles sont aussi productives que de discourir sur ce fameux verre d’eau qui serait à moitié vide (pour certains) ou à moitié plein (pour d’autres). Pour continuer dans une allégorie, comparons maintenant l’école à une locomotive en route pour quelque part… Les enseignants et les élèves sont les passagers de ce train qui roule à vive allure vers on ne sait où (à ce qu’il semble). Pendant ce temps, les têtes dirigeantes et les « conseillers de ce monde » (comme la mouche du coche de La Fontaine) ne s’entendent pas sur ce qu’il faut changer: modifier les roues ou alléger le moteur, brûler du charbon, du bois ou utiliser l’énergie solaire. Les discussions sont très animées. On propose même de remplacer les roues par des skis pour les trajets rendus glacés par le verglas. De plus, on commence à penser qu’il faudrait faire descendre les passagers et les mener à l’aide de charrues à boeufs. Mais le train, lui, roule toujours. Qui peut ralentir le temps? Les passagers font de leur mieux pour donner un sens à leur parcours, pour suivre un itinéraire et finalement, se rendre quelque part avec ce qu’ils ont comme bagages. Doivent-ils porter le train à bout de bras quand les skis quittent la glace pour le sable? Peut-être! S’occupe-t-on vraiment d’eux? Probablement!
    Comme le dit si bien La Fontaine dans sa fable « Conseil tenu par les rats »:
    Ne faut-il que délibérer
    La cour en conseillers foisonne
    Est-il besoin d’exécuter (c’est-à-dire proposer des façons de faire, outiller les passagers et leur donner du bagage)
    L’on ne rencontre plus personne…

  • L’étude de B.Rey est parfois citée comme « élément à charge » de la réforme. Souvent de façon abusive à mes yeux.

    Je précise le contexte de la recherche (j’étais dans le « comité d’accompagnement ») sur
    http://www.destatte.be/dotclear/index.php?2006/12/02/425-efficacite-des-methodes-sur-les-performances&PHPSESSID=69023a47c99d844d6ac47e2351d3f56c

    Je suis déjà intervenu plusieurs fois sur le sujet. Les critères ne sont jamais discutés mais l’argument est régulièrement repris.

    Pour moi qui suis essentiellement pragmatique (j’ai accompagné 6x des élèves de 11 ans à un examen externe de fin de primaire), ces évocations répétées tendent à diminuer fortement la fiabilité d’autres conclusions. C’est dommage parce que je n’ai pas vraiment le temps d’en lire intégralement de nombreuses…

    PS: Ce qui a VRAIMENT fait l’objet de débats, c’est la façon dont étaient interprétés et calculés les coefficients de corrélation.

  • Voici un commentaire qui m’a été inspiré par l’intervention fort pertinente de Mme Pierre !

    http://carnets.opossum.ca/LeNeuf/archives/2006/12/quelquun_peut_meclairer_1.html



Laisser un commentaire

*