cpa-sm.gif (1004 bytes) Énoncé de position conjoint de la Société canadienne de psychologie et de l'Association canadienne des psychologues scolaires relativement à la couverture, par la presse canadienne, des résultats des examens de compétences administrés à l'échelle de la province

Marvin L. Simner, Ph.D. président, Groupe de travail sur l'utilisation erronée de tests
Société canadienne de psychologie

 

Résumé | Contexte | Énoncé de position | Recommandations | Bibliographie

Résumé

On demande à tous les professeurs d'un bout à l'autre du Canada de faire passer à leurs élèves, chaque printemps, une batterie d'examens émanant des autorités provinciales. Environ six mois plus tard, les résultats sont diffusés auprès du grand public. La presse a pris l'habitude de publier les résultats, de classer les écoles en fonction des résultats qu'elles ont obtenus et d'inviter le public à comparer les écoles les unes par rapport aux autres à la lumière de leur classement. Les journalistes commentent aussi couramment les piètres résultats obtenus par certaines écoles et n'hésitent aucunement à attribuer aux écoles la plus grande part de responsabilité, sinon la seule, de ce rendement.

Une telle pratique de la part de la presse nous amène à nous interroger sérieusement sur leur incapacité à discerner les nombreux facteurs autres que l'établissement scolaire proprement dit qui influent de façon certaine sur les examens de compétences. La stabilité de la situation familiale, l'engagement et les attentes parentales à l'égard de la réussite scolaire des enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux d'absentéisme des étudiants, de même que leurs aptitudes en matière d'apprentissage ne constituent qu'une partie des facteurs dont il conviendrait de tenir compte. En raison du fait que la répartition des élèves dans les différentes écoles ne se fait pas de façon aléatoire et à cause de l'absence ou du peu de contrôle que les écoles peuvent exercer sur les facteurs énumérés ci-dessus, toute démarche visant à attribuer la responsabilité des résultats à l'école uniquement, sans tenir compte adéquatement de chacun de ces facteurs, est au mieux problématique et au pire, trompeuse. Par conséquent, nous croyons qu'en adoptant une position aussi peu étoffée sur une question aussi complexe (c'est-à-dire les causes réelles des résultats obtenus par les élèves aux examens qui leurs sont administrés), les médias privent le public d'une information juste et réaliste sur une question qui revêt la plus haute importance pour le fonctionnement des établissements scolaires et, par le fait même, pour l'éducation et le bien-être des enfants.

Notre plus grande préoccupation réside toutefois dans la possibilité que les professeurs, les administrateurs et ultimement, les élèves eux-mêmes subissent des pressions injustifiées en vue d'améliorer les résultats aux examens de compétences (étant confrontés au risque de perdre leur crédibilité face à la collectivité), si l'on continue d'attribuer à l'école uniquement la responsabilité des résultats aux examens de compétences. De fait, il devient de plus en plus manifeste qu'un tel effet négatif se fait déjà sentir aux États-Unis à la suite de commentaires comparables de la presse américaine relativement aux piètres résultats de certaines écoles aux examens administrés sous la gouverne des États.

Dans l'espoir d'empêcher que de telles situations ne se produisent au Canada, nous affirmons, à l'instar de l'Ontario Education Quality and Accountability Office, organisme responsable de la conception des examens ontariens et des modalités de correction, qu'il est inapproprié que la presse invite le grand public à comparer les écoles en se fondant uniquement sur les résultats des examens imposés. Nous recommandons en outre que dans tout article à venir qui abordera les résultats aux examens, la presse s'assure, dans un souci de fournir au public une information objective et complète, que le public soit pleinement renseigné sur les différents facteurs, autres que l'instruction donné par les établissements scolaires, qui ont fort probablement une incidence sur les différences observées d'une école à l'autre.

Contexte

Les examens de compétences administrés à l’échelle provinciale aux élèves des niveaux primaire et secondaire sont maintenant devenus la norme dans l’ensemble du Canada (Fédération canadienne des enseignants, 1999).   La nature des examens et les années scolaires où ils sont administrés varient d’une province à l’autre. Mais toutes les provinces et tous les territoires font passer une forme quelconque d’examens à tous leurs étudiants chaque année ou chaque deux ans, ou encore prévoient le faire prochainement. Bien que nous soyons préoccupés par la pertinence des examens mandatés qui sont administrés à l’échelle de la province, à l’instar de nombreux auteurs (par exemple, Froese-Germain, 1999; Haladyna, Nolen et Hass, 1991; Herman et Golan, 1993; Herman, Abedi, et Golan, 1994; Jones et Whitford, 1997; Lomax, West, Harmon, Viator et Madaus, 1995; Madaus, 1985; Paris, Lawton, Turner et Roth, 1991; Rotberg, 1995 et Salganik, 1985), notre principal souci porte dans l’immédiat sur le tort que pourraient causer les affirmations erronées qui sont diffusées par la presse relativement aux résultats des examens.

La diffusion des résultats des examens et le classement des écoles en fonction de ces résultats, où l’on invite la population à comparer les écoles les unes avec les autres à la lumière de ces résultats, est devenu pratique courante depuis quelques années. Le passage suivant est extrait d’un article de fond du Calgary Herald, signé par Peter Cowley, coauteur du 1999 Report Card on Alberta's High Schools (compilé par le Fraser Institute). Il s’agit d’un exemple éloquent des objectifs qui sous-tendent ces invitations à comparer :

À l’instar de la compétition sportive qui stimule l’amélioration du calibre de jeu, la compétition entre les établissements scolaires peut éventuellement permettre de rehausser le rendement de chacune des écoles. C’est pourquoi le Report Card on Alberta's High Schools a été conçu de façon à faciliter la comparaison des écoles entre elles.

Les résultats n’auront évidemment pas toute la même signification pour tous les lecteurs, mais chacun (parent, étudiant, enseignant, orienteur, administrateur et contribuable) pourra l’utiliser à bon escient. Les parents qui doivent choisir une école jugeront le rapport utile car ils y trouveront les renseignements dont ils ont besoin pour prendre une décision éclairée. Les parents devraient-ils fonder leur décision uniquement sur ce rapport? Non, évidemment. Mais en combinant les renseignements qu’il recèle à ceux qu’ils peuvent obtenir de différentes sources, les parents peuvent avoir une idée plus précise de ce que peut leur offrir chaque école. Les meilleures décisions sont prises en toute connaissance de cause.

Le Rapport constitue un guide des meilleures pratiques car il dresse la liste des écoles qui obtiennent les meilleurs résultats... La reconnaissance publique de ces écoles est un puissant incitatif pour toutes les écoles, car elles les poussent à viser un meilleur rendement (Cowley, 1999).

Un message de même nature a été diffusé le 24 mars 1999 dans The Province, un quotidien de Vancouver, qui a publié un article de fond (réparti sur trois numéros) portant sur le classement des écoles de la Colombie-Britannique (une autre réalisation du Fraser Institute).  Une version encore plus accentuée de ce message a été diffusée dans le cadre de l’éditorial principal du 27 novembre 1999 du London Free Press :

S’il est nécessaire de dénoncer publiquement certaines écoles en se servant de leurs résultats désastreux aux examens, dans le but de leur faire reconnaître leurs échecs et de les inciter à corriger la situation, ne nous gênons pas alors pour administrer des examens abondamment.

Le London Free Press diffuse aujourd’hui les résultats des examens administrés aux élèves de 3e et de 6e année de la commission scolaire de la vallée Thames et de la commission scolaire catholique du district de London. Les résultats sont exposés pour chacune des écoles. Bon nombre de commissions scolaires et de professeurs préféreraient que ces résultats ne soient pas rendus publics.

Le recours à des examens administrés dans l’ensemble de la province a longtemps été entravé par la sensibilité libérale outrancière de certaines personnes qui se préoccupent des blessures sentimentales causées par de piètres résultats, ainsi que de l’étiquetage stéréotypé des écoles qui seraient classées comme bonnes ou mauvaises. Tant que ces coeurs sensibles ont tiré les ficelles, l’incompétence s’est érigée en système dans certaines écoles. Puisqu’il n’existait aucune norme permettant de mesurer l’excellence, on a pu perpétuer le mythe selon lequel toutes les écoles se ressemblent et s’équivalent. Les parents sensés ont une meilleure compréhension de la réalité : ils déménagent à proximité des meilleures écoles.

Une telle philosophie, que l’on n’étale guère au grand jour, ne profite qu’à un seul groupe : les fonctionnaires du système scolaire qui peuvent ainsi se soustraire à leurs responsabilités à l’égard des élèves qui fréquentent les écoles dont le rendement est déficient.

Ces affirmations laissent croire que les écoles sont largement responsables des résultats obtenus par les élèves aux examens de compétences. Qui plus est, les élèves qui les fréquentent seront condamnés à vivre dans un milieu peu propice à l’apprentissage, tant et aussi longtemps que les écoles où les élèves ont de piètres résultats ne seront pas forcées, par la compétition, à offrir une éducation de qualité. Ce qui nous semble problématique dans ces écrits est le fait que les auteurs font totalement abstraction des facteurs (autres que la qualité de l’enseignement) dont l’incidence sur les résultas des examens est bien connue. Voici quelques-un de ces facteurs : la stabilité de la situation familiale, l’engagement et les attentes parentales à l’égard de la réussite scolaire des enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux d’absentéisme des étudiants, de même que leurs aptitudes en matière d’apprentissage (Christenson, Rounds et Gorney, 1992; Grolnick et Ryan, 1989; Jeynes, 1999; Keith, Keith, Quirk, Sperduto, Santillo et Killings, 1998; Lytton et Pyryt, 1998; McLean, 1997; Scarborough et Dobrick, 1994).  En raison du fait que la répartition des élèves dans les différentes écoles ne se fait pas de façon aléatoire et à cause de l’absence ou du peu de contrôle que les écoles peuvent exercer sur les facteurs énumérés ci-dessus, toute démarche visant à attribuer la responsabilité du rendement à l’école uniquement, sans tenir compte adéquatement de chacun de ces facteurs, est au mieux problématique et au pire, trompeuse. Par conséquent, nous croyons qu’en adoptant une position aussi peu étoffée sur une question aussi complexe (c’est-à-dire les causes réelles des résultats obtenus par les élèves aux examens qui leurs sont administrés), les médias privent le public d’une information juste et réaliste sur une question qui revêt la plus haute importance pour le fonctionnement des établissements scolaires et, par le fait même, pour l’éducation et le bien-être des enfants.

Les mêmes remarques s’appliquent aux affirmations contenues dans les articles où les fluctuations annuelles enregistrées par chacune des écoles dans les résultats aux examens font l’objet de commentaires. Par exemple, le Globe and Mail a braqué les projecteurs sur une école du district scolaire catholique de Toronto qui a déclaré une hausse de 48 % dans ses résultats aux examens de lecture. Le quotidien a attribué cette amélioration strictement à « l’effort concerté de tous les intervenants de l’école dont l’objectif était le rehaussement du rendement » (Galt, 1999).  De façon comparable, le Readers Digest attribuait, dans un article intitulé When teachers sell kids short (Nikiforuk, 1997), les progrès réalisés par une école du district de North York en Ontario au « plan d’action qui comprenait davantage d’enseignement direct et séquentiel de la phonétique, de la grammaire et de l’orthographe ». Il va sans dire que le fait de mentionner des écoles précises qui ont enregistré des progrès remarquables par rapport à l’année précédente et d’expliquer ces progrès uniquement par les efforts consentis par les écoles elles-mêmes nous laisse à penser, par déduction, que les écoles dont les progrès ont été plus mitigés sont fautives de ne pas avoir consacré autant d’efforts. Le problème qui se pose dans de telles situations réside dans le fait qu’il est difficile, voire impossible, d’interpréter tout progrès ou recul enregistré dans le temps par chacune des écoles, à moins d’avoir en main tous les renseignements sur la situation de l’école. L’exemple suivant, tiré du London Free Press, illustre bien la nature de ce problème.

Dans l’éditorial principal qui a été cité précédemment, le London Free Press indique que 12 écoles du système scolaire catholique de London et du district de London ont enregistré « un bon prodigieux » entre 1998 et 1999, grâce à l’action bénéfique de « professeurs spécialisés itinérants qui formaient l’équipe d’intervention tactique ». Si l’éditorialiste avait tenu compte des données réelles, ainsi que des renseignements de nature démographique que pouvaient lui fournir la commission scolaire catholique relativement à ces 12 écoles, il en aurait tracé un tableau passablement différent. Prenons la lecture par exemple. Les données auraient révélé à l’éditorialiste que seulement sept écoles sur 12 avaient enregistré des progrès d’une ampleur assez considérable pour pouvoir être imputés hors de tout doute à d’autres facteurs que la chance. Une analyse minutieuse des données démographiques lui aurait aussi appris que les sept écoles fructueuses présentaient des différences importantes par rapport aux cinq autres. Il aurait observé une diminution, dans les écoles fructueuses, du nombre moyen d’élèves par classe entre 1998 et 1999, alors que les cinq autres écoles enregistraient une hausse à ce chapitre. Par conséquent, le ratio élèves-enseignant, qui se traduit par une plus grande disponibilité des enseignants pour leurs étudiants, pouvait être à l’origine des progrès observés dans les écoles fructueuses. De plus, le nombre d’élèves de sexe masculin avait diminué dans les sept écoles fructueuses, alors qu’il avait augmenté dans les cinq autres écoles. On avait également enregistré, dans cinq des sept écoles fructueuses, une diminution moyenne de 12 % du nombre d’élèves pour qui la langue anglaise est une langue seconde (les allophones). Cette diminution a été inférieure à 2 % dans les cinq autres écoles. Nous mentionnons ces deux derniers aspects car les garçons et les allophones obtiennent généralement des résultats inférieurs à ceux des filles et des anglophones dans les examens de lecture. Essentiellement, cette combinaison de classes de moindre taille, ainsi que d’un nombre inférieur de garçons et d’allophones dans les sept écoles fructueuses peut suffire à expliquer les différences entre les deux groupes d’écoles, sans égard à l’existence du « groupe d’intervention tactique ».

Pour illustrer davantage le fait que le London Free Press aurait dû recueillir de plus amples renseignements avant de tirer quelque conclusion que ce soit, il conviendrait de se pencher sur les modalités de correction des examens en 1998 et en 1999 (normalisées dans l’ensemble de la province). Selon une note de service (datée du 15 novembre 1999) diffusée par l’Education Quality and Accountability Office (EQAO), organisme chargé de l’élaboration et des modalités de correction des examens ontariens, les modalités utilisées en 1998 différaient de celles qui ont été prescrites en 1999. En 1998, les correcteurs d’examens se sont servis d’une échelle à quatre niveaux (1, 2, 3, 4) pour déterminer le rendement de chaque élève, alors que l’examen de 1999 faisait appel à une échelle à sept niveaux (1, 1+, 2, 2+, 3, 3+, 4).  On a apporté cette modification dans le but de permettre davantage de souplesse dans l’attribution du résultat dans les cas où subsiste une incertitude relativement à la note que mérite l’étudiant (p. ex., la note 2 ou la note 3?).  Cependant, la note finale accordée à chaque élève par l’EQAO en 1999 a été établie en ramenant l’échelle comprenant sept niveaux à une échelle qui en comportait quatre seulement. La note accordée au travail de l’étudiant a été attribuée en combinant les points dans chacune des catégories « plus » avec ceux du niveau supérieur immédiat. Autrement dit, le pointage final de l’étudiant en 1999 a été arrondi au premier niveau supérieur dès qu’un « plus » apparaissait dans son dossier. Puisque ce processus d’arrondissement n’existait pas en 1998 et puisque certaines écoles ont pu en profiter plus que d’autres, il est difficile de déterminer si les progrès observés dans certaines écoles du système scolaire catholique de London et du district de London entre 1998 et 1999 auraient dû être attribués aux seuls efforts des écoles, comme le prétendait l’éditorial, ou auraient-ils dû plutôt être imputés à un facteur extérieur qui découle des modifications apportées au processus de correction.

Bref, comme c’est le cas lorsqu’on tente de déterminer la cause des différences observées d’une école à l’autre au cours de la même année, toute tentative visant à établir la cause des différences qui se manifestent dans une même école par rapport à l’année précédente pose autant de problèmes si l’on n’envisage pas convenablement tous les paramètres qui entrent en jeu.  Voici ce que le RAND Institute of Education and Training a écrit sur la question :

Les comparaisons, par rapport à une autre année, des résultats non redressés d’examens simples qui ont été obtenus au cours d’une année ou les comparaisons d’un établissement scolaire ou un district par rapport à un autre au cours d’une même année ne constituent pas un indicateur valable du rendement des professeurs, des écoles et des districts scolaires, sauf si les différences dans les résultats sont très marquées par rapport à ce qu’on serait en mesure de s’attendre en raison des fluctuations des caractéristiques démographiques et familiales. C’est rarement le cas. Par conséquent, toute utilisation de résultats non redressés visant à évaluer ou à récompenser les professeurs ou les écoles ne peut mener qu’à une évaluation erronée des professeurs ou des écoles qui ont le meilleur rendement (Extrait cité par Rotberg, 1995, p. 1447). 

Au-delà du problème réel que pose l’interprétation des résultats aux examens, notre plus grande préoccupation réside dans le tort qui pourrait être causé par les affirmations fausses qui en découlent. À titre d’associations vouées à l’amélioration de la santé mentale chez les enfants et chez les adultes, nous sommes particulièrement troublés par la possibilité, lorsque la responsabilité des résultats des élèves aux examens est attribuée spécifiquement aux écoles uniquement, que l’on mette des pressions indues sur les professeurs, les administrateurs et ultimement les élèves eux-mêmes afin qu’ils améliorent leurs résultats aux examens pour ne pas risquer de perdre leur statut au sein de la collectivité. La situation que l’on découvre actuellement aux États-Unis confirme clairement cette éventualité. Prenons par exemple le cas du Michigan où un classement semblable à celui que l’on fait au Canada est diffusé par la presse depuis de nombreuses années.

Le Michigan Educational Assessment Program (MEAP) est de règle dans les écoles de cet État. Il s’agit d’un programme d’évaluation des écoles qui est mis en œuvre depuis 30 ans. Après des années de battages médiatiques et politiques, le MEAP est devenu un examen fort craint qui vise à établir des normes académiques. Son incidence se fait sentir au-delà des écoles et dans l’ensemble des collectivités.

Malgré les protestations répétées des enseignants du Michigan, la ronde annuelle des nombres produit inévitablement une mentalité d’hypodrôme qui est devenue une façon simpliste d’évaluer une collectivité. Les résultats des écoles locales au MEAP servent couramment d’arguments de vente aux agents immobiliers lors de la vente de résidences. « Parmi les renseignements que nous pouvons fournir, ce sont ceux qui nous sont le plus souvent demandés » raconte Linda Miller de Dearborn, Mich., qui prépare les profils des collectivités à l’intention des sociétés immobilières.

Dans des causes sur la garde des enfants, des avocats se sont servis des résultats obtenus au MEAP comme argument visant à démontrer que les enfants auraient avantage à habiter avec un parent qui réside à proximité d’une école qui a obtenu des résultats supérieurs. 

Bon nombre d’écoles du Michigan organisent régulièrement, pour faire face au MEAP, des manifestations visant à dynamiser leurs troupes, des classes dirigées de fin de semaine et des cours d’été. En outre, elles offrent aussi aux étudiants des récompenses afin de les inciter à se préparer en vue des examens. Les écoles placent des questions du MEAP dans les assiettes des étudiants pendant le déjeuner et offrent des prix pour les réponses exactes. Elles offrent des classes dirigées pendant les fins de semaine afin d’enseigner les habiletés requises pour passer l’examen. Pendant les examens, les élèves sont motivés à l’aide de cadeaux, mais le stress qu’ils subissent est manifeste. Bien que les résultats aux examens du MEAP ne figurent jamais sur les fiches d’information, les piètres résultats sont perçus comme une tare (Daniszewski, 1999).  

Examinons également les rapports de presse qui portent sur la situation récente dans les États de New York, du Texas, du Massachusetts, du Maryland, de l’Ohio et du Connecticut.  Dans tous les territoires de compétence, des membres du personnel scolaire ont été poursuivis en justice, ont été suspendus ou sont l’objet d’une enquête pour comportement inconvenable. Dans tous ces territoires, on a déterminé que l’accroissement de la pression sur les écoles à cause du classement est le facteur que l’on retrouve constamment à la base de ces problèmes.

New York

Des enquêteurs du système scolaire ont affirmé mardi que des douzaines d’enseignants et deux directeurs d’école du système scolaire public de la ville de New York ont fourni à leurs étudiants les réponses aux examens normalisés de lecture et de mathématiques. Un enquêteur a affirmé que la tricherie qui perdure depuis cinq ans impliquait davantage d’étudiants et d’enseignants que tous les autres cas de tromperie observés dans des écoles publiques américaines au cours des dernières années. Dans certaines écoles, les élèves inscrivaient leurs réponses sur une feuille brouillon au vu et au su de leur professeur et directeur qui corrigeaient les réponses avant qu’elles ne soient inscrites sur le formulaire d’examen... Dans d’autres écoles, on a donné aux élèves la directive de corriger les réponses erronées ou on les corrigeait pour eux.  Les enquêteurs ont affirmé que dans un cas extrême particulier, Evelyn Hey, directrice de l’école publique 234 dans le Bronx, a non seulement ordonné aux élèves de modifier les mauvaises réponses, mais elle a aussi administré des examens de pratique qui contenaient des questions de l’examen réel.  Les résultats des élèves aux examens se sont remarquablement améliorés dans bon nombre d’écoles et deux d’entre elles ont même été retirées d’une liste exhaustive d’écoles défaillantes. À l’école publique 234, les résultats en lecture ont fait un bond de 22 points de pourcentage pendant les années où Mme Hey et d’autres enseignants ont eu recours à des tactiques trompeuses, explique le rapport d’enquête (Goodnough, 1999).

Texas

Le procureur du comté d’Austin, au Texas, a déclaré mercredi que les poursuites judiciaires qui seront engagées contre le district scolaire de la ville et un cadre que l’on suspecte d’avoir faussé les résultats des examens administrés à l’échelle de l’État constituent une mesure drastique, mais nécessaire pour éviter le tripatouillage des résultats. Ken Oden, procureur du comté de Travis, a indiqué que les accusations soumises à un grand jury mardi sont les premières à avoir jamais été déposées contre un district scolaire au Texas... « C’est un fait que les pressions se font de plus en plus grandes pour l’obtention des meilleurs résultats possibles pour votre école et votre district scolaire au fur et à mesure que notre système repose davantage sur des examens normalisés et sur le classement des écoles » a déclaré M. Oden. À Austin, a-t-il ajouté, les fonctionnaires du district ont croulé sous la pression le printemps dernier lorsqu’ils ont corrigé l’examen d’évaluation des compétences académiques du Texas, un outil servant à coter le rendement des étudiants et des écoles. Le classement permet de jauger le rendement des écoles. Un piètre rendement peut se révéler gênant pour un district, d’où la tentation de manipuler les données... Bien qu’aucune accusation n’ait été déposée contre d’autres districts du Texas, certains problèmes ont surgi. Dans le district indépendant de Houston, on a congédié un professeur qui utilisait présumément une clé de correction pour rectifier les formulaires des étudiants. Dans le district scolaire de Fort Bend, un district avoisinant, un professeur et un directeur ont remis leur démission dans le cours d’une enquête portant sur une tricherie à des examens (Whitaker, 1999).

Massachusetts

Dans le dernier événement en matière de tricherie aux examens normalisés dont l’enjeu est fort important, des administrateurs, des enseignants et des étudiants d’au moins 19 écoles du Massachusetts ont transgressé le printemps dernier les règles qui régissent l’administration de ces examens ... Certains pédagogues ont rendu les livrets aux étudiants en les pressant de revoir leurs réponses, d’autres ont accordé aux élèves deux jours plutôt qu’un seul et un autre enseignant a fait circuler un exemplaire des questions d’examens par courriel auprès de ses collègues d’autres écoles, faisant remarquer que ce geste était « probablement illégal » ... [bien que ces irrégularités n’aient pas été soulignées lors de la diffusion des résultats obtenus par les écoles, ces résultats ont quand même été utilisés par les agents immobiliers et d’autres personnes pour promouvoir certains quartiers (Wilgoren, 2000).  

Maryland

Le dernier incident s’est produit mercredi à l’école élémentaire Potomak du comté de Montgomery, où la directrice, Karen Karch, a démissionné à la suite d’allégations formulées par des parents en colère, selon lesquelles les bonnes réponses d’examen ont été fournies aux étudiants et qu’on les avait aidés à reformuler leurs réponses aux questions à développement.  « Nous étions outrés et ahuris. Nous avons peine à y croire » a déclaré Krysti Stein, la présidente nouvellement élue de l’association de parents et maîtres de l’école... En cette époque où les surveillants généraux subissent des pressions relativement à l’amélioration des résultats aux examens et rendent les directeurs d’école et les enseignants imputables à l’égard du rendement des étudiants, les conversations portant sur la tricherie dominent l’actualité dans les cercles de l’éducation. « Les phénomènes que nous observons sont causés par les pressions qui résultent de ces examens dont l’enjeu revêt la plus haute importance » a expliqué Vincent L. Ferrandino, directeur général de l’association nationale des directeurs d’écoles primaires, qui a été témoin d’un scandale similaire à Fairfield (Connecticut) (voir ci-après) lorsqu’il occupait un poste de commissaire... Les professeurs dénoncent la transgression des règles qui régissent le processus d’examen, mais ils comprennent aussi le comportement irrationnel de leurs collègues qui voulaient s’assurer que leurs élèves obtiennent de bon résultats, car ce critère est déterminant pour la conservation ou la perte de leur emploi... Au cours des deux dernières années seulement, des écoles des États de New York, du Texas, de la Floride, de l’Ohio, du Rhode Island, du Kentucky et du Maryland ont mené des enquêtes sur des allégations d’activités impropres ou illégales commises par des enseignants, des directeurs d’école et des administrateurs dans le but d’obtenir de meilleurs résultats aux examens. L’augmentation des incidents impliquant les autorités scolaires a suivi la courbe de l’accroissement rapide du recours aux examens normalisés dont se servent les États pour sanctionner les écoles et les étudiants qui échouent les nouveaux examens de compétences, dont l’enjeu est de la plus haute importance (Mathews et Argetsinger, 2000).

Ohio

Une école primaire visitée récemment par le président Clinton et présentée comme un exemple de réussite des politiques scolaires adoptées par son administration est maintenant sous les feux de la rampe à la suite d’allégations déposées par plusieurs élèves qui affirment que des membres de l’effectif et des tuteurs ont aidé des élèves à tricher lorsqu’ils ont passé les examens de compétences de 4e année. En outre, l’enseignante (antérieurement honorée par un prix) qui a rapporté les confessions des élèves aux fonctionnaires du système scolaire avant de lancer l’affaire sur la place publique affirme maintenant que sa carrière pourrait être compromise depuis qu’elle a refusé de se rétracter à la demande des administrateurs... Les allégations de tricherie ont été rendues publiques en décembre par Barbara McCarroll, enseignante d’une classe de 5e année à Eastgate. Elle a déclaré, dans une interview accordée au Columbus Dispatches, que les dirigeants de l’école étaient au courant de la falsification des examens... Mais l’enquête conduite par les autorités de l’État ne sera probablement d’aucun secours pour Mme McCarroll, qui a dû prendre un congé de maladie à long terme, en février, en raison des pressions que les administrateurs et les enseignants exercent sur elle pour qu’elle se rétracte promptement... « La situation s’est tellement détériorée que je me suis mise à avoir des saignements internes, a-t-elle dit pendant l’interview. Je ne mangeais plus et je ne dormais plus. Chaque jour, je me rendais au travail où plus personne ne me parlait ». Récipiendaire en 1995 du prix Good Apple pour ses réalisations en enseignement, Mme McCarroll réalise maintenant qu’elle a peut-être mis sa carrière en jeu en braquant les projecteurs sur ses collègues (Poole, 2000). 

Connecticut

Une enquête menée à Fairfield (Connecticut) par les fonctionnaires du district a révélé qu’il était cinq fois plus probable que les réponses à l’examen des compétences de base de l’Iowa (Iowa Test of Basic Skills) aient été effacées à l’école Stratfield que dans toute autre école. Selon l’enquête, environ 90 % des modifications (qui se comptent par milliers) ont permis de substituer une bonne réponse à une mauvaise réponse. Le suivi de l’enquête, qui a porté sur des examens antérieurs, a été effectué par des experts légistes. Il a permis de déterminer que la falsification des examens s’est étalée sur plusieurs années. Les résultat obtenus par les élèves de l’école ont chuté en-deçà des résultas enregistrés dans les autres écoles lorsque les étudiants ont été soumis à un autre examen dans un cadre de sécurité des plus stricts. Ces résultats étaient auparavant parmi les plus élevés de l’Ohio. Le directeur d’école a affirmé qu’il ignorait totalement que l’on puisse tricher, mais il s’est retiré très peu de temps après le scandale (Bushweller, 1997).

D’un point de vue plus personnel, la citation suivante d’un enseignant de 5e année en Californie, extraite d’un article paru récemment dans le New York Times, illustre très bien le dilemme auquel sont confrontés de nombreux pédagogues américains relativement au classement des écoles :

Je n’aime pas me l’admettre, mais je ne perçois plus les étudiants de la même façon qu’auparavant – certainement pas avec la même flamme que celle qui m’animait en début de carrière, cinq ans plus tôt. Je percevais autrefois mon travail auprès de certains étudiants « marginaux » comme étant un « défi à relever »; je considère maintenant ces étudiants comme des cas problèmes.  Et les étudiants dont le potentiel est limité sont devenus à mes yeux des êtres inéluctablement déficients pour lesquels tout effort n’aura qu’une incidence marginale.

Nous subissons de fortes pressions. Un nombre considérable d’yeux scruteront les résultas de mes élèves aux examens de ce printemps, car les résultats sont maintenant affichés sur Internet en Californie. Aucune excuse, ni aucun argument invoquant des circonstances atténuantes ne pourront me protéger du nouvel édit de l’État : Performez davantage ou nous frapperons à votre porte (Hixson, 2000).   

Les écrits de Lomax, West, Harmon, Viator et Madaus (1995), de Paris, Lawton, Turner et Roth (1991), ainsi que de Smith (1991) fournissent d’autres commentaires et des preuves supplémentaires démontrant le tort que causent ces classements aux États-Unis. En résumant la plupart de ces preuves, voici ce que Rotberg (1995) a affirmé sur le principe visant à rendre les enseignants imputables à l’aide des résultats d’examens dans le but de favoriser le changement dans le système d’éducation : 

Un exposé présenté devant la Chambre des représentants a décrit la situation comme suit : « L’imputabilité fondée sur des examens a été mise à l’essai de nombreuses fois dans bon nombre de pays au cours des derniers siècles, et les effets produits n’impressionnent personne » ... « On en a fait la pierre angulaire de la réforme du système d’éducation des années 1980, dont l’échec est en majeure partie responsable de la présente vague de réforme... Le fait de rendre les gens responsables des résultats des examens tend à réduire l’étendue du programme scolaire. De telles pratiques incitent à gonfler les résultats des examens et il n’en découle qu’une imputabilité loufoque. Cela peut produire des effets pernicieux sur l’instruction, comme le remplacement de l’enseignement par le bourrage de crâne... Des effets négatifs peuvent se faire sentir chez les élèves qui sont déjà à risque – augmenter par exemple le taux de décrochage scolaire ou accroître le fameux bourrage de crâne en vue des examens dans les écoles qui accueillent en grand nombre des élèves provenant des minorités (Rotberg, 1995, p. 1446-1447).

Énoncé de position

À la lumière de la situation qui prévaut de plus en plus au États-Unis, et dans l’espoir d’éviter de la reproduire au Canada, nous affirmons notre adhésion pleine et entière aux énoncés suivants qui ont été formulés par l’Ontario Education Quality and Accountability Office (le premier énoncé est extrait d’un guide publié à l’intention des parents, alors que le deuxième énoncé est tiré d’un guide destiné aux pédagogues) :

Devrait-t-on utiliser les résultats des examens pour comparer les écoles?

Les résultats des étudiants à une seule évaluation ne fournissent pas suffisamment de renseignements pour permettre des comparaisons précises ou responsables. Les comparaisons fondées sur les résultats des étudiants à une seule évaluation réalisée à un moment donné de l’année peuvent se révéler trompeuses.

Qui plus est, les résultats numériques en soi n’indiquent aucunement la situation globale d’une école. Une école peut obtenir de bons résultats même si le potentiel des étudiants n’est pas totalement exploité. Par ailleurs, certaines écoles peuvent présenter un rendement inférieur aux autres écoles sur le plan purement numérique, mais elles peuvent avoir réalisé des progrès colossaux lorsque mesurés dans le temps et en fonction d’objectifs précis.

REMARQUE IMPORTANTE : Les examens administrés à l’échelle de la province ne visent pas à déterminer si un élève doit passer au niveau scolaire suivant ou doubler le niveau actuel, ni à comparer les écoles entre elles. L’objectif premier des examens est de rehausser le niveau d’apprentissage des étudiants, en décelant les points forts et les points qu’il conviendrait d’améliorer (EQAO, 1998a, p. 19).

 

Diffusion des résultats obtenus dans une commission scolaire

Les résultats de ces évaluations ne devraient pas servir à classer les écoles ou les commissions scolaires, car il en résulterait une réduction des résultats à un simple pointage ou à un nombre seulement. Le classement serait trompeur en raison de la nature exhaustive des données transmises aux écoles et aux commissions scolaires. Le classement ne favorise en rien le bien-être des étudiants ontariens et ne s’inscrit donc pas dans le mandat de l’EQAO, ni dans ses valeurs fondamentales (EQAO, 1998b, p. 15).

Bref, le principal objectif des examens administrés à l’échelle de la province sont, selon l’EQAO, de permettre aux écoles et aux commissions scolaire de jauger, d’une année à l’autre, leurs propres progrès par rapport aux normes établies par le ministère de l’Éducation. Les examens ne sont pas administrés dans le but de fournir un instrument permettant de mesurer le rendement des écoles les unes par rapport aux autres. En appuyant cette position de l’EQAO, nous considérons donc qu’il est inconvenable que la presse invite le public à mettre en contraste le rendement d’une école avec celui des autres écoles en se fondant uniquement sur les résultats que ses élèves ont obtenus aux examens. 

Nous pensons aussi que la presse devient de facto un utilisateur de résultats d’examens pédagogiques lorsqu’elle rapporte et interprète ces résultats. Nous croyons donc que la presse devrait être soumise aux mêmes ensembles de règles déontologiques qui s’appliquent aux autres utilisateurs de ce matériel. Ces règles sont présentées dans des documents tels que Principes relatifs aux pratiques d’évaluation équitable au Canada, Standards for Educational and Psychological Testing (AERA, APA, NCME, 1985, 1999) et Guidelines for Educational and Psychological Testing (SCP, 1987).  Au moins deux de ces règles s’appliquent directement à la situation décrite dans le présent document :

Les utilisateurs d’examens devraient être avisés des conséquences inattendues qui découleront probablement de l’utilisation des examens et qu’ils devraient tenter d’éviter toute action qui pourrait avoir des effets néfastes inattendus.

Lorsque les résultats d’examens sont diffusés ... les personnes responsables de leur diffusion devraient fournir des renseignements visant à minimiser les possibilités d’interprétation erronée de ces résultats. 

Recommandations

Dans l’esprit de ces règles, nous recommandons que dans tout article qui fera état de résultats d’examens ou qui les interprétera, la presse s’assure que le public est pleinement informé des différents facteurs autres que l’établissement scolaire proprement dit qui sont probablement à la base des différences qui peuvent exister d’une école à l’autre. Comme il a été mentionné précédemment, ces facteurs sont (sans toutefois s’y limiter) : la stabilité de la situation familiale, l’engagement et les attentes parentales à l’égard de la réussite scolaire de leurs enfants, la stimulation du milieu familial dans la petite enfance et aux phases ultérieures, la motivation des élèves, le taux d’absentéisme des étudiants, de même que leurs aptitudes en matière d’apprentissage. 

À titre de moyen supplémentaire pour éviter toute fausse compréhension de la part du public, nous recommandons aussi qu’une remarque comparable au paragraphe suivant soit inscrite de façon évidente à proximité de toute répartition des résultats par école :

En raison du fait que la répartition des élèves dans les différentes écoles ne se fait pas au hasard, il n’est pas possible de déterminer les facteurs qui expliquent les différences observées dans les résultats des examens, à moins d’avoir accès à de plus amples renseignements.  (nom de la publication) publie les résultats suivants à titre de service au public seulement et nous incitons fortement le public à ne pas faire de comparaisons gratuites qui peuvent mener à des conclusions erronées.

Dans le cadre de ces recommandations, nous voulons exprimer clairement que nous ne visons aucunement à faire obstruction à la liberté de presse. Et que nous ne cherchons en aucune façon à entraver tout débat public sur les meilleures méthodes à adopter en matière d’éducation des enfants. Nous croyons toutefois que les intérêts du public sont mal servis lorsque la population est exposée à des renseignements trompeurs et à des données spéculatives présentées sans preuves.

Remerciements

Nous aimerions exprimer toute notre gratitude aux membres suivants du Groupe de travail, qui ont fourni de nombreux commentaires fort utiles sur une version antérieure du présent document : Sampo Paunonen, Nicholas Skinner et P. A. Vernon.  Nos remerciements s’adressent également à Brian Reiser, Gary Rollman et Phyllis Simner, qui nous ont fait profiter de nombreuses références importantes, de même que de leurs commentaires des plus pertinents.

Bibliographie

AERA, APA, NCME. (1985). Standards for educational and psychological testing. Washington, DC : American Psychological Association.

AERA, APA, NCME. (1999). Standards for educational and psychological testing. Washington, DC: American Psychological Association.

Bushweller, K. (1997).  Teaching to the test. The American School Board Journal, septembre, vol. 20.

Fédération canadienne des enseignantes et enseignants. (1999). Programmes d’évaluation à l’échelle provinciale. Disponible en direct à l’adresse suivante : http://www.ctf-fce.ca/F/NOTRE/mesure/fmain-mesure.htm

Christenson, S. L., Rounds, T. et Gorney, D. (1992).  Family factors and student achievement: An avenue to increase student's success. School Psychology Quarterly, 7, pp.178 à 206.

Cowley, P. (20 juin 1999). Comparing schools made possible. Calgary Herald, p. A10.

CPA (1987). Guidelines for educational and psychological testing. Ottawa (Ontario): Société canadienne de psychologie.

Daniszewski, H. (4 mai 1999). Upping the score. London Free Press, p. A10.

EQAO. (1998a). Parent handbook 1997-1998. Toronto (Ontario) : Imprimeur de la reine pour l’Ontario.

EQAO. (1998b). Educators handbook.  Toronto (Ontario) : Imprimeur de la reine pour l’Ontario.

Froese-Germain, B. (1999). Les tests standardisés : atteinte à l’équité en éducation.  Ottawa (Ontario) : Fédération canadienne des enseignantes et enseignants. 

Galt, V. (26 novembre 1999). Scarborough school's grade 3 posts sharp rise in test scores. The Globe and Mail.

Goodnough, A. (9 décembre 1999).  New York city teachers nabbed in school-test cheating scandal. National Post, p. B1.

Grolnick, W. S. et Ryan, R. M. (1989). Parent styles associated with children's self-regulation and competence in school. Journal of Educational Psychology, 81, pp. 143 à 154.

Haladyna, T. M., Nolen, S. B. et Haas, N. S. (1991).  Raising standardized achievement test scores and the origins of test score pollution. Educational Researcher, 20, pp. 2 à 7.

Herman, J. L., Abedi, J. et Golan, S.  (1994).  Assessing the effects of standardized testing on schools. Educational and Psychological Measurement, 54, pp. 471 à 482.

Herman, J. L. et Golan, S. (1993).  The effects of standardized testing on teaching and schools. Educational Measurement: Issues and Practice, hiver 1993, pp. 20 à 42.

Hixson, B. K. (25 janvier 2000).  How tests change a teacher. The New York Times.

Jeynes, W. H. (1999).  The effects of children of divorce living with neither parent on the academic achievement of those children. Journal of Divorce & Remarriage, 30, pp. 103 à 120.

Jones, K. et Whitford, B. L. (1997).  Kentucky's conflicting reform principles: High-stakes school accountability and student performance assessment. Phi Delta Kappan, 70, pp. 276 à 281.

Keith, T. Z., Keith, P. B., Quirk, K. J., Sperduto, J., Santillo, S. et Killings, S. (1998).  Longitudinal effects of parent involvement on high school grades: Similarities and differences across gender and ethnic groups. Journal of School Psychology, 36, pp. 335 à 363.

Lomax, R. G., West, M. M., Harmon, M. C., Viator, K. A. et Madaus, G. F. (1995).  The impact of mandated standardized testing on minority students. Journal of Negro Education, 64, pp. 171 à 185. 

Lytton, H. et Pyryt, M. (1998).  Predictors of achievement in basic skills: A Canadian effective schools study. Revue canadienne de l'éducation, 23, pp. 281 à 301.

Madaus, G. F. (1985). Test scores as administrative mechanisms in educational policy. Phi Delta Kappan, 66, 611-617.

McLean, R. (1997).  Selected attitudinal factors related to students' success in high school. The Alberta Journal of Educational Research, 43, pp.165 à 168.

Mathews, J. et Argetsinger, A. (2 juin 2000). Teachers say pressure to do well on tests is enormous. Washington Post, p. B1., A18.

Nikiforuk, A. (Avril 1997).  When teachers sell kids short.  Reader's Digest, pp. 119 à 120.

Paris, S. G., Lawton, T. A., Turner, J. C. et Roth, J. L.  (1991).  A developmental perspective on standardized achievement testing. Educational Researcher, 20, pp. 12 à 20, 40.

Poole, P. (31 mai 2000). Brave new schools: Clinton’s model school accused of cheating. WorldNetDaily (en direct). Adresse internet : www.worldnetdaily.com/bluesky_exnews/ 2000531_xex_ clintons_mod.shtml.

Principes relatifs à une évaluation juste des étudiants au Canada / Principles for fair student assessment practices for education in Canada. (1993).  Edmonton (Alberta) : Joint Advisory Committee. (Adresse postale : Joint Advisory Committee, Centre for Research in Applied Measurement and Evaluation, 3-104 Education Building North, University of Alberta, Edmonton (Alberta) T6G 2G5).

Rotberg, I. C. (1995).  Myths about test score comparisons.  Science, 270, pp. 1446 à 1448.

Salganik, L. H. (1985).  Why testing reforms are so popular and how they are changing education. Phi Delta Kappan, 66, 607-610.

Scarborough, H. S. et Dobrick, W. (1994). On the efficacy of reading to preschoolers. Developmental Review, 14, pp. 245 à 302.

Smith, M. L. (1991).  Put to the test: The effects of external testing on teachers. Educational Researcher, 20, pp. 8 à 11.

Whitaker, B. (8 avril 1999).  Prosecutor says indictment of Austin schools will help deter test tampering. The New York Times.

Wilgoren, J. (25 février 2000).  Cheating on state wide tests is reported in Massachusetts. The New York Times.


 

Approuvé par le Conseil d’administration de la Société canadienne de psychologie en avril 2000, ainsi que par le Conseil exécutif de l’Association canadienne des psychologues scolaires en juillet 2000.

Canadian Psychological Association
Société canadienne de psychologie

Tous droits réservés © 2000

Toute personne voulant reproduire le présent document est autorisée à le faire.

Société canadienne de psychologie
151, rue Slater, bureau 205
Ottawa (Ontario)
K1P 5H3

Titre : Énoncé de position conjoint de la Société canadienne de psychologie et de l’Association canadienne des psychologues scolaires relativement à la couverture, par la presse canadienne, des résultats des examens de compétences administrés à l’échelle de la province.

ISBN # 1896638630

earth1.gif (2262 bytes)

Page d'accueil de la SCP | Publications

buttonr.jpg (864 bytes)  buttonb.jpg (786 bytes) buttonr.jpg (864 bytes)