66609 Mettre en œuvre une évaluation nationale des acquis scolaires Évaluations nationales des acquis scolaires VOLUME 3 Mettre en œuvre une évaluation nationale des acquis scolaires Éditeurs Vincent Greaney Thomas Kellaghan © 2015 Banque internationale pour la reconstruction et le développement/La Banque mondiale 1818 H Street NW, Washington, DC 20433 Téléphone : 202–473–1000 ; Internet : www.worldbank.org Certains droits réservés La publication originale de cet ouvrage est en anglais sous le titre, Implementing a National Assessment of Educational Achievement. Vol. 3 of National Assessments of Educational Achievement, en 2012. En cas de contra- dictions, la langue originelle prévaudra. Cet ouvrage a été établi par les services de la Banque mondiale avec la contribution de collaborateurs exté- rieurs. Les observations, interprétations et opinions qui y sont exprimées ne reflètent pas nécessairement les vues de la Banque mondiale, de son Conseil des Administrateurs ou des pays que ceux-ci représentent. La Banque mondiale ne garantit pas l’exactitude des données citées dans cet ouvrage. Les frontières, les couleurs, les déno- minations et toute autre information figurant sur les cartes du présent ouvrage n’impliquent de la part de la Banque mondiale aucun jugement quant au statut juridique d’un territoire quelconque et ne signifient nulle- ment que l’institution reconnaît ou accepte ces frontières. Rien de ce qui figure dans le présent ouvrage ne constitue ni ne peut être considéré comme une limitation des privilèges et immunités de la Banque mondiale, ni comme une renonciation à ces privilèges et immunités, qui sont expressément réservés. Droits et autorisations L’utilisation de cet ouvrage est soumise aux conditions de la licence Creative Commons Attribution 3.0 IGO (CC BY 3.0 IGO) http://creativecommons.org/licenses/by/3.0/igo/ Conformément aux termes de la licence Creative Commons Attribution (paternité), il est possible de copier, distribuer, transmettre et adapter le contenu de l’ouvrage, notamment à des fins commerciales, sous réserve du respect des conditions suivantes : Mention de la source — L’ouvrage doit être cité de la manière suivante : Greaney, Vincent, et Thomas Kellaghan. 2015. Évaluations nationales des acquis scolaires. Volume 3 : Mettre en œuvre une évaluation nationale des acquis scolaires. Washington, DC : La Banque mondiale. DOI : 10.1596/978-1-4648-0509-7 Licence : Creative Commons Attribution CC BY 3.0 IGO Traductions — Si une traduction de cet ouvrage est produite, veuillez ajouter à la mention de la source de l’ouvrage le déni de responsabilité suivant : Cette traduction n’a pas été réalisée par la Banque mondiale et ne doit pas être considérée comme une traduction officielle de cette dernière. La Banque mondiale ne saurait être tenue responsable du contenu de la traduction ni des erreurs qu’elle pourrait contenir. Adaptations — Si une adaptation de cet ouvrage est produite, veuillez ajouter à la mention de la source le déni de responsabilité suivant : Cet ouvrage est une adaptation d’une oeuvre originale de la Banque mondiale. Les idées et opinions exprimées dans cette adaptation n’engagent que l’auteur ou les auteurs de l’adaptation et ne sont pas validées par la Banque mondiale. Contenu tiers — La Banque mondiale n’est pas nécessairement propriétaire de chaque composante du contenu de cet ouvrage. Elle ne garantit donc pas que l’utilisation d’une composante ou d’une partie quelconque du contenu de l’ouvrage ne porte pas atteinte aux droits des tierces parties concernées. L’utilisateur du contenu assume seul le risque de réclamations ou de plaintes pour violation desdits droits. Pour réutiliser une composante de cet ouvrage, il vous appartient de juger si une autorisation est requise et de l’obtenir le cas échéant auprès du détenteur des droits d’auteur. Parmi les composantes, on citera, à titre d’exemple, les tableaux, les graphiques et les images. Pour tous renseignements sur les droits et licences doivent être adressées à World Bank Publications, The World Bank, 1818 H Street, NW Washington, DC, 20433, USA ; télécopie : 202–522–2625 ; courriel : pubrights@ worldbank.org. ISBN (imprimé) : 978-1-4648-0509-7 ISBN (digital) : 978-1-4648-0510-3 DOI : 10.1596/978-1-4648-0509-7 Conception de la page de couverture : Naylor Design, Washington DC Microsoft, Access, Excel, Office, Windows et Word sont des marques déposées ou des marques commerciales de Microsoft Corporation aux États-Unis et/ou dans d’autres pays. SPSS est une marque déposée d’IBM. WesVar est une marque déposée de Westat. TABLE DES MATIÈRES PRÉFACE xv À PROPOS DES AUTEURS ET ÉDITEURS xvii REMERCIEMENTS xxi ACRONYMES ET ABRÉVIATIONS xxiii INTRODUCTION 1 Partie I Logistique d’une évaluation nationale Sarah J. Howie et Sylvia Acana 1. PRÉPARATION D’UNE ÉVALUATION NATIONALE : CONCEPTION ET PLANIFICATION 11 Le comité directeur national 11 La conception d’une évaluation nationale 12 La planification 13 La budgétisation 17 2. PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE 19 Les exigences en matière de personnel 20 v VI | TABLE DES MATIÈRES Les installations 31 Note 33 3. PRÉPARATION À L’ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS 35 La prise de contact avec les établissements 36 L’organisation des instruments 39 La préparation des établissements 40 4. ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS 45 L’administrateur de test 45 Les problèmes courants liés aux tests 48 L’assurance qualité 50 5. TÂCHES À EFFECTUER APRÈS LES TESTS 53 La correction des tests 53 L’enregistrement des données 56 L’analyse des données 59 La rédaction des rapports 60 Partie II Méthode d’échantillonnage des établissements Jean Dumais et J. Heward Gough 6. DÉFINITION DE LA POPULATION D’INTÉRÊT 65 7. CONSTITUTION DE LA BASE D’ÉCHANTILLONNAGE 69 La base d’échantillonnage 69 Étude de cas du Sentz 72 Note 77 8. ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE 79 L’échantillonnage aléatoire simple (EAS) 80 L’échantillonnage aléatoire systématique (SYS) 81 L’échantillonnage en grappes (EG) 83 La stratification 87 La répartition de l’échantillon entre les strates 93 L’échantillonnage avec une probabilité proportionnelle à la taille 98 La constitution des échantillons 101 II.A ÉCHANTILLONNAGE : RÉPERTOIRES ET FICHIERS 115 TABLE DES MATIÈRES | VII Partie III Préparation, validation et gestion des données Chris Freeman et Kate O’Malley 9. MANUELS DE CODAGE 123 10. GESTION DES DONNÉES 131 La saisie des données 131 La création d’un écran de saisie des données à l’aide de Microsoft Access 136 11. VÉRIFICATION DES DONNÉES 159 La documentation 159 La cohérence entre les fichiers 160 La cohérence au sein d’un fichier 162 12. IMPORTATION ET FUSION DES DONNÉES 171 Les dangers du transfert de données entre des applications différentes 171 L’export des données de spss vers Access 172 L’importation des données connexes 174 Jonction des données de différentes tables à l’aide de requêtes Access 176 Le contrôle des versions 176 La sécurisation des données 181 13. DOUBLONS 183 L’utilisation d’Access pour détecter les identifiants en double 183 La détection des enregistrements en double 185 L’utilisation d’Access pour détecter les noms en double 188 III.A NETTOYAGE ET GESTION DES DONNÉES : RÉPERTOIRES ET FICHIERS 193 Partie IV Pondération, estimation et erreur d’échantillonnage Jean Dumais et J. Heward Gough 14. CALCUL DES POIDS DE L’ENQUÊTE 199 Le poids déterminé par le plan d’échantillonnage 199 L’ajustement des poids pour la non-réponse 209 VIII | TABLE DES MATIÈRES L’exportation et l’importation des données nettoyées 218 La poststratification : utilisation de données auxiliaires pour améliorer les estimations en ajustant les poids de l’estimation 219 15. CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE POUR DES ÉCHANTILLONS ALÉATOIRES SIMPLES 225 L’estimation d’un total pour une population 226 L’estimation d’une moyenne pour une population 230 L’estimation d’une proportion de la population 231 Les estimations pour des sous-groupes de la population 231 Conclusion 232 16. CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE POUR DES ÉCHANTILLONS COMPLEXES 235 17. SUJETS SPÉCIAUX 245 La non-réponse 245 La stratification, le tri de la base d’échantillonnage et la sélection de l’échantillon 247 Les établissements de très grande taille 248 Les établissements de très petite taille 250 Les normes déterminant l’adéquation des taux de réponse 253 IV.A NOTATION STATISTIQUE POUR LE CALCUL DES ESTIMATIONS 255 IV.B COMPARAISON DES DONNÉES DU SRS400 ET D’UN RECENSEMENT 257 IV.C ESTIMATION DE L’ERREUR D’ÉCHANTILLONNAGE À L’AIDE DE TECHNIQUES DE RÉÉCHANTILLONNAGE 261 Le rééchantillonnage 262 Le jackknife 263 IV.D CRÉATION DE ZONES ET DE RÉPLIQUES JACKKNIFE ET CALCUL DES POIDS JACKKNIFE 269 RÉFÉRENCES 279 TABLE DES MATIÈRES | IX ENCADRÉS 2.1 Systèmes de numérotation utilisés dans des évaluations nationales 25 2.2 Besoins de stockage 32 3.1 Exemple de lettre aux établissements 37 3.2 Emballage des instruments 41 4.1 Formulaire de suivi des élèves 47 4.2 Formulaire d’administration des tests 51 4.3 Exemples d’éléments traités par les agents du contrôle qualité dans l’étude TIMSS 52 5.1 Formulaire de suivi des instruments 54 EXERCICES 7.1 Démarrage 74 8.1 Calcul de la taille des échantillons et répartition entre les strates 95 8.2 Sélection d’un EAS de 400 élèves 102 8.3 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : lecture des fichiers des établissements et de répartition des établissements 104 8.4 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : fusion des fichiers des établissements et de répartition des établissements 105 8.5 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : sélection des établissements 105 8.6 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : identification des classes éligibles 108 8.7 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : nettoyage de la base d’échantillonnage 110 8.8 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : sélection d’une classe par établissement 111 9.1 Définition des données de l’évaluation nationale dans un manuel de codage 129 10.1 Création d’une base de données 133 10.2 Création de variables dans la base de données 138 10.3 Création de variables supplémentaires dans la base de données 140 X | TABLE DES MATIÈRES 10.4 Définition des valeurs par défaut 142 10.5 Utilisation des propriétés Validation Rule et Validation Text 143 10.6 Saisie des réponses aux items dans une base de données 146 10.7 Création d’un formulaire 149 10.8 Modification de la structure du formulaire 150 10.9 Saisie des données dans le formulaire 152 10.10 Importation de données dans SPSS 157 11.1 Vérification des données avec Excel 161 11.2 Utilisation de la commande Frequency dans SPSS 165 11.3 Utilisation de la commande Frequency pour localiser les valeurs manquantes 167 12.1 Exportation de données de SPSS vers Access 173 12.2 Importation de données sur les établissements dans Access 175 12.3 Création d’une requête simple dans Access 177 13.1 Création d’une requête Access pour rechercher les doublons 184 13.2 Utilisation d’une requête de recherche des doublons pour trouver les noms en double des élèves 189 14.1 Poids déterminé par le plan d’échantillonnage pour un échantillon avec PPS d’établissements et de classes 200 14.2 Poids déterminé par le plan d’échantillonnage pour un échantillon avec PPS d’établissements et de classes 203 14.3 Ajout des résultats des tests pour un échantillon aléatoire simple de 400 élèves 205 14.4 Ajout des résultats des tests pour un plan d’échantillonnage avec PPS 207 14.5 Ajustement pour la non-réponse des poids d’un échantillon aléatoire simple de 400 élèves 211 14.6 Ajustement du poids pour la non-réponse dans un échantillon avec PPS 216 15.1 Estimations pour SRS400 227 16.1 Estimations de la variance par la méthode du jackknife pour un échantillon avec une probabilité proportionnelle à la taille (PPS) 237 16.2 Calcul des différences liées au sexe pour un test de mathématiques 239 FIGURES 6.1 Pourcentages des élèves dans les populations souhaitée, définie et atteinte 67 TABLE DES MATIÈRES | XI 7.1.A Données des établissements du Sentz 75 7.1 Carte du Sentz 76 8.1 EAS sans remplacement d’établissements 81 8.2 Échantillonnage aléatoire systématique des établissements 83 8.3 Échantillonnage en grappes d’établissements 84 8.4 Échantillon aléatoire stratifié d’établissements 89 8.5 Échantillonnage à plusieurs degrés 101 8.6 Extrait des données 107 8.7 CLASS_FRAME 109 II.A.1 Structure des répertoires des fichiers échantillonnage 118 9.1 Exemple de la page de couverture du carnet de test 124 9.2 Manuel de codage de l’information démographique (contextuelle) recueillie dans le questionnaire destiné aux élèves 126 9.3 Manuel de codage pour les champs des items de Maths 3a 128 10.1 Écran de saisie des données (Access 2007) 132 12.1 Message avertissant de l’ouverture pour utilisation exclusive 181 13.1.A Champs pour les valeurs en double 184 13.1 Enregistrements en double identifiés 186 13.2 Documentation de la correction d’erreurs dans les ID des élèves 186 13.3 Suppression d’un enregistrement 187 13.4 ID identique pour deux élèves 187 13.5 Documentation de la correction d’erreurs dans les ID des élèves 188 III.A.1 Structure des répertoires contenant les fichiers de net- toyage et de gestion des données 195 15.1.A Appel de l’Assistant d’analyse de SPSS 228 15.1.B Statistiques descriptives pour l’âge et les mathématiques 229 15.1.C Statistiques descriptives pour l’âge et les mathématiques, par sexe 230 IV.D.1 Liste des variables disponibles 273 IV.D.2 Zones jackknife dans WesVar 274 IV.D.3 Poids de rééchantillonnage WesVar 275 IV.D.4 WesVar : Création d’intitulés 276 IV.D.5 WesVar : Ouvrir la capture d’écran 277 TABLEAUX 1.1 Extrait du plan de projet d’une évaluation nationale 15 1.2 Liste de contrôle du financement d’une évaluation nationale 18 XII | TABLE DES MATIÈRES 2.1 Avantages et inconvénients des catégories de personnel pour l’administration des tests 29 3.1 Évaluation nationale : Document de suivi des établissements 38 3.2 Liste de contrôle de l’emballage 42 5.1 Tableau factice décrivant les caractéristiques des enseignants du primaire 61 7.1 Caractéristiques essentielles d’une base d’échantillonnage pour une évaluation nationale 71 II.A.1 Description du contenu des répertoires 116 9.1 Explication des intitulés des colonnes dans le manuel de codage 127 10.1 Variables habituellement collectées ou obtenues par les évaluations nationales 137 III.A.1 Exercices 194 III.A.2 Solutions des exercices 194 14.1 Échantillonnage aléatoire simple stratifié avec répartition égale 202 14.2 Échantillon aléatoire simple stratifié : Populations urbaine et rurale, taille des échantillons et taux de réponse 214 14.3 Échantillon aléatoire simple stratifié : Populations urbaine et rurale, taille des échantillons, taux de réponse et poids ajustés pour la non-réponse 214 14.4 Enquête sur l’établissement : Répartition du personnel en poststrates par sexe 221 14.5 Estimations de l’enquête après ajustement pour la non-réponse 222 14.6 Estimations de l’enquête ajustées pour la non-réponse, avant et après ajustement pour la poststratification 224 17.1 Base d’échantillonnage avec un ordre des mesures de la taille différent suivant les strates 248 17.2 Base d’échantillonnage de 10 établissements et poids déterminés par le plan d’échantillonnage associés si les établissements étaient sélectionnés 249 17.3 Base d’échantillonnage ajustée 250 17.4 Base d’échantillonnage 251 17.5 Base d’échantillonnage modifiée 252 IV.B.1 Données du Sentz basées sur un recensement 257 IV.B.2 Comparaison des estimations, avec et sans pondération, et des valeurs du recensement, en début d’année scolaire, pour un échantillon aléatoire simple 258 TABLE DES MATIÈRES | XIII IV.B.3 Comparaison des estimations, avec et sans pondération, et des valeurs du recensement, au moment de l’évaluation, pour un échantillon aléatoire simple 259 IV.C.1 Calcul de la variance d’échantillonnage estimée Y ˆ à l’aide d’un rééchantillonnage 263 IV.C.2 Préparation de l’estimation de la variance par la méthode du jackknife 265 IV.C.3 Estimation de la variance de l’échantillonnage par la méthode du jackknife 267 PRÉFACE Pour effectuer un suivi de la réussite d’un système scolaire et améliorer la qualité de l’enseignement, il est nécessaire de mesurer le rendement de l’apprentissage des élèves. L’information sur la per- formance des élèves peut informer un large éventail de politiques et décisions en matière d’éducation, notamment la conception et la mise en œuvre de programmes visant à améliorer la pédagogie et l’apprentissage en classe, l’identification des élèves à la traîne afin qu’ils puissent recevoir l’appui dont ils ont besoin, et la fourniture d’une assistance et d’une formation techniques appropriées là où elles sont le plus nécessaires. La série de publications Évaluations nationales des acquis scolaires, dont cet ouvrage est le troisième volume, se concentre sur les procé- dures de pointe permettant de s’assurer que les données issues d’un exercice d’évaluation nationale à grande échelle (telles que les scores aux tests et l’information contextuelle) sont de qualité et répondent aux préoccupations des responsables des politiques, des décideurs, et des autres parties prenantes du système éducatif. Principalement destiné aux responsables des politiques et aux décideurs de l’éducation, le volume 1 de la série décrit les objectifs et caractéristiques clés des évaluations nationales des acquis scolaires. Le volume 2 traite de la conception de deux types d’instruments de col- lecte des données utilisés pour les évaluations nationales : les tests de performance des élèves et les questionnaires contextuels. xv XVI | PRÉFACE Ce troisième volume de la série, Mettre en œuvre une évaluation nationale des acquis scolaires, se concentre sur les tâches pratiques requises pour la mise en œuvre d’un exercice d’évaluation nationale à grande échelle. Il fournit des instructions détaillées étape par étape pour la logistique, l’échantillonnage, ainsi que le nettoyage et la ges- tion des données. Tout comme les volumes 2 et 4 de la série, ce volume est principalement destiné aux équipes de pays en développement et émergents chargées de mener un exercice d’évaluation nationale. Le volume 4 de la série traite des modes de production d’informa- tion sur les items et les scores des tests et de mise en relation de ces derniers à d’autres facteurs éducatifs. Enfin, le volume 5 explique comment rédiger des rapports fondés sur les constatations d’une éva- luation nationale et comment utiliser les résultats pour améliorer la qualité des politiques et la prise de décision en matière d’éducation. Le volume 5 devrait tout particulièrement intéresser les personnes chargées de préparer des rapports d’évaluation ou bien de communi- quer ou utiliser leurs conclusions. À mesure que les lecteurs progresseront dans ce troisième volume de la série Évaluations nationales des acquis scolaires, il deviendra évident que la mise en œuvre réussie d’une évaluation nationale est une tâche complexe requérant des connaissances, des compétences et des ressources considérables. Toutefois, la recherche montre que les retombées des évaluations nationales correctement réalisées peuvent être substantielles par la qualité de l’information fournie sur les niveaux de performance des élèves ainsi que sur les facteurs, scolaires ou non, susceptibles de contribuer à les améliorer (inversement, le « coût » d’une évaluation nationale mal réalisée peut se révéler dans les infor- mations inexactes sur les niveaux de performance des élèves et les fac- teurs associés). Une mise en œuvre de qualité peut accroître la confiance des responsables des politiques et des autres parties prenantes dans la validité des constatations de l’évaluation. Elle peut également augmen- ter la probabilité d’utilisation de ses résultats dans la mise au point de solides plans et programmes en vue d’améliorer la qualité de l’ensei- gnement et le rendement de l’apprentissage des élèves. Marguerite Clarke Spécialiste senior de l’éducation Janvier 2012 À PROPOS DES AUTEURS ET ÉDITEURS Sylvia Acana dirige la National Assessment of Progress in Education (NAPE – l’évaluation nationale des progrès dans l’éducation) en Ouganda. Elle a été professeure de sciences dans l’enseignement secondaire et chargée de matière à l’Uganda National Examinations Board. Elle a fourni un appui technique à l’évaluation au sein de l’Economic Policy Research Centre et de Save the Children. Elle est membre du comité exécutif de l’International Association for Educational Assessment (IAEA – l’association internationale pour les évaluations du système éducatif) et vice-présidente du Conseil des gouverneurs du Loro Core Primary Teachers’College. Elle est titulaire d’une maîtrise en mesure et évaluation de l’éducation. Jean Dumais est directeur du Groupe de consultation statistique chez Statistique Canada et statisticien d’enquête dans son département de la méthodologie. Il s’intéresse particulièrement à l’évaluation de l’éducation. Ces dernières années, il a supervisé la mise en œuvre des activités d’échantillonnage et d’évaluation de l’étude comparative de la formation des enseignants (TEDS-M) de l’Association internationale pour l’évaluation du rendement scolaire (IEA – International Association for the Evaluation of Educational Achievement), ainsi que de l’Enquête internationale sur l’enseignement et l’apprentissage (TALIS) de l’Organisation de coopération et de développement économiques (OCDE). Il a également servi d’arbitre de l’échantillonnage pour xvii XVIII | À PROPOS DES AUTEURS ET ÉDITEURS un certain nombre d’évaluations comparatives internationales de l’éducation. Chris Freeman est directeur de la recherche à l’Australian Council for Educational Research (le conseil australien pour la recherche sur l’éducation). Il se concentre sur les évaluations à grande échelle dans la plupart des États et territoires australiens. Ses travaux au niveau national comprennent le programme d’évaluation nationale de la lit- tératie et de la numératie, des enquêtes dans des domaines liés à la science, et la direction de la mise en œuvre de programmes de l’OCDE. Il est également étroitement associé à des programmes nationaux de suivi dans le Pacifique Sud et au Moyen-Orient. Il s’intéresse actuellement à l’impact des réponses données au hasard dans les évaluations nationales à grande échelle. J. Heward Gough est un statisticien spécialiste des enquêtes par sondage. Jusqu’à tout récemment, il était consultant senior en statis- tiques au sein du groupe de consultation statistique de Statistique Canada. Il possède une vaste expérience dans la mise au point de méthodologies d’enquête et le conseil en statistique, notamment cinq années au Centre latino-américain de démographie (CELADE) des Nations-Unies. Il a donné des cours sur les méthodes statis- tiques, les techniques d’échantillonnage et la méthodologie d’enquête chez Statistique Canada, à des clients externes dans tout le Canada et aux bureaux nationaux de la statistique de Colombie, de Cuba, d’Érythrée, du Pérou et de Zambie. Il a participé à un projet de renforcement des capacités statistiques au Burkina Faso. Vincent Greaney est consultant en éducation. Il a été spécialiste prin- cipal de l’éducation à la Banque mondiale et a travaillé en Afrique, en Asie et au Moyen-Orient. Ancien enseignant, chargé de recherche à l’Educational Research Centre du St Patrick’s College de Dublin, professeur invité Fulbright à l’Université de Western Michigan de Kalamazoo, il est membre du Reading Hall of Fame de l’International Reading Association. Il s’intéresse à l’évaluation, à la formation des enseignants, à la lecture, et à la promotion de la cohésion sociale à l’aide de la réforme des manuels scolaires. À PROPOS DES AUTEURS ET ÉDITEURS | XIX Sarah J. Howie est directrice du Centre for Evaluation and Assessment et professeure de pédagogie à l’Université de Pretoria. En Afrique du Sud, elle a coordonné des évaluations internationales dans le domaine de la compréhension de l’écrit, des mathématiques, des sciences, et des technologies de l’information et de la communication. En plus d’assurer des formations à la recherche dans plusieurs pays, elle a par- ticipé à des comités nationaux et internationaux impliqués dans le suivi et l’évaluation de la qualité de l’éducation. Ses domaines de pré- dilection comprennent l’évaluation à grande échelle, l’évaluation des élèves, et l’évaluation de la performance et des programmes. Thomas Kellaghan est consultant en éducation. Il a été directeur de l’Educational Research Centre du St Patrick’s College de Dublin et est membre de l’International Academy of Education. Il a travaillé à l’Université d’Ibadan au Nigéria et à la Queen’s University de Belfast. Ses domaines de recherche comprennent l’évaluation et les examens, le handicap éducatif, et les relations entre la famille et l’école. Il a présidé l’Association internationale pour l’évaluation éducative (International Association for Educational Assessment) et a travaillé sur des questions d’évaluation en Afrique, en Asie, en Amérique latine et au Moyen-Orient. Kate O’Malley est chercheuse à l’Australian Council for Educational Research. Elle a été étroitement associée à une série d’évaluations nationales en Australie et aux évaluations triennales de l’éducation civique et à la citoyenneté ainsi que de la connaissance de base des TIC, au National Assessment Program of Literacy and Numeracy (NAPLAN) annuel, et à l’Essential Secondary Science Assessment (ESSA). Elle a coordonné le volet australien de la Second Information Technology in Education Study (SITES) de l’IEA et l’Enquête interna- tionale sur l’enseignement et l’apprentissage (TALIS) de l’OCDE et est coauteur des rapports sur ces deux projets. REMERCIEMENTS La série Évaluations nationales des acquis scolaires a été préparée par une équipe dirigée par Vincent Greaney (consultant, Réseau pour le développement humain, Groupe pour l’éducation, Banque mondiale) et Thomas Kellaghan (consultant, Educational Research Centre, St Patrick’s College, Dublin), et cet ouvrage en est le troisième volume. Ont également collaboré à cette série Sylvia Acana (Uganda National Examinations Board), Prue Anderson (Australian Council for Educational Research), Fernando Cartwright (Statistique Canada), Jean Dumais (Statistique Canada), Chris Freeman (Australian Council for Educational Research), J. Heward Gough (Statistique Canada), Sara J. Howie (Université de Pretoria), George Morgan (Australian Council for Educational Research), T. Scott Murray (DataAngel, Canada), Kate O’Malley (Council for Educational Research), et Gerry Shiel (Educational Research Centre, St Patrick’s College, Dublin). Le travail a été réalisé sous la direction générale de Ruth Kagia, directrice, Secteur de l’Éducation à la Banque mondiale ; de son suc- cesseur Elizabeth King ; et de Robin Horn, responsable du Réseau pour le développement humain, Groupe pour l’Éducation, de la Banque mondiale. Robert Prouty a lancé et supervisé le projet jusqu’en août 2007. Marguerite Clarke a supervisé les étapes ultérieures de révision et de publication. Nous remercions le comité de révision pour ses contributions : Al Beaton (Boston College), Zewdu Gebrekidan (consultant en xxi XXII | REMERCIEMENTS évaluation, Éthiopie), Eugenio Gonzalez (Educational Testing Service), Kelvin Gregory (New South Wales Board of Studies), Louis Rizzo (Westat) et Carlos Rojas (Banque mondiale). Des observations utiles ont également été apportées par Marguerite Clarke et Robin Horn. Hilary Walshe a aidé à préparer les différentes versions de ce docu- ment. Nous avons également bénéficié de la participation et du soutien de Peter Archer, Jung-Hwan Choi, Mary Rohan, Hans Wagemaker et Hana Yoshimoto. Nous souhaitons remercier les organisations suivantes de nous avoir accordé l’autorisation de reproduire leur matériel : l’Australian Council for Educational Research, l’International Association for the Evaluation of Educational Achievement, et Statistique Canada. La conception graphique, l’édition et la production ont été coor- données par Janice Tuten et Paola Scalabrin, du Service des publica- tions de la Banque mondiale ; l’impression a été coordonnée par Nora Ridolfi. L’Australian Council for Educational Research, le Programme du partenariat entre la Banque mondiale et les Pays-Bas, l’Educational Research Centre de Dublin, le Fonds fiduciaire irlandais pour l’éduca- tion, Statistique Canada, et la Russia Education Aid for Development (READ) ont généreusement soutenu la préparation et la publication de cette série. ACRONYMES ET ABRÉVIATIONS CDN Comité directeur national CITE Classification internationale type de l’éducation CN Coordonnateur national EAS Échantillonnage aléatoire simple ENPM Évaluation nationale de la performance en mathématiques GD Gestionnaire de données IAEA International Association for Educational Assessment (l’association internationale pour l’évaluation éducative) ID Identifiant IEA Association internationale pour l’évaluation du rendement scolaire (International Association for the Evaluation of Educational Achievement) JK Jackknife MOS Mesure de la taille (Measure of Size) PASW Predictive Analytic Software PPS Probabilité proportionnelle à la taille (Probability Proportional to Size) SAS Statistical Analysis System (logiciel d’analyse statistique) SPSS Statistical Package for Social Sciences (logiciel d’analyse statistique pour les sciences sociales) SUDAAN Logiciel d’analyse statistique de données corrélées SYS Échantillonnage aléatoire systématique xxiii XXIV | ACRONYMES ET ABRÉVIATIONS TIMSS Tendances de l’enquête internationale sur les mathématiques et les sciences (Trends in International Mathematics and Science Study) UPE Unité primaire d’échantillonnage INTRODUCTION Depuis les années 1990, l’un des thèmes majeurs des politiques d’édu- cation du monde entier est l’obtention de données sur la qualité de l’éducation, pas seulement en termes d’intrants mais aussi d’appren- tissage des élèves. Depuis longtemps, seules des impressions suggèrent que beaucoup d’enfants ne tirent que peu de profit de leur expérience scolaire, en particulier lorsqu’elle est limitée à quelques années seule- ment dans le système éducatif. Les pouvoirs publics reconnaissent à présent la nécessité d’une information plus objective et systématique sur la façon dont les établissements convertissent leurs ressources en apprentissage pour les élèves. Une telle information est indispensable pour a) obtenir une image correcte des niveaux nationaux des acquis scolaires, en particulier dans les domaines clés des programmes de cours ; b) comparer les niveaux de performance de sous-groupes de la population (par exemple, les garçons et les filles, les groupes linguis- tiques ou ethniques, les élèves urbains et ruraux), qui peuvent être importants pour juger de l’équité du système ; c) suivre l’évolution de la performance dans le temps ; et d) orienter les décisions en matière de politiques et de gestion relatives à l’allocation des ressources. La procédure utilisée pour évaluer la performance des élèves au niveau du système est appelée évaluation nationale. Son adminis- tration est une activité complexe exigeant tout un éventail de 1 2 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES compétences et d’équipement. L’élément central de l’évaluation est la collecte des données dans les établissements, essentiellement les réponses données par des groupes d’élèves à des instruments d’éva- luation et à des questionnaires. Les activités commencent toutefois bien avant la collecte des données et se poursuivent bien après elle. Une institution chargée de collecter les données doit être désignée, des décisions doivent être prises sur les questions de politiques et de recherche à traiter, et les tests et questionnaires doivent être conçus et testés. Afin de préparer les épreuves réelles, les populations et échan- tillons d’établissements et d’élèves doivent être identifiés, les établis- sements doivent être contactés, et les administrateurs de test doivent être sélectionnés et formés. Après l’administration des tests, beaucoup de temps et d’efforts sont encore nécessaires pour préparer les don- nées à analyser, effectuer les analyses, rédiger les rapports et diffuser les constatations de l’évaluation. Bien que depuis 1990, de nombreux systèmes éducatifs se soient engagés à réaliser une évaluation nationale, peu possèdent le large éventail de compétences techniques nécessaires pour entreprendre les nombreuses tâches requises. De nombreuses évaluations sont par conséquent de médiocre qualité. La série Évaluations nationales des acquis scolaires, dont cet ouvrage est le troisième volume, a été conçue pour répondre au problème de l’amélioration de la qualité des évalua- tions nationales. Elle se concentre sur les procédures de pointe à suivre dans la mise en œuvre des composantes d’une évaluation pour s’assurer que les données fournies sur l’apprentissage des élèves sont de qualité et répondent aux préoccupations des responsables des politiques, des décideurs, et des autres parties prenantes du système éducatif. Essentiellement destiné aux responsables des politiques et aux décideurs du secteur de l’éducation, le volume 1, Évaluer les niveaux nationaux de performance dans l’éducation (Greaney et Kellaghan, 2008), décrit les principaux concepts et procédures d’une évaluation nationale. Les questions traitées sont les objectifs et principales carac- téristiques d’une évaluation nationale, les raisons justifiant sa réalisa- tion, et les principales décisions à prendre lors de sa conception et de sa planification. Les évaluations internationales de la performance des élèves, qui partagent de nombreuses caractéristiques procédurales INTRODUCTION | 3 avec les évaluations nationales (telles que l’échantillonnage, l’admi- nistration et les méthodes d’analyse), sont également décrites. Les volumes 2, 3 et 4 fournissent, étape par étape, les détails de la conception et la mise en œuvre d’une évaluation nationale et de l’analyse des données recueillies. Ils sont principalement destinés aux équipes chargées de la réalisation d’une évaluation dans les pays en développement. Le volume 2, Mettre au point les tests et questionnaires pour une évaluation nationale des acquis scolaires (Anderson et Morgan, 2008), décrit l’élaboration des tests de performance, des question- naires et des manuels d’administration. L’ouvrage est accompagné d’un CD, qui contient des items de test de la performance et des questionnaires, tirés d’évaluations nationales et internationales, ainsi qu’un manuel d’administration de test. Le volume 4, Analyser les données issues d’une évaluation nationale des acquis scolaires (Cartwright et Shiel, à paraître), comprend deux parties. La première est conçue pour aider les analystes à réaliser les analyses de base des données collectées dans le cadre d’une évaluation nationale. La seconde moitié aborde la génération des données de niveau item à l’aide de la théorie classique des tests et de la modélisa- tion de la réponse à l’item. Un CD l’accompagne pour permettre aux utilisateurs d’appliquer les procédures statistiques à des ensembles de données et de vérifier leurs niveaux de maîtrise en com- parant leurs solutions à celles présentées dans des captures d’écran figurant dans le texte. Le volume 5, Communiquer et utiliser les résultats d’une évaluation nationale des acquis scolaires (Kellaghan, Greaney et Murray, 2009), le dernier ouvrage de la série, fournit des orientations pour la description des constatations d’une évaluation nationale dans des rapports tech- niques, des communiqués de presse, des séances d’information pour les décideurs, et des rapports destinés aux enseignants et aux groupes de spécialistes. Il examine également la manière dont les constatations d’une évaluation nationale peuvent être utilisées pour orienter les politiques et la gestion de l’éducation, influencer les programmes de cours et la pratique en classe, ainsi que pour sensibiliser le public aux questions d’éducation. Son contenu devrait être particulièrement intéressant pour a) les personnes chargées de préparer les rapports d’évaluation et de communiquer et diffuser les constatations, et b) 4 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES les utilisateurs des constatations (responsables des politiques, gestion- naires de l’éducation et corps enseignant). Tout comme les volumes 2 et 4, le présent volume, Mettre en œuvre une évaluation nationale des acquis scolaires, se concentre sur les tâches pratiques nécessaires à la réalisation d’une évaluation nationale à grande échelle. Il comprend quatre parties. La partie I (« Logistique d’une évaluation nationale ») donne une vue d’ensemble des tâches requises : organisation et exécution des activités essentielles d’une évaluation, personnel et ressources nécessaires, et tâches à réaliser après la collecte des données. La partie II (« Méthode d’échantillonnage des établissements ») expose une méthode pour la sélection d’un échantillon représentatif des élèves du système éducatif. Les principes sous-tendant l’échantillon- nage y sont décrits, ainsi que des procédures qui peuvent être mises en œuvre, étape par étape, dans pratiquement toute évaluation nationale. Les lecteurs peuvent suivre les procédures d’échantillonnage en travail- lant sur un matériel de formation réaliste et en vérifiant leurs solutions par comparaison avec des captures d’écran et des fichiers de données. Un CD d’accompagnement contient les fichiers de données en sou- tien. Pour reproduire les différentes étapes de l’évaluation de démons- tration, l’utilisateur aura besoin du progiciel de statistiques pour les sciences sociales SPSS (Statistical Package for the Social Sciences)1, en particulier du module complémentaire Complex Samples, et de WesVar de Westat. SPSS est également utilisé pour certaines sections traitant de l’analyse dans le volume 4 de cette série. Le logiciel WesVar et son guide de l’utilisateur peuvent être téléchargés sur le site Internet de Westat.2 La méthode de définition de la population d’intérêt est décrite, suivie par celle des étapes de la constitution d’une base d’échantillon- nage. Le cas d’un petit pays imaginaire (le Sentz), dont les données seront utilisées pour les différents exercices, est ensuite exposé. Cette partie du volume se termine sur une description des concepts et des méthodes de base de l’échantillonnage aléatoire. La partie III (« Préparation, validation et gestion des données ») décrit les procédures de nettoyage et de gestion des données collectées dans une évaluation nationale, qui sont les éléments essentiels du pro- cessus d’assurance qualité. Cette partie décrit également comment INTRODUCTION | 5 exporter et importer les données (c’est-à-dire, mettre les données à la disposition des utilisateurs dans un format compatible avec des logi- ciels statistiques tels que Microsoft Access, SPSS, WesVar et Microsoft Excel). L’objectif principal de cette section est de permettre à l’équipe d’évaluation nationale de développer et mettre en œuvre un ensemble systématique de procédures pour s’assurer de l’exactitude et de la fiabilité des données de l’évaluation. L’étape suivant l’échantillonnage, l’administration des tests, et la saisie et le nettoyage des données est la préparation des données pour l’analyse. La partie IV (« Pondération, estimation et erreur due à l’échan- tillonnage ») décrit une série d’importantes étapes préalables, à savoir la production d’estimations, le calcul et l’utilisation des poids d’enquête, et le calcul des estimations. Les exercices s’appuient sur le travail effec- tué précédemment sur les données du Sentz (dans la partie II). La sec- tion traitant du calcul des estimations décrit comment celles-ci et leurs erreurs d’échantillonnage sont calculées à partir d’échantillons simples et complexes, tels que ceux préparés pour le Sentz. Une série de sujets particuliers est enfin traitée, notamment la non-réponse et les problèmes liés aux établissements de très grande et très petite taille. Les procédures décrites dans ce volume (ainsi que dans les volumes 2 et 4) sont conçues pour assurer la qualité d’une évaluation nationale. L’importance d’adopter des procédures appropriées est rappelée tout au long de la partie I à propos des différentes compo- santes d’une évaluation : • Recruter une équipe compétente pour réaliser l’évaluation. • Décider des effectifs, des installations et de l’équipement requis pour effectuer une enquête à grande échelle. • Suivre la qualité des items produits par les rédacteurs d’items. • Former les personnes qui collectent les données dans les établisse- ments et suivre leur performance. • Vérifier l’exactitude de la correction et de l’enregistrement des données. • S’assurer que les analyses statistiques des données collectées par l’évaluation sont appropriées et abordent les questions qui préoc- cupent les responsables des politiques, les gestionnaires de l’éduca- tion et les autres parties prenantes. 6 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES La qualité de certaines composantes d’une évaluation nationale est souvent considérée comme allant de soi, probablement parce que l’on tient pour acquis que le personnel responsable des composantes pos- sède l’expertise nécessaire. Cette hypothèse n’est toutefois pas tou- jours justifiée. Par exemple, même si on peut supposer que les personnes ayant de l’expérience dans l’élaboration d’examens publics ont les compétences requises pour une évaluation nationale, les approches nécessaires au développement de tests visant à sélection- ner les élèves et de tests visant à décrire les niveaux de performance du système éducatif sont très différentes. Quelles que soient l’expé- rience, les connaissances ou les compétences du personnel réalisant l’évaluation nationale, des études ou des vérifications doivent être effectuées, éventuellement par un consultant externe, pour évaluer la qualité de certaines des composantes de l’évaluation (par exemple, les tests utilisés pour évaluer la performance des élèves ou l’adéquation des procédures d’échantillonnage utilisées). L’assurance qualité exige un ensemble planifié et systématique d’actions pour fournir la preuve qu’une évaluation nationale a été mise en œuvre avec des normes professionnelles élevées. Le chapitre 5 du volume 1 de cette série, Évaluer les niveaux nationaux de perfor- mance dans l’éducation, identifie un certain nombre de questions rela- tives à la confiance que les parties prenantes peuvent avoir dans les résultats d’une évaluation. Les activités des cinq composantes d’une évaluation nationale (conception, mise en œuvre, analyse des don- nées, rédaction des rapports, et diffusion et utilisation des constata- tions) sont identifiées, et d’autres sont suggérées pour améliorer la confiance. Les erreurs les plus courantes dans les évaluations nationales sont également identifiées pour chaque composante. Ces problèmes peuvent servir à établir une liste de contrôle afin de permettre à l’équipe d’évaluation nationale d’évaluer la qualité de son travail. Des mesures spécifiques pour l’assurance qualité sont générale- ment intégrées dans plusieurs composantes d’une évaluation natio- nale : l’élaboration des tests, la tenue des tests dans les établissements, la correction des items de test, la saisie et le nettoyage des données. Les mesures pour la formation des concepteurs et correcteurs des tests ainsi que pour le contrôle de la qualité de la correction sont décrites dans le volume 2, Mettre au point les tests et questionnaires INTRODUCTION | 7 pour une évaluation nationale des acquis scolaires. Les questions liées à l’assurance qualité de l’administration des tests dans les établisse- ments, qui exigent un examen approfondi dans la mesure où il y est facile de s’éloigner des normes, sont abordées dans le chapitre 4 de ce volume. Les procédures visant les problèmes de qualité dans l’enre- gistrement, le nettoyage et la gestion des données sont décrites dans la partie III (chapitres 9 à 13). Bien qu’il existe des normes pour la conduite d’une évaluation nationale, les personnes chargées de sa mise en œuvre doivent faire appel à leur jugement à divers moments (par exemple, lors de l’échan- tillonnage et de l’analyse). À l’occasion, elles peuvent également avoir besoin des conseils de praticiens plus expérimentés pour prendre des décisions. Elles doivent toujours se tenir prêtes à adapter leurs pratiques à l’évolution des connaissances et des technologies qui se produira inévitablement dans les années à venir. NOTES 1. En 2009-2010, la première version du logiciel SPSS s’appelait Predictive Analytic Software (PASW). 2. Le site Internet est http://www.westat.com/westat/statistical_software /WesVar/index.cfm. PA RT I E 1 LOGISTIQUE D’UNE ÉVALUATION NATIONALE Sarah J. Howie et Sylvia Acana La partie I offre une vue d’ensemble des tâches requises par la mise en œuvre d’une évaluation nationale. Elle décrit le rôle important que peut jouer un comité directeur national ou consultatif, composé de représentants des principales parties prenantes du système éducatif, dans la conception, la planification et la mise en œuvre d’une évalua- tion ainsi que dans la communication de ses constatations. Le person- nel ainsi que les installations et l’équipement requis pour réaliser une évaluation sont identifiés, et les activités à effectuer lors de la prépa- ration d’une évaluation, de son administration dans les établissements et par la suite sont exposées. Des choix devront être faits à différents moments de l’évaluation, en fonction de la situation locale, mais les procédures adoptées devront toujours respecter les normes de base. Sinon, la qualité de l’évaluation et, par conséquent, la valeur de ses constatations seront compromises. Nombre des sujets traités dans la partie I sont étudiés plus en détail dans les autres parties de ce volume, ainsi que dans d’autres volumes de la série. 9 CHAPITRE 1 PRÉPARATION D’UNE ÉVALUATION NATIONALE : CONCEPTION ET PLANIFICATION Ce chapitre décrit les principaux points à considé- rer lors de la conception d’une évaluation nationale. Il explique l’utilité de la mise en place d’un comité pour superviser la conception et la mise en œuvre, et identifie ensuite les questions de planification importantes, avant de conclure avec les aspects budgétaires. LE COMITÉ DIRECTEUR NATIONAL Le plus souvent, mais pas toujours, le ministère de l’Éducation désigne un comité directeur national (CDN) ou un comité consul- tatif pour superviser la conception et la mise en œuvre de l’évalua- tion. Ce comité présente plusieurs avantages. Premièrement, il peut aider à assurer à l’évaluation un statut et une crédibilité aux yeux des organismes publics, des institutions de formation des ensei- gnants, des organisations représentant les enseignants, et d’autres parties prenantes clés de la communauté élargie. Deuxièmement, il peut contribuer à l’identification des questions clés de politiques à traiter dans l’évaluation. Troisièmement, il peut servir de canal de communication entre les acteurs éducatifs clés, un point essentiel 11 12 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES aussi bien pour la conception d’une évaluation que pour les chances de voir ses résultats jouer un rôle dans l’élaboration des politiques et la prise de décision. Quatrièmement, un CDN peut aider à résoudre les difficultés administratives et financières qui peuvent survenir au cours de la mise en œuvre de l’évaluation. Enfin, il peut jouer un rôle important dans la prise en charge des réactions potentiellement négatives à l’évaluation de la part de certains politiciens craignant que la publication des constatations ne donne lieu à un débat sus- ceptible de mettre en cause leur intendance, ou de représentants des enseignants considérant l’évaluation comme une nouvelle forme de redevabilité. La composition d’un CDN varie d’un système éducatif à l’autre, en fonction de l’organisation et de la structure de pouvoir du système. Il devrait réunir des représentants du ministère de l’Éducation (notamment des analystes des politiques et des responsables de l’élaboration des programmes de cours) ; de l’organisme chargé de l’exécution de l’évaluation ; des enseignants, des formateurs des ensei- gnants et des parents ; ainsi que des principaux groupes ethniques, religieux et linguistiques (voir volume 1, Évaluer les niveaux natio- naux de performance dans l’éducation). La taille du comité doit refléter le besoin d’équilibre entre le nombre minimum de parties prenantes devant être représentées et les coûts et les efforts logistiques nécessaires pour organiser les réu- nions. Ce dernier point est particulièrement important dans les pays où les membres du comité doivent parcourir de longues distances et être hébergés sur place pour assister aux réunions. Comme indiqué dans le volume 1, le CDN doit limiter le nombre de ses réunions. Celui-ci sera plus élevé aux stades initial et final de l’évaluation. LA CONCEPTION D’UNE ÉVALUATION NATIONALE Dès le départ, l’équipe désignée pour exécuter l’évaluation doit travailler en étroite collaboration avec le CDN, si celui-ci est en place. De pair avec l’organisme de financement (généralement le ministère de l’Éducation), l’équipe d’évaluation nationale et le CDN doivent PRÉPARATION D’UNE ÉVALUATION NATIONALE : CONCEPTION ET PLANIFICATION | 13 se mettre d’accord sur les objectifs, la conception générale et la portée de l’évaluation, en tenant compte des ressources disponibles, notamment le personnel et le budget. La conception effective peut être confiée au CDN ou à l’équipe d’évaluation nationale. Elle implique les décisions suivantes : • Déterminer les questions de politiques à traiter. • Définir la population cible à évaluer. • Choisir entre une évaluation basée sur un échantillon ou sur la population cible complète (recensement). • Identifier les domaines du programme de cours ou les constructs à évaluer. • Décrire les instruments de collecte des données (tests et question- naires) ainsi que les méthodes à utiliser pour cette collecte. • Assigner la responsabilité de la mise au point des tests et questionnaires. • Préciser les questions particulières à traiter dans les analyses. • Assigner la responsabilité de la production des rapports finaux et autres documents (par exemple, les rapports destinés aux respon- sables des politiques) et décider du nombre de copies de chaque rapport. • Définir les activités de diffusion pour veiller à que le système éducatif tire un enseignement, et des avantages, des résultats de l’évaluation. Une des décisions à prendre lors de la conception de l’étude concerne le suivi de l’évolution dans le temps, en renouvelant l’éva- luation dans le futur. Il est également important de déterminer si l’évaluation portera sur plus d’une année d’études pour fournir des renseignements sur les performances à différents niveaux du système éducatif. Il faut aussi tenir compte du budget alloué et des services d’appui qui peuvent être fournis sans coût supplémentaire. LA PLANIFICATION Sur la base de la conception générale de l’évaluation nationale et reflé- tant cette dernière, un plan détaillé de mise en œuvre doit être établi. 14 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Ce plan du projet est un document décrivant les activités, les tâches, la durée, le calendrier et les personnes impliquées. Il doit : • Préciser la portée de l’évaluation nationale. • Identifier les grandes activités et tâches. • Déterminer les personnes responsables de chaque activité. • Établir un calendrier fixant les dates de début et d’achèvement de chaque activité. Le plan doit servir de référence à l’ensemble du projet et de base au suivi de l’état d’avancement. Pour l’aider dans sa gestion de l’éva- luation, le CDN peut l’utiliser pour identifier les écarts entre les dates d’achèvement réelles et prévues. Le tableau 1.1 présente l’exemple d’une partie du plan de projet élaboré pour l’Afrique du Sud. Le plan complet, qui couvrait nette- ment plus d’activités que celles présentées ici, s’appliquait à une période allant du début 2004 à décembre 2006. Le plan pour l’évaluation nationale doit prendre en compte les dates de libération des fonds. Le recrutement du personnel et l’acquisition des services et de l’équipement ne sont pas recommandés avant que les fonds pour les dépenses récurrentes et d’investissement soient garantis. Les plans de nombreuses évaluations nationales s’appuient sur des estimations irréalistes du temps nécessaire. Dans les pays en dévelop- pement en particulier, un certain nombre de retards et difficultés doivent être anticipés dans le recrutement du personnel ; la recherche d’experts qualifiés ; l’obtention de données exactes et à jour sur les établissements scolaires et le nombre d’élèves ; la formation du person- nel local à des tâches particulières (par exemple, la rédaction des items, l’échantillonnage, l’analyse statistique) ; les essais pilotes et la mise au point de la version définitive des tests de performance ; l’obtention de l’autorisation d’administrer les tests et questionnaires ; l’impression du matériel ; et le nettoyage des données. Les estimations de temps fon- dées sur des évaluations internationales de la performance ou sur des études menées dans les pays industriels risquent de ne pas convenir, car elles ne sont généralement pas confrontées à des problèmes tels qu’une insuffisance des systèmes de communication et de transport, des cou- pures d’électricité, et des pratiques et contraintes de travail limitant le temps disponible pour les tâches d’évaluation nationale. PRÉPARATION D’UNE ÉVALUATION NATIONALE : CONCEPTION ET PLANIFICATION | 15 TABLEAU 1.1 Extrait du plan de projet d’une évaluation nationale Heures de Principales activités et travail Date de Date sous-activités Durée requises début de fin Personne Planification et 1 mois 40 05/01/04 05/02/04 convocation d’une réunion du CDN. Identification et prise de contact avec les participants. Détermination d’une date convenable pour la réunion. Organisation du transport, du lieu, du logement, de la réunion et des rafraîchissements. Envoi des invitations. Définition d’un cadre 1 mois 120 05/01/04 05/02/04 d’évaluation. Sélection d’un échantillon 2 mois 160 05/02/04 05/04/04 d’établissements scolaires. Détermination de la population cible. Prise de contact avec le ministère de l’Éducation pour les données des établissements. Préparation des procédures d’échantillonnage des établissements et au sein des établissements. Constitution de l’échantillon. Finalisation de l’échantillon. Mise au point des 4 mois 640 20/02/04 30/06/04 instruments. (suite) 16 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU 1.1 Extrait du plan de projet d’une évaluation nationale (suite) Heures de Principales activités et travail Date de Date sous-activités Durée requises début de fin Personne Conception, édition et finalisation des items et des guides de notation. Identification des rédacteurs d’items. Désignation des rédacteurs d’items. Formation des rédacteurs d’items. Rédaction des items de test, des échantillons d’items et du manuel d’administration. Examen des items de test. Essai pilote des items de test. Élaboration des guides de notation. Définition du codage des items de test. Après un examen formel, sélection de l’ensemble final des items de test et des échantillons d’items. Achèvement de la maquette (illustrations et mise en page) du test. Détermination du temps accordé à chaque test. Préparation du manuel d’administration et des guides de notation. Source : Adapté de Howie, 2004. PRÉPARATION D’UNE ÉVALUATION NATIONALE : CONCEPTION ET PLANIFICATION | 17 LA BUDGÉTISATION Un budget réaliste et un financement suffisant sont fondamentaux pour les évaluations à grande échelle. Plusieurs ont échoué à cause d’une sous-estimation des budgets. Comme il n’existe aucune for- mule établie pour l’estimation des coûts d’une évaluation nationale, l’équipe d’évaluation nationale peut débuter avec un budget brut basé sur les différentes phases du projet, qu’elle affinera par la suite. La conception de l’évaluation doit refléter le budget disponible. Une autre solution consiste à adapter la conception initiale en fonction d’un budget prédéterminé. Si possible, des spécialistes de l’évaluation et des décideurs financiers doivent être impliqués dans les discussions budgétaires. La préparation du budget doit reprendre toutes les principales activités prévues dans la conception de l’évaluation, et un calendrier ainsi que des coûts doivent être attribués à chaque poste (activité et sous-activité ou tâche) (voir Greaney et Kellaghan, 2008 ; Ilon, 1996). L’exécution de ce processus peut prendre plusieurs jours. Les condi- tions et les coûts varient largement d’un pays à l’autre. Les coûts sala- riaux nationaux des différents types de tâches sont normalement pris en compte. Parfois, des ajustements sont nécessaires pour refléter le manque de compétence dans certains domaines professionnels clés (tels que l’analyse statistique). Des provisions budgétaires doivent être faites pour de probables hausses des coûts salariaux au cours de l’évaluation (normalement deux à trois ans), l’inflation et des événe- ments imprévus (réserve pour imprévus). Liste de contrôle du financement La liste de contrôle présentée dans le tableau 1.2 énumère les prin- cipaux postes de dépense généralement associés à une évaluation nationale. Les conditions étant variables entre les pays, certains postes ne sont pas nécessairement pertinents pour certaines évalua- tions. Dans certains pays, la collecte des données a représenté 50 % du budget d’une évaluation nationale, tandis que dans un autre, l’enregistrement des données a utilisé environ 20 % du budget. Les coûts couverts par les organismes existants doivent être déterminés 18 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES dès le départ. Par exemple, le ministère de l’Éducation peut couvrir le coût du temps consacré par les inspecteurs scolaires à l’adminis- tration des instruments d’évaluation, ou bien un bureau national de recensement peut fournir les services d’un expert de l’échantillonnage. TABLEAU 1.2 Liste de contrôle du financement d’une évaluation nationale Source de financement Fonds dédiés à l’évaluation Autres Non Postes nationale fonds financés Personnel Installations et équipement Conception du cadre d’évaluation Conception et mise au point des instruments Formation (par exemple, à la rédaction des items, à la collecte des données) Tests pilotes Traduction Impression Comité directeur national Déplacements locaux (vers les établissements) Collecte des données Correction des tests (questions ouvertes) Enregistrement des données Traitement et nettoyage des données Analyse des données Rédaction des rapports Impression des rapports Communiqués de presse et publicité Conférences sur les résultats Fournitures consommables Communications Activités de suivi CHAPITRE 2 PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE Si l’on admet que le but d’une évaluation natio- nale est de fournir des informations valables sur la performance des élèves dans le système éducatif, les décisions relatives au personnel chargé de l’exécution et aux installations dont il a besoin sont cru- ciales. On peut s’attendre à toute sorte de problèmes si le personnel n’est pas compétent ou si les installations sont inappropriées. Par exemple, il est possible que le test utilisé ne fournisse pas d’informa- tions valides et fiables sur la performance des élèves dans le domaine du programme de cours ou le construct évalué ; l’échantillon sélec- tionné ne représente pas correctement la population cible ; les élèves soumis aux tests ne soient pas ceux qui ont été sélectionnés ; les administrateurs de test ne suivent pas précisément les instructions d’administration des tests ; les données recueillies dans les établisse- ments ne soient pas correctement saisies dans la base de données ; l’analyse statistique des données ne soit pas appropriée ; des conclu- sions injustifiées (par exemple, à propos de la causalité) soient tirées ; et que les rapports fournissent des informations incorrectes sur les aspects techniques de l’étude, le contenu des tests de performance, les méthodes utilisées ou les erreurs et biais des estimations. Ce chapitre décrit le personnel et les installations et l’équipement de base néces- saires à une évaluation nationale, afin d’aider à prévenir ces problèmes 19 20 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES et de contribuer ainsi à la qualité de l’exercice. La planification du contrôle qualité doit commencer en même temps que celle du projet. LES EXIGENCES EN MATIÈRE DE PERSONNEL En règle générale, le personnel doit non seulement posséder des com- pétences spécialisées, mais également être dévoué et ouvert d’esprit, attentif aux détails, et disposé à faire des heures supplémentaires. Du point de vue de l’adéquation technique et de l’efficacité, ces attributs sont plus importants que l’ancienneté au sein d’un ministère ou d’une institution académique. Le niveau de financement prévu pour l’évaluation nationale détermine dans une large mesure le nombre et le degré de compé- tence des membres clés du personnel. La conception ou la planifica- tion proposée peut aider à clarifier les rôles et les fonctions des membres du personnel. Ainsi, l’identification de la population cible (par exemple, une année du niveau scolaire) et des domaines du pro- gramme de cours ou des constructs à évaluer détermine les connais- sances et compétences requises des rédacteurs d’items, tandis que la décision de baser l’évaluation sur un échantillon plutôt que sur l’en- semble de la population nécessite la participation d’un spécialiste de l’échantillonnage aléatoire. Certains membres du personnel (par exemple, les rédacteurs d’items, les administrateurs de test, ou le per- sonnel de saisie des données) seront employés de manière temporaire à différents stades de l’évaluation. Cette section décrit le rôle des membres clés ou permanents du personnel (par exemple, le coordon- nateur national) ainsi que les rôles du personnel supplémentaire, tel que les administrateurs de test, nécessaires pour réaliser l’évaluation. Le coordonnateur national Le coordonnateur national (CN) donne l’orientation générale et assure le leadership tout au long des phases de planification et de mise en œuvre de l’évaluation nationale. Il veille à ce que l’évaluation : • traite les questions clés de politiques choisies par le ministère ; • soit techniquement adéquate ; • soit menée dans les délais et avec le budget prévus. PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE | 21 Le CN doit être respecté au sein de la communauté éducative et avoir accès aux parties prenantes clés de l’éducation et aux princi- pales sources de financement. Il ou elle doit être capable d’avoir une vue d’ensemble de l’évaluation. Les CN sont généralement recrutés dans des bureaux des examens publics, des ministères nationaux de l’Éducation, des universités et des institutions de recherche. Ils doivent bien connaître les concepts clés de la mesure des résultats dans l’éducation ainsi que le domaine du programme de cours ou le construct évalué. Ils doivent disposer d’une vaste expérience de l’éla- boration de tests ainsi que de la gestion de projet et de grands groupes de personnes. Ils doivent faire preuve d’un leadership fort et posséder de bonnes compétences en communication. Les principales responsa- bilités du CN sont notamment : • Assurer la liaison avec les organisations et entités nationales concer- nées par l’éducation et rendre des comptes à un comité directeur national. • Gérer le personnel et le budget à chaque étape de l’évaluation. • Assurer la formation et la direction des rédacteurs d’items. • Examiner les tests, les questionnaires et le matériel associé pour s’assurer que le contenu est approprié et dépourvu de biais (par exemple, concernant les hommes et les femmes, les élèves des zones urbaines et rurales, ou l’appartenance à un groupe ethnique). • Fournir des conseils relatifs à l’interprétation des résultats des tests. • Coordonner et assurer la qualité des publications qui suivent l’évaluation nationale. • Gérer les relations publiques, notamment l’organisation de sémi- naires de conscientisation et de sensibilisation pendant et après l’évaluation nationale. Le coordonnateur national adjoint Un coordonnateur national adjoint peut être nécessaire en fonction de la structure du système éducatif, de la portée de l’évaluation, des contraintes d’emploi du temps du CN, et de la disponibilité des fonds. Le CN adjoint doit posséder un grand nombre des attributs requis pour le CN et être capable de le soutenir et de le remplacer 22 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES lorsque nécessaire. Il ou elle peut se voir attribuer la responsabilité principale de certains aspects de l’évaluation, tels que le développe- ment des tests ou la gestion des données, ou être appelé à se concen- trer sur les questions opérationnelles et logistiques. La connaissance détaillée de l’ensemble du plan de mise en œuvre de l’évaluation nationale est essentielle. Les coordonnateurs régionaux Dans les grands pays pourvus de systèmes administratifs régionaux, il est conseillé à l’équipe d’évaluation nationale de nommer des coor- donnateurs régionaux pour organiser les tests et assurer la liaison avec les établissements et les administrateurs de test. Ces coordonnateurs seront alors responsables de l’attribution et de la distribution du matériel aux administrateurs de test et vérifieront le contenu des caisses envoyées par le bureau central. Ils auront également la respon- sabilité du matériel renvoyé par les établissements après l’administra- tion des tests et questionnaires. Dans cette configuration, le bureau du coordonnateur deviendra le bureau régional et le lieu de stockage des instruments d’évaluation. Les rédacteurs d’items L’expérience montre que les enseignants en exercice dotés d’une bonne maîtrise du programme de cours font des rédacteurs d’items efficaces. Il est également bon de veiller à ce qu’ils pro- viennent de différents types d’établissements, y compris des établis- sements ruraux et éloignés. Des universitaires, des responsables des examens publics et des inspecteurs scolaires sont utilisés pour la rédaction des items pilotes de certaines évaluations nationales. L’expérience n’est cependant pas toujours positive, car ces per- sonnes manquent souvent de contact avec la réalité des classes et leurs attentes quant aux normes de performance des élèves peuvent s’avérer trop exigeantes. Les rédacteurs d’items doivent être formés à l’analyse du pro- gramme de cours, à la définition des objectifs d’apprentissage, PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE | 23 à l’identification des méprises et erreurs courantes des élèves, à la rédaction d’items permettant d’établir un diagnostic, et à l’évaluation de la qualité tant du contenu que des propriétés statistiques des items des tests pilotes. Ils sont normalement recrutés à temps partiel. Après une période d’essai, le coordonnateur de l’élaboration des tests peut décider de se défaire de certains d’entre eux s’ils ne parviennent pas à rédiger de bons items ou n’accordent pas suffisamment d’attention au détail ou au classement. Le statisticien Un statisticien est responsable de l’adéquation technique des analyses statistiques. Il ou elle est susceptible d’être impliqué dans la con- ception de l’évaluation, l’élaboration d’un cadre d’échantillonnage national, et la constitution de l’échantillon représentatif utilisé dans l’évaluation nationale. Il ou elle contribue également à l’interpréta- tion des résultats des tests pilotes et finaux, peut être impliqué dans la construction de la base de données, et guide ou effectue l’analyse des résultats de l’évaluation. Le volume 4 de cette série, Analyser les données issues d’une évaluation nationale des acquis scolaires, décrit la plupart des tâches statistiques qu’implique une évaluation. Le statis- ticien doit être compétent dans l’utilisation de SPSS (Statistical Package for the Social Sciences), WesVar, Excel et Access. Les services d’un statisticien ne sont pas nécessairement requis à plein temps. Sa charge de travail peut être lourde au départ, lors de la conception et, en particulier, de l’échantillonnage et l’essai pilote des instruments, et de nouveau, après la collecte et le nettoyage des données. Des statisticiens compétents peuvent se trouver dans les universi- tés et certains ministères. Le bureau national du recensement peut être une source particulièrement intéressante. Dans certains cas, il peut être nécessaire de recruter un statisticien externe étranger pour aider à l’échantillonnage, l’analyse et l’interprétation des résul- tats. Si un statisticien externe est recruté, il ou elle doit contribuer au renforcement de la capacité technique au sein de l’équipe d’évalua- tion nationale. 24 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Le gestionnaire des données Pour finir, le gestionnaire des données (GD) assume une bonne par- tie de la responsabilité de la qualité des données utilisées dans les analyses. Il ou elle est notamment responsable de l’exactitude, en particulier du codage, du nettoyage et de la saisie corrects des don- nées des tests et questionnaires. Il ou elle doit posséder une connais- sance pratique de Microsoft Word, Excel, Access, SPSS et WesVar. Idéalement, il ou elle doit également disposer d’une vaste expé- rience de la gestion des données, être engagé au début de l’évalua- tion et impliqué dans l’échantillonnage ainsi que la conception et le codage des instruments. Avec l’accord du CN, et en collaboration avec le statisticien de l’étude travaillant sur le cadre d’échantillonnage et la conception, le GD prépare le système et les procédures de numérotation à utiliser pendant l’évaluation. Ce système doit être appliqué aux établisse- ments, aux classes et aux élèves. Le système de numérotation est un élément clé du contrôle de la qualité. Il est nécessaire aux activités d’échantillonnage et doit être mis en œuvre, au plus tard, au moment de la constitution de l’échantillon. Le GD doit s’assurer que les carnets individuels, les questionnaires et les éventuelles feuilles de réponses des élèves puissent être identifiés en les numérotant avant d’envoyer le matériel pour l’administration des tests. La pré-numérotation est essentielle pour le suivi des taux de participation des élèves et la vérification de la sécurité du matériel. Les identifiants attribués aux établissements par le système d’infor- mation de gestion de l’éducation peuvent être utilisés pour distin- guer les établissements sélectionnés pour l’évaluation. Une autre possibilité consiste à classer les écoles en utilisant un système de numérotation identifiant la province ou la région, l’établissement et l’élève. L’encadré 2.1 donne des exemples de deux de ces systèmes de numérotation. Le premier identifie chaque établissement ; le second identifie non seulement l’établissement, mais aussi chaque élève par- ticipant au sein de l’établissement. Un programmeur informatique, ou une personne possédant des connaissances et une expérience suffisantes de la construction et de la gestion des bases de données, sera nécessaire à certains moments PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE | 25 ENCADRÉ 2.1 Systèmes de numérotation utilisés dans des évaluations nationales Voici deux exemples de systèmes utilisés dans des évaluations nationales : 1. Un nombre à quatre chiffres dont le premier représente la région, le deuxième la zone, le troisième le district, et le dernier l’établissement. Le chiffre 5342 identifie l’établissement numéro 2, situé dans le district 4 de la zone 3 de la région 5. 2. Six chiffres dont le premier indique la province, les trois suivants le numéro de l’établissement, et les deux derniers sont l’identifiant de l’élève. Par exemple, le numéro 200537 identifie un élève de l’établissement 005 de la province 2, placé en 37e position dans la liste des élèves. critiques de l’évaluation. Une même personne peut être appelée à jouer plusieurs rôles : programmeur et gestionnaire des données ou gestionnaire des données et statisticien, selon l’expertise disponible localement. La partie III traite du nettoyage et de la gestion des données, compétences essentielles exigées du GD. Le concepteur ou graphiste Un concepteur ou graphiste a la responsabilité de donner une apparence professionnelle à tous les tests, questionnaires, manuels et rapports associés à l’évaluation nationale. Il ou elle fournit les repré- sentations visuelles liées aux items de test, ainsi que les schémas, diagrammes et autres éléments visuels utilisés dans les rapports. Des personnes expérimentées se trouvent notamment dans des maisons d’édition et des imprimeries. Le concepteur ou graphiste doit être disponible en cas de besoin et les demandes doivent leur être adres- sées suffisamment longtemps à l’avance. Le CD qui accompagne le volume 2, Mettre au point les tests et questionnaires pour une évaluation nationale des acquis scolaires, contient des exemples d’items de test bien présentés avec un matériel visuel et graphique approprié. Les traducteurs De nombreux pays ont d’importantes populations d’élèves ne parta- geant pas une langue commune. En pareil cas, il peut être nécessaire 26 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES de traduire les instruments. De toute évidence, les traducteurs doivent avoir un haut niveau de compétence dans les langues concernées et une connaissance du contenu du matériel qu’ils traduisent. Un mini- mum de deux traducteurs par langue est souhaitable. Ils peuvent tous deux traduire le même test, comparer les résultats et discuter des différences en vue d’un compromis. Ce processus est appelé traduc- tion simultanée. Une alternative consiste à confier à l’un des deux la traduction vers la seconde langue et de demander ensuite à l’autre de retraduire le résultat dans la première. Les versions initiale et retra- duite sont ensuite comparées et discutées pour résoudre les diffé- rences. Ce processus est appelé rétrotraduction. Malgré tous les efforts des traducteurs, pour diverses raisons, dont les différences de struc- ture entre les langues, il peut s’avérer très difficile, voire impossible d’obtenir une équivalence précise entre un test et sa traduction. Les tests pilotes sont une excellente occasion d’éliminer les expressions ou mots linguistiquement difficiles. Par exemple, au cours d’un test pilote au Ghana, les élèves ont été invités à traduire certains mots (en anglais) dans la langue locale afin d’identifier les termes couramment mal compris. De manière assez similaire, les enfants sud-africains ont souligné les mots qu’ils ne comprenaient pas pendant la phase des tests pilotes ; cette information a ensuite aidé à modifier certains items pour l’étude principale. Les services des traducteurs ne sont normalement requis que pendant la prépara- tion des versions pilotes et finales des tests et questionnaires ainsi qu’au moment de la préparation des rapports avant publication. L’agent de liaison scolaire L’agent de liaison scolaire ou coordonnateur scolaire peut être un ensei- gnant ou le conseiller en orientation d’un établissement, mais il ou elle ne doit pas faire cours aux élèves sélectionnés pour l’évaluation. Le chef de l’établissement joue fréquemment ce rôle. L’agent de liaison scolaire sert de contact pour l’équipe d’évaluation nationale et aide à s’assurer que le personnel de l’établissement est au courant de l’évaluation. Il ou elle organise le lieu du test, fixe les dates et heures avec les élèves et leurs enseignants, et rencontre l’équipe d’évaluation le jour du test. L’agent de liaison scolaire s’assure que les formulaires de suivi des élèves PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE | 27 sont bien remplis et distribue les questionnaires relatifs aux enseignants et à l’établissement. Il ou elle s’assure que tout le matériel de test est reçu et conservé en sécurité, et ensuite renvoyé au centre national ou régional après l’administration des tests. Il ou elle doit également veiller à ce que la salle utilisée pour l’évaluation soit suffisamment grande pour accueillir tous les élèves sélectionnés pour les tests, en laissant un espace suffisant entre eux afin d’empêcher la communication et la copie. L’agent de liaison scolaire soutient essentiellement l’équipe d’évaluation en prenant toutes les dispositions nécessaires pour assurer le bon déroulement de l’évaluation dans son établissement. Le personnel de saisie des données Certaines équipes d’évaluation nationales utilisent un personnel de saisie des données professionnel pour enregistrer ou saisir les données des tests et questionnaires. Les personnes sélectionnées pour effec- tuer cette tâche doivent être expérimentées et faire preuve de vitesse et de précision dans la saisie des données. Un enregistrement des don- nées négligé peut compromettre la qualité de l’évaluation. Le travail de saisie peut être effectué en interne ou délégué à une agence externe. Dans ce dernier cas, un ou plusieurs membres de l’équipe d’évaluation doivent régulièrement vérifier la qualité du travail. Que celui-ci soit effectué en interne ou sous-traité, le contrôle de la qualité est essentiel. Des scanneurs électroniques sont de plus en plus utilisés pour enregistrer les données des tests et questionnaires, qui sont ensuite classés pour le nettoyage et l’analyse des données. Toutefois, l’accès aux scanneurs ou aux services de maintenance et de sauve- garde requis n’est pas disponible dans tous les pays. Les administrateurs de test Dans certains pays, les enseignants administrent les tests de l’évalua- tion nationale à leurs propres élèves. La plupart du temps, ce sont cependant des enseignants autres que ceux des élèves participants, ou des personnes extérieures à l’établissement qui sont chargés de cette tâche. Les pratiques de travail locales, les niveaux de compensation financière, et la disponibilité du personnel jouent un rôle important 28 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES dans la sélection des administrateurs de test. Des évaluations natio- nales font appel à des enseignants (notamment retraités), des inspec- teurs scolaires, des formateurs d’enseignants, des responsables des examens publics, et des étudiants universitaires (en particulier en pédagogie et psychologie). Dans certains pays, la collecte des données est déléguée à un organisme spécialisé dans cette activité. Les éven- tuels administrateurs doivent avoir les caractéristiques suivantes : • Sens de l’organisation et de la communication. • Expérience du travail dans les écoles. • Fiabilité ainsi que capacité et volonté de suivre les instructions avec précision. Certains avantages et inconvénients possibles de l’utilisation d’un personnel issu de différents contextes sont résumés dans le tableau 2.1. Les éventuels inconvénients peuvent en grande partie être résolus par des directives claires et une solide formation. Une mauvaise administration des tests étant la source la plus courante d’erreurs dans une évaluation nationale, une attention particulière doit être accordée à la sélection, la formation et la supervision des adminis- trateurs des tests et questionnaires. Avant tout, les personnes assignées à cette tâche doivent être dignes de confiance, responsables et engagées. Les administrateurs de test doivent : • Veiller à ce que les enseignants et autres membres du personnel ne soient pas présents dans la salle pendant les tests. • Vérifier que seuls les élèves sélectionnés dans l’échantillon prennent part aux tests. • Connaître et suivre scrupuleusement les directives d’administration du test. • Fournir des instructions claires et audibles par tous. • Veiller à ce que les élèves comprennent la manière d’enregistrer leurs réponses. • Respecter strictement les limites de temps. • Empêcher la copie ou d’autres formes de communication entre les élèves. • Rassembler tout le matériel lorsque le test est terminé. • Noter et signaler toute irrégularité constatée avant, pendant et après le test. PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE | 29 TABLEAU 2.1 Avantages et inconvénients des catégories de personnel pour l’administration des tests Catégorie Avantages Inconvénients Enseignants Sont professionnellement Peuvent avoir des difficultés qualifiés à se défaire de leurs pratiques habituelles (par exemple, aider les élèves) et à apprendre de nouvelles façons de gérer les élèves Connaissent bien les enfants Peuvent avoir l’impression d’être eux aussi évalués et essayer d’aider les enfants (si leur propre classe est évaluée) Peuvent être moins chers que Il peut être difficile et d’autres, notamment en ce coûteux de les organiser et qui concerne les frais de de les former déplacement et de séjour Maîtrisent habituellement la langue régionale ou locale Inspecteurs et Sont susceptibles de Peuvent se montrer trop formateurs des posséder une expérience des autoritaires enseignants salles de classe Vont être impliqués en tant Peuvent être tentés de que partenaires dans mener des activités l’évaluation nationale, ce qui d’inspection en plus des peut leur donner un intérêt tests qu’ils administrent pour les résultats Sont susceptibles de Sont susceptibles d’être plus connaître l’emplacement de coûteux que les enseignants la plupart des établissements Peuvent avoir l’impression de ne pas avoir à suivre les instructions détaillées du manuel Étudiants Sont facilement disponibles, Peuvent ne pas être très universitaires en particulier pendant les fiables vacances universitaires (suite) 30 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU 2.1 Avantages et inconvénients des catégories de personnel pour l’administration des tests (suite) Catégorie Avantages Inconvénients Sont susceptibles de suivre Peuvent manquer de les instructions l’autorité nécessaire pour traiter avec les gestionnaires, les chefs d’établissement et d’autres Sont plus susceptibles que Peuvent difficilement être d’autres de supporter des tenus pour responsables conditions de déplacement difficiles Saisissent souvent une Peuvent ne pas maîtriser la possibilité d’emploi langue locale Sont relativement bon Peuvent ne pas inspirer aux marché élèves un sentiment de respect et d’autorité Personnel de Est professionnellement Peut se montrer trop jury d’examen qualifié autoritaire, surtout s’il est ou d’évaluation utilisé pour la surveillance des examens publics Est directement responsable Peut manquer d’une devant l’autorité de expérience récente en salle nomination de classe et donc ne pas faire preuve d’autorité devant les élèves Est généralement fiable Peut manquer d’expérience au niveau scolaire spécifiquement testé Tient bien les dossiers Est coûteux à entretenir sur le terrain A tendance à consulter avant Peut ne pas maîtriser la de prendre des décisions langue locale importantes Les correcteurs Dans de nombreuses évaluations nationales, les réponses à la totalité ou à la plupart des items sont enregistrées à l’aide du système de saisie des données et codées par ordinateur. Lorsque les items sont à réponse ouverte, il est nécessaire de faire appel à des correcteurs. PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE | 31 Les correcteurs doivent avoir une bonne connaissance du domaine d’évaluation. Dans de nombreux pays, des enseignants sont chargés de la correction. Leur recrutement peut toutefois s’avérer difficile en période scolaire, où ils peuvent n’être disponibles qu’en dehors des heures d’école. Certaines évaluations nationales font appel à du per- sonnel de jury d’examen. D’autres ont recours aux services du per- sonnel du ministère de l’Éducation ou d’étudiants universitaires. Quels que soient leurs origines ou statuts, les correcteurs doivent être spécifiquement formés à la correction de tests d’évaluation nationale particuliers codage. Un membre de l’équipe de l’évaluation nationale doit suivre quotidiennement la qualité de la correction et se défaire des correcteurs ne donnant pas satisfaction. LES INSTALLATIONS Les personnes impliquées dans la réalisation d’une évaluation nationale ont besoin d’un espace de travail et d’un ensemble d’équipements. L’espace pour le personnel Les membres du personnel permanent ont besoin de bureaux sécuri- sés et équipés d’ordinateurs. Ils doivent avoir de l’espace pour stocker des livres et des dossiers. Le personnel à temps partiel a lui aussi besoin d’un endroit pour travailler. Les évaluations nationales impli- quant de nombreuses réunions avec des spécialistes de la matière, les rédacteurs d’items et d’autres personnes, il est conseillé d’avoir accès à un local suffisamment grand pour accueillir des groupes. L’espace pour l’organisation et le stockage des instruments Des dispositions appropriées doivent être prises en termes d’espace pour l’emballage des tests en vue de leur distribution aux établisse- ments. Certaines évaluations nationales louent une salle ou un espace dans une institution d’enseignement. L’espace requis peut être impor- tant (voir l’encadré 2.2). Il peut être utile de déballer les carnets de test et le matériel d’au moins un établissement pour se faire une idée 32 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES ENCADRÉ 2.2 Besoins de stockage La dimension des carnets de test et questionnaires détermine la hauteur et la profondeur des rayonnages utilisés pour le stockage. Les carnets de test sont généralement imprimés sur du papier A4 (210 × 297 millimètres ou 8,27 × 11,69 pouces). Ils sont le plus souvent regroupés par établissement et par classe. Si le carnet de test d’un domaine d’évaluation a une épaisseur de 1,5 mm, et que l’échantillon national comprend 5 000 élèves, un minimum de 7,5 m d’espace de stockage est nécessaire. Il en faudra un supplémentaire pour les carnets de test d’autres domaines du programme de cours, pour les questionnaires relatifs aux élèves et aux enseignants, et pour les manuels destinés à l’administration et aux coordonnateurs scolaires, ainsi que pour la correspondance, le matériel d’emballage, et d’autres documents associés à l’évaluation nationale. de l’espace à prévoir pour l’ensemble des établissements participant à l’évaluation nationale. Un vaste espace de stockage est nécessaire à la fois avant et après les corrections, pour la saisie et le nettoyage des données. Si possible, une salle doit être spécifiquement consacrée à l’enregistrement des données. Elle doit offrir un poste de travail adéquat à tout le person- nel de saisie des données, notamment de l’espace pour les ordinateurs. Un espace supplémentaire est nécessaire pour stocker et organiser les carnets en cours de traitement. Les carnets de test et les question- naires doivent être facilement accessibles, car certains items devront peut-être être vérifiés. Les équipements et fournitures La quantité et la nature des équipements et fournitures nécessaires varient en fonction de la taille de l’évaluation nationale et des condi- tions locales. L’équipement de base comprend : • Des téléphones, bureaux, chaises, classeurs, étagères, tables d’em- ballage, armoires, et chariots pour le transport des instruments ; • Les fournitures de bureau courantes (papier, blocs, cartouches d’impression, disques, cassettes, perforatrices, ciseaux, agrafeuses, stylos, crayons, rubans d’emballage, ficelle, étiquettes, colle, et marqueurs) ; PERSONNEL ET INSTALLATIONS NÉCESSAIRES À UNE ÉVALUATION NATIONALE | 33 • Papier d’emballage et caisses ou sacs ; • Véhicules pour le transport des tests et du matériel, si nécessaire. Le budget disponible contribuera à déterminer la quantité et la qualité de l’équipement technique. Certaines équipes d’évaluation nationale (par exemple, dans les ministères de l’Éducation ou les universités) auront accès à un équipement électronique tel que des ordinateurs, des logiciels (Microsoft Office et SPSS), des imprimantes, des photocopieuses, des scanneurs et des fax. D’autres équipes devront acheter ou louer des équipements. Des logiciels appropriés peuvent améliorer la précision et l’efficacité, en particulier dans des domaines tels que l’enregistrement, la saisie, le nettoyage et l’analyse des données, ainsi que la conception graphique. NOTE 1. D’autres termes peuvent être utilisés dans certains pays. CHAPITRE 3 PRÉPARATION À L’ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS Le coordonnateur national doit informer les établissements de leur sélection pour l’évaluation nationale aussi tôt que possible après la constitution de l’échantillon. Les inviter à parti- ciper est un geste de courtoisie. L’expérience montre que la grande majorité des établissements publics des pays en développement sont prêts à participer à une évaluation nationale. Dans certains pays, les établissements ont la possibilité de refuser d’y participer. Ce sont le plus souvent les établissements privés (absents de nombreuses éva- luations nationales), ce choix n’étant pas autorisé aux établissements publics dans de nombreux endroits. Dans certains pays, l’autorisation des parents est nécessaire pour que les enfants participent à une évaluation, et des mesures doivent donc être prises pour l’obtenir, le cas échéant. Demander aux parents de ne répondre que s’ils refusent que leur enfant participe peut suffire. Dans ce cas, l’absence de réponse des parents est considérée comme un accord. Ce chapitre décrit les étapes de la préparation à l’administration d’une évaluation nationale. Elles comprennent la prise de contact avec les établissements, l’organisation des instruments et la prépara- tion des établissements. 35 36 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES LA PRISE DE CONTACT AVEC LES ÉTABLISSEMENTS Si nécessaire, l’autorisation du ministère de l’Éducation ou de l’autorité régionale de l’éducation doit être obtenue avant de contacter les établissements. Lorsque les établissements sont contactés et invités à participer, un accusé de réception doit leur être demandé. La communication initiale doit faire l’objet d’un suivi régulier jusqu’à la veille du test. L’établissement est appelé à désigner un contact, un agent de liaison ou un coordonnateur pour l’évaluation. L’équipe d’évaluation nationale doit s’efforcer d’éta- blir et maintenir une bonne relation avec les autorités locales de l’éducation, si elles existent. Informer les établissements Beaucoup d’établissements, en particulier primaires, préfèrent rece- voir des lettres qu’elles peuvent classer. En Ouganda, l’organisme chargé de l’évaluation nationale envoie des lettres à tous les établisse- ments sélectionnés ainsi qu’à chaque bureau de l’éducation du dis- trict. Le suivi est effectué par téléphone (principalement mobiles) ou à l’aide de notes livrées par bodaboda (cyclistes et motards transpor- tant des personnes ou des bagages). La première communication doit informer les établissements de leur sélection pour participer à une évaluation nationale (voir l’encadré 3.1). Elle doit également signaler les dates provisoires d’administration des tests. Environ un mois avant celle-ci, une note de rappel adressée aux établissements doit préciser la date exacte et fournir plus de détails sur l’exercice d’évaluation qui va avoir lieu. Il est conseillé de confirmer une nouvelle fois la partici- pation de l’établissement deux semaines avant le test, et à nouveau la veille. L’équipe d’évaluation nationale doit tenir à jour un document ou une liste de suivi de la participation des établissements pour suivre l’état d’avancement du travail sur le terrain. Ce formulaire reprend des renseignements sur les établissements, tels que leur nom, leur taille, et les informations de contact (voir le tableau 3.1). PRÉPARATION À L’ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS | 37 ENCADRÉ 3.1 Exemple de lettre aux établissements Monsieur/Madame_________, Je vous écris afin de solliciter votre appui pour l’Évaluation nationale de la performance en mathématiques (NAMA) 2012 menée par le Centre national de la recherche pédagogique. Comme vous le savez, la performance en mathématiques des élèves est évaluée tous les cinq ans dans le système éducatif. En octobre 2012, des données seront recueillies auprès des élèves de sixième année de 160 établissements du pays. Les élèves seront soumis au test pendant deux périodes de 1 heure au cours de la troisième semaine d’octobre. Votre établissement a été sélectionné au hasard pour participer à cette importante étude nationale. Votre inspecteur scolaire local vous rendra visite au cours des deux prochains mois pour répondre à toute question que vous pourriez avoir et discuter de la participation de votre établissement. Les dates précises des tests vous seront confirmées par la radio locale. Un représentant du Centre national de la recherche pédagogique administrera le test et un court questionnaire destiné aux élèves. Il vous demandera également, ainsi qu’à l’enseignant de la classe, de remplir un questionnaire. Toutes les informations recueillies dans votre établissement seront traitées de manière confidentielle, et les résultats individuels des élèves et des établissements ne seront pas accessibles à tous. Les renseignements recueillis ne seront utilisés que par le ministère de l’Éducation pour identifier les forces et les faiblesses de l’apprentissage dans le système. Le ministère a besoin d’information pour pouvoir améliorer la qualité de l’apprentissage de nos élèves, et le NAMA bénéficie du soutien et de l’approbation du Syndicat national des enseignants. L’évaluation ne nécessite aucune préparation élaborée. Veuillez seulement en informer les élèves pendant la semaine précédant l’évaluation. Les élèves n’ont pas besoin de se préparer pour le test. Chacun recevra un crayon pour remplir le formulaire de test et le questionnaire et sera autorisé à conserver le crayon une fois l’évaluation terminée. Cordialement, Directeur Centre national de la recherche pédagogique TABLEAU 3.1 |38 Évaluation nationale : Document de suivi des établissements Nom, adresse, Nom et numéro de numéro de Statut Date Date de Priorité de ID de téléphone de téléphone du Taille de (participant d’envoi du réception du Date l’établissementa l’établissement l’établissement coordonnateur l’établissement ou non) matériel matériel du test 1 1 1 1 1 1 1 1 1 2 2 2 2 METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES 2 Source : adapté de TIMSS, 1998c. a. Les établissements sélectionnés pour faire partie de l’échantillon ont la priorité 1. Les établissements de remplacement ont la priorité 2. PRÉPARATION À L’ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS | 39 Remplacer des établissements Dans la mesure du possible, une fois sélectionnés, les établissements ne doivent être ni modifiés ni remplacés. Malgré les efforts de l’équipe d’évaluation nationale, certains remplacements peuvent néanmoins s’avérer nécessaires. Lorsque tel est le cas, cette possibi- lité doit être discutée avec le statisticien afin que des procédures d’échantillonnage adéquates soient mises en œuvre et que les éta- blissements de remplacement soient choisis de manière appropriée. En aucun cas la sélection des établissements de remplacement ne doit être laissée à la discrétion de l’administrateur de test ou du res- ponsable local des établissements. Ce sujet est abordé plus loin dans la partie II de ce volume. L’ORGANISATION DES INSTRUMENTS Le coordonnateur national, ou son délégué, doit vérifier la qualité de tous les tests, questionnaires et manuels pour s’assurer que : • Les fautes d’orthographe et typographiques ont été corrigées. • La taille de la police est suffisamment grande dans les carnets de test. Une police de grande taille est un élément particulièrement important pour les jeunes enfants. Une taille de 14 points est recommandée pour les 3e et 4e années, et de 12 points pour les années supérieures. Une série de tests nationaux de la performance a utilisé une police de 16 points pour les 1re et 2e années ; 13 points pour les 3e, 4e et 5e années et 12 points pour la 6e année. La police utilisée pour le numéro des items doit être plus grande. • Un espace adéquat est laissé entre les lignes de texte. • Les diagrammes sont simples et clairs. Dans la mesure du possible, ils doivent figurer sur la même page que le texte associé. Un opérateur de saisie des données disposant d’une bonne connais- sance de progiciels tels que Microsoft Office doit taper les tests, ques- tionnaires et autre matériel. Les secrétaires employées par les jurys d’examen possèdent une grande expérience, tant de la mise en page des questions et des graphiques qui les accompagnent, que de la 40 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES sécurité des tests. Les mesures d’économies qui peuvent être prises à ce stade comprennent : • L’organisation des carnets de test pour qu’ils contiennent un nombre pair de pages. • Une relecture minutieuse des tests, en particulier de leur version finale, avant impression peut prévenir une réimpression pour erreurs typographiques ou graphiques graves. • L’octroi de suffisamment de temps à l’imprimeur chargé des tests et questionnaires afin d’éviter de payer des heures supplémentaires lorsque le travail doit être achevé dans un délai relativement court ou lorsque l’imprimeur a d’autres priorités. Trois personnes doivent relire de manière indépendante la version finale avant impression de l’ensemble du matériel utilisé dans l’éva- luation nationale. Ce système est préférable à celui où un même cor- recteur examine chaque document à trois reprises. La commande des tirages doit prévoir des copies supplémentaires pour chaque établis- sement, en prévision du remplacement éventuel de l’établissement ou d’une détérioration du matériel. Le volume 2 de cette série, Mettre au point les tests et questionnaires pour une évaluation nationale des acquis scolaires, consacre une section complète à la mise en page et à l’impression. LA PRÉPARATION DES ÉTABLISSEMENTS Les responsables des équipes d’évaluation nationale qui se veulent efficaces planifient avec soin et suffisamment à l’avance l’administra- tion des tests dans les établissements. Ils délèguent le travail tout en conservant le contrôle global du processus de préparation à l’aide de mesures de contrôle de la qualité, en particulier la vérification ponc- tuelle du travail d’autrui. L’emballage Des procédures d’emballage doivent être mises en place et documen- tées. L’encadré 3.2 en fournit un exemple. Une liste de contrôle est PRÉPARATION À L’ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS | 41 également nécessaire. Un membre de l’équipe d’évaluation nationale doit signer et dater les cases prévues dans les colonnes « emballé » et « renvoyé » de cette liste de contrôle. L’agent de liaison scolaire doit en faire de même dans la case de la colonne « reçu », après avoir vérifié le matériel envoyé par l’équipe d’évaluation nationale. Le tableau 3.2 présente la copie d’une liste de contrôle utilisée lors de l’évaluation en Afrique du Sud. La livraison Les conditions locales déterminent le mode le plus approprié et le plus économique de livraison et de collecte du matériel ENCADRÉ 3.2 Emballage des instruments Exemple de procédure courante d’emballage des instruments : • Grouper les carnets par unités de 20. • Disposer les unités dans l’ordre avant de les mettre dans des enveloppes. • Vérifier manuellement un certain nombre d’unités lorsque les carnets sont comptés à la machine. • Ajouter des tests supplémentaires pour couvrir les imprévus (par exemple, des élèves supplémentaires). • Utiliser un matériel d’emballage solide, mais abordable (par exemple, des enveloppes en plastique). • Enregistrer le contenu de chaque paquet et apposer la signature de l’emballeur sur les feuilles lors de l’emballage de chaque série. • Étiqueter chaque paquet clairement et en gras. • Ajouter un autocollant de couleur ou une marque pour montrer que l’emballage est terminé. • Étiqueter chaque carton sur au moins deux côtés. • Préparer une liste de contrôle de l’emballage (voir le tableau 3.2) pour permettre aux administrateurs de test de vérifier qu’ils disposent de tout le matériel nécessaire. • Faire un colis avec tout le matériel nécessaire pour chaque établissement. • Placer le matériel destiné à un district dans un carton ou un sac solide. 42 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU 3.2 Liste de contrôle de l’emballage Nombre Article Emballé Reçu Renvoyé 40 Carnets pour les élèves 40 Questionnaires pour les élèves 45 Crayons 45 Gommes 5 Carnets supplémentaires 5 Questionnaires supplémentaires 45 Élastiques 3 Enveloppes-réponses 2 Formulaires d’administration des tests 1 Formulaire de suivi des élèves d’évaluation nationale. Dans certains cas, celui-ci est livré à des bureaux centraux sécurisés (par exemple, les bureaux de l’éducation des districts ou des collectivités locales), et les administrateurs de test vont les chercher en utilisant les transports en commun. Dans d’autres cas, lorsqu’il existe des systèmes de livraison sécurisés et fiables, le matériel est livré au domicile des administrateurs de test. Dans d’autres cas encore, des équipes d’administrateurs voyagent ensemble dans une camionnette et sont déposés dans les établissements avec le matériel nécessaire. Le manuel d’administration des tests Pour plus d’efficacité et pour limiter le nombre de documents que les administrateurs de test doivent porter, les informations clés relatives au calendrier, à la préparation des élèves, à l’emballage et au renvoi des tests et questionnaires, ainsi que les instructions pour l’adminis- tration doivent être rassemblées dans un seul manuel d’administra- tion de test. Les instructions à lire à haute voix aux élèves doivent être en grands caractères gras. La personne chargée de la formation des administrateurs de test doit passer en revue la totalité du manuel avec un échantillon d’administrateurs de test avant la formation officielle des autres administrateurs sélectionnés. Quelle que soit la PRÉPARATION À L’ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS | 43 qualification déclarée, les administrateurs de test ne doivent pas par- courir le manuel tout seuls. Dans le volume 2, Mettre au point les tests et questionnaires pour une évaluation nationale des acquis scolaires, la rédaction du manuel d’administration de test est décrite en détail. Le lieu de formation Le lieu de formation des administrateurs de test dépend principale- ment de la taille du pays et du nombre d’administrateurs. Autant que possible, il est préférable de dispenser la formation dans un lieu cen- tral. Si le pays est vaste, la formation peut être organisée à plusieurs endroits. CHAPITRE 4 ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS Ce chapitre présente le rôle de l’administrateur de test. Il décrit ensuite les problèmes fréquemment rencontrés lors des tests ainsi que les procédures pour améliorer leur qualité. L’ADMINISTRATEUR DE TEST Lorsqu’ils sont extérieurs à l’établissement, les administrateurs de test doivent suivre les procédures classiques régissant les visites scolaires, notamment rendre des comptes au chef d’établissement, le cas échéant. Dans certaines évaluations nationales, les tests ont lieu simultané- ment dans tous les établissements, généralement sur un ou deux jours. Dans d’autres, les administrateurs de test se déplacent d’un établisse- ment à l’autre sur une courte période. Dans ce cas, des mesures doivent être prises pour garantir la sécurité du matériel de test et s’assurer qu’aucune information sur les tests n’est échangée entre les établisse- ments. La tentation d’obtenir des renseignements avant les tests peut être particulièrement forte dans les systèmes éducatifs ayant une tra- dition de tests à enjeux élevés, car certains enseignants peuvent avoir 45 46 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES l’impression qu’eux-mêmes ou leurs établissements sont évalués. Cette situation peut se présenter même lorsque la lettre initialement envoyée aux établissements et les annonces dans les médias men- tionnent clairement que c’est le système éducatif dans son ensemble qui est évalué, et non les enseignants ou établissements individuels. Lorsque les administrateurs de test se déplacent vers une région pour faire passer les tests en une semaine dans un certain nombre d’éta- blissements d’une même localité, ils ne transportent en principe quoti- diennement que le matériel dont ils ont besoin pour l’épreuve du jour. L’équipe d’évaluation nationale doit veiller à ce que chaque admi- nistrateur de test possède, ou ait accès à un instrument de chronomé- trage à utiliser pendant les tests. Lors d’une évaluation nationale qui avait négligé ce détail, près de 50 % des administrateurs de test ne disposaient d’aucune montre ou horloge pour les tests. Le rôle de l’administrateur de test pendant les épreuves est décrit dans le volume 2 de cette série, Mettre au point les tests et questionnaires pour une évaluation nationale des acquis scolaires. Les aspects liés aux ins- tructions pour les tests, au niveau d’assistance apportée aux élèves, aux délais, et au matériel autorisé sur le lieu des tests sont abordés dans ce volume. L’administrateur de test est chargé de s’assurer que les enseignants n’aident pas les élèves et que les élèves ne copient pas les uns sur les autres ou n’apportent pas de matériel non autorisé dans la salle. Les conditions de l’établissement dicteront la disposition des sièges. L’administrateur de test doit vérifier avant l’épreuve qu’aucun livre ou autre document ne se trouve sur ou dans les bureaux. Les possibi- lités de copier sont réduites lorsque l’évaluation nationale utilise plu- sieurs versions du test et que les élèves assis l’un à côté de l’autre ne reçoivent pas la même. Le formulaire de suivi des élèves La conception d’une évaluation nationale détermine le mode de sélec- tion des élèves au sein d’un établissement. Si la sélection d’une classe complète a été décidée, le centre d’évaluation nationale peut la choisir avant le test ou bien des instructions peuvent être fournies à l’admi- nistrateur de test quant à son mode de sélection. Si la conception de ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS | 47 l’évaluation précise que les élèves doivent être sélectionnés dans toutes les classes du niveau concerné, de nouveau, soit le centre d’éva- luation nationale le fait avant le test soit l’administrateur de test reçoit des instructions sur la façon de procéder. Pendant les tests, l’administrateur de test doit remplir un formu- laire de suivi des élèves, qui est envoyé aux établissements avec les carnets de test et les questionnaires. Les informations de ce formulaire seront utilisées lors du nettoyage et de l’analyse des données (par exemple, pour la pondération des données). Les renseignements enregistrés dans le formulaire de suivi comprennent généralement le nom de chaque élève, son identifiant (ID), sa date de naissance, son sexe et sa présence à chacune des sessions de test et, le cas échéant, aux sessions de remplacement (voir l’encadré 4.1). Si le test nécessite plus d’une session, la présence de l’élève doit être notée pour chacune d’entre elles. ENCADRÉ 4.1 Formulaire de suivi des élèves Nom de l’établissement _______________________________________________ ID de ID de la l’établissement classe Nom de la classe Année Session de Nom de ID de Date de Aban- remplace- l’élève l’élève naissance Sexe Exclu don Session ment 48 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Le formulaire repris dans l’encadré 4.1 comprend une colonne qui identifie les élèves exclus. Ces élèves peuvent souffrir d’un handicap, être des immigrants récents ou ne pas bien connaître la langue utilisée dans le test, et sont excusés au motif que l’évaluation serait injuste pour eux. Le formulaire comprend également une colonne identifiant les élèves en abandon scolaire, c’est-à-dire ceux figurant dans la popu- lation identifiée au début de l’année scolaire, mais qui ont ensuite cessé de fréquenter l’établissement. Le renvoi des instruments L’administrateur de test doit s’assurer que tous les tests et question- naires, utilisés ou non, sont conservés en sécurité et renvoyés au centre d’évaluation nationale. Cette étape est importante, car les items et, dans certains cas, un test complet peuvent être réutilisés dans une évaluation nationale ultérieure. Si certains enseignants et élèves y ont accès, la crédibilité de l’évaluation ultérieure sera com- promise. Les papiers ou les brouillons utilisés par les élèves pendant les tests doivent également être renvoyés au centre d’évaluation nationale. Des instructions d’emballage doivent être fournies aux administrateurs de test (voir l’encadré 3.2). Les méthodes de renvoi du matériel sont très souvent les mêmes que celles utilisées pour la livraison. Des instructions claires doivent être fournies sur la façon d’organi- ser le retour au centre d’évaluation nationale. Un vaste espace y est nécessaire pour accueillir les instruments renvoyés. Ceux-ci doivent être triés et placés sur des étagères clairement étiquetées. Les tests et questionnaires doivent être conservés de façon à être facilement accessibles lors de la saisie et du nettoyage des données. Tous les retours doivent être consignés dans un livre spécial ou dans une base de données informatique (et non sur une feuille de papier). LES PROBLÈMES COURANTS LIÉS AUX TESTS La nature et l’ampleur des problèmes associés à l’administration d’une évaluation nationale varient généralement d’un pays à l’autre. ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS | 49 Plus le problème est grave, plus il nuit à l’ensemble de l’exercice. Dès le départ, l’équipe d’évaluation nationale doit s’assurer que les éta- blissements de l’échantillon seront bien ceux dans lesquels les élèves seront évalués. Dans un pays, après la constitution de l’échantillon national, des responsables de district ont insisté pour que différents groupes politiques soient représentés dans la sélection finale. Certaines équipes ont découvert des établissements « fantômes » (fictifs) dans les données nationales de certaines sources utilisées pour l’échantil- lonnage. L’administrateur de test et l’agent de liaison scolaire doivent vérifier que les élèves qui passent les tests sont effectivement ceux qui ont été sélectionnés pour participer. Des listes scolaires ou des don- nées sur les inscriptions peuvent être gonflées, en particulier lorsque celles-ci déterminent les subventions scolaires. Il n’est pas rare que les enseignants veuillent remplacer des élèves parce que « seuls les élèves médiocres ont été sélectionnés ». Les problèmes suivants ont également été identifiés lors des tests : • Date du test incompatible avec un événement scolaire. • Élèves quittant l’établissement entre deux parties du test. • Enseignants et élèves arrivant en retard. • Enseignants, voire le chef d’établissement, insistant pour rester dans la salle pendant le test. • Nombre insuffisant de sièges adéquats pour le test. • Non-respect du temps accordé pour le test. • Administrateurs de test ou autres personnes aidant les élèves. • Copiage entre les élèves. De faibles taux de participation Un niveau élevé de participation est nécessaire pour qu’une évalua- tion nationale fournisse des informations valables sur la performance des élèves dans le système éducatif. Les études de l’Association inter- nationale pour l’évaluation du rendement scolaire (IEA – International Association for the Evaluation of Educational Achievement) exigent, par exemple : a) un taux de participation des établissements et des élèves d’au moins 85 % ; ou b) un taux combiné (produit des taux de parti- cipation des élèves et des établissements) de 75 % (voir partie IV). 50 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES L’IEA fixe également le plafond des exclusions (pour des raisons telles que l’éloignement de l’établissement ou l’invalidité) à 5 % de la population cible souhaitée. Dans un pays, pour tenter d’améliorer la coopération des établissements, des sessions de remplacement ont été organisées à une date ultérieure pour les élèves absents lors de la première session. Cette expérience suggère que les élèves et les éta- blissements ont tendance à coopérer davantage lorsqu’ils réalisent que les administrateurs de test reviendront jusqu’à ce que tous les élèves sélectionnés aient passé le test. L’ASSURANCE QUALITÉ Pour contrôler la qualité des tests, l’administrateur de test doit remplir un formulaire d’administration des tests (encadré 4.2) à la fin de son intervention dans chaque établissement. Ce formulaire permet de suivre dans quelle mesure les procédures administratives requises ont été suivies. Pour mieux vérifier si les tests respectent les procédures prescrites, de nombreuses évaluations nationales désignent un petit nombre d’agents du contrôle qualité pour effectuer des visites inopinées dans les établissements. Tous les administrateurs de test savent qu’ils peuvent être contrôlés, mais en pratique, seuls 10 à 20 % des établis- sements sont visités. Le personnel du contrôle qualité doit bien connaître l’objectif de l’évaluation nationale, la conception de l’échantillonnage et son importance, les rôles du coordinateur scolaire et de l’administrateur de test, le contenu des tests et ques- tionnaires, et le dossier des observations en classe. Ils doivent être informés pour mener des visites dans les établissements sans interrompre les tests. Pour chaque établissement visité, ils doivent remplir un formulaire sur les conditions administratives et autres. L’encadré 4.3 donne des exemples d’activités pour lesquelles des informations sont enregistrées dans le formulaire utilisé par l’étude TIMSS (Tendances de l’enquête internationale sur les mathéma- tiques et les sciences). ADMINISTRATION DES TESTS DANS LES ÉTABLISSEMENTS | 51 ENCADRÉ 4.2 Formulaire d’administration des tests Remplissez un formulaire par session de test. Nom de l’administrateur de test : ___________________________________________________ ID de l’établissement : ____________________________________________________________ Nom de l’établissement : _________________________________________________________ Nom de la classe : _______________________________________________________________ Agent de liaison de l’établissement : _______________________________________________ Session de test initiale : ___________________________________________________________ Session de test de remplacement (le cas échéant) : ___________________________________ Date du test : ____________________________________________________________________ Horaire du test : _________________________________________________________________ Heure de début Heure de fin Détails Distribution du matériel de test Session 1 Session 2 Session 3 Session 4 1. Une circonstance particulière ou un événement inhabituel est-il survenu pendant le test ? NON _______________ OUI _______________ Veuillez préciser. 2. Les élèves ont-ils eu des problèmes particuliers avec le test (par exemple, questions trop difficiles, pas assez de temps, problèmes de langue, fatigue, manque de clarté des instructions) ? NON _______________ OUI _______________ Veuillez préciser. 3. Y a-t-il eu des problèmes avec le matériel de test (par exemple, erreurs, pages blanches, langage inadapté, omissions dans les formulaires de suivi des élèves, nombre insuffisant de tests ou de questionnaires) ? NON _______________ OUI _______________ Veuillez préciser. Source : TIMSS, 1998a. Réimprimé avec autorisation. 52 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES ENCADRÉ 4.3 Exemples d’éléments traités par les agents du contrôle qualité dans l’étude TIMSS 1. Activités préliminaires de l’administrateur de test L’administrateur de test a-t-il vérifié que la fourniture des carnets de test était correcte ? Tous les sceaux étaient-ils intacts sur les carnets de test avant leur distribution ? Y avait-il suffisamment de places assises pour que les élèves puissent travailler sans être dérangés ? L’administrateur de test disposait-il d’un chronomètre ou d’une minuterie ? L’administrateur de test disposait-il d’une quantité suffisante de crayons et autre matériel ? 2. Activités pendant les tests L’administrateur de test a-t-il rigoureusement suivi le script prévu pour a) la préparation des élèves, b) la distribution du matériel, et c) le début du test ? L’administrateur a-t-il correctement noté les présences ? La durée du test a-t-elle respecté le temps alloué ? L’administrateur de test a-t-il collecté les carnets de test un par un auprès des élèves ? 3. Impressions générales Pendant l’épreuve, l’administrateur de test a-t-il déambulé dans la classe pour s’assurer que les élèves travaillaient sur la bonne section du test et se comportaient correctement ? À votre avis, l’administrateur de test a-t-il traité les questions des élèves de manière appropriée ? Avez-vous constaté qu’un élève essayait de tricher pendant le test (par exemple, en copiant sur un voisin) ? 4. Entretien avec le coordonnateur scolaire Avez-vous reçu le colis d’items prévu ? Le coordonnateur national a-t-il été réceptif à vos questions ou préoccupations ? Avez-vous pu collecter les questionnaires complétés par les enseignants avant le test ? Êtes-vous satisfait des lieux (salle) alloués au test ? Pensez-vous que des séances de rattrapage seront nécessaires dans l’établissement ? Les élèves ont-ils reçu des instructions particulières, des discours de motivation ou des incitations pour les préparer à l’évaluation ? Avant l’épreuve, les élèves ont-ils eu l’occasion de s’exercer à des questions semblables à celles du test ? Source : TIMSS, 1998b. Réimprimé avec autorisation. CHAPITRE 5 TÂCHES À EFFECTUER APRÈS LES TESTS Ce chapitre décrit les tâches à effectuer après l’administration des instruments dans les établissements et après leur retour au centre d’évaluation nationale : correction des tests, enregis- trement des données, analyse des données et rédaction des rapports. LA CORRECTION DES TESTS Certaines évaluations nationales utilisent exclusivement des ques- tions à choix multiple et, pour certaines, les feuilles de réponses sont scannées électroniquement. D’autres évaluations combinent des items à choix multiple et à réponse ouverte, et corrigent manuelle- ment ces deux types d’items, ce qui prend un temps considérable. Si un test comprend plus d’un type de questions, l’ordre de correc- tion ou de notation doit être décidé. Quel que soit l’ordre choisi, la correction pour une région (état ou province) est généralement ache- vée avant de passer à la région suivante. Idéalement, le matériel pré- sent dans une salle à un moment donné doit être limité à une seule région. Quand une région est terminée, les tests corrigés sont envoyés à la saisie des données. 53 54 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Le suivi du nombre d’instruments corrigés manuellement ou intro- duits dans une base de données pour être corrigés électroniquement en une heure permet d’estimer la durée probable du processus. Cette méthode aide également à obtenir une estimation raison- nable du coût. Un formulaire simple (tel que celui de l’exemple pré- senté dans l’encadré 5.1) permet de suivre la vitesse et l’exactitude de la correction de l’ensemble des tests d’un établissement. L’utilisation de guides de notation L’équipe de développement des tests prépare les guides de notation (correction). Ceux couvrant les questions ouvertes doivent préciser clairement les types de réponses acceptables et ceux qui ne le sont pas. Les guides peuvent éventuellement être légèrement modifiés après les tests si certains élèves ont donné des réponses non réperto- riées pendant le développement des tests. En pareil cas, la modifica- tion du guide ne doit pas être laissée à la discrétion des correcteurs ou des opérateurs de saisie des données. L’équipe de développement des tests est l’ultime responsable de la décision d’accepter ou non les réponses inattendues à un item ouvert. Un guide pour la correction, qui doit être finalisé avant le début du processus de correction, doit être fourni séparément pour chaque langue utilisée dans l’évaluation. Le CD qui accompagne le volume 2, Mettre au point les tests et ENCADRÉ 5.1 Formulaire de suivi des instruments Nom de l’établissement : _____________________________________________ Numéro de l’établissement : ________________ Nombre d’instruments A : ________________ Nombre d’instruments B : ________________ Heure de début : ________________ Heure de fin : ________________ Nom et code du correcteur : __________________________________________ Nom et code du responsable de la qualité : _____________________________ TÂCHES À EFFECTUER APRÈS LES TESTS | 55 questionnaires pour une évaluation nationale des acquis scolaires, contient des exemples de guides utilisés pour la correction des items. La correction Les correcteurs et le personnel de saisie des données doivent disposer de suffisamment d’espace pour être confortablement assis. Compte tenu des volumes à manipuler, il est important de disposer d’un système clair pour traiter le matériel en évitant tout encombrement. Permettre à deux correcteurs de travailler côte à côte s’est avéré plus efficace et donne lieu à moins de bavardage pendant la correction. Cela permet également à un correcteur de discuter de certains problèmes avec son collègue. La salle de correction doit disposer de suffisamment de tables, et des caisses doivent être prévues pour le rangement des tests corrigés avant leur expédition vers l’enregistrement des données. Le coordonnateur national assume la responsabilité ultime de la qualité de la correction des items. Il ou elle doit mettre en place une procédure d’assurance qualité pour garantir l’exactitude et la cohé- rence de la correction. Cette procédure implique une seconde correc- tion d’un échantillon de tests, dont la taille peut varier d’une évaluation nationale à l’autre. Dans certains cas, les correcteurs en chef contrôlent 50 % des carnets de test, tandis que, dans d’autres, seulement 10 % des carnets sont contrôlés. Les facteurs à prendre en compte pour déterminer la taille de l’échantillon du contrôle qualité sont, notam- ment, l’expérience des correcteurs, le nombre d’élèves évalués, le temps disponible et la taille du budget. Les réponses aux items de test corrigés par ordinateur peuvent être saisies deux fois et les résultats comparés. Dans une évaluation nationale, les correcteurs ont corrigé les réponses aux questions à choix multiple directement dans les carnets de test. Pour les items ouverts, 100 % des items ont été vérifiés. Dans une autre évaluation, les scores étaient enregistrés sur une fiche de contrôle séparée, et un collègue corrigeait ensuite les mêmes items sans connaître les scores attribués par le correcteur précédent. Les deux notes étaient ensuite comparées et les divergences résolues. La fiche de contrôle permettait également d’identifier les correcteurs commettant régulièrement de graves erreurs. 56 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Des pauses doivent être prévues dans le travail, car la qualité de la correction et de la saisie des données risque de se dégrader lorsque les correcteurs sont fatigués et peinent à se concentrer. Il faut également proposer des rafraîchissements adéquats. Dans une évaluation natio- nale, les correcteurs publics ont menacé de faire grève parce qu’on ne leur avait pas distribué de collations entre les repas. Dans certains cas, lorsque les items à choix multiple sont corrigés manuellement, il se peut que les correcteurs n’arrivent pas à lire ou comprendre certaines réponses ou qu’ils soient confrontés à des réponses doubles à un item donné. Plutôt que de reporter la résolu- tion de ce type de problèmes à l’étape d’enregistrement des données, les correcteurs doivent les résoudre et enregistrer leurs décisions. À défaut de consensus, le correcteur en chef prendra la décision finale. Lorsque des items à choix multiple sont corrigés par ordinateur, des procédures pour le traitement des réponses doubles doivent être prévues dans le programme de correction. L’ENREGISTREMENT DES DONNÉES L’attention aux détails et l’enregistrement minutieux des données contribuent à réduire le temps consacré au nettoyage des données et à la rectification des erreurs. Cette section énonce les principes généraux relatifs aux installations et au personnel nécessaires à l’enregistrement des données, à l’assurance qualité, au nettoyage et au stockage des données. Les procédures pour le nettoyage et la gestion des données sont décrites en détail dans la partie III de ce volume (voir également l’enquête TIMSS, 1998a). Les installations pour l’enregistrement des données Lors de la planification de l’enregistrement des données, il faut tenir compte du budget disponible et de la date pour laquelle les données sont requises. En calculant le temps nécessaire pour la saisie et la vérification des données de chaque test (par exemple, pour un car- net de test de mathématiques et un carnet de test de langue) et de chaque questionnaire (par exemple, le questionnaire des élèves et TÂCHES À EFFECTUER APRÈS LES TESTS | 57 celui des enseignants), on peut estimer le temps total nécessaire pour la saisie et la vérification de l’ensemble des données. Cette estimation donne une indication approximative du nombre d’opéra- teurs de saisie des données qui seront nécessaires pour achever la tâche en temps voulu. Après avoir déterminé le nombre de personnes nécessaires, un ordinateur doit être prévu pour chaque opérateur de saisie des don- nées, ainsi que pour leur superviseur. Idéalement, les ordinateurs doivent être reliés à un réseau. Certaines équipes d’évaluation natio- nale utilisent un logiciel personnalisé pour la saisie des données (tel que les programmes WinDem ou EpiData de l’Association interna- tionale pour l’évaluation des acquis scolaires). D’autres utilisent des progiciels de bases de données tels qu’Access et Excel. Des exemples de saisie des données avec Access sont présentés dans la partie III de ce volume. Les besoins en mobilier comprennent des sièges confortables pour les opérateurs devant passer de longues heures à saisir les données et de grandes tables pour l’organisation des tests et questionnaires. Chaque opérateur de saisie des données doit disposer d’un espace de travail suffisant pour les documents a) qui doivent être saisis ; b) qui doivent être enregistrés ; et c) problématiques à discuter avec le superviseur, le gestionnaire des données ou le responsable. Le personnel pour l’enregistrement des données Le gestionnaire des données joue un rôle crucial dans le processus d’enregistrement des données et doit être consulté en permanence. Il ou elle doit, si possible, participer à la sélection du personnel de saisie des données. Un gestionnaire des données compétent détecte en général les problèmes dus à de mauvaises pratiques de travail ou à l’inexpérience. Il doit être responsable de l’achat de matériel et de logiciels adéquats pour la saisie des données. Si pos- sible, l’équipe d’évaluation nationale doit employer des opérateurs de saisie expérimentés et méticuleux. Même si l’emploi d’un personnel inexpérimenté bon marché peut sembler économique, il peut s’avérer plus coûteux à long terme que le recrutement de professionnels. 58 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES L’enregistrement des données et l’assurance qualité Des modèles de saisie des données doivent être développés pour chaque instrument dès que ceux-ci sont au point. Le modèle est une matrice dans laquelle les données sont saisies. Ils peuvent prendre différentes apparences selon les logiciels d’enregistrement des don- nées. La partie III de ce volume présente de manière très détaillée comment créer et utiliser un modèle de saisie des données. Il est déconseillé de modifier un modèle une fois que l’enregistrement des données a commencé. Le personnel de saisie des données commet des erreurs. Dans le cadre de l’assurance qualité, l’équipe d’évaluation nationale doit fixer (lors de l’estimation des besoins budgétaires) le pourcentage (peut- être entre 6 et 10 %) de données de test qui sera saisi deux fois. Cette double saisie des données permet de déterminer si un problème éventuel est généralisé ou si la plupart des erreurs sont imputables à seulement quelques opérateurs de saisie. Le nettoyage des données Lorsque l’enregistrement des données est terminé, les tests et ques- tionnaires doivent être rangés selon un système parce qu’il peut être nécessaire de retrouver certains documents lors du nettoyage des données. Celui-ci, qui est traité en détail dans la partie III, est une composante fastidieuse, mais très importante du traitement des don- nées. Il vérifie que les données sont plausibles et que les scores et les catégories de réponses se situent dans des limites acceptables. Il constitue l’occasion de contrôler les réponses problématiques aux items des tests et des questionnaires. Les données peuvent également être contrôlées pour détecter des schémas suggérant des tricheries. Le stockage des données Une fois l’évaluation terminée, il peut être nécessaire de stocker les données pendant un certain nombre d’années. De nombreuses institutions de recherche considèrent une période de cinq ans de conservation des données appropriée. Dans certains pays, les tests et questionnaires sont numérisés et stockés sous forme électronique. TÂCHES À EFFECTUER APRÈS LES TESTS | 59 L’ANALYSE DES DONNÉES Cette section soulève certaines questions pratiques à caractère logis- tique qui peuvent avoir un impact sur la qualité et l’efficacité de l’analyse des données. Le volume 4, Analyser les données issues d’une évaluation nationale des acquis scolaires, traite de la production de statistiques sur les items et les scores aux tests, ainsi que sur la production de données pour les politiques. Un des membres de l’équipe permanente, doté de compétences avérées en statistiques, notamment en psychométrie, doit être respon- sable de l’analyse des données. D’autres peuvent l’assister. Bien que l’emploi d’un statisticien à temps plein ne soit pas toujours possible, les services d’un statisticien sont nécessaires à de nombreuses étapes du processus d’évaluation, depuis la conception initiale jusqu’à la rédaction des rapports. L’équipe d’évaluation nationale doit faire appel à un analyste des données pour la phase de pré-test de l’élaboration des items. Pendant celle-ci, les items de test sont administrés à un échantillon d’élèves semblable à celui qui subira finalement les tests. Le pré-test est traité plus en détail dans le volume 2 de cette série, Mettre au point les tests et questionnaires pour une évaluation nationale des acquis scolaires. L’analyste doit pouvoir utiliser des progiciels appropriés pour l’ana- lyse des résultats du pré-test. Avec les rédacteurs d’items et les spécia- listes des domaines d’évaluation, il ou elle participe à la sélection des items pré-testés à intégrer dans le test à administrer aux élèves. L’expérience montre que la sélection du matériel et de logiciels spécialisés appropriés ; la libération des fonds en provenance des pouvoirs publics, des bailleurs de fonds ou autres ; la commande de l’équipement et éventuellement des logiciels et leur installation et mise en service peuvent prendre un temps considérable. L’équipe d’évaluation nationale doit veiller à ce que des provisions budgé- taires soient faites pour l’achat et l’entretien du matériel et pour des fournitures telles que le papier et les cartouches d’encre. Idéalement, le matériel et le logiciel appropriés doivent être en place avant le pré-test. De nombreux organismes publics et universités ont accès à divers progiciels régulièrement mis à jour. Au moment de la rédaction du 60 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES présent document, parmi les applications les plus fréquemment utilisées, on peut citer SPSS (Statistical Package for the Social Sciences, un progiciel de statistiques pour les sciences sociales), utilisé de manière intensive dans le volume 4, Analyser les données issues d’une évaluation nationale des acquis scolaires ; SAS (Statistical Analysis Software – un logiciel d’analyse statistique) et STATISTICA. Outre les logiciels d’analyse des items et des tests, les logiciels spécialisés qui ont été développés pour cette série et sont présentés dans le volume 4, comprennent : • Iteman (http://www.assess.com/xcart/product.php?productid=541) • Conquest (https://shop.acer.edu.au/acer-shop/group/CON2/9) • Winsteps (dont une version gratuite, moins puissante, Ministep, est disponible sur http://www.winsteps.com/) L’analyste des données doit avoir accès à une imprimante haute vitesse de bonne qualité, qui sera nécessaire à divers moments, en particulier lors du nettoyage des données, de l’analyse des items et de l’analyse plus générale des données, ainsi que de la production de textes, tableaux, schémas et graphiques pour les rapports de l’évaluation. LA RÉDACTION DES RAPPORTS Le volume 5, Communiquer et utiliser les résultats d’une évaluation nationale des acquis scolaires, traitant la production des rapports de manière très détaillée, les paragraphes qui suivent se limitent à cer- tains aspects logistiques associés à cette tâche clé. Le coordonnateur national et l’équipe de base doivent planifier le rapport avant de réaliser les principales analyses, étant donné que ce plan peut aider leur orientation. Pour contribuer à développer l’appropriation et clarifier les analyses, il peut être utile de concevoir des tableaux factices et de vérifier si l’évaluation nationale peut four- nir des données pour chaque cellule. Les membres du comité direc- teur national et les principaux responsables des politiques peuvent fournir des avis précieux à ce stade et suggérer des intitulés pour les tableaux. Le tableau 5.1 présente un exemple de tableau factice basé sur les données d’un questionnaire. TÂCHES À EFFECTUER APRÈS LES TESTS | 61 TABLEAU 5.1 Tableau factice décrivant les caractéristiques des enseignants du primaire Plus haut niveau d’études Sexe Âge formelles atteint Au moins 2 années Moins 30 ans Secondaire Secondaire d’études de 30 et inférieur supérieur supérieures Province Femme Homme ans plus achevé achevé achevées A B C D Quelques semaines avant la publication des résultats, le coordon- nateur national doit demander à des collègues de confiance ou à certains utilisateurs clés probables de consacrer un certain temps à l’examen de la première version de chaque rapport (par exemple, le communiqué de presse, le rapport de synthèse, le rapport technique, le rapport destiné aux enseignants). Il peut s’agir de responsables des politiques de haut niveau du ministère de l’Éducation, de cher- cheurs, de formateurs des enseignants et d’autres parties prenantes clés. Des enseignants en exercice doivent être inclus, en particulier si des bulletins d’information basés sur les résultats sont distribués aux enseignants. L’équipe d’évaluation nationale doit examiner les commentaires reçus, éventuellement apporter des modifications et finaliser les rapports en vue de leur diffusion. L’équipe d’évaluation nationale doit veiller à ce que des provisions budgétaires soient prévues pour couvrir les coûts de la composition et de la préparation des tableaux, schémas et graphiques, ainsi que de l’impression des copies des rapports. L’équipe doit également coor- donner la préparation et la production des rapports finaux et s’assurer que les imprimeurs aient suffisamment de temps pour produire les versions des rapports pour une date prédéterminée. L’équipe doit cor- riger les épreuves des documents et vérifier par la suite que les modi- fications voulues ont bien été effectuées. L’expérience montre que, dans les pays en développement, entre la préparation de la première 62 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES version et la présentation officielle du rapport final, le processus peut prendre trois à six mois. L’équipe d’évaluation nationale doit prévoir une conférence de presse à la date de publication des résultats et y inviter les principales parties prenantes du secteur de l’éducation. Elle doit prévoir des provisions budgétaires pour les coûts liés la conférence de presse. Dans au moins un pays, les journalistes s’attendent à ce que leurs frais soient couverts par les organisateurs de ces événements. Si une équipe d’évaluation nationale souhaite que le ministre de l’Éducation ou tout autre responsable de haut niveau assistent à la présentation d’un rapport, elle doit les en informer suffisamment longtemps à l’avance, compte tenu de leur emploi du temps chargé. PA RT I E 2 MÉTHODE D’ÉCHANTILLONNAGE DES ÉTABLISSEMENTS Jean Dumais et J. Heward Gough La partie II décrit comment définir la population cible d’une évalua- tion nationale. Différentes approches d’échantillonnage sont abor- dées. Une grande partie de cette section est consacrée à la méthode pour la sélection d’un échantillon représentatif des élèves du système éducatif. L’accent est mis sur l’apprentissage par la pratique. Le lec- teur est guidé à travers les diverses méthodes d’échantillonnage en travaillant sur un ensemble de tâches présentées dans le texte et en utilisant les fichiers de données fournis dans le CD joint. Il peut com- parer ses solutions à celles présentées dans les captures d’écran figu- rant dans le texte. Les fichiers fournis contiennent les données de l’évaluation nationale d’un pays fictif, le Sentz. 63 CHAPITRE 6 DÉFINITION DE LA POPULATION D’INTÉRÊT Le présent chapitre introduit les expressions population cible et population ciblée, les premières composantes de la conception d’une enquête probabiliste. Les chapitres suivants décrivent la base d’échantillonnage (chapitre 7) et l’échantillonnage aléatoire (chapitre 8). La première tâche majeure consiste à identifier et définir la population à évaluer conformément aux objectifs de l’évaluation. Elle comprend la spécification des personnes (par exemple, les élèves, les enseignants, les assistants, les chefs d’établissement ou les parents) ou des objets (par exemple, tous les établissements ou seulement les établissements publics) à évaluer. La portée de l’étude aide à définir la population d’intérêt et à déterminer si les résultats peuvent être com- parés à ceux d’études similaires. La population cible souhaitée comprend toutes les unités d’intérêt, à savoir la population sur laquelle on cherche à obtenir de l’information et pour laquelle des estimations sont nécessaires. Dans une évaluation nationale, cette population peut être celle de tous les élèves de 5e année dans tous les établissements du pays ou de tous les élèves de 5e année inscrits dans les établissements publics uniquement. Une autre population cible souhaitée peut être tous les enseignants employés par les établissements primaires. 65 66 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Malheureusement, dans certains cas, des raisons pratiques empêchent d’évaluer certains éléments d’une population cible, auquel cas, on peut être amené à les exclure. Les motifs d’exclusion peuvent avoir trait au coût, à l’absence de routes, à l’isolement géographique (îles éloignées ou régions montagneuses), à des troubles civils, aux établissements comptant peu d’élèves ou aux enfants ayant des besoins spéciaux. Les éléments restants de la population constituent la population cible définie, à savoir la population que l’équipe d’évalua- tion nationale peut raisonnablement couvrir. Les études internatio- nales des acquis scolaires publient régulièrement des données sur les populations cibles souhaitée et définie de chaque pays participant. Les exclusions doivent être réduites au minimum et ne pas être utilisées comme moyen d’obtenir un échantillon de convenance. Les études internationales fixent régulièrement le plafond des exclusions à 5 % de la population cible souhaitée, et les données sur les pays qui ne respectent pas ce critère sont habituellement publiées avec une mise en garde. Dans une évaluation nationale, une situation semblable peut être mise en évidence par un commentaire tel que : « Les don- nées sur les établissements secondaires ruraux de la région y doivent être considérées avec précaution, car trois grandes régions isolées sont exclues de l’enquête ». Le comité directeur national doit jouer un rôle essentiel dans les décisions relatives à la population à évaluer. Il peut, par exemple, défi- nir la population cible souhaitée comme celle de tous les élèves ins- crits en 6e année à tout moment d’une année scolaire donnée ou de référence. Mais il peut aussi limiter la population cible définie aux élèves inscrits en 6e année à la date du 31 mai d’une année de référence, dans les établissements dont la 6e année compte au moins 10 élèves. Du point de vue logistique et budgétaire, l’évaluation des élèves de plus petits établissements peut serait irréalisable. Par ailleurs, le comité directeur peut être informé de l’abandon ou du déménagement de certains élèves de 6e année durant l’année scolaire. Il serait très diffi- cile alors de les trouver et de les évaluer. La figure 6.1 décrit une situation assez habituelle où la population cible souhaitée est définie (barre de gauche), puis réduite en omettant certaines catégories d’établissements (tels que les établissements éloi- gnés ou très petits ou les établissements desservant les enfants ayant DÉFINITION DE LA POPULATION D’INTÉRÊT | 67 FIGURE 6.1 Pourcentages des élèves dans les populations souhaitée, définie et atteinte 100 Pourcentage des élèves 75 50 25 0 Population Population Population nationale nationale nationale cible souhaitée cible définie atteinte (enquête) Établissements couverts Unités exclues au sein des établissements Établissements exclus des besoins spéciaux) pour donner lieu à une nouvelle population, la population cible définie (barre du milieu). La taille de cette popu- lation peut encore être réduite, notamment en trouvant les unités exclues (par exemple, les élèves ayant des besoins spéciaux) dans les établissements participants le jour du test, pour aboutir à la popula- tion atteinte (barre de droite). Le comité directeur national peut également souhaiter identifier des groupes d’intérêt infranationaux définis par exemple, sur la base de la région ou du sexe. Après avoir déterminé la population cible définie et d’éventuels sous-groupes d’intérêt, l’équipe d’évaluation nationale ou ses spécialistes de l’échantillonnage doivent constituer une base d’échantillonnage appropriée. CHAPITRE 7 CONSTITUTION DE LA BASE D’ÉCHANTILLONNAGE Ce chapitre présente l’outil constituant le fonde- ment de l’échantillonnage d’une enquête : la base d’échantillonnage. Il explique comment cette base et la population peuvent être très similaires ou complètement différentes, et expose les propriétés d’une « bonne » base. Il présente, enfin, l’évaluation de démonstration réali- sée au Sentz. LA BASE D’ÉCHANTILLONNAGE Une base d’échantillonnage idéale est une liste exhaustive, complète et à jour a) reprenant les élèves constituant la population cible définie et b) contenant une information permettant d’avoir accès aux élèves. Dans le cas d’une évaluation nationale des acquis scolaires, la disponi- bilité d’une liste de tous les élèves inscrits dans les années scolaires d’intérêt permet à l’équipe d’échantillonnage la sélection directe d’un échantillon d’élèves. Dans de nombreux pays, une telle liste complète et à jour est impos- sible à obtenir, même lorsque l’évaluation est réalisée par une adminis- tration publique centrale (telle que le ministère de l’Éducation). 69 70 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Ces pays devront avoir recours à d’autres sources d’information ou constituer leur propre base complète et à jour. Une alternative à cette liste exhaustive, complète et actualisée des élèves est la couverture partielle et à jour de la population cible. Il est possible d’avoir un accès indirect à la liste des élèves en sélectionnant, en premier lieu, les établissements et, ensuite, leurs élèves. En réalité, la liste des élèves n’est nécessaire que pour les établissements sélec- tionnés pour participer à l’évaluation nationale. Dans de nombreux pays, le ministère de l’Éducation ou une auto- rité équivalente est la principale source d’information pour la consti- tution de la base d’échantillonnage. Pour chaque établissement, cette liste comprendra vraisemblablement son identifiant national, son nom et son adresse, le nom du chef d’établissement, un numéro de téléphone, les différentes classes qu’il comprend, la taille de son per- sonnel, les élèves inscrits et peut-être sa source de financement et le type d’enseignement dispensé. En pratique, la base d’échantillonnage est généralement plus ou moins imparfaite suivant l’exactitude avec laquelle elle couvre la population cible définie. Il est possible que certaines de ses entrées ne correspondent pas aux unités réelles de la population cible. La base peut contenir plus d’établissements que la population réelle, une situation connue sous le nom de surreprésentation, qui se produit, par exemple, quand un établissement ferme ou fusionne avec un autre entre le moment de la création de la base et la collecte des données. Certains éléments de la population cible peuvent également être absents de la base (sous-représentation), par exemple, lorsqu’un éta- blissement n’est pas répertorié ou est classé à tort comme extérieur au champ de l’enquête. Les éléments réellement couverts par la base constituent la population à partir de laquelle l’échantillon de l’enquête est sélectionné, et elle est dénommée population ciblée. Les éléments essentiels d’une base d’échantillonnage sont présentés dans le tableau 7.1. Les bases d’échantillonnage peuvent prendre plusieurs formes. L’exemple qui suit est basé sur une population cible souhaitée com- posée de tous les élèves inscrits dans les établissements primaires à l’un ou l’autre moment de l’année scolaire de référence et sur une population cible définie composée de tous les élèves inscrits dans les CONSTITUTION DE LA BASE D’ÉCHANTILLONNAGE | 71 TABLEAU 7.1 Caractéristiques essentielles d’une base d’échantillonnage pour une évaluation nationale Élément Description Identification Chaque établissement doit être clairement identifié (par exemple, par son nom ou un numéro d’établissement unique). Communication L’équipe d’évaluation nationale doit disposer de renseignements lui permettant de contacter chaque établissement. Il peut s’agir de l’adresse postale, d’un numéro de téléphone ou des deux. En l’absence de telles informations, le contact peut nécessiter des visites directes sur le terrain, pour lesquelles il faut connaître la localisation géographique de l’établissement. Classification Si l’évaluation nationale l’exige à des fins d’échantillonnage, d’estimation ou de production des rapports, la base d’échantillonnage doit contenir des informations de classification des établissements (telles que la zone géographique, le groupe linguistique ou culturel, ou une administration publique ou privée). Mesures de la Des mesures de la taille, telles que le nombre des taille inscriptions ou des salles de classe, peuvent être nécessaires si l’échantillonnage implique des probabilités inégales. Mise à jour La base d’échantillonnage doit donner des détails sur le moment où l’information utilisée pour sa constitution a été obtenue ou mise à jour. Ce renseignement sera pris en compte en cas de répétition de l’évaluation nationale. établissements primaires au 31 mai de l’année de référence. Dans ce cas, la base d’échantillonnage était établie sur la liste du ministère de l’Éducation reprenant tous les élèves inscrits dans les établissements primaires au 15 avril de l’année de référence. Cette approche convient à condition que la liste soit mise à jour plusieurs fois par an. La popu- lation cible définie par cette base peut toutefois ne pas couvrir la population cible définie, car elle ne tient pas compte des départs et inscriptions intervenus après le 15 avril. Si la liste des établissements fournie par le ministère n’est pas à jour ou est incomplète, une autre approche doit être adoptée pour constituer la base d’échantillonnage. Une méthode de constitution des listes plus traditionnelle nécessitant davantage de main-d’œuvre sera peut-être requise, qui consiste à par- courir les rues et routes pour répertorier tous les établissements et 72 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES leurs élèves. Les systèmes modernes d’information de gestion de l’éducation, notamment ceux ayant une liaison informatique avec le ministère, facilitent considérablement la tâche de constitution de bases d’échantillonnage à jour. Lors de la constitution de la base d’échantillonnage, des numéros d’identification uniques doivent être attribués aux unités de celle-ci. Il est possible que ces identifiants existent déjà dans les fichiers sources du ministère ou d’une autorité équivalente. Lorsqu’ils sont officiels, ils doivent être conservés dans la base pour faciliter la communication avec le ministère sur les données fournies. Ces numéros peuvent tout à fait suffire pour les besoins de l’évaluation. À mesure que le travail de préparation progresse, des entrées et des types de données sont généralement ajoutés (par exemple, des informations sur les chefs d’établissement, les enseignants, les filières ou classes dans les établis- sements, et les élèves dans les classes). Chaque nouvelle unité doit être correctement identifiée lorsqu’elle est ajoutée à une base. Le but ultime est de disposer d’un ensemble d’identifiants permettant de localiser et suivre chaque individu et chaque établissement tout au long du processus d’évaluation. L’encadré 2.1 de la partie I donne des exemples de systèmes de numéros d’identification utilisés dans les évaluations nationales. ÉTUDE DE CAS DU SENTZ Le CD qui accompagne ce manuel fournit un certain nombre de fichiers contenant les données nécessaires pour la base et l’échantillon de l’étude de cas du Sentz. Une description sommaire des fichiers est disponible dans l’Annexe II.A. Suivez l’étude de cas (voir exer- cice 7.1) pour vous familiariser avec les étapes requises pour la conception et la sélection d’un échantillon en vue d’une évaluation nationale. Le Sentz est sur le point de se lancer dans un programme pluriannuel d’évaluation nationale des acquis scolaires. Au Sentz, la scolarité est obligatoire jusqu’à la fin du niveau 2 (cycle inférieur de l’enseignement secondaire) de la Classification internationale type de l’éducation – CITE (UNESCO, 1997). Le ministère souhaite connaître CONSTITUTION DE LA BASE D’ÉCHANTILLONNAGE | 73 le niveau des acquis des élèves à différents degrés du système éducatif, en commençant par la 8e année. Il a précisé que la compréhension de l’écrit devait faire partie de chaque évaluation. La première d’entre elles doit également évaluer la performance des élèves en mathéma- tiques et en sciences. Les évaluations ultérieures couvriront d’autres domaines du programme de cours. Le Sentz compte deux régions géographiques distinctes, le Nord-Est et le Sud-Ouest, séparées par la rivière Grand (voir la figure 7.1). La capitale du pays, Capital City, se trouve dans le Sud-Ouest. Le Nord-Est comprend trois provinces (provinces 1, 3 et 5) et 21 com- munes, contre 2 provinces (provinces 2 et 4) et 12 communes dans le Sud-Ouest. (Le terme commune regroupe les grandes agglomérations, les plus petites villes et les zones rurales composées de fermes et de petits villages.) Chaque province est divisée en une section urbaine et une section rurale, à l’exception de la province 4 du Sud-Ouest, qui ne compte qu’une unique section rurale. Chaque commune est classée comme urbaine ou rurale. Au Sentz, chaque enfant peut fréquenter un établissement local jusqu’au niveau 2 de la CITE (deuxième degré de l’éducation de base : cycle inférieur de l’enseignement secondaire). Les 227 établis- sements offrant un enseignement à ce niveau comptent 27 654 élèves, répartis en 702 classes de 8e année. Le niveau 3 de la CITE (cycle supérieur de l’enseignement secondaire) est offert dans les capitales régionales ; les niveaux 4 (enseignement postsecondaire non tertiaire) et 5 (premier cycle de l’enseignement supérieur) de la CITE ne sont disponibles que dans la capitale. Cette étude de cas fait la démonstration de deux plans d’échantil- lonnage. Le premier, un scénario basique de référence, est un échan- tillon aléatoire simple de 400 élèves tirés de la liste nationale. Ce nombre a été choisi parce qu’il correspond à la taille de l’échantillon cible réel de la plupart des évaluations nationales et internationales de l’éducation.1 Le répertoire SRS400 figurant dans le CD contient les fichiers réponses pour cet échantillon. Un plan d’échantillonnage aléatoire simple (EAS – SRS en anglais) est généralement impossible à mettre en œuvre en raison de l’absence d’une liste complète et à jour de tous les élèves éligibles. Par ailleurs, même lorsqu’une telle liste existe, un plan d’EAS est très coûteux étant donné qu’il implique EXERCICE 7.1 Démarrage Sur votre disque dur local ou serveur, créez un répertoire nommé NAEA SAMPLING (ou quelque chose de similaire). Créez-y cinq sous-répertoires : BASE FILES, MYSAMPLSOL (pour My Sampling Solutions – vos solutions), SRS400, 2STG4400 et NATASSESS (pour une évaluation réelle de l’échantillon national que nous utiliserons plus tard). Copiez les fichiers des sous-répertoires BASE FILES, SRS400, 2STG4400 et NATASSESS du répertoire SPSS VERSION du CD qui accompagne cet ouvrage. Vous utiliserez le répertoire MYSAMPLSOL pour enregistrer vos résultats à la fin d’un exercice. La structure de fichier proposée est donnée dans la figure II.A.1 de l’annexe II.A (page 78). Les différents exercices sont organisés de manière à vous permettre de travailler tout au long de l’étude de cas, en vous appuyant sur le travail déjà réalisé et enregistré dans MYSAMPLSOL. Vous pourrez toutefois toujours partir d’un des fichiers permanents (situés dans SRS400 ou 2STG4400) ; cela vous évitera d’effectuer des analyses sur des fichiers d’exercice incomplets ou inexacts. Pour éviter des efforts inutiles ultérieurement, prenez le temps de créer avec soin le répertoire NAEA SAMPLING et les sous-répertoires. Sauf instruction contraire, n’utilisez pas la sauvegarde automatique et n’écrasez pas les fichiers permanents des sous-répertoires. Vous devez désormais travailler à partir des fichiers situés sur votre disque dur ou sur le serveur. En cas de besoin, vous pouvez ouvrir les fichiers réponses figurant sur le CD pour vérifier votre travail. À mesure que vous progressez dans l’exécution des différentes tâches ou exercices, vous allez ouvrir, créer et stocker les fichiers correspondants sur votre disque local ou serveur. Notez que SPSS17a, y compris le module complémentaire Complex Samples, a été utilisé pour créer cette étude de cas, et que la présentation du menu ou les options peuvent être légèrement différentes dans les versions précédentes de SPSS. Le module optionnel Complex Samples de SPSS est nécessaire pour effectuer certains exercices. Les raisons motivant les choix de stratification, la répartition de l’échantillon, la stratégie de sélection de l’échantillon et un certain nombre d’autres concepts clés, ainsi que la terminologie et les abréviations associées, sont expliquées à mesure que ces concepts sont introduits. Le responsable de l’enquête du Sentz a pu obtenir du ministère de l’Éducation une liste des 227 établissements du pays comportant des classes de 8e année. La liste est organisée par région, province, densité (urbaine ou rurale), commune, et établissement. Chaque établissement de la liste a un numéro d’identification unique (Schoolid) composé avec la province (chiffre de gauche), la commune (deuxième chiffre), et l’établissement dans la commune (deux chiffres de droite). Par exemple, l’établissement identifié par le numéro 1413 est situé dans la province 1 et la commune 4. De même, pour chaque classe des établissements (dans ce cas, celles de 8e année), un numéro d’identification sera créé en ajoutant un chiffre à droite de l’identifiant de l’établissement : 14131, 14132, 14133, et ainsi de suite. Deux autres chiffres sont ajoutés pour identifier les élèves dans leur classe. Si, par exemple, la classe compte 43 élèves, vous aurez les élèves 1413101, 1413102..., 1 413143. Pour chaque établissement, le ministère a fourni le nombre de classes de 8e année (nbclass), le nombre total d’enfants inscrits en 8e année (taille de l’établissement ou school_size), et la taille moyenne des classes (avgclass). (suite) EXERCICE 7.1 (suite) Le fichier SCHOOLS.SAV est la base d’échantillonnage provisoire des établissements du Sentz. Vous pouvez l’ouvrir dans l’écran de visualisation de SPSS en suivant les instructions ci-dessous. Les mots clés et les instructions SPSS sont en minuscules. Pour lire la base des établissements, choisissez les options suivantes dans la barre de menu : File – Open – Data – Look in … \BASE FILES\SCHOOLS.SAV Open Assurez-vous que Data View et non Variable View est indiqué au bas de votre écran. Vérifiez l’enregistrement 6 (ligne 6). Vous devez voir que l’établissement 1202 se trouve dans la région du Nord-Est, la province 1 et la commune 2, et porte le numéro 2 dans cette commune. Il compte 3 classes pour un total de 153 élèves de 8e année et une taille moyenne des classes de 51,0 élèves (exercice – figure 7.1.A). FIGURE 7.1.A Données des établissements du Sentz Source : exemple dans le logiciel SPSS. SPSS ne permet pas d’ouvrir une session sans un ensemble actif de données. Pour pouvoir fermer l’ensemble de données SCHOOLS sans fermer SPSS, activez les commandes File – New – Data, et un ensemble de données vierge s’affiche sur l’écran. Revenez ensuite à l’ensemble de données SCHOOLS, puis cliquez sur File – Close pour fermer l’ensemble SCHOOLS. a. La version 17, utilisée ici, a été initialement publiée sous le nom SPSS. En 2009 et 2010, les nouvelles versions ont été publiées sous le nom Predictive Analytic Software (PASW). 76 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES FIGURE 7.1 Carte du Sentz Nord-Est Province 5 Province 1 Province 3 Province 2 Capital City Rivière Grand Province 4 Sud-Ouest de sélectionner les élèves dans un très grand nombre d’établissements à raison d’un ou deux élèves par établissement. L’administration des tests et le contrôle de la qualité absorberaient une grande partie du budget de l’évaluation nationale. L’exemple d’un EAS est donné ici essentiellement à des fins pédagogiques et pour permettre de compa- rer les résultats utilisant cette approche avec ceux d’un plan réel ou recommandé. Le deuxième plan, le plan recommandé, est le plan type utilisé en réalité dans la plupart des évaluations nationales. Les fichiers réponses correspondants se trouvent dans le répertoire 2STG4400, ainsi nommé parce que le plan est un échantillonnage à deux degrés d’une taille prévue de 4 400 élèves. Le plan comprend une stratification géographique ou administrative, dans le présent cas, les cinq provinces du Sentz. Le plan d’échantillonnage comprend la sélection initiale des établissements (degré 1) suivie par la sélection d’une classe par éta- blissement sélectionné (degré 2). Si les chercheurs souhaitent isoler CONSTITUTION DE LA BASE D’ÉCHANTILLONNAGE | 77 l’effet des enseignants sur la performance des élèves de celui de l’éta- blissement, plus d’une classe doit être choisie. S’ils ne s’intéressent qu’à l’effet de l’établissement, l’échantillon des élèves doit être sélec- tionné parmi tous ceux de l’année visée, indépendamment de leur classe. Pour des raisons budgétaires et pratiques, le Sentz a décidé d’étudier une classe complète par établissement. La taille souhaitée de l’échantillon d’élèves est basée sur l’information disponible sur la taille des classes, la corrélation intra-classe, les effets attendus du plan, ainsi que les besoins d’analyse et de rapports de l’évaluation. Au pre- mier degré, les établissements sont répartis au prorata du nombre d’élèves éligibles dans chaque province et sont sélectionnés à l’aide d’un échantillonnage systématique avec une probabilité proportion- nelle à la taille (PPS). Un échantillon aléatoire simple est ensuite constitué avec une classe complète par établissement. NOTE 1. Dans certaines grandes évaluations (telles que les Tendances de l’enquête internationale sur les mathématiques et les sciences ou TIMSS), les échelles psychométriques sont centrées sur 500 avec un écart type de 100 ; ensuite, pour une taille d’échantillon de 400, le coefficient de variation des scores estimés est d’environ 1 %, avec des intervalles de confiance pour la prévalence des caractéristiques inconnues de ± 5 points de pourcentage. CHAPITRE 8 ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE Ce chapitre décrit les éléments fondamentaux de la théorie de l’échantillonnage, y compris l’échantillonnage aléatoire et certaines de ses techniques les plus importantes telles que la strati- fication de l’échantillon, l’échantillonnage à plusieurs degrés et l’échantillonnage en grappes. Lorsque l’échantillon est appelé à fournir des estimations fiables et valables de certaines caractéristiques de la population, on utilise habi- tuellement l’échantillonnage aléatoire, parce qu’il permet d’en esti- mer la précision (variance de l’échantillonnage ou écart type). Ces caractéristiques peuvent s’exprimer sous forme de dénombrements (par exemple, le nombre d’enfants de 10 à 15 ans) ; de totaux (par exemple, le total des inscriptions dans les établissements secondaires du premier cycle) ; ou encore de proportions (par exemple, la propor- tion des enfants vivant dans des ménages dont le revenu annuel est inférieur au seuil national de pauvreté). Chacune de ces caractéris- tiques peut être estimée à partir d’un échantillon, pour autant qu’il ait été constitué à l’aide d’une stratégie d’échantillonnage aléatoire et de procédures de terrain appropriées et correctement mises en œuvre. L’échantillonnage aléatoire exige que chaque unité de la popula- tion d’intérêt (la population pour laquelle des estimations sont recherchées) ait une probabilité non nulle connue d’être prise 79 80 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES dans l’échantillon. Il n’exige pas que toutes les unités aient la même probabilité d’être sélectionnées, mais juste qu’elles aient toutes une chance de l’être. Dans une évaluation nationale, les unités concernées sont les élèves, leurs enseignants, leurs chefs d’établissement et leurs établissements. L’ÉCHANTILLONNAGE ALÉATOIRE SIMPLE (EAS) La stratégie d’échantillonnage où toutes les unités ont la même probabilité de sélection (également appelée probabilité d’inclusion) fait partie d’un groupe de stratégies appelées méthodes d’échantillon- nage avec probabilités égales. Imaginons une population d’intérêt composée de 10 établissements, et que le nom des établissements est écrit sur des feuilles de papier identiques placées dans une boîte. Après avoir été mélangées, deux d’entre elles en seront retirées. En théorie, chaque établissement a alors 2 chances sur 10, ou 1 chance sur 5, d’être sélectionné. Le point de départ de tous les plans d’échantillonnage aléatoire est un échantillonnage aléatoire simple (EAS). Il s’agit d’une méthode de sélection en une étape qui assure que chaque échantillon possible de taille n a une chance égale d’être choisi. Chaque unité de l’échantillon a, par conséquent, la même probabilité d’inclusion. Cette probabilité π est égale à n/N, où N est le nombre d’unités de la population et n la taille de l’échantillon. Dans l’exemple du paragraphe précédent, puisque n=2 et N=10, π=1/5. La figure 8.1 montre un échantillon aléatoire de 7 établissements constitué à partir d’une population de 45 établissements. L’échantillonnage peut se faire avec ou sans remplacement. Avec remplacement, il permet à une unité d’être choisie plus d’une fois ; cette méthode est rarement utilisée en pratique. Dans l’échantillon- nage sans remplacement, une fois qu’une unité (établissement ou élève) est sélectionnée, elle ne peut plus l’être une nouvelle fois. L’EAS avec remplacement et l’EAS sans remplacement sont pratique- ment identiques lorsque la taille de l’échantillon est une très petite fraction de celle de la population, parce que la possibilité qu’une même unité apparaisse plus d’une fois dans l’échantillon est très faible. ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 81 FIGURE 8.1 EAS sans remplacement d’établissements Remarque : N = 45 établissements ; n = 7 établissements (en gris). Généralement, l’échantillonnage sans remplacement donne des résul- tats plus précis et est plus commode sur le plan opérationnel. Pour un certain nombre de raisons, l’EAS seul n’est ni économique ni pratique dans les enquêtes nationales à grande échelle. Aujourd’hui, des logiciels tels que Excel ou SPSS (Statistical Package for the Social Sciences – un progiciel de statistiques pour les sciences sociales) offrent des outils pour constituer des échantillons. Ces outils peuvent avoir une portée soit limitée, comme Excel, soit assez large, comme SPSS. L’exercice 8.2 utilise l’EAS comme outil d’apprentissage pour constituer un échantillon de 400 élèves à partir d’une liste hypothé- tique d’élèves fournie à titre d’exemple. L’ÉCHANTILLONNAGE ALÉATOIRE SYSTÉMATIQUE (SYS) Dans l’échantillonnage aléatoire systématique (SYS), les unités sont choisies à intervalles réguliers dans la base. Un intervalle d’échantil- lonnage et un point de départ aléatoire doivent être fixés. Lorsque la 82 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES taille de la population N est un multiple de la taille de l’échantillon n, chaque kième unité est sélectionnée, avec un intervalle k égal à N/n. Des ajustements simples sont possibles lorsque N n’est pas un mul- tiple exact de n. Le point de départ aléatoire r est un nombre unique choisi au hasard entre 1 et k. Les unités sélectionnées sont donc : r, r + k, r + 2k…, r+(n–1)k. Comme dans l’EAS, chaque unité à une probabilité d’inclusion égale à 1/k, mais dans le SYS, toutes les com- binaisons de n unités n’ont pas une chance égale d’être sélectionnées. Le SYS ne peut choisir que des échantillons dont les unités sont séparées par k, et seuls k échantillons peuvent, par conséquent, être sélectionnés dans la population. Pour illustrer le SYS, supposons qu’un chercheur ait à constituer un échantillon d’établissements d’une taille n=12 dans une province dont la population a une taille de N=36 établissements. L’intervalle d’échantillonnage est de k = N/n = 36/12 = 3. Le chercheur choisit ensuite au hasard un nombre entre 1 et 3 pour la valeur de k, disons 1. Les établissements sélectionnés pour l’échantillon seront donc ceux numérotés 1, 4, 7…, 31 et 34. Dans une population d’une taille égale à 36, il n’est possible de tirer que trois échantillons SYS de taille 12, contre 1,2 milliard d’échantillons EAS de même taille. Le SYS peut être utilisé lorsqu’on ne dispose d’aucune liste des unités de la population à l’avance. En pareil cas, une base conceptuelle peut être constituée en sélectionnant chaque kième unité jusqu’à la fin de la population. Par exemple, supposons qu’une classe d’environ 50 élèves soit sélectionnée, mais qu’on ne dispose pas de liste des élèves de cette classe, et qu’un élève sur trois doive être sélectionné pour l’échantillon. L’administrateur de test peut recevoir un nombre aléatoire compris entre 1 et 3, par exemple 2. À son arrivée dans la salle de classe sélectionnée, l’administrateur commencera par un coin prédéterminé de la classe (par exemple, l’extrémité gauche de la pre- mière rangée) et choisira le deuxième élève, le cinquième, et ainsi de suite. S’il se trouve que la classe comporte 46 élèves, l’échantillon comprendra les élèves 2, 5, 8… et 44 (aucun élève ne porte un numéro supérieur à 46). Si la classe avait compté 54 élèves, la taille de l’échan- tillon aurait été étendue pour intégrer les élèves 47, 50 et 53. Cette technique est souvent utilisée lorsqu’un administrateur de test ou un enquêteur ne peut se rendre sur le terrain qu’une seule fois. ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 83 FIGURE 8.2 Échantillonnage aléatoire systématique des établissements Remarque : N = 45 établissements; n = 7 établissements (en gris); étape = 6 ; départ = 4. Notons que la partie « aléatoire » de l’échantillonnage est effectuée avant de visiter les établissements. La figure 8.2 montre un échantil- lonnage aléatoire systématique de 7 établissements choisis dans une population de 45 établissements. L’ÉCHANTILLONNAGE EN GRAPPES (EG) L’échantillonnage en grappes consiste à choisir de façon aléatoire des groupes complets (grappes) d’unités de population dans la base d’échantillonnage. Il est habituellement moins efficace statistique- ment que l’EAS parce que sa variance d’échantillonnage est plus éle- vée pour une taille d’échantillon donnée. L’EG présente néanmoins plusieurs avantages. Tout d’abord, il réduit considérablement le coût de la collecte des données, en particulier lorsque la population des établissements est fortement dispersée dans un vaste pays. Par exemple, une évaluation nationale utilisant un échantillon de 1 000 84 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES élèves de 3e année sera nettement moins onéreuse si 40 établisse- ments sont sélectionnés et que les élèves sont choisis à raison de 25 par établissement, que s’ils sont sélectionnés au hasard un peu partout sur l’ensemble du territoire. Deuxièmement, l’échantillon- nage d’unités individuelles dans la population n’est pas toujours pra- tique. Il est parfois beaucoup plus facile (ou imposé pour des raisons administratives) de sélectionner des groupes (ou grappes) d’unités de population (par exemple, des classes entières). Enfin, l’échantillon- nage en grappes favorise la production d’estimation (par exemple, la performance moyenne par classe ou par établissement). La figure 8.3 donne un exemple d’échantillon comprenant 3 grappes totalisant 19 établissements tirés d’une population de 45 établissements regroupés en 7 grappes. L’échantillonnage en grappes est un procédé en deux étapes. Dans un premier temps, la population est regroupée en grappes (des grappes naturelles telles que des établissements ou des classes peuvent FIGURE 8.3 Échantillonnage en grappes d’établissements Remarque : N=7 grappes (45 établissements) ; n=3 grappes (19 établissements = unité). ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 85 déjà exister). Ensuite, un échantillon de grappes est constitué, et toutes les unités des grappes sélectionnées sont intégrées dans l’enquête (par exemple, toutes participent aux tests). Le plan de l’en- quête peut déterminer la méthode à utiliser. Si les unités de popula- tion sont regroupées de façon naturelle, il est souvent plus facile de créer une base composée de ces groupes et de les échantillonner, que de tenter de créer une liste de toutes les unités de population indivi- duelles. Par exemple, une liste des établissements pourrait être la seule information dont dispose une équipe d’évaluation nationale. Dans la figure 8.3, chacun des sept rectangles délimités par des lignes continues représente une zone scolaire. Trois zones scolaires ont été sélectionnées à l’aide d’une méthode d’échantillonnage aléa- toire, et tous les élèves des zones sélectionnées (en gris dans la figure) doivent subir les tests. Cette méthode d’échantillonnage n’impose de visiter que trois zones géographiques de dimensions raisonnables pour un échantillon de 19 établissements. Par contre, tant l’EAS que le SYS aurait nécessité de visiter 7 établissements largement dispersés (voir les figures 8.1 et 8.2). Plusieurs considérations entrent en jeu lors d’un échantillonnage en grappes. Pour que les estimations soient statistiquement satisfai- santes, les unités d’une grappe doivent être aussi différentes que pos- sible. Si elles sont très semblables, elles auront tendance à fournir des informations similaires. Les unités d’une grappe ont malheureuse- ment souvent des caractéristiques proches et sont plus homogènes que des unités prises au hasard au sein de la population générale. C’est pourquoi, pour atteindre un même niveau de précision, la taille de l’échantillon devra normalement être plus grande dans l’EG que dans l’EAS. Certains établissements ou systèmes éducatifs organisent leurs classes en fonction de facteurs tels que la compétence perçue des élèves dans certaines disciplines du programme de cours. Un établis- sement peut, par exemple, avoir un nombre suffisant d’élèves à un niveau donné pour former trois classes. L’une d’elles pourrait regrou- per les élèves appelés à poursuivre des études en mathématiques ou en sciences (sur la base de leurs résultats au cours des années précé- dentes ou de l’intérêt qu’ils manifestent) ; une autre pourrait com- prendre les élèves ayant une aptitude ou une préférence pour les 86 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES sciences humaines, et une troisième pourrait rassembler les élèves peu susceptibles de poursuivre leurs études. En pareil cas, on peut s’at- tendre à ce que la plupart des élèves de la première classe aient de bons résultats aux tests de mathématiques, ceux de la deuxième classe, des résultats peut-être moins bons en mathématiques, mais bons en langues, et à ce que la performance des élèves de la troisième classe soit relativement faible dans ces deux disciplines. Un échantil- lonnage en grappes serait donc statistiquement inefficace : la sélection d’une classe entière pourrait suggérer que les élèves sont forts en mathématiques et faibles en langues, ou l’inverse ou faibles dans les deux disciplines. Dans une telle situation, un échantillonnage efficace devrait sélectionner des élèves dans chacune des classes de façon à améliorer les chances d’obtenir un aperçu équilibré de la performance des élèves de l’établissement. Il existe toutefois souvent des raisons pratiques (objectifs de recherche, contraintes administratives ou coût des tests) de sélectionner des classes complètes. Par exemple, un chef d’établissement peut souhaiter minimiser les perturbations dans son établissement pendant les tests ; un chercheur peut vouloir appliquer un modèle analytique particulier ou quantifier l’influence relative de l’établissement, des enseignants ou de la classe sur la performance individuelle. L’efficacité statistique de l’échantillonnage en grappes dépend de l’homogénéité des grappes, du nombre d’unités de population dans chacune d’elles, et du nombre de grappes échantillonnées. L’effet de regroupement, appelé aussi effet du plan d’échantillonnage, est une mesure classique de cette efficacité (en réalité, inefficacité). La valeur 1 signifie que le plan d’échantillonnage en question est aussi efficace qu’un EAS. Plus la valeur de l’effet du plan d’échantillonnage est élevée, moins l’échantillonnage est efficace. Pour obtenir des estimations d’un niveau de précision comparable, la taille de l’échantillon en grappes dont l’ef- fet du plan d’échantillonnage est égal à 5 devra être cinq fois supérieure à celle d’un échantillon aléatoire simple. La valeur de l’effet du plan d’échantillonnage dépend de deux fac- teurs : a) le nombre d’unités dans la grappe (dans notre cas, le nombre d’élèves dans la classe) ; et b) à quel point les élèves d’une même classe se ressemblent plus entre eux qu’ils ne ressemblent à ceux des autres classes ou autres établissements en ce qui concerne la (ou les) ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 87 variable(s) à évaluer. Cette deuxième caractéristique est appelée corrélation intraclasse ou taux d’homogénéité (roh pour rate of homoge- neity). Pour les scores des tests de mathématiques, la variable de l’éva- luation considérée comme la plus importante dans notre exercice d’évaluation nationale au Sentz, cette corrélation intraclasse s’élève souvent à 0,25, voire 0,30. La valeur du roh serait probablement différente pour d’autres variables. Le personnel responsable de l’échantillonnage ou des statistiques pour une évaluation nationale doit utiliser la formule suivante pour cal- culer l’effet du plan d’échantillonnage (deff) (Kish, 1965 ; Lohr, 1999) : deff = (1 + roh × (M − 1)), où M est la taille de la grappe (classe) et roh est le taux d’homogénéité (ou corrélation intraclasse). Si roh = 0,25 et M = 35, deff = (1 + 0,25 × (35 − 1)) = 1 + 8,5 = 9,5. Les évaluations nationales des acquis précédentes de niveaux similaires ou adjacents peuvent fournir des estimations de roh. Si ces données ne sont pas disponibles, des estimations peuvent être tirées des résultats d’examens publics ou « être empruntées » à des évalua- tions conduites dans un pays voisin ayant des caractéristiques éduca- tives similaires. Lorsque les unités voisines sont similaires, il est statistiquement plus efficace de choisir de nombreuses petites grappes plutôt que quelques grandes grappes. Dans le cas du Sentz, le plan recommandé est de sélectionner un certain nombre d’établissements, puis une grappe correspondant à une classe entière dans chaque établissement choisi. Essentiellement adoptée pour des raisons administratives, cette approche a un prix non négligeable en termes d’efficacité statistique, étant donné que les corrélations intraclasses et la grande taille des classes sont susceptibles d’entraîner des effets de plan d’échantillonnage assez élevés. LA STRATIFICATION Les EAS et SYS d’éléments et de grappes sont des méthodes simples et basiques de constitution d’échantillons aléatoires, mais elles ne sont pas nécessairement les plus efficaces. Une bonne stratégie 88 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES utilise souvent l’information disponible sur les unités d’intérêt en créant des groupes homogènes d’unités, appelés strates, et en appli- quant ensuite une méthode simple d’échantillonnage au sein des strates. Une équipe d’évaluation nationale peut organiser l’échantillon- nage de façon à ce que des groupes d’unités particuliers ou des régions spécifiques du pays soient couverts avec certitude. Des responsables des politiques peuvent, par exemple, souhaiter une estimation des acquis de l’apprentissage pour les provinces ou régions, ou des don- nées sur différents groupes linguistiques, ou bien sur les grands et les petits établissements. L’équipe peut espérer que les tirages aléatoires produiront un nombre suffisant d’unités dans chaque province ou région pour permettre des estimations fiables. Alternativement, elle pourrait adopter une stratégie d’échantillonnage organisant d’abord la population des établissements en groupes (par exemple, par pro- vinces ou par groupes linguistiques) et sélectionner ensuite une partie de l’échantillon total dans chacun de ces groupes. Cette stratégie, appelée stratification, peut être utilisée avec n’importe quelle méthode d’échantillonnage aléatoire. La stratification occasionne un peu plus de travail au début de l’évaluation nationale, mais ses avantages l’em- portent souvent de loin sur ce travail supplémentaire. Dans les éva- luations nationales, les établissements sont stratifiés par localisation géographique, langue, appartenance religieuse, source de financement et degré d’urbanisation. L’expérience montre qu’une stratification sur la base de critères trop nombreux peut être contre-productive ; en fait, les exigences qu’impose une stratification fine augmentent souvent la taille de l’échantillon. De plus, le nombre d’unités qui finissent dans la « mau- vaise » strate peut augmenter avec le nombre de strates, en particulier lorsque celles-ci sont basées sur des informations moins stables ou fiables, telles que le nombre de membres du personnel ou d’inscrip- tions des élèves. En fonction de la situation, les évaluations nationales utilisent une ou plusieurs variables de stratification. La stratification peut améliorer l’efficacité tant statistique que générale, réduire la taille (et le coût) de l’échantillon, tout en maintenant le niveau de fiabilité. Elle exige tou- tefois la contribution d’un statisticien d’enquête ayant l’expérience ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 89 FIGURE 8.4 Échantillon aléatoire stratifié d’établissements Remarque : H = 3 strates ; N1 = 32 ; N2 = 5 ; N3 = 8 ; n1 = 2 ; n2 = 4 ; n3 = 2. de ce type de problème. La figure 8.4 montre un échantillon aléatoire stratifié de 45 établissements utilisant une variable de stratification à trois niveaux. Une population peut être stratifiée à l’aide de n’importe quelle variable pour laquelle des données sont disponibles pour toutes les unités de la base, avant l’évaluation. Cette information peut être aussi simple que l’adresse des établissements, qui permet une stratification par région géographique. Les variables de stratification habituelle- ment utilisées dans les enquêtes d’évaluation sont notamment la situation géographique (région, province ou commune) ; le type de financement (public ou privé) ; le type de programmes d’enseigne- ment (primaire ou secondaire, académique ou professionnel) ; ou encore le sexe des élèves (filles, garçons, mixtes). Trois raisons principales justifient la stratification. Premièrement, elle rend la stratégie d’échantillonnage statistiquement plus efficace que ne le fait l’EAS ou le SYS. Deuxièmement, elle contribue à assu- rer des tailles d’échantillon adéquates pour les domaines d’intérêt 90 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES destinés aux analyses ultérieures. Troisièmement, elle protège contre la constitution d’un « mauvais » échantillon. Les sections suivantes étudient de plus près chacune de ces raisons. Améliorer l’efficacité statistique Pour une taille d’échantillon et un estimateur donnés, la stratification peut réduire l’erreur d’échantillonnage ou, inversement, la taille de l’échantillon pour une erreur d’échantillonnage donnée. L’échantillonnage en grappes, tout comme la stratification, groupe les unités au sein de la population, mais dans l’échantillonnage stratifié, des échantillons d’uni- tés sont constitués au sein de chaque strate, tandis que dans l’échantillon- nage en grappes, on établit des échantillons de grappes et l’évaluation porte sur tous les individus appartenant à chacune de ces grappes. La stra- tification a généralement une précision d’estimation supérieure à celle de l’EAS, tandis que la formation de grappes la diminue (parce que les uni- tés voisines sont généralement similaires). Pour accroître l’efficacité statistique d’une stratégie d’échantillon- nage par rapport à l’EAS, les strates doivent être très homogènes (les unités doivent être similaires au sein de chaque strate en ce qui concerne la variable d’intérêt), et aussi différentes entre elles que possible (en ce qui concerne la même variable d’intérêt). De façon générale, ce but est atteint lorsqu’il existe une corrélation entre la variable d’intérêt de l’enquête et les variables de stratification (par exemple, la performance en compréhension de l’écrit et la situation rurale ou urbaine). L’exemple des trois classes (mathématiques, sciences humaines et abandons précoces potentiels) déjà employé pour l’échantillonnage en grappes peut être réutilisé. Supposons que la liste des classes par province puisse être organisée en trois strates correspondant aux trois types de classe. La sélection aléatoire de classes dans la première strate donnera en général des échantillons d’élèves forts en mathématiques, quelles que soient les classes sélectionnées. De même, la deuxième strate donnera une sélection d’élèves généralement faibles en mathé- matiques. Dans un échantillonnage aléatoire stratifié, l’échantillon tiré de chacune des strates donnera un résultat très représentatif de sa ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 91 strate et, lorsque les résultats seront combinés, on obtiendra une estimation précise pour l’ensemble de la province. La stratification peut augmenter la précision des estimations résul- tant d’un EAS. Comme l’explique Cochran (1977, 90), Si chaque strate est homogène (les mesures varient peu d’une unité à l’autre), une estimation précise de la moyenne d’une strate peut être obtenue à partir d’un petit échantillon de cette strate. Ces estimations peuvent ensuite être combinées en une estimation précise pour l’ensemble de la population. La stratification est particulièrement utile dans le cas de populations à distribution asymétrique (lorsque la distribution des valeurs d’une variable d’intérêt « penche » vers la droite ou vers la gauche). Par exemple, à la première étape, la base d’échantillonnage peut être une simple liste des établissements donnant des nombres d’inscriptions approximatifs, mais n’étant plus d’actualité. Dans ce cas, une estima- tion plus exacte du total des inscriptions peut être en soi un objectif de l’enquête. Si l’EAS est utilisé, un petit nombre d’établissements peut fortement influencer les estimations du total des inscriptions. La sélec- tion des plus grands établissements peut entraîner une forte surestima- tion du total. En stratifiant par taille (une strate pour les établissements de grande taille, une pour les établissements de taille moyenne, et une pour les établissements de petite taille), les établissements sélectionnés dans chaque strate ont de bonnes chances de représenter les autres établissements de taille semblable existant dans la population. La stratification par taille des établissements semble raisonnable lorsque l’objectif est d’obtenir une estimation de la taille de la popu- lation des inscrits. Par contre, elle ne sera pas recommandée si la variable d’intérêt est, par exemple, l’âge moyen des enseignants de mathématiques, étant donné qu’aucune raison ne laisse supposer qu’il existe une corrélation entre l’âge des enseignants et la taille de l’éta- blissement. Les variables de stratification sont fréquemment choisies sur la base de leur corrélation attendue avec les variables clés d’une évaluation nationale (telles que la langue ou les mathématiques). Notons qu’une approche de stratification statistiquement efficace pour une variable d’enquête peut très bien s’avérer moins efficace pour d’autres variables. 92 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Assurer la couverture du domaine d’intérêt Dans une évaluation nationale, les responsables des politiques peuvent souhaiter une estimation de la performance de sous-groupes de la population, appelés domaines, ainsi que de la population totale. Ils peuvent, par exemple, désirer comparer les niveaux de performances des élèves de différentes provinces ou régions, ou des garçons et des filles, ou encore des élèves fréquentant différents types d’établisse- ments (publics ou privés). L’estimation pour des sous-groupes s’appelle estimation par domaine. Lorsque des estimations par domaine sont requises, le plan d’échantillonnage doit veiller à ce que la taille des échantillons soit adéquate pour chacun des domaines. Idéalement, les strates devraient correspondre aux domaines d’intérêt. Éviter les « mauvais » échantillons La stratification permet d’éviter de constituer un échantillon « mau- vais » ou inhabituel. Dans l’EAS, la sélection de l’échantillon est entiè- rement laissée au hasard. L’échantillonnage stratifié tente de limiter les échantillons potentiellement extrêmes en veillant à ce que cer- taines catégories d’élèves figurent dans l’échantillon. Par exemple, si une évaluation nationale s’intéresse aux effets de la taille de l’éta- blissement sur les acquis des élèves, le plan d’échantillonnage peut comprendre une stratification par taille des établissements. Dans le cas du Sentz, l’équipe d’évaluation nationale a envisagé différentes options de stratification. La limitation de la base à deux régions, le Nord-Est et le Sud-Est, a été considérée comme inappro- priée parce qu’elle n’aurait pas fourni des informations suffisantes pour les responsables des politiques. L’équipe a donc opté pour une stratification par province (trois dans le Nord-Est et deux dans le Sud- Ouest). Le calcul des estimations régionales se bornerait ainsi à une simple addition alors que les estimations sont disponibles au niveau provincial. De plus, si les fichiers de chacune des strates provinciales sont triés par densité de commune (urbaine ou rurale) avant la sélection des établissements, un échantillonnage systématique (avec une probabilité égale ou une probabilité proportionnelle à la taille de la commune) ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 93 garantit que des établissements urbains et ruraux seront sélectionnés, donnant ainsi lieu à des estimations par domaine raisonnablement efficaces, dans le cas d’une comparaison ultérieure des établissements urbains et ruraux. L’équipe d’évaluation nationale a estimé qu’il n’était pas nécessaire d’utiliser directement les communes comme strates (ce qui aurait produit 33 strates, dont plusieurs ne contenant que deux établissements éligibles). LA RÉPARTITION DE L’ÉCHANTILLON ENTRE LES STRATES Après avoir divisé la population en strates, l’équipe d’évaluation nationale doit déterminer, avec l’assistance de son conseiller en échan- tillonnage, le nombre d’unités à échantillonner dans chaque strate. Cette étape s’appelle la répartition de l’échantillon. Les probabilités d’inclusion (la probabilité que l’unité soit choisie dans un échantillon) varient habituellement d’une strate à l’autre, car elles dépendent de la façon dont l’échantillon est réparti dans chaque strate. Dans la plupart des plans d’échantillonnage, la taille de l’échan- tillon et celle de la population de chaque strate doivent être prises en compte pour calculer les probabilités d’inclusion. À titre d’exemple, considérons une population de N = 1 000 établissements stratifiés en deux groupes, rural et urbain. Le groupe urbain (ou strate urbaine) compte N1 = 250 établissements et la strate rurale N2 = 750 établis- sements. Si l’EAS est utilisé pour tirer n1 = 50 établissements dans la première strate et n2 = 50 établissements dans la seconde, alors la probabilité qu’un établissement soit sélectionné dans la première strate vaut π1 = 50/250 = 1/5, et celle d’un établissement de la seconde strate est de π2 = 50/750 = 1/15. Les établissements ont donc des probabilités d’inclusion différentes selon leur situation ou strate. Dans ce cas, un établissement urbain a plus de chances d’être sélectionné qu’un établissement rural. La répartition de l’échantillon de l’évaluation nationale entre les strates peut être une tâche difficile. Lorsqu’on dispose d’un budget fixe et d’une connaissance limitée (voire nulle) des caractéristiques des unités d’intérêt, une grande partie de la théorie de la stratification et de la répartition optimale d’un échantillon est d’une faible utilité. 94 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Il est fréquemment nécessaire de tenir compte des considérations pratiques et de rechercher les conseils d’un expert pour concevoir une stratégie acceptable de répartition de l’échantillon. Deux stratégies de répartition de l’échantillon sont couramment utilisées : a) la répartition égale et b) la répartition proportionnelle. Dans la répartition égale, chaque strate reçoit le même nombre d’uni- tés d’échantillon ; cette méthode est recommandée pour les strates bien équilibrées. Dans la répartition proportionnelle, chaque strate reçoit une part de l’échantillon qui correspond à sa part dans la popu- lation ; cette méthode est l’option privilégiée lorsqu’on recherche avant tout des estimations nationales. La répartition égale ne convient pas aussi bien que la répartition proportionnelle pour les estimations nationales, mais est préférable lorsque des estimations par domaine sont requises et qu’il y a correspondance entre les strates et les domaines. La répartition égale peut également contribuer à ce qu’un nombre suf- fisant d’unités soit échantillonné dans chaque domaine ou strate. Lorsqu’on utilise la répartition proportionnelle, l’échantillon d’éta- blissements doit être réparti de façon à ce que le nombre d’élèves dans l’échantillon de chaque strate soit proportionnel au nombre d’élèves dans la strate. La mesure de la taille (MOS) de la population cible de certains établissements peut être égale à zéro. Ceux-ci doivent néanmoins rester dans la base s’il y a une chance que des élèves éligibles s’y inscrivent au cours de la période d’évaluation. Une valeur préliminaire de 1 doit être assignée à leur MOS et ils doivent être intégrés dans les totaux concernés. S’il n’y a virtuellement aucune chance que des élèves éligibles s’y inscrivent à temps pour l’évalua- tion, ils doivent être supprimés de la base d’échantillonnage. En général, lorsque les estimations doivent être produites par strate, le niveau de précision de l’échantillonnage doit être le même pour chacune des strates. Une telle précision requiert habituellement de tirer un nombre égal d’établissements dans chaque strate, quelle que soit sa taille. Chaque strate devant contenir au moins deux établisse- ments participants pour permettre d’estimer l’erreur d’échantillon- nage (voir l’annexe IV.C), le nombre d’établissements à sélectionner doit être ajusté pour la non-réponse anticipée. Les membres de l’équipe d’évaluation nationale chargés de l’échan- tillonnage ont pour responsabilité de veiller à ce que l’échantillon ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 95 d’établissements soit réparti correctement. Pour ce faire, il leur est conseillé de consulter un spécialiste de l’échantillonnage. On en trouve souvent dans des ministères autres que celui de l’éducation (par exemple l’office national des statistiques ou le ministère responsable des enquêtes nationales auprès des ménages). Un spécialiste de l’échantillonnage apporte une assistance pour des questions telles que le nombre d’éta- blissements que les strates doivent contenir ou la conduite à adopter lorsqu’une strate comprend très peu d’établissements. L’exercice 8.1 approfondit la notion de répartition entre les strates. D’autres stratégies d’échantillonnage nécessitant des informations beaucoup plus détaillées sur les unités individuelles dépassent la portée de ce chapitre. EXERCICE 8.1 Calcul de la taille des échantillons et répartition entre les strates Selon les informations les plus récentes reçues du ministère de l’Éducation du Sentz, la taille moyenne des classes est d’environ 37 élèves. L’expérience des collègues des pays voisins ayant des caractéristiques éducatives similaires suggère que la corrélation intraclasse avec le score de mathématiques (la principale variable cible) serait probablement comprise entre 0,25 et 0,30. Ce taux d’homogénéité correspond à un effet du plan d’échantillonnage compris entre 10 et 12. Pour le calcul de la taille de l’échantillon, l’équipe d’échantillonnage a choisi le point médian de cet intervalle, soit 11. Pour obtenir une taille d’échantillon efficace de 400 à l’aide de l’EAS, le plan d’échantillonnage doit donc disposer d’un échantillon de 4 400 élèves. Le plan impliquant de choisir une seule classe par établissement sélectionné, l’équipe doit donc choisir 4 400/37 = 118,9 établissements. Pour des raisons pratiques, ce chiffre est arrondi à 120 établissements. Le ministère de l’Éducation a demandé à l’équipe d’évaluation nationale d’optimiser la précision des estimations nationales. L’équipe a, par conséquent, utilisé une répartition de l’échantillon proportionnelle à la taille des strates (dans ce cas, les cinq provinces), exprimée par la MOS. Dans cette approche de répartition, le pourcentage des élèves dans l’échantillon prélevé dans chaque strate est à peu près le même que celui dans la population de chaque stratea. Les étapes SPSS suivantes vous permettront de : • Étudier l’information au niveau provincial. • Calculer les totaux provinciaux. • Calculer le total national. (suite) 96 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 8.1 (suite) • Calculer la répartition proportionnelle d’un échantillon de taille n = 120 établissements entre les strates (provinces). • Enregistrer ces informations pour une utilisation ultérieure. Commencez par ouvrir le fichier PROVINCES à l’aide des commandes suivantes : File – Open – Data – Look inb …\BASE FILES\PROVINCES.SAV Open Vous verrez la MOS totale (PROV_SIZE) des parties rurales et urbaines de chaque province. Le total national étant demandé, vous allez créer une variable fictive COUNTRY et lui donner la valeur 1, de la façon suivante : Sélectionnez Transform – Compute Variable. Saisissez COUNTRY dans Target Variable. Saisissez 1 dans Numeric expression, et cliquez sur OK. Sélectionnez Data – Aggregate. Déplacez ensuite COUNTRY PROVINCE dans Break variables. Déplacez ensuite PROV_SIZE dans Summaries of variables. Cliquez sur Function et sélectionnez Sum. Cliquez sur Continue. Cliquez sur Name & Label. Saisissez PROV_TOT dans le nom, et cliquez sur Continue. Cliquez sur Create a new dataset… et saisissez le nom, PROVTOT. Cliquez sur OK. Vous devez voir les données de PROV_TOT pour chacune des cinq provinces ; vérifiez les fenêtres de résultats, car les résultats pourraient apparaître dans une fenêtre différente Untitled [PROVTOT]. Le total PROV_TOT pour la province 2 = 4 448. Affichez l’ensemble de données PROVTOT que vous venez de créer, dans l’écran de visualisation. Sélectionnez Data – Aggregate. Déplacez ensuite COUNTRY dans Break variables et PROV_TOT dans Summaries of variables. Cliquez sur Function et sélectionnez Sum. Cliquez sur Continue. Cliquez sur Name & Label. Saisissez le nom COUNTRY_TOT puis cliquez sur Continue. Cliquez sur Add aggregated… et ensuite sur OK. Vous devez voir un total national de 27 654 dans l’écran Data View. L’ensemble de données PROVTOT contient maintenant le total national et les totaux provinciaux. La répartition provinciale des 120 établissements peut maintenant être effectuée, et les résultats enregistrés pour une utilisation ultérieure. Cet exercice utilise la fonction RND (arrondi) pour obtenir des nombres entiers. ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 97 EXERCICE 8.1 (suite) Sélectionnez Transform – Compute Variable. Saisissez ensuite ALLOC dans Target Variable. Saisissez RND(120*PROV_TOT/COUNTRY_TOT) dans Numeric expression. Cliquez sur OK. Le fichier contenant la répartition de l’échantillon ressemble maintenant à la figure 8.1.A ci-dessous : FIGURE 8.1.A Répartition de l’échantillon du Sentz Source : exemple dans le logiciel SPSS. Enregistrez ce fichier dans le répertoire MYSAMPLSOL en opérant comme suit : Sélectionnez File – Save as – Look in …\MYSAMPLSOL\ Saisissez SCHOOLALLOC comme nom de fichier. Cliquez sur Save. Cliquez ensuite sur File – Close. Vous pouvez maintenant fermer l’ensemble de données PROVINCES sans sauvegarder les changements que vous y avez apportés. a. Si le ministère ou le comité directeur a souhaité que la priorité soit accordée à certaines estimations infranationales (par exemple, les régions), une forme de répartition non proportionnelle peut s’avérer plus efficace, avec toutefois une précision légèrement moindre pour les estimations nationales. Une telle situation doit être discutée avec un statisticien expérimenté, car elle pourrait affecter les décisions de stratification. b. SPSS17 a été utilisé pour préparer tous les programmes et exemples. SPSS18 contient quelques changements mineurs ; il est possible que les détails de certaines fonctions ou rubriques du menu aient changé (par exemple, la commande « NEXT » n’est plus requise pour fermer certains sous-menus). En fonction des options sélectionnées pendant l’installation, SPSS18 peut compiler automatiquement un journal très utile reprenant toutes les procédures et tous les scripts utilisés. 98 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES L’ÉCHANTILLONNAGE AVEC UNE PROBABILITÉ PROPORTIONNELLE À LA TAILLE Il y a échantillonnage avec probabilités inégales lorsque les probabili- tés de sélection diffèrent d’une unité à l’autre. Par exemple, l’informa- tion sur les communes ou les établissements de plus grande taille peut être plus diversifiée, étant donné qu’ils ont plus d’élèves que les com- munes ou établissements de plus petite taille. Le conseiller en échan- tillonnage peut par conséquent accorder une priorité à des unités de plus grande taille, sous la forme d’une probabilité de sélection plus élevée. Dans certains cas, les communes ou établissements de plus petite taille peuvent fournir peu d’informations supplémentaires, avec des coûts de collecte des données parfois quasiment aussi élevés que pour les unités de taille plus importante. Pour des raisons d’éco- nomie, l’équipe d’échantillonnage peut être tentée de limiter l’échan- tillonnage aux unités de plus grande taille, voire de limiter la sélection aux 5 à 10 communes ou établissements les plus grands. En pareil cas, les unités de plus petite taille n’ont de fait aucune chance d’être sélec- tionnées. L’échantillon n’est donc plus un échantillon aléatoire de la population définie ou de la base d’échantillonnage disponible, étant donné que de nombreux établissements ont été exclus. Une autre approche consiste à adopter un plan d’échantillonnage avec probabilités inégales accordant aux unités de taille plus impor- tante une probabilité plus élevée que celle attribuée aux unités plus petites. Dans le cadre d’un tel plan, toutes les unités ont une chance d’être sélectionnées, mais les plus grandes et plus riches en informa- tions reçoivent un traitement préférentiel. En partant, par exemple, d’une population de 12 établissements, dont 4 de 100 élèves et 8 de 50 élèves, on peut constituer un échantillon d’élèves en sélection- nant les grands établissements avec une probabilité de 1/4 (100/400) et les plus petits avec une probabilité de 1/8 (50/400). Les établisse- ments de plus grande taille ont donc deux fois plus de chances d’être sélectionnés que ceux de taille plus petite, mais tous ont une chance d’être choisis. Dans l’échantillonnage aléatoire, chaque unité échantillonnée représente un certain nombre d’unités de la population de façon à ce que l’échantillon dans son ensemble représente la totalité de ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 99 la population. Le nombre d’unités de la population représentées par une unité échantillonnée donnée s’appelle le poids d’échantillonnage. Lorsqu’un échantillon est constitué avec une probabilité égale (par exemple, deux établissements sélectionnés avec une probabilité de 1/10), chaque établissement sélectionné représente le même nombre d’établissements dans la population. De même, dans un échantillon- nage avec probabilités inégales, le nombre d’établissements dans la population représenté par un établissement échantillonné varie selon les chances qu’à l’établissement d’être sélectionné : plus il a de chances d’être choisi, plus le poids d’échantillonnage est faible et vice versa. Les principales études internationales des acquis scolaires, telles que le Programme international pour le suivi des acquis des élèves (PISA), le Programme international de recherche en lecture scolaire (PIRLS) et les Tendances de l’enquête internationale sur les mathé- matiques et les sciences (TIMSS), utilisent un échantillonnage avec probabilités inégales. Les échantillons sont constitués à l’aide d’une méthode à probabilité inégale, connue sous le nom d’échantillonnage avec une probabilité proportionnelle à la taille ou PPS (en anglais probability proportional to size). Habituellement, les probabilités de sélection des établissements sont fondées sur leurs MOS (le nombre d’élèves dans la population cible de chaque établissement). Prenons, par exemple, une commune comptant 5 établissements ayant respec- tivement une population de 400, 250, 200, 100, et 50 élèves pour un total de 1 000 élèves. Avec un échantillonnage PPS, chaque établisse- ment aura une probabilité de sélection proportionnelle à sa taille, soit respectivement 400/1000, 250/1000, 200/1000, 150/1000, et 50/1000, si un seul établissement doit être sélectionné, ou 800/1000, 500/1000, 400/1000, 300/1000, et 100/1000, si 2 établissements doivent être sélectionnés. Notons que si 3 établissements doivent être sélectionnés dans cet exemple, la probabilité du premier établisse- ment ne peut être de 1200/1000, car elle serait supérieure à 1, mais est fixée à 1 (signifiant que l’établissement sera sélectionné avec cer- titude). Pour le tirage des deux autres établissements, la probabilité de sélection proportionnelle à la taille est déterminée pour les quatre établissements restants à l’aide de la somme de leurs tailles, soit 500/600, 400/600, 200/600, et 100/600. 100 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Cette approche d’échantillonnage peut être appliquée à des bases d’échantillonnage au niveau des établissements ou fondées sur des zones géographiques (telles que des listes de provinces ou de com- munes) pour autant que les MOS soient connues. L’échantillonnage à plusieurs degrés Dans de nombreuses enquêtes portant sur des populations humaines, l’accès direct aux individus n’est pas possible. Un registre central à jour des personnes peut ne pas exister ou, s’il existe, son utilisation peut être strictement réglementée ou son accès refusé aux enquê- teurs. Tel est presque toujours le cas pour les évaluations des acquis des élèves au sein des classes, des établissements, des communes ou de toute autre juridiction. L’accès indirect aux membres de la popula- tion cible est également possible à l’aide d’une technique appelée échantillonnage à plusieurs degrés. Une liste d’unités grossières (telles que des unités géographiques ou des établissements pour les enquêtes sur l’éducation) y est établie et certaines d’entre elles sont échantil- lonnées. Pour chaque unité échantillonnée, on constitue une liste d’unités plus petites (habituellement, des adresses, des maisons ou, dans le cas des enquêtes sur l’éducation, des enseignants ou des élèves). Un échantillon de ces unités plus petites est ensuite tiré de chaque unité précédemment sélectionnée, et le processus se poursuit ainsi jusqu’à ce que l’équipe d’échantillonnage ait identifié les indivi- dus à sonder ou tester. Les unités échantillonnées au cours de la pre- mière étape sont appelées unités primaires d’échantillonnage (PSU), et celles échantillonnées au cours des étapes ultérieures sont, de même, nommées unités secondaires d’échantillonnage, unités ter- tiaires d’échantillonnage, etc. Beaucoup d’évaluations nationales des acquis scolaires utilisent un plan d’échantillonnage à deux degrés, où les établissements sont les unités primaires d’échantillonnage, et les élèves les unités secondaires. Ce plan correspond à l’un de ceux envisagés pour l’étude de cas du Sentz. Certains plus grands pays étendent l’échantillonnage à trois degrés, en sélectionnant en premier les zones géographiques et en leur appliquant l’échantillonnage à deux degrés décrit ci-dessus. Au sein des établissements, l’unité sélectionnée est souvent la classe, parce ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 101 FIGURE 8.5 Échantillonnage à plusieurs degrés que les chefs des grands établissements estiment généralement que l’administration des tests à une classe complète occasionne moins de dérangement que le test de certains élèves dans plusieurs classes cibles. La Figure 8.5 montre un échantillonnage d’élèves à trois degrés : 3 communes sur 7 sont choisies au 1er degré ; ensuite, 3, 4 et 2 établis- sements y sont respectivement sélectionnés au 2e degré ; enfin, au 3e degré, des élèves sont choisis dans chacun des établissements ainsi sélectionnés. LA CONSTITUTION DES ÉCHANTILLONS Il est temps maintenant de passer à la constitution des échantillons pour les deux plans prévus pour le Sentz : a) l’EAS de référence de 400 élèves (voir exercice 8.2), et b) l’échantillon de 4 400 élèves à l’aide du plan à deux degrés recommandé. Divers progiciels, notamment SPSS, SAS (Statistical Analysis Software) et Stata, utilisent leurs propres outils de sélection des échantillons. 102 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 8.2 Sélection d’un EAS de 400 élèves Les instructions suivantes permettent de tirer un échantillon aléatoire simple de taille n = 400 élèves de la base d’échantillonnage complète stockée dans le répertoire SRS400. Pour reproduire exactement cet échantillon, vous devez préciser la valeur de départ (seed value)a introduite dans SPSS pour sa création. Sélectionnez File – Open – Data – Look in… …\BASE FILES\STUDENTS.SAV. Cliquez sur Open. Utilisez ensuite les commandes suivantes : Analyze – Complex samples – Select a sample. Choisissez Design a sample et introduisez un nom de fichier pour l’enregistrer (par exemple, SRS400). Cliquez sur Next. Sautez Design variables. Cliquez à nouveau Next. Dans Sampling Method, sélectionnez simple random sampling et cliquez sur without replacement. Ensuite, cliquez sur Next. Dans Sample size, choisissez counts, cliquez sur value et saisissez 400. Ensuite, cliquez sur Next. Dans Output variables, sélectionnez au moins population size, sample size et sample weight. Cliquez sur Next. Dans Summary, cliquez sur No, car il n’y a pas d’autre degré d’échantillonnage. Cliquez sur Next. Le plan d’échantillonnage est maintenant complet, et nous pouvons passer à la sélection de l’échantillon. Dans Draw sample selection options, cliquez sur Yes et All (1). Cliquez sur Custom valueb et saisissez 1234321 pour obtenir l’échantillon qui apparaîtra plus tard dans cette section ; sinon, cliquez sur A randomly-chosen number pour obtenir un nouvel échantillon. Cliquez sur Next. Dans Draw sample output files, sélectionnez External file et nommez-le …\ MYSAMPLSOL\ STUDENTSRSAMPLE. Cliquez sur Save, puis sur Next. Dans Completing the sampling wizard, choisissez Save the design to a plan file and draw the sample. Cliquez sur Finish. Les premières variables du fichier …\MYSAMPLSOL\STUDENTSRSAMPLE doivent ressembler à celles montrées dans la figure 8.2.A de l’exercice. Dans certains cas, l’ordre des variables peut différer de celui montré ici. ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 103 EXERCICE 8.2 (suite) FIGURE 8.2.A Variables de la sélection par EAS Source : exemple dans le logiciel SPSS. a. La valeur de départ (seed value) est un nombre servant à l’initialisation d’un générateur de nombres « pseudo-aléatoires » ; chaque valeur de départ détermine une séquence unique de nombres pseudo-aléatoires. b. Ceci est la valeur de départ utilisée pour cet exemple. SPSS offre une série de procédures appelée Complex Sample. Stata contient un certain nombre de scripts, et SAS propose cinq procédures spécifiquement conçues pour traiter des plans d’échantillonnage com- plexes. Le Research Triangle Institute a mis au point un large ensemble de routines appelables par SAS, appelé SUDAAN (Survey Data Analysis), destiné au traitement et à l’analyse de données d’enquêtes complexes. WesVar, le logiciel d’estimation de Westat Inc, peut être téléchargé gratuitement à partir du site Web de Westat. Les utilisateurs noteront toutefois que WesVar ne permet pas de constituer des échantillons aléatoires. La fonction d’échantillonnage d’Excel a ses limites, et à l’heure où nous rédigeons ce document, ses résultats semblent biaisés dans certaines conditions. L’équipe d’évaluation nationale doit rechercher l’avis d’un statisticien spécialisé dans l’échantillonnage avant de choisir un progiciel dédié. Le plan d’échantillonnage recommandé pour le Sentz comporte deux degrés. Le calcul de la taille de l’échantillon, la stratification et la répartition de l’échantillon du premier degré entre les strates ont déjà été effectués. L’exercice procède maintenant au tirage de 104 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 8.3 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : lecture des fichiers des établissements et de répartition des établissements Le tirage d’un échantillon doit être effectué indépendamment dans chaque strate (dans le cas présent, chaque province). Certains fichiers réponses ont été placés dans le répertoire 2STG4400 pour faciliter cette tâche. Vous avez déjà effectué la répartition de l’échantillon au cours de l’exercice 8.1, et les résultats ont été enregistrés. Vous allez utiliser ces données dans la tâche suivante. Cette répartition sera jointe à la base d’échantillonnage avant de procéder à la sélection des établissements. Commencez par trier les fichiers par province. Pour reproduire les résultats de l’échantillonnage que vous verrez par la suite, vous devez utiliser la valeur de départ (seed) introduite dans SPSS. L’échantillon est enregistré dans un fichier nommé …2STG4400\PPS_SAMPLE_OF_SCHOOLS. Commencez par lire et trier la base des établissements à l’aide des commandes suivantes : File – Open – Data – Look in …BASE FILES\SCHOOLS.SAV Cliquez sur Open et sélectionnez Data – Sort cases. Déplacez PROVINCE vers Sort by et cliquez sur OK. Ensuite, lisez et triez le fichier de répartition des établissements à l’aide des commandes suivantes : File – Open – Data – Look in …\MYSAMPLSOL\SCHOOLALLOC.SAV Cliquez sur Open. Sélectionnez Data – Sort cases. Déplacez PROVINCE vers Sort by et cliquez sur OK. l’échantillon lui-même. Le processus d’échantillonnage conduisant à la sélection aléatoire d’une seule classe par établissement à partir d’un échantillon d’établissements sélectionnés au hasard est décrit dans l’exercice 8.3. Étant donné qu’il comprend plusieurs étapes, pour en faciliter la lecture, l’exercice est divisé en plusieurs sections (exercices 8.3 à 8.8). Les fichiers contenant la base des établissements et leur répartition sont fusionnés dans l’exercice 8.4. Une fois cette fusion terminée, la première phase de tirage des échantillons peut commencer. Celle-ci consiste à sélectionner 120 établissements (voir exercice 8.1) sur un total de 227 (exercice 8.5). ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 105 EXERCICE 8.4 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : fusion des fichiers des établissements et de répartition des établissements Dans SPSS, l’ordre dans lequel les fichiers sont manipulés est important : le fichier le plus grand (base des établissements) doit se trouver sur l’écran pendant que vous cliquez sur les commandes du menu. Affichez le fichier SCHOOLS à l’écran ; sélectionnez le fichier comme suit : Data – Merge files – Add variables. Choisissez SCHOOLALLOC dans Open dataset et cliquez sur Continue. Cliquez sur Match cases on key variables. Déplacez PROVINCE depuis Excluded variables vers Key variables. Déplacez COUNTRY, PROV_TOT et COUNTRY_TOT depuis New active dataset vers Excluded variables. Cliquez sur Non-active dataset is keyed table, puis sur OK. Cliquez sur OK si le message d’avertissement suivant apparaît : « Warning : Keyed match will fail if data are not sorted in ascending order of key variables. » La variable ALLOC doit maintenant apparaître comme la dernière variable de l’ensemble de données SCHOOLS. Par sécurité, sauvegardez maintenant ce fichier SCHOOLS dans votre fichier…\MYSAMPLSOL\SCHOOLS. EXERCICE 8.5 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : sélection des établissements Vérifiez que votre fichier SCHOOLS est affiché à l’écran. Ensuite, utilisez les commandes suivantes : Analyze – Complex samples – Select a sample Sélectionnez Design sample et sauvegardez-le sous un nom de votre choix (par exemple, 2STAGE_1). Si SPSS n’accepte pas immédiatement ce nom, cliquez sur Browse et sélectionnez le sous-répertoire MYSAMPLSOL sur votre disque avant de saisir le nom du fichier. Cliquez sur Next. Dans Design variables, effectuez les opérations suivantes : Déplacez PROVINCE vers Stratify by. Déplacez SCHOOLID vers Clusters. Saisissez un nom dans Stage Label (par exemple, STAGE1). Cliquez sur Next. Dans Sampling Method effectuez les opérations suivantes : Sélectionnez PPS Systematic. Déplacez SCHOOL_SIZE vers Measure of size – Read from variable. Cliquez sur Next. (suite) 106 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 8.5 (suite) Dans Sample size effectuez les opérations suivantes : Choisissez Read values from variable. Déplacez ALLOC vers cette boîte de sélection. Cliquez sur Next. Dans Output variables, sélectionnez population size, sample size et sample weight. Cliquez sur Next. Dans Summary, cliquez sur No, car il n’y a, pour l’instant, plus d’autres étapes d’échantillonnage, et cliquez ensuite sur Next. Le plan d’échantillonnage est maintenant détaillé, et le tirage de l’échantillon peut commencer. Dans Draw sample selection options, cliquez sur Yes et All (1). Cliquez sur Custom value et saisissez 1234321 pour obtenir l’échantillon présenté dans cette section. Sinon, cliquez sur A randomly-chosen number pour constituer un nouvel échantillon. Cliquez sur Next. Dans Draw sample output files, sélectionnez External file et nommez-le …\MYSAMPLSOL\PPS_ SAMPLE_OF_SCHOOLS. À nouveau, si SPSS n’accepte pas immédiatement le nom introduit, cliquez d’abord sur Browse pour sélectionner le sous-répertoire et saisissez votre nom de fichier. Cliquez sur Save et puis Next. Dans Completing the sampling wizard, sélectionnez Save the design to a plan file and draw the sample. Cliquez enfin sur Finish. Si l’échantillon ainsi sélectionné n’apparaît pas immédiatement sur l’écran, ouvrez le fichier …\MYSAMPLSOL\PPS_SAMPLE_OF_ SCHOOLS. La figure 8.6 montre les quelques premières lignes de données de …\MYSAMPLSOL\PPS_SAMPLE_OF_SCHOOLS qui doivent être affichées sur votre écran. Maintenant que l’échantillon d’établissements est constitué, la prochaine étape consiste à choisir une classe par établissement sélec- tionné. Cette étape est semblable au tirage de l’échantillon aléatoire simple effectué précédemment : on choisit une unité secondaire (classe) par unité primaire (établissement). Le fichier CLASSES contient les informations pertinentes sur les classes de tous les établis- sements, et pas uniquement de ceux qui ont été sélectionnés. En pra- tique, dans chaque établissement, le coordonnateur de l’évaluation nationale crée une liste des classes éligibles et soit l’envoie au coor- donnateur de l’enquête, soit est invité à tirer au hasard une classe ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 107 éligible, en se conformant à une série de procédures prescrites pour l’évaluation nationale. Dans les étapes suivantes, SPSS est utilisé pour sélectionner une classe dans chaque établissement. L’échantillon de 120 établissements doit au préalable être fusionné avec le fichier des classes pour obtenir une liste de l’ensemble des classes éligibles de chaque établissement sélectionné (exercice 8.6). La procédure est semblable à celle utilisée dans l’exercice 8.4 pour ajouter la répartition de l’échantillon à la base des établissements. À la fin de l’exercice 8.6, les établissements à sélectionner dans chaque strate ont été identifiés et une liste des classes éligibles a été établie ou obtenue pour chacun des établissements sélectionnés. La prochaine étape consiste à choisir une classe par établissement pour l’administration des tests. Cette procédure est semblable au tirage d’un échantillon aléatoire simple effectué précédemment, en choisissant une unité secondaire (classe) par unité primaire sélection- née (établissement). La figure 8.7 montre à quoi ressemble CLASS_ FRAME (base des établissements). FIGURE 8.6 Extrait des données Source : exemple dans le logiciel SPSS. 108 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 8.6 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : identification des classes éligibles Ouvrez l’échantillon d’établissements et triez-le sur SCHOOLID à l’aide des commandes suivantes : File – Open – Data – Look in …\MYSAMPLSOL\PPS_SAMPLE_OF_SCHOOLS.SAV Cliquez ensuite sur Open. Sélectionnez Data – Sort cases. Déplacez SCHOOLID vers Sort by. Cliquez sur OK. Ouvrez la liste des classes et triez sur SCHOOLID à l’aide des commandes suivantes : File – Open – Data – Look in …\BASE FILES\CLASSES.SAV Cliquez sur Open. Remarque : l’établissement 1101 a deux classes, l’une de 41 élèves et l’autre de 48 élèves. Sélectionnez Data – Sort cases. Déplacez SCHOOLID vers Sort by. Cliquez sur OK. Fusionnez la base des établissements et le fichier de répartition des établissements ; à nouveau, le fichier affiché à l’écran et celui qui est le « keyed table » (voir les instructions ci-dessous) sont importants pour SPSS. Affichez le fichier PPS_SAMPLE_OF_SCHOOLS à l’écran. Ensuite, utilisez les commandes suivantes : Data – Merge files – Add variables Choisissez CLASSES dans Open dataset. Cliquez sur Continue. Cliquez ensuite sur Match cases on key variables. Déplacez SCHOOLID depuis Excluded variables vers Key variables. Cliquez sur Active dataset is keyed table. Cliquez sur OK et une nouvelle fois sur OK. Ces étapes modifieront PPS_SAMPLE_OF_SCHOOLS et ajouteront des informations de niveau classe, y compris aux établissements qui n’ont pas été sélectionnés. Ces enregistrements devront être supprimés. Pour supprimer les enregistrements non nécessaires, utilisez Filter et conservez uniquement les occurrences pour lesquelles PROVINCE a une valeur numérique, en procédant comme suit : Data – Select Cases – Use filter variable Déplacez PROVINCE vers Use filter variable. Cliquez sur Copy selected cases…. Saisissez un nom tel que CLASS_FRAME et cliquez sur OK. ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 109 EXERCICE 8.6 (suite) Fermez et ne sauvegardez pas le PPS_SAMPLE_OF_SCHOOLS modifié. Faites apparaître l’ensemble de données CLASS_FRAME dans l’écran de visualisation et sauvegardez-le à l’aide des commandes suivantes : File – Save as – Look in …\MYSAMPLSOL\ Saisissez CLASS_FRAME comme nom de fichier et cliquez sur Save. FIGURE 8.7 CLASS_FRAME Source : exemple dans le logiciel SPSS. Avant de constituer l’échantillon, la base des classes doit être nettoyée. Certaines variables héritées de l’étape d’échantillonnage des établissements risquent d’interférer avec les variables d’échantillon- nage créées automatiquement par SPSS au moment de la constitu- tion de l’échantillon des classes (exercice 8.7). Après le nettoyage des données, la base des classes peut être utili- sée par le module Complex Samples pour tirer une classe au hasard dans chacun des établissements sélectionnés (exercice 8.8). 110 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 8.7 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : nettoyage de la base d’échantillonnage La base des classes peut maintenant être soumise au module Complex Samples pour tirer une classe au hasard dans chaque établissement sélectionné, à l’aide des commandes suivantes : File – Open – Data – Look in …\MYSAMPLSOL\CLASS_FRAME.SAV Cliquez sur Open. Pour nettoyer la base des classes, commencez par cliquer sur l’onglet Variable View dans le coin inférieur gauche de l’écran SPSS. Sélectionnez la ligne avgclass et supprimez la variable (cliquez à droite et choisissez Clear). Sélectionnez la ligne InclusionProbability_1_ et supprimez la variable. Sélectionnez la ligne SampleWeightCumulative_1_ et supprimez la variable. Sélectionnez PopulationSize_1_ et renommez-la PopulationSize1. Sélectionnez SampleSize_1_ et renommez-la SampleSize1. Sélectionnez SampleWeight_1_ et renommez-la Weight1. Sélectionnez la ligne SampleWeight_Final_ et supprimez la variable. Enregistrez le fichier sous …\MYSAMPLSOL\CLASS_FRAME et cliquez sur l’onglet Data View. CLASS_FRAME doit maintenant ressembler à la figure 8.7.A de cet exercice. FIGURE 8.7.A Base des classes nettoyée Source : exemple dans le logiciel SPSS. ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 111 EXERCICE 8.8 Sélection des établissements par échantillonnage PPS stratifié sans remplacement : sélection d’une classe par établissement Pour sélectionner une classe par établissement, utilisez les commandes suivantes : Data – Sort cases Déplacez SCHOOLID CLASSID vers Sort by. Ensuite, cliquez sur OK. Ouvrez Analyze – Complex samples – Select a sample. Sélectionnez Design sample et donnez-lui un nom pour sauvegarder le fichier (par exemple, 2STAGE_2). Cliquez sur Next. Dans Design variables effectuez les opérations suivantes : Déplacez SCHOOLID vers Stratify by. Déplacez CLASSID vers Clusters. Saisissez un nom dans Stage Label, par exemple, STAGE2. Cliquez sur Next. Dans Sampling Method, choisissez Simple Random Sampling, puis cliquez sur without replacement. Cliquez sur Next. Dans Sample size, sélectionnez counts, cliquez sur value et saisissez 1. Cliquez sur Next. Dans Output variables, sélectionnez population size, sample size et sample weight. Cliquez sur Next. Dans Summary, cliquez sur No, car il n’y a plus d’étape d’échantillonnage à exécuter sur cette base, puis cliquez sur Next. Le plan d’échantillonnage est maintenant détaillé, et on peut procéder au tirage de l’échantillon. Dans Draw sample selection options, cliquez sur Yes et All (1). Cliquez sur Custom value et saisissez 1234321 pour obtenir l’échantillon présenté dans ce volume.a Sinon, cliquez sur A randomly-chosen number pour constituer un nouvel échantillon. Cliquez sur Next. Dans Draw sample output files, sélectionnez External file et cliquez sur Browse pour être certain d’utiliser le bon répertoire. Nommez votre fichier …\MYSAMPLSOL\CLASS_ SAMPLE et cliquez sur Save, puis sur Next. Dans Completing the sampling wizard, sélectionnez Save the design to a plan file and draw the sample. Cliquez sur Finish. Affichez maintenant l’échantillon de classes sur l’écran et nettoyez le fichier à l’aide des commandes suivantes : File – Open – Data – Look in …\MYSAMPLSOL\CLASS_SAMPLE.SAV Cliquez sur Open. Cliquez sur l’onglet Variable View dans le coin inférieur gauche de l’écran SPSS. (suite) 112 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 8.8 (suite) Sélectionnez la ligne InclusionProbability_1_ et supprimez la variable. Sélectionnez la ligne SampleWeightCumulative_1_ et supprimez la variable. Sélectionnez PopulationSize_1_ et renommez-la PopulationSize2. Sélectionnez SampleSize_1_ et renommez-la SampleSize2. Sélectionnez SampleWeight_1_ et renommez-la Weight2. Sélectionnez SampleWeight_Final_ et supprimez la variable. Enregistrez le fichier sous …\MYSAMPLSOL\CLASS_SAMPLE, et cliquez sur l’onglet Data View. CLASS_SAMPLE devrait ressembler à ce que montre la figure 8.8.A de cet exercice. FIGURE 8.8.A Sélection d’une classe par établissement Source : exemple dans le logiciel SPSS. Les classes choisies dans les établissements sélectionnées sont maintenant enregistrées dans l’ensemble de données permanent de SPSS nommé …\ MYSAMPLSOL\CLASS_SAMPLE. a. Dans les applications réelles, il est conseillé de changer les valeurs de départ à chaque tirage et de les enregistrer pour référence et débogage. ÉLÉMENTS DE LA THÉORIE DE L’ÉCHANTILLONNAGE | 113 Dans le cas du Sentz, tous les élèves des classes sélectionnées sont soumis à l’enquête, parce que les classes sont de taille raisonnable. Dans un pays où les classes sont beaucoup plus peuplées (par exemple, avec plus de 50 élèves), il faudra possiblement sélectionner un échan- tillon d’élèves dans chaque classe choisie (25 à 30 par classe). Le plan d’échantillonnage passerait alors à trois degrés. Pour le Sentz, le troi- sième degré (échantillonnage des élèves dans les classes sélectionnées) est pour l’instant « invisible ». Il deviendra apparent lorsque se posera le problème de la non-réponse des élèves (voir la partie IV de ce volume). Les étapes suivantes du processus d’évaluation consisteront à contacter les établissements participants et à prendre les dispositions administratives et matérielles avec chacun d’eux de façon à ce que les instruments d’évaluation puissent être administrés aux élèves sélec- tionnés. Après l’administration des tests, les données de l’évaluation nationale seront corrigées et nettoyées (voir la partie III de ce volume). ANNEXE II.A ÉCHANTILLONNAGE : RÉPERTOIRES ET FICHIERS Le CD accompagnant ce manuel fournit plusieurs fichiers contenant la base et les données des échantillons à utiliser pour l’étude de cas du Sentz. Le tableau II.A.1 donne une brève des- cription de ces fichiers. La figure II.A.1 montre la structure des réper- toires des fichiers d’échantillonnage. 115 116 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU II.A.1 Description du contenu des répertoires Fichiers du Nombre répertoire BASE Description ou contenus (fichiers SPSS) d’enregistrements Nombre de communes rurales et urbaines et Provinces d’élèves dans chaque province et région 9 Nombre d’établissements et d’élèves par Communesa commune, urbanisation, province et région 33 Nombre de classes, nombre d’élèves et taille moyenne des classes par établissement, Établissements commune, urbanisation, province, et région 227 Nombre d’élèves par classe, pour chaque classe, établissement, commune, urbanisation, Classes province et région 702 Âge et sexe de chaque élève dans chaque classe de chaque établissement, avec toutes les Élèves autres caractéristiques géographiques 27 654 Âge, sexe, scores de performance, situation socioéconomique, et statut de participation pour chaque élève dans chaque classe, établissement, commune, urbanisation, Réponses province et région 27 654 Âge, sexe, scores de performance, situation socioéconomique pour chaque élève dans chaque classe, comme si tout le monde avait Recensement participé 27 654 Fichiers du répertoire Nombre 2STG4400 Description ou contenus (fichiers SPSS) d’enregistrements Nombre d’établissements répartis dans chaque SCHOOLALLOC province 5 SCHOOLID, JKZONE, JKREP, et deux variables ASSIGNJK temporaires 120 PPS_SAMPLE_OF_ Établissements sélectionnés, avec le poids du SCHOOLS premier degré 120 Liste des classes disponibles pour l’échantillonnage de 120 établissements CLASS_FRAME sélectionnés 397 Classes sélectionnées dans les établissements sélectionnés, avec le poids du premier degré, le poids du deuxième degré, et le poids dans le CLASS_SAMPLE plan d’échantillonnage complet 120 ÉCHANTILLONNAGE : RÉPERTOIRES ET FICHIERS | 117 TABLEAU II.A.1 Description du contenu des répertoires (suite) Fichiers du répertoire Nombre 2STG4400 Description ou contenus (fichiers SPSS) d’enregistrements Identifiants, variables contextuelles, scores, statut de participation, et poids dans le plan d’échantillonnage pour chaque élève PPSRESPONSES sélectionné, par classe, établissement, province 4 896 Identifiants, variables contextuelles, scores, statut de participation, poids dans le plan d’échantillonnage, ajustement pour la non- RESP2STGFINAL réponse, et poids final pour chaque élève WTb sélectionné, par classe, établissement, province 4 896 Identifiants, variables contextuelles, scores, statut de participation, poids dans le plan d’échantillonnage, ajustement pour la non- réponse, poids final, strate JK et réplique JK pour chaque élève sélectionné, par classe, RESP2STGWTJKb établissement, province 4 896 Fichiers du Nombre répertoire SRS400 Description ou contenus (fichiers SPSS) d’enregistrements Identifiants, variables contextuelles, et poids STUDENTSR dans le plan d’échantillonnage pour chaque SAMPLE élève sélectionné 400 Identifiants, variables contextuelles, scores, statut de participation, et poids dans le plan d’échantillonnage pour chaque élève SRSRESPONSES sélectionné 400 Identifiants, variables contextuelles, scores, statut de participation, poids dans le plan d’échantillonnage, ajustement pour la non- réponse, et poids final pour chaque élève RESPSRSFINALWTb sélectionné 400 Fichiers du répertoire Nombre NATASSESS Description ou contenus (SPSS et WesVar) d’enregistrements Identifiants, variables contextuelles, scores en mathématiques, scores dérivés, poids de l’estimation et poids normalisé, strate JK et NATASSESS réplique JK 4 747 a. Les données de niveau commune n’ont pas été analysées dans cet exercice. b. Ces fichiers ont une version WesVar 118 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES FIGURE II.A.1 Structure des répertoires des fichiers échantillonnage NAEA SAMPLING BASE FILES 2STG4400 SRS400 NATASSESS MYSAMPSOL PROVINCES SCHOOLALLOC STUDENTSRSAMPLE NATASSESS SCHOOLS ASSIGNJK SRSRESPONSES CLASSES PPS_SAMPLE RESPSRSFINAL a OF SCHOOLS WT STUDENTS CLASS_FRAME RESPONSES CLASS_SAMPLE CENSUS PPSRESPONSES RESP2STGFINAL TOWNS a WT RESP2STG a WTJK a. À la fois SPSS et WesVar. PA RT I E 3 PRÉPARATION, VALIDATION ET GESTION DES DONNÉES Chris Freeman et Kate O’Malley La Partie III décrit les tâches effectuées par les analystes lors du nettoyage des données d’une évaluation nationale, en utilisant des exemples et des exercices pour illustrer les processus suivis. Le principal objectif est d’aider l’équipe d’évaluation nationale à développer et mettre en œuvre un ensemble systématique de pro- cédures permettant de garantir la fiabilité et l’exactitude des don- nées d’évaluation. Le CD qui accompagne ce volume contient des exemples de fichiers contenant les erreurs courantes de collecte des données, qui permettront au lecteur de mettre en pratique les procédures décrites. Des fichiers contenant la solution des exer- cices ainsi que les données nettoyées et les résultats des tests sont fournis pour permettre au lecteur de comparer et vérifier ses réponses. L’application Microsoft Access 2007 est utilisée dans cette section pour la saisie et la validation des données, tandis que SPSS (Statistical Package for Social Sciences – un logiciel d’analyse statistique pour les sciences sociales)1 et, dans une moindre mesure, Excel 2007, le sont pour la vérification des données. Un module spécialisé de SPSS peut remplacer Access pour la saisie des données. Quelle que soit l’ap- proche suivie, après leur saisie, les données doivent être importées 119 120 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES dans SPSS pour être nettoyées et vérifiées. L’utilisation des trois appli- cations mentionnées dans cette section vise à limiter les dangers asso- ciés à la transposition des données d’un programme à l’autre. Celle-ci comporte inévitablement des risques d’erreur, et le transfert des don- nées entre applications doit être limité à un minimum. Ce point est traité plus en détail dans les dernières sections de cette partie. La liste qui suit résume les sujets traités dans les chapitres de cette partie. Elle énumère les principales sources potentielles d’erreurs dans les données qui, si elles ne sont pas prises en compte, peuvent affecter la confiance dans l’intégrité des données. Liste de contrôle pour le processus de nettoyage des données Documents ou Composante processus Questions clés Vérifié Format des Manuel de Le type des données est-il défini ? données codage des tests Les données obligatoires sont-elles définies ? La longueur des champs est-elle définie ? Le manuel de codage est-il conforme au contenu des tests ? Collecte des Logiciel de saisie Le format des données de terrain est-il données des données conforme aux définitions du manuel de codage ? Les routines de validation sont-elles en place dans le logiciel de saisie des données ? Y a-t-il un traitement des erreurs de saisie ? Nettoyage des Contrôles entre Y a-t-il une fusion de données issues de données fichiers différentes sources ? Y a-t-il des routines pour assurer l’exactitude et l’exhaustivité des données ? Tous les enregistrements sont-ils pris en compte ? Vérification des Les codes sont-ils vérifiés ? Les codes données et incorrects sont-ils corrigés ? contrôles au sein Les données (obligatoires) manquantes des fichiers sont-elles vérifiées ? D’autres données manquantes sont-elles traitées ? Y a-t-il des routines pour assurer l’intégrité et l’exhaustivité des données ? (suite) PRÉPARATION, VALIDATION ET GESTION DES DONNÉES | 121 Documents ou Composante processus Questions clés Vérifié Identifiants Chaque carnet de test correspond-il à une et uniques une seule entrée dans les bases d’échantillonnage et les documents de suivi ? Les doublons sont-ils supprimés ? Les enregistrements manquants sont-ils détectés ? Documentation Historique du Les copies des fichiers de données avant et fichier, historique après leur traitement sont-elles archivées ? du nettoyage des données README.DOCX Un dossier complet des processus et résultats est-il tenu ? Les routines décrites dans la présente section sont étayées par des exercices pratiques, présentés dans les fichiers du répertoire Exercices du CD d’accompagnement. Les solutions ou fichiers corrigés sont disponibles dans le répertoire Exercise Solutions. Pour apprendre à maî- triser les principales compétences de nettoyage des données, le lecteur doit mettre en place le système d’archivage facile à utiliser suivant. Étape importante : enregistrement des fichiers du CD sur votre disque dur ou serveur Sur votre disque dur local ou serveur, créez un répertoire dénommé NAEA DATA CLEANING (ou un nom similaire) et copiez-y les fichiers du CD d’accompagnement. Créez un sous-répertoire appelé MY SOLUTIONS où vous sauvegarderez toutes vos solutions pour pouvoir les comparer avec les fichiers des répertoires d’EXERCISE SOLUTIONS. Vous devez maintenant avoir trois répertoires dans NAEA DATA CLEANING : EXERCISES, EXERCISE SOLUTIONS et MY SOLUTIONS. Désormais, vous travaillerez sur les fichiers situés sur votre disque dur ou serveur. L’Annexe III.A contient un résumé des différents fichiers et un diagramme de la structure du fichier utilisé dans la Partie III. Notons que Microsoft Office 2007 a été utilisé pour constituer les fichiers. 122 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Ceux-ci peuvent également être utilisés avec Microsoft Office 2010. Même si les rubans figurant au sommet de certaines pages peuvent être légèrement différents entre ces deux versions, les zones de travail sont pratiquement identiques. Prises en compte correctement, les quatre recommandations suivantes aideront à assurer l’exactitude des données utilisées dans les analyses. 1. Se méfier. Même les systèmes d’évaluation les plus sophistiqués sont susceptibles de contenir des codes erronés (wild codes) et des doublons après la saisie initiale des données. Considérez que des données peuvent être incorrectes et doivent être modifiées. 2. Être systématique. Avoir un plan (une liste de contrôle) pour travailler sur les sources d’erreur les plus probables. Recherchez les doublons et les réponses n’appartenant pas aux domaines de valeurs valides. Ils constituent souvent des indicateurs de problèmes poten- tiels et donnent également une idée de la qualité des processus de collecte et de saisie des données. 3. Être actif dans le processus de collecte des données. L’un des meilleurs moyens de s’assurer de la qualité des données d’une évalua- tion nationale est d’insister sur l’utilisation de pratiques efficaces pen- dant la phase de collecte. La personne chargée de la responsabilité globale de la saisie des données doit faire partie du groupe qui conçoit le manuel de codage, dans la mesure où celui-ci aura un impact majeur sur la qualité des processus de saisie des données. La vérifica- tion de la mise en œuvre correcte des procédures et processus pendant la saisie des données peut fortement réduire le temps et le coût néces- saires à la correction des données erronées. 4. Documenter tous les changements et les versions. Consignez rigoureusement tous les changements effectués pendant le nettoyage des données, et conservez un dossier précis des versions créées et de la version contenant les fichiers finaux nettoyés pour l’analyse. NOTE 1. En 2009 et 2010, la version 17 de SPSS s’appelait Predictive Analytic Software ou PASW17. CHAPITRE 9 MANUELS DE CODAGE Lors du nettoyage et de l’analyse des données, il faut être sensible aux besoins d’information des membres de l’équipe d’évaluation nationale appelés à produire les rapports finaux. Les per- sonnes impliquées dans la préparation des données ont la responsabilité spécifique de s’assurer que le format des données offrira le niveau de détail requis par les analystes. Les personnes impliquées dans la pré- paration des données doivent connaître le contenu des carnets de test et questionnaires ainsi que des manuels de codage. La planification est le point de départ de toute analyse d’un instru- ment d’évaluation. L’équipe d’évaluation nationale doit établir un plan pour s’assurer que la manière de collecter les données produira les informations requises et que les données seront disponibles dans un format accessible. Le manuel de codage définit la façon dont les données recueillies par l’évaluation sont enregistrées en vue de l’ana- lyse. Il spécifie les informations de chaque composante des tests et indique au personnel de saisie des données et aux analystes les valeurs qui peuvent ou doivent se trouver dans chaque champ de données. Le manuel de codage doit être élaboré conjointement par les concep- teurs des tests et la personne ayant la charge de la saisie des données. De même, le manuel de codage du questionnaire destiné aux élèves définit comment enregistrer les réponses. Généralement, les données 123 124 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES du questionnaire concernent des items démographiques (tels que le sexe, le contexte linguistique ou les occupations des parents) et sont généralement conservées séparément des performances des élèves parce qu’elles contiennent généralement bon nombre de réponses qualitatives qui doivent être codées ou analysées différemment. Un modèle d’instrument de questionnaire de l’élève a été placé dans le fichier STUDENTQUESTIONNAIRE.DOCX dans le répertoire EXERCISES à des fins d’information contextuelle. Toutefois, dans les exercices qui suivent, seul un petit nombre de données démogra- phiques relatives au sexe, à l’âge, à la classe et au contexte linguistique sera considéré. Vu leur petit nombre, ces données figurent dans le même fichier que celui des données sur la performance des élèves. Dans la Figure 9.1, la page de couverture du carnet de test montre l’information relative aux élèves recueillie au moment de FIGURE 9.1 Exemple de la page de couverture du carnet de test MANUELS DE CODAGE | 125 l’administration d’un test de mathématiques. Elle montre l’identifiant unique de l’élève (Student ID) créé dans l’exercice 7.1 et comprend des détails sur le sexe, l’âge et la langue. La capacité de fournir des informations sur les élèves dépend des informations collectées à partir des formulaires et questionnaires. Par exemple, les informations recueillies à partir de la page de couverture du carnet de test (Figure 9.1) ne permettent pas de rendre compte de la langue parlée à la maison parce qu’aucune question n’est posée à ce sujet. On ne peut, par conséquent, estimer que le pourcentage des élèves parlant une langue autre que celle des tests. Un autre exemple de contrainte de la collecte des données est la manière dont le champ Nom est traité. Sa valeur peut être recueillie dans un champ unique regroupant le prénom et le nom (par exemple, Jean Gonzalez) ou dans deux champs séparés, Prénom (Jean) et Nom de famille (Gonzalez). En règle générale, la collecte de données séparées est préférable. Si, par exemple, l’évaluation ne prévoit que le champ Nom, le tri sur cette variable sera basé sur le prénom, avec une possible inversion entre le nom et le prénom entraînant un risque de doublons. Dans notre cas, l’information relative au nom est recueillie dans deux champs distincts : Prénom et Nom de famille. Notons que dans certaines cultures, le nom de famille vient en première position. La Figure 9.2 montre la façon dont l’information démographique fournie par les élèves dans la page de couverture du carnet de test montrée dans la Figure 9.1 a été documentée dans le manuel de codage (voir EXERCISES-MATHS 3A CODEBOOK TEMPLATE. XLSX). Dans le cas présent, c’est Excel qui a été utilisé pour consti- tuer le manuel de codage, même si Microsoft Word aurait pu l’être également. Notons que lorsque les données sont saisies directement dans SPSS (Statistical Package for the Social Sciences), le manuel de codage est automatiquement créé par ce logiciel à l’aide d’une simple fonction du menu : Analyze – Reports – Codebook. Les colonnes du manuel de codage du questionnaire sont décrites dans le tableau 9.1. La Figure 9.3 présente un extrait du manuel de codage du test mon- trant les six premiers items. Notons l’ajout des colonnes Item Name et Key. La première contient une dénomination courte facilitant la |126 FIGURE 9.2 Manuel de codage de l’information démographique (contextuelle) recueillie dans le questionnaire destiné aux élèves Source : exemple dans le logiciel Excel. METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES MANUELS DE CODAGE | 127 TABLEAU 9.1 Explication des intitulés des colonnes dans le manuel de codage Intitulé Explication Commentaire Champ Nom identifiant l’information Le nom du champ doit être unique (Field) contenue dans la cellule de données et avoir un sens. (par exemple, Prénom). Type de Trois types de questions sont possibles Les RC numériques peuvent être question CM : Choix multiple marquées par les programmes (Type) RC : Réponse construite ou brève d’analyse tels que SPSS. TM : Réponse laissée au jugement d’un enseignant Type de Format des données du champ ; Certains programmes prévoient données les données sont généralement des types de données textuelles (Data Type) numériques (N) ou textuelles (T). tels que « string » ou « alpha. » Les variables numériques SPSS sont divisées en différentes catégories : nominale, ordinale et échelle. Réponses Liste complète des valeurs attendues Les autres valeurs ne sont pas valides (Valid et acceptables des données valides et doivent être examinées. Responses) contenues dans le champ. Largeur Nombre maximum de caractères Notons que pour les valeurs (Width) pouvant être saisis dans le champ. incluant des décimales, un espace (Par exemple, ce manuel de codage doit être prévu pour la virgule. permet d’entrer un maximum de 20 lettres pour le nom de l’école.) Donnée Code attribué aux doublons manquante (généralement 8) et aux données (Missing) manquantes (généralement 9). Commentaire Information complémentaire destinée (Comment) à aider le personnel de saisie des données, le gestionnaire des données et l’analyste à interpréter les données figurant dans le champ. reconnaissance des items, et la seconde la valeur correspondant à la réponse correcte, déterminée par les concepteurs du test ou les spécialistes de la matière. L’exercice 9.1 montre comment définir les données de l’évaluation nationale dans un manuel de codage. |128 FIGURE 9.3 Manuel de codage pour les champs des items de Maths 3a Source : exemple dans le logiciel Excel. METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES MANUELS DE CODAGE | 129 EXERCICE 9.1 Définition des données de l’évaluation nationale dans un manuel de codage Si vous ne l’avez pas encore fait, suivez les instructions de l’exercice 7.1 pour copier les fichiers du CD d’accompagnement sur votre disque dur ou serveur. Suivez ensuite les étapes ci-dessous : 1. Ouvrez \NAEA DATA CLEANING\EXERCISES\SAMPLE TEST PAPER 3A.DOCX. 2. Ouvrez \NAEA DATA CLEANING\EXERCISES\MATHS 3A CODEBOOK TEMPLATE. XLSX. Les données démographiques de la feuille STUDENT QUESTIONNAIRE et celles des sept premiers items (Q3Aq01 à Q3Aq07) de la feuille MATHS_3A_ITEM_ CODEBOOK ont déjà été saisies. (Cliquez sur le deuxième onglet au bas de l’écran Excel.) 3. En utilisant ces sept premiers items comme guide, définissez les champs des sept autres items (Q3Aq08 à Q3Aq14), et sauvegardez le fichier sous le nom MATHS 3A CODEBOOK dans le répertoire MY SOLUTIONS. Le manuel de codage complet pour le document Maths 3a se trouve dans un fichier nommé MATHS 3A CODEBOOK SOLUTION.XLSX dans le répertoire EXERCISE SOLUTIONS. Utilisez ce fichier pour vérifier vos réponses. (Cliquez sur le deuxième onglet pour vérifier la définition des items.) CHAPITRE 10 GESTION DES DONNÉES LA SAISIE DES DONNÉES Le budget et l’expertise disponibles dictent la méthode utilisée pour recueillir et enregistrer les données sur les items des tests. Les méthodes existantes comprennent la collecte des données en ligne, la numérisation des fiches réponse par lecture optique, et la saisie manuelle des données. La plupart des systèmes d’évaluation natio- nale, en particulier ceux disposant de ressources limitées, utilisent la saisie manuelle des données. Un écran bien conçu (figure 10.1) peut aider les opérateurs à saisir les données rapidement et avec précision. Un tel écran a été développé dans Access 2007, et la manière de procéder est décrite dans l’exercice 10.1. La mise en place de la pro- cédure de saisie des données prend du temps, mais celui-ci n’est géné- ralement pas perdu parce que les procédures médiocres constituent les sources les plus courantes d’erreurs. La saisie unique Dans la saisie unique, un opérateur enregistre les réponses des élèves dans une base de données électronique en vue de leur analyse. Cette méthode est généralement la moins onéreuse, mais aussi la plus 131 132 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES FIGURE 10.1 Écran de saisie des données (Access 2007) Source : exemple dans le logiciel Access. risquée du point de vue de la précision des données, à moins que le programme de saisie ne comporte de solides procédures de validation et que les opérateurs ne soient étroitement supervisés. Certains programmes de nettoyage des données prennent en charge une seule méthode de saisie des données avec des contrôles de valida- tion ou des routines pour la détection des fautes de frappe. Ces contrôles ou routines réduisent considérablement le nombre de sai- sies incorrectes. Les données sont, par exemple, vérifiées au moment de leur saisie pour détecter les codes erronés (wild codes) ou les entrées mal saisies, invalides ou extérieures au domaine des valeurs autorisées. Par exemple, si un opérateur introduit « é » au lieu de « 2 » (qui sont sur la même touche du clavier), un message du programme GESTION DES DONNÉES | 133 EXERCICE 10.1 Création d’une base de données Les étapes suivantes vous permettent de créer une base de données : 1. Ouvrez Access 2007, puis cliquez sur l’icône Blank Database. 2. Sur le côté droit de la fenêtre, cliquez sur l’icône répertoire à côté du champ File Name (voir la figure 10.1.A). Le programme ouvre alors une fenêtre File New Database. Enregistrez le fichier sous le nom MATHS_3A_DATA.ACCDB dans votre répertoire MY SOLUTIONS. Cliquez sur OK, puis sur Create. FIGURE 10.1.A Création d’une nouvelle base de données Access Source : exemple dans le logiciel Access. 3. Après la création de la base de données, une première table s’ouvre automatiquement. Cliquez sur View – Design View dans le coin supérieur gauche de la fenêtre Access. Il vous est alors demandé d’enregistrer cette table. Par convention, les tables sont enregistrées avec le préfixe tbl_ suivi d’un nom significatif. Enregistrez la table sous le nom TBL_YR3_ MATHS_DATA et cliquez sur OK. La figure 10.1.B affiche sa structure (ID est automatiquement proposé comme nom pour la première variable) et vous pouvez commencer à définir les variables et leurs formats conformément au manuel de codage. Ce format définira les données pour chaque champ. (suite) 134 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.1 (suite) FIGURE 10.1.B Structure d’une table de la base de données Source : exemple dans le logiciel Access. La colonne Field Name contient le nom des variables figurant dans le manuel de codage. Chaque variable doit être introduite dans une ligne séparée. Le nom de la variable ne peut contenir ni espaces ni autres « caractères spéciaux », tels que des points d’exclamation, des points d’interrogation, des points ou des virgules. La colonne Data Type contient généralement Text pour les variables alphanumériques (variables dont la valeur contient du texte, éventuellement mêlé à des chiffres) ou Number pour les variables purement numériques. Si la table contient une variable de type date, par exemple, Date of Birth (date de naissance), Data Type doit contenir la valeur Date/Time. La colonne Description est utilisée pour décrire (ou documenter) une variable afin d’aider les autres utilisateurs à comprendre sa signification. En outre, tout écran basé sur la table affichera cette description au bas du formulaire lorsqu’une cellule est sélectionnée, afin d’en expliquer le contenu à l’opérateur. l’avertit immédiatement que la valeur n’est pas valide pour cette cel- lule particulière. Les routines de validation sont décrites plus loin dans ce chapitre. La double saisie Bien que la double saisie des données soit coûteuse en temps et en argent, elle est souvent recommandée pour minimiser les erreurs de GESTION DES DONNÉES | 135 saisie des données. Elle consiste à faire saisir toutes les données par deux opérateurs indépendants, puis à comparer leurs résultats pour identifier les incohérences. L’argument en faveur de cette méthode est qu’elle tient compte des erreurs de saisie. Les erreurs les plus dif- ficiles à contrôler sont les fautes de frappe. Dans la saisie unique, si l’opérateur a tapé, par exemple, « 2 » au lieu de « 3 », et que les deux réponses sont valides, il n’y a aucun moyen simple de détecter cette erreur. Si aucun opérateur ne commet d’erreurs, les fichiers seront identiques. Par contre, si un des opérateurs saisit mal une information, une différence apparaîtra entre les données. La vérification des don- nées entre fichiers peut être effectuée à l’aide de logiciels tels que SPSS (module de saisie des données), UltraEdit (doté d’UltraCom- pare), WinDem et Excel. Les trois premiers offrent des solutions faciles à utiliser et fiables au problème de la cohérence entre les fichiers, mais sont tous des suppléments coûteux à la suite de logiciels déjà utilisée dans ce volume. C’est pourquoi la section consacrée à la vérification des données dans le chapitre 11 décrit comment utiliser Excel pour détecter les fautes de frappe. La validation des données La validation des données est un processus permettant de prévenir les erreurs intervenant lors de la saisie dans la base de données. Les appli- cations de saisie des données les plus courantes (notamment WinDem, Access et Excel) associent des routines de validation à chaque cellule de saisie des données afin de minimiser les erreurs. Ces routines avertissent automatiquement l’opérateur lorsqu’elles détectent un problème avec une valeur introduite. Les modules de base de SPSS ne semblent pas offrir tout à fait ce niveau de contrôle des données saisies. Les erreurs les plus courantes rencontrées dans la saisie des don- nées sont notamment l’omission (le fait de sauter un champ) ; le « glissement », c’est-à-dire l’oubli d’une variable entraînant un déca- lage des suivantes ; l’erreur de saisie (introduction d’une réponse dif- férente de celle donnée par l’élève) ; et la duplication des réponses d’un élève par erreur ou parce que l’élève a rempli plusieurs carnets de test. Les méthodes d’identification des erreurs sont décrites dans le chapitre 11. 136 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES LA CRÉATION D’UN ÉCRAN DE SAISIE DES DONNÉES À L’AIDE DE MICROSOFT ACCESS Cette section montre comment utiliser Access pour minimiser les erreurs de saisie des données et décrit comment créer un écran pour la saisie des données. Elle traite des règles de validation permettant de minimiser les erreurs de codage et de saisie des données. Le tableau 10.1 donne une liste de variables (champs) habituelle- ment utilisées dans les évaluations nationales. Elles permettent d’ana- lyser les données par groupes (par exemple, la performance des élèves de cinq ans par rapport à celle des élèves de six ans, ou la performance des garçons par rapport à celle des filles). Cette liste n’est pas exhaus- tive. Dans certaines évaluations nationales et internationales (par exemple la National Assessment of Educational Progress – évaluation nationale des progrès de l’éducation des États-Unis, le Programme international pour le suivi des acquis des élèves et les Tendances de l’enquête internationale sur les mathématiques et les sciences), la liste des variables est vaste. Introduire des variables dans la table vierge Access et d’autres bases de données imposent généralement d’associer les données à un numéro de séquence. Des tables de liaison peuvent être créées en utilisant l’identifiant (ID) de l’élève dans l’évaluation. Pour les besoins de l’exercice 10.2, le champ contenant l’ID de l’élève est StudID. Il s’agit d’une variable numérique, unique pour chaque élève dans la base de données Access. Un nombre séquentiel lui est attri- bué et sera utilisé par certaines routines de nettoyage pour retrouver rapidement les élèves dans la base de données. L’identifiant de l’élève a été créé dans la base d’échantillonnage avant l’administration des tests. Ajouter des variables supplémentaires Pour créer des variables supplémentaires dans la table, rouvrez-la dans l’exercice 10.1, en mode Design View. L’exercice 10.3 guide le lecteur à travers le processus de création des variables démogra- phiques des élèves. GESTION DES DONNÉES | 137 TABLEAU 10.1 Variables habituellement collectées ou obtenues par les évaluations nationales Nom de la Type de variable (champ) données Description ou utilisation ID de l’élève Numérique L’identifiant de l’élève est créé avant l’administration des tests. Il est utilisé pour retrouver les enregistrements, la correspondance les fichiers entre eux, etc. Prénom Texte Le prénom de l’élève est saisi. Nom de famille Texte Le nom de famille de l’élève est utilisé pour le tri et la publication des résultats. Nom de Texte Le nom de l’établissement est saisi. l’établissement ID national de Alphanumé- L’identifiant de l’établissement saisi est celui utilisé dans l’établissement rique les registres administratifs nationaux. ID de Numérique L’identifiant individuel unique de l’établissement, créé l’établissement lors de l’échantillonnage, est utilisé pour retrouver les enregistrements, faire correspondre les fichiers entre eux, joindre les enregistrements des élèves à ceux de leur établissement respectif, etc. Nom de Texte L’identifiant de la classe ou de l’année d’études est l’enseignant utilisé. ID de la classe Texte ou L’identifiant de la classe ou de l’année d’études est numérique utilisé. Sexe de l’élève Texte ou Le sexe peut être codé sous forme de texte numérique (M ou F) ou de chiffre (1 = masculin, 2 = féminin). Date de naissance Date La date de naissance est utilisée pour identifier les de l’élève élèves dans les données longitudinales. Âge de l’élève Numérique L’âge peut être codé, groupé ou introduit comme une (en années) valeur discrète Langue parlée Numérique La langue est généralement codée comme suit : par l’élève 1 = langue maternelle, 2 = langue étrangère. Les valeurs par défaut Il est conseillé d’introduire une valeur par défaut que l’opérateur peut, dans la plupart des cas, laisser inchangée. Ainsi, la valeur par défaut peut être la valeur attendue lorsque le test est limité à un groupe particulier (comme les élèves de 3e année, dans notre étude de cas). On peut, par exemple, définir une variable indiquant si l’élève a ou non un manuel de science. Si la plupart des élèves en ont un, 138 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.2 Création de variables dans la base de données Pour créer des variables dans la base de données, procédez comme suit : 1. Ouvrez …\NAEA DATA CLEANING\MY SOLUTIONS\MATHS_3A_DATA.ACCDB. 2. Ouvrez la table TBL_YR3_MATHS_DATA créée dans l’exercice 10.1, en double- cliquant dessus dans le menu Table situé à gauche. Les tables s’ouvrent automatiquement en mode Datasheet View. Pour afficher la table en mode design, sélectionnez View – Design View dans le ruban Home. 3. Remplacez la valeur par défaut (ID) par StudID dans la colonne Field Name de la première ligne (voir la figure 10.2.A). Notez que cette première variable a été automatiquement définie en tant que clé primaire (indiquée par le bouton Primary Key en surbrillance dans le ruban Design et la petite icône Primary Key figurant à côté du Field Name). Cela signifie que sa valeur doit être unique dans toute la table (pas de doublons) afin que chaque enregistrement puisse être identifié et vérifié, et que d’autres tables puissent être jointes à la table à un stade ultérieur. FIGURE 10.2.A Saisir les propriétés des variables de la table Source : exemple dans le logiciel Access. 4. Positionnez-vous dans le champ Data Type. Cette action fait apparaître la boîte de dialogue Field Properties en dessous de la table. (Remarque : Certaines des propriétés figurant dans cette partie ont une flèche de déroulement. Cliquez sur le côté droit de la cellule associée à ces propriétés pour la voir apparaître.) 5. Cliquez sur la flèche de déroulement à droite de la cellule Data Type de la ligne StudID. Les options de type de données disponibles dans Access s’affichent alors dans un menu déroulant. 6. Sélectionnez Text en utilisant la souris ou les touches directionnelles du clavier (portant des flèches pointant vers le haut, le bas, la gauche et la droite). Notez que, bien que l’identifiant soit numérique, il doit être affiché dans un format où il apparaît GESTION DES DONNÉES | 139 EXERCICE 10.2 (suite) exactement tel qu’il a été saisi. Par exemple, si un ID numérique commence par 0, celui-ci ne pourra pas disparaître. Le format indiqué dans la boîte Field Properties est assigné par défaut par Access à une clé primaire ayant ce type de données (figure 10.2.A). 7. Déplacez-vous vers la colonne Description et saisissez Student ID dans la cellule. 8. Comme indiqué à l’étape 6, Access attribue un ensemble de valeurs par défaut dans la zone Field Properties lorsque le type de données est sélectionné dans la colonne Data Type. Dans le champ Field Size, saisissez le chiffre 7, qui correspond ici à la longueur de l’identifiant des élèves. Donnez la valeur Yes à Required et No à Allow Zero Length. Les champs restants peuvent rester inchangés. 9. Cliquez sur le bouton Office et sélectionnez Save. 10. À tout moment, vous pouvez fermer la table en utilisant l’icône située dans le coin supérieur droit, juste au-dessus de la barre de défilement verticale. (Remarque : Cette icône est différente du bouton de fermeture de la fenêtre entière situé dans le coin supérieur droit. L’activation de cette icône ferme la base de données entière.) Fermez la table en cliquant sur le bouton de fermeture de la table. La table apparaît maintenant sous la forme d’une icône dans le menu Tables, situé à gauche (figure 10.2.B). FIGURE 10.2.B Menu Tables montrant la table enregistrée, tbl_Yr3_Maths_Data Source : exemple dans le logiciel Access. la valeur par défaut peut être 1 pour indiquer « a un manuel de sciences ». Dans ce cas, on ne doit modifier ce champ que si l’élève n’a pas de manuel de science. Une autre possibilité consiste à donner par défaut une valeur invalide (n’appartenant pas au domaine des réponses autorisées) pour s’assurer de la saisie d’une valeur. En pareil cas, la valeur par défaut est automatiquement placée dans tous les nouveaux enregistrements, et est remplacée à la saisie des données. 140 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.3 Création de variables supplémentaires dans la base de données Cet exercice décrit les étapes de la création de variables supplémentaires dans la base de données : 1. Ouvrez …\NAEA DATA CLEANING\MY SOLUTIONS\MATHS_3A_DATA.ACCDB. 2. Ouvrez TBL_YR3_MATHS_DATA en mode Design View. 3. Saisissez les variables GivenName et FamilyName dans les deuxième et troisième lignes de la colonne Field Name. Le programme affichera par défaut le type de données Text, et la boîte de dialogue Field Properties s’ouvrira automatiquement pour que vous puissiez saisir les règles de saisie des données. Vous pouvez vous déplacer entre les cellules de cette partie en utilisant soit la touche Tab (le curseur se déplace dans la cellule suivante) soit la souris pour sélectionner le champ souhaité. 4. Saisissez l’information relative à la variable dans la zone Description, pour expliquer son contenu aux autres utilisateurs, notamment ceux chargés de la saisie des données (voir la figure 10.3.A). FIGURE 10.3.A Ajout de deux variables aux données des élèves Source : exemple dans le logiciel Access. 5. Dans Field Properties, donnez à Field Size la valeur 20 (caractères) pour les deux variables (voir la figure 10.3.A). La longueur du champ est définie par le champ Width utilisé dans le programme de saisie des données et le manuel de codage. (Remarque : Vous pouvez augmenter la longueur du champ et de la variable si les noms de plus de 20 caractères sont fréquents dans le pays de l’évaluation.) 6. Laissez les valeurs par défaut pour toutes les autres propriétés de la variable GivenName. 7. Pour la variable FamilyName, choisissez Yes dans la liste déroulante de la propriété Required pour indiquer que le nom de famille doit être saisi. GESTION DES DONNÉES | 141 EXERCICE 10.3 (suite) 8. Si une variable est facultative, la valeur par défaut Yes peut être maintenue pour la propriété Allow Zero Length. Pour d’autres variables, cette propriété doit, par contre, valoir No pour indiquer qu’une valeur doit y être introduite. Vous pouvez laisser les cinq dernières propriétés – Indexed, Unicode Compression, IME Mode, IME Sentences et Smart Tags – inchangées avec leurs valeurs par défaut. 9. Suivez la même procédure pour la variable SchoolName. Examinez les propriétés des variables et vérifiez qu’elles sont conformes aux informations de votre manuel de codage. Le type de données de toutes les variables a été défini comme texte. La section intitulée « Valeurs par défaut » traite de la saisie et de la définition des données de type numérique. La variable suivante est YearLevel. Il s’agit d’une donnée numérique d’une valeur égale à 3. 10. Saisissez le nom YearLevel dans la première colonne, puis sautez vers Data Type et sélectionnez Number dans le menu déroulant. La variable YearLevel correspond à l’année d’études de l’élève participant à l’évaluation. Dans certains cas, les classes sont dites « mixtes » lorsque tous les élèves n’appartiennent pas à la 3e année (les classes regroupent des élèves de 2e et 3e années ou des élèves de 3e et 4e années), et vous voulez pouvoir filtrer les données sur cette information. Nous verrons comment traiter les propriétés du champ YearLevel dans l’Exercice 10.5. 11. Cliquez sur le bouton Office et sélectionnez Save, ou tapez (CTRL+S) pour enregistrer la table. Un autre problème concerne le fait qu’un élève ou un répondant peut ne pas avoir donné de réponse, et que cette absence de réponse est considérée comme une « donnée manquante » qui doit être signalée par un code spécifique. Dans l’exercice 10.4, la valeur par défaut est fixée à 7, qui ne fait pas partie du domaine des réponses valides, pour indiquer là où l’opérateur a ou non effectué un change- ment. Si un certain champ est obligatoire, l’opérateur doit saisir une valeur appartenant au domaine des réponses valides (par exemple, 1 = A, 2 = B ; 3 = C 4 = D ; 8 = doublon ; 9 = donnée manquante). La validation La validation est le processus visant à assurer que seules des données plausibles sont introduites dans un champ. Par souci d’efficacité, il est conseillé de définir des règles de validation pour les données saisies afin de réduire au minimum les corrections à effectuer lors de la vérification. 142 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Par exemple, le champ correspondant à une question à choix mul- tiple proposant quatre options ne peut contenir que 1, 2, 3 ou 4 ; 8 (pour une réponse multiple) ; ou 9 (pour aucune réponse). Ces valeurs constituent le domaine des réponses valides. La valeur 6 n’est donc pas autorisée parce qu’elle ne représente pas une réponse possible. Les règles de validation impliquent d’introduire des codes dans l’application de saisie des données pour veiller à ce que seules les réponses valides soient acceptées. Si un opérateur commet une faute de frappe ou tente d’entrer une valeur ne faisant pas partie du domaine valide (code erroné ou wild code), le programme refusera cette valeur et invitera l’opérateur à saisir une valeur appartenant au domaine valide. Dans Access, les règles de validation sont définies dans les propriétés des variables (Field properties). L’exercice 10.5 montre comment utiliser ces propriétés. La préparation d’une table pour recevoir les données des items La majeure partie du temps consacré à l’enregistrement des données correspond à la saisie des réponses aux items des tests (et des EXERCICE 10.4 Définition des valeurs par défaut Procédez comme suit pour définir les valeurs par défaut : 1. Ouvrez …\NAEA DATA CLEANING\MY SOLUTIONS\MATHS_3A_DATA.ACCDB. 2. Ouvrez TBL_YR3_MATHS_DATA en Design View. 3. Créez la variable Gender après la variable YearLevel et définissez Data Type comme Number. 4. Dans la colonne Description, saisissez la valeur Gender : 1 = garçon ; 2 = fille ; 8 = réponse multiple ; 9 = donnée manquante. 5. Dans la zone Field Properties, donner la valeur 7 à Default value (voir la figure 10.5.B dans l’exercice suivant). En fixant la valeur par défaut en dehors du domaine des réponses valides, la variable Gender devient obligatoire, ce qui signifie que l’opérateur ne peut pas la sauter et doit y saisir une valeur. Si le carnet de test ne donne aucune réponse, l’opérateur doit saisir un 9 pour indiquer une donnée manquante. La définition du domaine des réponses valides est décrite dans la section « La validation ». GESTION DES DONNÉES | 143 questionnaires) administrés pour l’évaluation nationale. Le processus de création de la table des réponses aux items est similaire à celui utilisé pour les données démographiques des élèves. Les variables contenant les réponses sont généralement numériques. Des variables de type texte sont utilisées pour les réponses comprenant des mots, des phrases et des passages plus longs. EXERCICE 10.5 Utilisation des propriétés Validation Rule et Validation Text L’exercice suivant explique comment utiliser les règles de validation : 1. Ouvrez …\NAEA DATA CLEANING\MY SOLUTIONS\MATHS_3A_DATA.ACCDB. 2. Ouvrez tbl_Yr3_Maths_Data en Design View. 3. Pour la variable YearLevel, fixez Default Value à 7 et introduisez > 1 ET < 5 dans Validation Rule. Cette règle permet d’entrer des classes mixtes. Si les classes re- groupent des élèves appartenant à plusieurs années (par exemple, une classe où des élèves de 2e et 3e années suivent les cours en même temps), vous pouvez administrer les mêmes tests à tous les élèves pour comparer les performances des deux cohortes. La définition de valeurs valides comprises entre 1 et 5 vous permet de le faire. Validation Text est la propriété suivante dans la zone Field Properties. Elle permet au créateur de la base de données de définir le texte du message d’erreur qui apparaîtra lorsque la règle de validation est enfreinte par l’opérateur. 4. Cliquez sur le champ Validation Text et saisissez : Doit être dans une classe de 3e année ou dans une classe de 3e année mixte (voir la figure 10.5.A). Ce message d’erreur s’affiche si l’opérateur tente d’introduire une valeur n’appartenant pas au domaine valide. 5. Remplissez les propriétés Validation Rule et Validation Text pour la variable Gender. Ici, les valeurs possibles sont : 1 pour garçon, 2 pour fille, 8 pour une réponse multiple et 9 pour une donnée manquante (voir la figure 10.5.B). Les codes utilisés pour le champ Age dans le carnet de test sont : 1 pour « moins de 8 ans » ; 2 pour « 8 ans » ; 3 pour « 9 ans » et 4 pour « plus de 9 ans ». La figure 10.5.C montre comment ces données sont saisies. La variable suivante est un indicateur déterminant si la langue régulièrement parlée à la maison est différente de celle des tests (par exemple, l’anglais). Les codes utilisés (base des codes) sont souvent précisés dans la colonne Description. Notez que pour la variable TestLanguage, les valeurs possibles sont 1 pour Yes (on parle régulièrement une autre langue) et 2 pour No (on ne parle pas régulièrement une autre langue) (voir la figure 10.5.D). (suite) 144 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.5 (suite) FIGURE 10.5.A Exemple de règle de validation Source : exemple dans le logiciel Access. FIGURE 10.5.B Exemple de texte de validation pour Gender Source : exemple dans le logiciel Access. GESTION DES DONNÉES | 145 EXERCICE 10.5 (suite) FIGURE 10.5.C Validation des valeurs codées pour Age Source : exemple dans le logiciel Access. FIGURE 10.5.D Validation des valeurs textuelles pour TestLanguage Source : exemple dans le logiciel Access. 6. Remplissez les champs Default Rule, Validation Rule, et Validation Text pour les variables Age et TestLanguage, et enregistrez la table en utilisant (CTRL+S). 146 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES La saisie des données À ce stade, la table où les réponses données par les élèves seront enre- gistrées a été créée, mais aucune donnée n’a encore été saisie. Un écran de saisie des données doit maintenant être créé pour la table, afin de contribuer à garantir la cohérence et la précision de la saisie. Dans Access, cet écran est appelé formulaire. Les exercices 10.6, 10.7, 10.8 et 10.9 traitent de divers aspects de la saisie des données et de la création des formulaires. Création de nouvelles variables dans une table ou ajout de champs dans le formulaire Des champs supplémentaires doivent parfois être ajoutés (par exemple, si la table a été créée avec 12 items et que le test en compte 30). Il y a deux manières d’ajouter de nouveaux champs. La première EXERCICE 10.6 Saisie des réponses aux items dans une base de données Cet exercice vous apprend comment saisir les données des réponses aux items dans une base de données : 1. Ouvrez …\My Solutions\Maths_3a_data.accdb (avec les changements enregistrés lors des exercices précédents). 2. Ouvrez tbl_Yr3_Maths_Data en Design View. 3. Saisissez les informations nécessaires pour le premier item : Q3Aq01. Encore une fois, vous devrez consulter votre manuel de codage ou la solution du manuel de codage fournie dans le répertoire EXERCISE SOLUTIONS. Remarque : Cet item est une question à réponse construite. Dans Field Properties, donnez la valeur Yes à Required, définissez une Default Value de 77, et précisez la Validation Rule et le Validation Text. Comparez vos réponses à celles données dans la figure 10.6.A. Remarque : Pour les données numériques, la propriété Field Size est définie par défaut comme Double ou Long Integer. Il s’agit d’un type interne de données autorisant les opérations mathématiques. Conservez la valeur par défaut. 4. Saisissez les propriétés de la variable correspondant au deuxième item du test de mathématiques. Il s’agit d’une question à choix multiple (MC en anglais) proposant quatre options de réponse (figure 10.6.B). GESTION DES DONNÉES | 147 EXERCICE 10.6 (suite) FIGURE 10.6.A Réponses aux items : Question 1 Source : exemple dans le logiciel Access. FIGURE 10.6.B Réponses aux items : Question 2 Source : exemple dans le logiciel Access. La fonction Copier-coller peut être utilisée pour reproduire les propriétés de l’item 2 dans les autres items à choix multiple (tels que Q3Aq07, Q3Aq08, Q3Aq09 et ainsi de suite) dont les options de réponse sont identiques. Par exemple, vous pouvez reproduire l’information et les propriétés (y compris la règle de validation et le texte de validation) d’une question à choix multiple dans toute autre question à choix multiple en copiant le champ Q3Aq02 (CTRL+C), affiché en surbrillance (suite) 148 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.6 (suite) dans la figure 10.6.B, et en le collant (CTRL+V) dans une nouvelle ligne (pour créer, par exemple, Q3Aq07). Remplacez la valeur de Field Name (par exemple, par Q3Aq07), et répétez la procédure pour chaque question à choix multiple du test. 5. Créez les champs pour les items restants, jusqu’à l’item 14. La figure 10.6.C montre le format de la table pour les 14 questions et les données démographiques, ainsi que les propriétés de la variable correspondant à la question 11. Q3Aq04 est un item à réponse construite. L’opérateur doit saisir la réponse réellement donnée par l’élève ou 99 si l’élève n’a donné aucune réponse à la question. Les réponses aux items du test seront corrigées plus tard, lorsque toutes les données auront été saisies, vérifiées et validées. FIGURE 10.6.C Structure des variables contenant les données démographiques et les réponses aux items Source : exemple dans le logiciel Access. 6. Enregistrez la table (CTRL+S). 7. Ouvrez …\EXERCISE SOLUTIONS\MATHS_3A_DATA_SOLUTION1.ACCDB et comparez la table TBL_YR3_MATHS_DATA_SOLUTION1 à votre table TBL_YR3_ MATHS_DATA. Si elles présentent des différences significatives, copiez le format et les données des champs de la table TBL_YR3_MATHS_DATA_ SOLUTION1 dans votre table. GESTION DES DONNÉES | 149 EXERCICE 10.7 Création d’un formulaire Dans cet exercice, vous allez apprendre à créer un formulaire : 1. Ouvrez …\MY SOLUTIONS\MATHS_3A_DATA.ACCDB avec les changements enregistrés dans les exercices précédents. 2. Sélectionnez la table TBL_YR3_MATHS_DATA dans le menu à gauche de l’écran. Ensuite, dans le ruban Create, cliquez sur Form (voir la figure 10.7.A). FIGURE 10.7.A Créez un formulaire de saisie des données Source : exemple dans le logiciel Access. Le programme génère automatiquement un formulaire à l’aide des variables de la table choisie, comme le montre la figure 10.7.B. FIGURE 10.7.B Formulaire généré automatiquement Source : exemple dans le logiciel Access. (suite) 150 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.7 (suite) 3. Enregistrez le formulaire en cliquant sur Office – Save (ou CTRL+S). Remplacez le préfixe tbl_ (indiquant une table) par frm_ (pour indiquer qu’il s’agit du formulaire de la table TBL_YR3_MATHS_ DATA), et cliquez sur OK. Il est possible que la structure du formulaire montrée dans la figure 10.7.B ne convienne pas pour une saisie rapide des données. Généralement, la saisie des données peut être facilitée lorsque les champs du formulaire sont disposés de la même façon que dans le carnet de test ou la feuille de réponses. EXERCICE 10.8 Modification de la structure du formulaire Pour modifier la structure du formulaire, procédez comme suit : 1. Ouvrez …\MY SOLUTIONS\MATHS_3A_DATA.ACCDB avec les changements enregistrés dans les exercices précédents. 2. Dans le menu All Access Objects situé à gauche, ouvrez FRM_ YR3_MATHS_DATA en mode Design View. Les champs du formulaire peuvent maintenant être modifiés, ajoutés ou supprimés. 3. Faites un clic droit sur le formulaire affiché dans le panneau de gauche. Sélectionnez tous ses champs à l’aide de la fonction cliquer-glisser de la souris pour « attraper » toutes les zones du formulaire. Vous pouvez sélectionner toutes les zones en appuyant sur CTRL+A (« Sélectionner tout »). Sélectionner Form Design Tools – Arrange dans le ruban, puis cliquez sur Remove dans la zone Control Layout. Cette opération supprime la structure précédente appliquée aux contrôles, et les champs peuvent maintenant être déplacés au sein du formulaire. 4. Sélectionnez les champs que vous voulez déplacer à un autre endroit du formulaire, et utilisez la souris (fonction cliquer-glisser) ou les touches directionnelles du clavier pour déplacer le champ vers l’endroit souhaité (figure 10.8.A). En cliquant sur le premier champ (par exemple, StudID) puis en maintenant la touche Maj enfoncée vous pouvez cliquer sur d’autres champs pour en sélectionner plusieurs en même temps. N’oubliez pas de relâcher la touche Maj et placez le curseur dans l’un des champs sélectionnés (en surbrillance) avant de les déplacer avec la souris (ou vous pouvez relâcher la touche Maj et déplacer les champs à l’aide des touches directionnelles). Vous pouvez égale- ment sélectionner plusieurs champs en utilisant la fonction cliquer-glisser de la souris pour « attraper » les champs souhaités. GESTION DES DONNÉES | 151 EXERCICE 10.8 (suite) FIGURE 10.8.A Déplacement des champs du formulaire Source : exemple dans le logiciel Access. FIGURE 10.8.B Modification de la dimension des champs Source : exemple dans le logiciel Access. (suite) 152 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.8 (suite) Notez que vous pouvez faire glisser la barre Form Footer en plaçant le curseur dans la partie supérieure de la boîte Form Footer et en utilisant la fonction cliquer-glisser pour la déplacer vers le bas à l’endroit souhaité. 5. Les champs peuvent également être redimensionnés en cliquant dessus et en modi- fiant leur forme. Sélectionnez les champs que vous souhaitez redimensionner, puis tirez sur les flèches situées sur les coins ou les côtés des petites zones noires en surbrillance pour obtenir la forme souhaitée (figure d’exercice 10.8.B). 6. Enregistrez les modifications (CTRL+S) avant de quitter le formulaire. EXERCICE 10.9 Saisie des données dans le formulaire Procédez comme suit pour saisir les données dans le formulaire : 1. Ouvrez …\MY SOLUTIONS\MATHS_3A_DATA.ACCDB avec les changements enregistrés dans les exercices précédents. 2. Ouvrez FRM_YR3_MATHS_DATA dans le menu All Access Objects en mode Form View (mode par défaut). 3. Saisissez les données démographiques (figure 10.9.A) provenant du carnet de test du premier élève ainsi que ses réponses, qui peuvent être tirées du résumé des réponses de cet élève, présenté dans la figure 10.9.B (Remarque : Ces informations sont normalement tirées directement du carnet de l’élève, mais un résumé des réponses de l’élève a été créé pour gagner de la place.) 4. Les données (figure 10.9.C) seront automatiquement enregistrées dans la table correspondant au formulaire, ici TBL_YR3_MATHS_3A_DATA. À mesure que les données sont saisies, la taille de la table augmente de manière à accepter de plus en plus d’enregistrements. GESTION DES DONNÉES | 153 EXERCICE 10.9 (suite) FIGURE 10.9.A Données de l’élève à saisir dans le formulaire 2007 MATHS 3A ID de l’élève: 1294302 Nom : Aaron Anama (Prénom) (Nom de famille) Établissement : Eaglehawk school Année : 3 Es-tu un garçon ou une fille ? Garçon Fille Quel âge auras-tu cette année ? moins de 8 ans 8 9 plus de 9 ans Parles-tu habituellement une langue autre que l’anglais à la maison ? Oui Non (suite) 154 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.9 (suite) FIGURE 10.9.B Résumé des réponses aux items données par l’élève Réponse Champ Type de l’élève Q3Aq01 RC 15 Q3Aq02 CM 3 Q3Aq03 CM 4 Q3Aq04 RC 28 Q3Aq05 RC 1 Q3Aq06 RC 24 Q3Aq07 CM 2 Q3Aq08 CM 1 Q3Aq09 CM 3 Q3Aq10 CM 2 Q3Aq11 MT 1 Q3Aq12 RC 1 Q3Aq13 CM Q3Aq14 CM 1 Source : exemple dans le logiciel SPSS. FIGURE 10.9.C Introduction des données de l’enregistrement 1 Source : exemple dans le logiciel Access. GESTION DES DONNÉES | 155 EXERCICE 10.9 (suite) Chaque fois qu’une donnée incorrecte est saisie, une boîte de dialogue avertit l’opérateur de l’erreur. Dans la figure 10.9.D, par exemple, l’opérateur a tenté de saisir 6 dans le champ YearLevel alors que les seules valeurs valides sont 2, 3 et 4. Si des critères de validation incorrects ont été spécifiés dans la conception de la table (par exemple, seules les valeurs 1, 2, 3 ou 9 sont définies comme valides alors que 4 devrait également l’être), et empêchent l’opérateur de saisir une valeur valide, vous pouvez utiliser Design View pour ajouter cette valeur dans les critères de validation figurant dans les propriétés de la table correspondant au formulaire (voir l’exercice 10.6 pour les instructions relatives à la spécification des règles de validation). Veillez à tester votre table et le formulaire avant de commencer la saisie des données. Les erreurs sont plus facilement corrigées à ce stade, mais plus difficiles à détecter par la suite. Si plusieurs personnes saisissent les données, attribuez à chacune une copie du formulaire Access de manière à pouvoir les contrôler individuellement. Il arrive qu’un opérateur soit négligent. En mode Edit, le saut à la cellule suivante entraîne la sélection automatique du champ suivant, et les données saisies écrasent la valeur par défaut. L’appui sur la touche Tab au niveau du dernier champ d’un enregistrement fait apparaître l’enregistrement suivant pour la saisie des données. FIGURE 10.9.D Exemple de tentative de saisie d’une donnée incorrecte Source : exemple dans le logiciel Access. 156 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES consiste à cliquer sur l’icône ab| de la barre d’outils, dans le ruban Form Design Tools – Design, et à cliquer à l’endroit du formulaire où le champ doit être ajouté. (Remarque : Si l’icône n’est pas visible, appuyez sur le bouton illustré par un marteau et une clé à molette dans la barre d’outils, et elle apparaîtra.) La taille et la forme de l’inti- tulé et de la boîte de texte (ainsi que les propriétés de la variable) contiennent les valeurs par défaut. Elles doivent être redimensionnées (ou modifiées) manuellement pour les rendre identiques aux intitulés et boîtes de texte figurant déjà sur le formulaire. Pour définir la source de contrôle de la boîte de texte, cliquez à droite sur celle-ci, sélection- nez Property Sheet dans le ruban Design, cliquez sur l’onglet Data et choisissez la source appropriée dans le menu déroulant de Control Source. Ces étapes remplaceront le contenu de la boîte de texte Unbound par la source appropriée. La deuxième (et plus rapide) façon d’ajouter un nouveau champ consiste à copier (CTRL+C) un intitulé et une zone de texte, et à les coller (CTRL+V) dans le formulaire. Cette copie sera parfaitement identique à l’élément d’origine. Plusieurs groupes intitulé-boîte de texte peuvent être ajoutés par copier-coller. Une fois les variables créées, leur nom et leurs propriétés peuvent être modifiés. Les intitu- lés et boîtes de texte sont collés automatiquement dans le coin supé- rieur droit de la page et peuvent être déplacés à l’aide de la fonction cliquer-glisser ou des touches directionnelles. Exportation des données Lorsque toutes les données ont été saisies, vous pouvez examiner les données enregistrées dans la table liée au formulaire. Les données saisies dans un formulaire ou une table Access peuvent être exportées sous la forme d’un fichier .xls ou .txt en ouvrant la table à exporter et en cliquant sur l’icône Excel ou Text file de la section Export du ruban External Data. La destination du fichier peut être modifiée en cliquant sur le bouton Browse et en naviguant jusqu’à l’emplacement souhaité. Le nom du fichier peut être modifié dans la boîte FileName. Notez qu’aucun des exercices n’utilise des données exportées par Excel comme source des données ; l’export est utilisé en tant que mécanisme de contrôle, comme décrit dans l’exercice 11.1. GESTION DES DONNÉES | 157 Les données ne peuvent pas être exportées directement vers SPSS à partir d’Access, mais elles peuvent être importées dans SPSS à l’aide des instructions données dans l’exercice 10.10. Le transfert des don- nées d’une application à l’autre peut toutefois entraîner des erreurs et doit, par conséquent, être limité au strict minimum. La table Access importée dans SPSS dans l’exercice 10.10 contien- dra uniquement les données saisies manuellement dans les exercices précédents. Pour gagner du temps, un ensemble de données a été créé et importé dans SPSS. Il s’appelle DATA_SET_1.SAV dans le réper- toire EXERCISES. Ce fichier SPSS contient 297 enregistrements et des erreurs délibérées y ont été ajoutées, afin de pouvoir les traiter dans les prochains exercices. Les données relatives à l’intitulé, aux valeurs et aux colonnes manquantes en mode Variable View ont éga- lement été ajoutées. Notez qu’une colonne SchoolID a été ajoutée pour cet ensemble de données. Les parties 1 et 2 de ce volume ont expliqué comment créer et utiliser les numéros d’identification des établissements scolaires lors de la conduite des évaluations nationales (voir p. 22 et 67). Les instructions pour la création de variables déri- vées sont fournies dans les parties II et IV du présent volume. EXERCICE 10.10 Importation de données dans SPSS Les étapes suivantes vous permettront d’importer des données dans SPSS à partir d’un formulaire Access : 1. Ouvrez SPSS (Start – Programs – SPSS). 2. Sélectionnez File – Open database – New Query. La fenêtre Database Wizard s’affiche. Sélectionnez MS Access Database dans la liste ODBC Data Sources. Cliquez ensuite sur Next. 3. La fenêtre ODBC Driver Login s’affiche. Cliquez sur le bouton Browse et naviguez jusqu’à l’endroit où votre base de données Access (…NAEA DATA CLEANING\MY SOLUTIONS) est enregistrée. Sélectionnez votre base de données (MATHS_3A_DATA. ACCDB), cliquez sur Open et ensuite sur OK. 4. La table tbl_Yr3_Maths_Data apparaît dans la boîte Available Tables. Un double clic sur l’icône associée ou un simple clic sur la flèche à droite de cette boîte permet de retrouver tous les champs de cette table (figure 10.10.A). Cliquez sur Next. (suite) 158 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 10.10 (suite) FIGURE 10.10.A Importation du fichier de données Source : exemple dans le logiciel Access. 6. L’écran suivant vous permet de limiter le nombre des enregistrements retrouvés en précisant des critères de sélection. Vous les souhaitez tous, donc cliquez simplement sur Next. 7. L’écran suivant vous permet de modifier les noms et les propriétés des variables. Pour les besoins de cet exercice, laissez les valeurs par défaut et cliquez sur Next. 8. Le dernier écran montre la syntaxe SPSS qui peut être utilisée pour effectuer l’import. Si des imports identiques (ou des importats similaires avec de légères modifications) doivent être effectués à l’avenir, vous souhaiterez coller la syntaxe pour une utilisation ou modification future. Pour l’instant, laissez l’option Retrieve the data I have selected sélectionnée. Cliquez sur Finish. (Notez qu’en mode Variable View, les colonnes Label, Values et Missing sont vierges. Ces colonnes devraient idéalement être remplies avant l’analyse des données.) CHAPITRE 11 VÉRIFICATION DES DONNÉES La vérification des données est le processus consistant à s’assurer que les données obtenues des différentes sources sont exemptes d’erreurs. Les processus de saisie des données correc- tement planifiés, documentés et supervisés contribuent à réduire les erreurs lorsque les réponses des élèves aux tests et questionnaires sont transférées vers des supports de données électroniques. Les sources d’erreurs subsistent toutefois, notamment la saisie incorrecte, l’omis- sion de données, la mauvaise manipulation et la fusion de données issues de sources différentes. LA DOCUMENTATION Étant donné que dans les évaluations nationales, des équipes tra- vaillent sur différents aspects des données, parfois pendant un temps considérable, l’organisme responsable de l’évaluation doit garder un journal de tous les changements apportés aux données. Il sera particulièrement utile à ceux qui réalisent des évaluations nationales de suivi ou qui effectuent des analyses secondaires des données. 159 160 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Un fichier ReadMe doit donc être créé pour enregistrer tous les changements apportés aux données par les opérateurs clés pendant la vérification des données. Ce fichier doit également indiquer la source et le nom du fichier dont les données ont été nettoyées. Ce journal doit aider à éviter toute confusion quant à la version des données qui doivent être analysées. Même si certains programmes tels que SPSS (Statistical Package for the Social Sciences – logiciel d’analyse statis- tique pour les sciences sociales) enregistrent automatiquement les modifications apportées aux données pendant leur utilisation, il reste important de conserver un fichier ReadMe tout au long du projet, pour garder, à un même endroit, la trace des changements apportés par tous les programmes et opérations. Le fichier ReadMe, intitulé README.DOCX dans le répertoire EXERCISE SOLUTIONS, est un exemple de la documentation du processus de nettoyage des données (voir l’annexe III.A). LA COHÉRENCE ENTRE LES FICHIERS Dans de nombreuses évaluations nationales, les données sont saisies deux fois. Le but est de comparer deux ensembles de données pour détecter les cas de saisie incorrecte. Lorsque l’évaluation nationale prévoit la double saisie des données, l’exactitude de chaque fichier doit être vérifiée et les données erronées corrigées. L’exercice 11.1 contient les réponses de six élèves tirées d’un plus vaste ensemble de données saisies deux fois et comparées pour vérifier leur exactitude. Pour des raisons d’économie et de commodité, Excel a été utilisé afin de comparer les réponses dans cet exercice. Habituellement, des programmes moins facilement disponibles, tels que WinDem, ou plus coûteux, tels que le module Data Entry de SPSS, sont utilisés pour le contrôle de la cohérence entre fichiers. Le point important est que l’utilisation d’Excel à cet effet n’exige pas que les données importées soient utilisées par une quelconque analyse ultérieure. Excel est simplement utilisé en tant qu’outil mettant en évidence d’éventuelles erreurs dans les données Access, qui sont ensuite corrigées manuellement dans la base de données Access. Cette méthode limite, par conséquent, les possibilités d’erreurs lors du VÉRIFICATION DES DONNÉES | 161 EXERCICE 11.1 Vérification des données avec Excel Les étapes suivantes vous permettront de vérifier des données à l’aide d’Excel : 1. Ouvrez…\NAEA Data Cleaning\Exercises\Data Verification Exercise.xlsx. Notez que les données des deux sources sont placées dans deux feuilles distinctes intitulées Final data et Punch 2. La feuille 3 (Verification) sera utilisée pour la vérification des données. 2. Cliquez sur Office – Save as et enregistrez le fichier sous le nom MY_DATA_VERIFI- CATION.XLSX dans le répertoire MY SOLUTIONS. 3. Dans la cellule A4 de la feuille Verification, saisissez la formule suivante : =’Final data’!A4=’Punch 2’!A4. Cette formule compare le contenu de la cellule A4 de la feuille Final data à celui de la cellule A4 de la feuille Punch 2. Faites un copier-coller de cette formule dans toutes les cellules correspondant à l’ensemble complet des données. 4. Excel effectue une comparaison logique vérifiant que les cellules sont identiques. Ce processus renvoie la valeur TRUE si les contenus sont identiques et FALSE s’ils sont différents. Le résultat de la comparaison dans Verification est montré dans la figure 11.1.A. FIGURE 11.1.A Résultat de la vérification Source : exemple dans le logiciel Excel. (suite) 162 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 11.1 (suite) 5. Enregistrez le classeur Excel (CTRL+S). La solution de cet exercice se trouve dans …\ NAEA DATA CLEANING\EXERCISE SOLUTIONS\DATA_VERIFICATION_ EXER- CISE_SOLUTION.XLXS. Le résultat de la validation présenté dans la figure 11.1.A met en évidence deux FALSE dans la colonne Given name, correspondant à des fautes de frappe dans les prénoms. Les cinq erreurs apparaissant dans les autres cellules doivent être vérifiées en se référant aux carnets de test originaux. Les corrections apportées aux données doivent être effectuées dans la table Access concernée, et toutes les corrections doivent être consignées dans le fichier README. DOCX, comme indiqué dans la section « La Documentation » de ce chapitre. transfert des données d’une application à l’autre. Remarque : Dans une évaluation nationale réelle, une copie de sécurité de la base de données originale (avant édition) doit être créée. Cet enregistrement initial peut constituer une ressource inestimable, en particulier si des ques- tions sont soulevées à propos d’éventuelles modifications erronées. LA COHÉRENCE AU SEIN D’UN FICHIER La cohérence au sein d’un fichier concerne les processus vérifiant que les données sont aussi exactes que possible. Même avec un écran de saisie des données bien conçu, des données erronées ou incomplètes sont encore possibles. Par exemple, dans une évaluation nationale visant les classes de 3e et 7e année, des classes mixtes regroupant plus d’une année peuvent également participer. Les réponses valides pour le champ Year level doivent donc être 2, 3, 4, 6, 7 et 8, mais si la règle de validation spécifie que seules les valeurs numériques comprises entre 2 et 8 (inclus) sont acceptées, une valeur erronée de 5 peut être saisie sans être détectée. Habituellement, lorsque des incohérences sont détectées dans les données, la seule option est de se référer au document source initial (la copie papier du test de l’élève) et de corriger l’erreur. Il est donc essentiel que le personnel de saisie des données ait facilement accès aux originaux des tests et questionnaires. VÉRIFICATION DES DONNÉES | 163 Le programme SPSS est largement disponible et a donc été utilisé dans la section suivante pour vérifier la cohérence au sein des fichiers. Les autres programmes pouvant efficacement effectuer cette tâche sont notamment WinDem, STATISTICA et SAS (Statistical Analysis System – logiciel d’analyse statistique). La cohérence des données démographiques (Nom de l’établissement) Les fautes d’orthographe ne sont pas rares dans les carnets de test et les questionnaires et peuvent causer des problèmes de gestion des données. Une erreur assez commune se produit quand l’élève écrit incorrecte- ment ou abrège le nom de l’établissement et que l’opérateur recopie exactement ce qui est écrit dans le carnet de test de l’élève. (Ce type d’erreur ne pose pas de problème lorsque l’identifiant des élèves, ID, est constitué avec le code de l’établissement avant l’envoi des tests et ques- tionnaires aux établissements.) Il n’est pas rare de trouver dans les carnets des élèves plusieurs variantes du nom d’un même établissement. C’est pourquoi il est préférable de joindre et fusionner des fichiers à l’aide de l’identifiant de l’établissement (tiré de la base d’échantillon- nage) plutôt que du nom (fourni par les élèves participant aux tests). Pour la production des rapports, il vaut mieux créer une table sépa- rée dans la base de données Access avec les noms des établissements correctement orthographiés et les identifiants correspondants. Cette table peut ensuite être jointe à la table des réponses des élèves et être utilisée à des fins, entre autres, officielles (par exemple, pour impri- mer le nom de l’établissement sur le certificat de test des élèves, dans les rares cas où les élèves reçoivent leurs résultats). La liaison de la table des établissements avec celle des réponses des élèves est présen- tée dans le chapitre 16. La commande Frequency La commande Frequency de SPSS permet d’observer toutes les valeurs existantes d’une variable sélectionnée. Les valeurs non valides éven- tuellement constatées peuvent être corrigées après vérification avec le carnet de test original. Les résultats du contrôle des fréquences peuvent 164 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES également être utilisés pour détecter la présence de valeurs non plau- sibles. Par exemple, si les tests de l’évaluation nationale ont été admi- nistrés dans tous les établissements du pays à un niveau scolaire déterminé, on peut raisonnablement s’attendre à une répartition rela- tivement égale (50:50) des garçons et des filles dans la variable Gender. Si la table des fréquences montre une répartition 70:30, il faudra en rechercher les causes et, le cas échéant, corriger le problème. La fonction Frequency convient pour la plupart des variables non continues. Dans tous les cas, la recherche d’anomalies est recomman- dée pour tous les champs, quelles que soient les règles de validation définies pour la saisie des données. Remarque : La valeur 13 invalide dans le champ Q3Aq02, repérée dans l’exercice 11.2, ne devrait théoriquement pas être possible avec les règles de validation définies dans Access pour la saisie des données. Elle est néanmoins présentée ici à titre d’exemple. Cellules vides dues au système En règle générale, l’ensemble de données ne doit contenir aucune variable vide (nulle). Le cadre de codage et les procédures de valida- tion doivent prévoir toutes les réponses possibles, y compris la non- réponse (généralement codée 9, 99, ou 999 suivant la longueur du champ). Les variables vides peuvent induire une interprétation erro- née et entraîner une incertitude sur les données. Elles peuvent être interprétées comme le fait que les données étaient manquantes, que l’opérateur a commis une erreur ou oublié de saisir une valeur dans ces champs, ou qu’en raison de la navigation entre les champs, aucune réponse n’était requise ou attendue. Les exemples de saisie des données du chapitre 10 utilisaient la valeur par défaut 7 pour les questions à choix multiple. La valeur 7 étant non valide, lorsqu’elle subsiste pour une question à choix mul- tiple, on peut en déduire que l’opérateur n’a saisi aucune valeur dans le champ correspondant. La commande Frequency décrite dans l’exercice 11.2 peut être utilisée pour localiser les valeurs manquantes, afin de pouvoir les modifier après avoir consulté le carnet de test de l’élève (voir exercice 11.3). VÉRIFICATION DES DONNÉES | 165 EXERCICE 11.2 Utilisation de la commande Frequency dans SPSS Cet exercice vous apprend à utiliser la commande Frequency dans SPSS : 1. Ouvrez…\NAEA DATA CLEANING\EXERCISES\DATA_SET_1.SAV. 2. Sélectionnez File – Save as et enregistrez le fichier sous MY_DATA_SET_1.SAV dans votre répertoire MY SOLUTIONS. 3. Dans le menu Analyze, sélectionnez Descriptive Statistics – Frequencies. 4. Dans la liste des variables de la fenêtre Frequencies, sélectionnez la variable Q3Aq02 et cliquez sur la flèche (ou double-cliquez simplement sur le nom de la variable) pour la faire apparaître dans la liste des variables située à droite (figure 11.2.A). Remarque : Vous pouvez sélectionner plus d’une variable à la fois. FIGURE 11.2.A Exécution de la commande Frequency pour détecter les valeurs non valides Source : exemple dans le logiciel SPSS. 5. Cliquez sur OK. 6. Les résultats sont affichés dans une fenêtre SPSS (figure 11.2.B). La colonne Frequency contient le nombre de réponses (fréquence) correspondant à chaque valeur de Q3Aq02 trouvée dans les données de la table, y compris les valeurs manquantes dues à l’opérateur et au système. Les pourcentages respectifs, valides et cumulés sont également donnés pour chaque valeur trouvée. L’exemple montre une valeur 13, non valide pour cette variable. (suite) 166 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 11.2 (suite) FIGURE 11.2.B Valeurs trouvées pour la variable Q3Aq02 Statistics Q3Aq02 N Valid 291 Missing 6 Q3Aq02 Frequency Percent Valid Cumulative Percent Percent Valid A : Leah 1 .3 .3 3 B : Marie 2 .7 .7 1.0 C : Sarah 286 96.3 98.3 99.3 D : Kari 1 .3 .3 99.7 13 1 .3 .3 100.0 Total 291 98.0 100.0 Missing 8 2 .7 9 3 1.0 System 1 .3 Total 6 2.0 Total 297 100.0 Source : exemple dans le logiciel SPSS. 7. Revenez à l’affichage de la table en mode Data View, sélectionnez la colonne contenant les données de la variable Q3Aq02, et sélectionnez Edit – Find (CTRL+F). 8. Tapez 13 dans le champ Find et cliquez sur Find Next. Cette commande localise la valeur non valide dans l’ensemble de données. Elle appartient, dans le cas présent, à l’élève Anthony Jamap (ID 2152410). 9. Dans le cadre d’une évaluation nationale, la valeur erronée sera comparée à la réponse donnée dans le carnet de test de l’élève et sera modifiée en conséquence. Dans notre exemple, la valeur 13 est remplacée par 3 dans la cellule Q3Aq02 de l’élève, et la modification est enregistrée (CTRL+S). 10. Enregistrez la modification dans le fichier README.DOCX, comme indiqué dans la figure 11.2.C. VÉRIFICATION DES DONNÉES | 167 EXERCICE 11.2 (suite) FIGURE 11.2.C Extrait du fichier README.DOCX Stud ID Variable Data value Repaired value 2152410 Q3aq02 13 3 Si vous exécutez à nouveau la fonction Frequency (étapes 3 à 5), vous constaterez que, maintenant, plus aucun résultat n’apparaît pour la valeur 13 et que les instances de la troisième réponse (C : Sarah) sont passées de 286 à 287 dans la table. EXERCICE 11.3 Utilisation de la commande Frequency pour localiser les valeurs manquantes Vous pouvez utiliser la commande Frequency pour trouver les valeurs manquantes comme suit : 1. Ouvrez …\NAEA DATA CLEANING\MY SOLUTIONS\MY_DATA_SET_1.SAV (contenant les modifications des exercices précédents). 2. Exécutez la commande Frequency (comme indiqué dans l’exercice précédent), en transférant cette fois toutes les variables, depuis Gender jusqu’à Q3Aq14, dans la liste des variables. 3. Dans la table des fréquences de la variable Gender (figure 11.3.A), vous pouvez constater deux valeurs manquantes représentées par 1 : l’une due au système, dans la cellule à droite de System ; l’autre due à l’utilisateur, dans la cellule à droite du 9 figurant dans la première colonne. FIGURE DE L’EXERCICE 11.3.A Valeurs manquantes de Gender Gender Valid Cumulative Frequency Percent Percent Percent Valid Boy 147 49.5 49.8 49.8 Girl 148 49.8 50.2 100.0 Total 295 99.3 100.0 Missing 9 1 .3 System 1 .3 Total 2 .7 Total 297 100.0 Source : exemple dans le logiciel SPSS. (suite) 168 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 11.3 (suite) 4. Pour localiser cette valeur manquante dans la table (en mode Data View), sélection- nez Data – Sort Cases. Dans la fenêtre Sort Cases, sélectionnez la variable Gender et cliquez sur la flèche pour transférer cette variable dans la boîte Sort by. Cliquez ensuite sur OK. 5. L’enregistrement contenant la valeur manquante dans Gender apparaît maintenant en première position. Il correspond au StudID 4106321 de Simon Patchatt (figure 11.3.B). Si le sexe de l’élève ne peut être confirmé, vous devez introduire la valeur 9. Dans notre exemple, supposons que vous avez vérifié le carnet de test de l’élève qui indiquait 1 pour le sexe. Nous introduisons donc la valeur 1 (pour garçon) dans la cellule. FIGURE 11.3.B Saisie de la valeur correcte Source: exemple dans le logiciel SPSS. 6. Enregistrez (CTRL+S) les modifications apportées à la table SPSS. 7. Consignez la modification (figure 11.3.C) dans …\EXERCISE SOLUTIONS\READ ME.DOCX. FIGURE 11.3.C Mise à jour de README.DOCX Stud ID Variable Data value Repaired value 4106321 Gender Missing data 1 8. Pour les autres variables ayant des valeurs manquantes ou des valeurs 7, saisissez le code approprié (par exemple, 9 ou 99) et enregistrez les changements dans votre document ReadMe. Vous pouvez comparer vos modifications à celles qui sont documentées dans la section Data Modifications de README.DOCX dans le répertoire EXERCISES SOLUTIONS. VÉRIFICATION DES DONNÉES | 169 La création de nouvelles variables Les évaluations nationales peuvent utiliser les informations fournies par des sources autres que les élèves, les enseignants ou les établisse- ments. Ces informations comprennent un numéro d’identification officiel, la région administrative des établissements et si l’établisse- ment a participé à une initiative pilote spécifique. Certaines de ces informations peuvent provenir du ministère de l’Éducation, notam- ment d’un système d’information de gestion de l’éducation. D’autres variables intéressantes pour l’équipe d’évaluation peuvent être des variables dérivées, qui ne sont pas directement recueillies auprès des élèves, de leurs professeurs ou de leurs établissements, mais sont obte- nues en combinant des données disponibles dans les carnets. Même si l’ensemble de données est créé avec Access, les variables dérivées peuvent être calculées dans SPSS. Les parties II et IV de ce volume donnent plusieurs exemples de création de variables dans SPSS, à l’aide des commandes Transform – Compute Variable..., qui peuvent facilement être adaptées pour répondre à des besoins parti- culiers, tels que la création d’un indice de niveau d’études des parents basé sur le niveau d’études de la mère et du père. La création de nouvelles variables peut conduire à des erreurs. Il est préférable d’éviter de manipuler de nombreux fichiers et enregistre- ments. Lorsque des variables dérivées sont créées à l’aide de SPSS, on peut gagner énormément de temps en appliquant une seule com- mande (réversible) à un grand nombre d’enregistrements. CHAPITRE 12 IMPORTATION ET FUSION DES DONNÉES Dans le chapitre 10, nous avons décrit les fonc- tions permettant de réduire au maximum les erreurs de saisie des données à l’aide d’Access. La Partie II a évoqué la création de variables dérivées à l’aide des commandes Transform – Compute Variable de SPSS (Statistical Package for the Social Sciences). Lorsque des va- riables supplémentaires ont été créées en dehors d’Access, il faut réimporter les fichiers dans Access pour permettre une fusion efficace des données. Le présent chapitre décrit le processus d’exportation des données de SPSS vers Access et présente certaines routines de vérifi- cation utiles. LES DANGERS DU TRANSFERT DE DONNÉES ENTRE DES APPLICATIONS DIFFÉRENTES La prudence doit toujours être de mise lors du transfert de données entre fichiers ou de la fusion de données issues de sources différentes, en raison des erreurs qui peuvent survenir. Ces erreurs peuvent être implicites ou explicites. Les erreurs implicites se produisent quand les programmes stockent ou codifient des données de manière différente, 171 172 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES entraînant la perte irrévocable ou la modification de certaines d’entre elles lors du processus de transfert. Une erreur survient couramment lorsque le type de données attribué à une variable dans une applica- tion diffère de celui défini dans une autre. Par exemple, on peut déci- der de stocker certaines données numériques en format texte, pour que les chiffres soient stockés exactement comme ils ont été saisis. Cette méthode est fréquemment utilisée pour maintenir l’intégrité d’un numéro d’identification (ID) commençant par un ou plusieurs zéros. L’application vers laquelle les données sont exportées peut tou- tefois enregistrer les identifiants dans un format numérique dans lequel les zéros placés au début disparaissent. Des données peuvent aussi être perdues lors du transfert si la lon- gueur des variables diffère d’une application à l’autre. Par exemple, si elle est de 15 caractères dans l’application d’origine et de seulement 5 caractères dans l’application de destination, toutes les données de plus de 5 caractères sont tronquées. Les problèmes liés à la cohérence des noms des variables, à l’utilisation de certains caractères dans le nom des variables, et à la cohérence du codage (par exemple, la façon de définir les valeurs manquantes) sont aussi des causes possibles d’erreurs dans les données. Les erreurs explicites résultent habituellement d’une erreur humaine. La suppression accidentelle de données, le « glissement » d’enregistrements et le transfert partiel des données sont des exemples d’erreurs explicites dans les données. Plus les données sont transfé- rées entre des applications, plus il y a de chances que de telles erreurs se produisent. C’est pourquoi les fonctions d’import et d’export doivent être utilisées avec prudence et uniquement en cas d’absolue nécessité. L’EXPORT DES DONNÉES DE SPSS VERS ACCESS SPSS dispose d’une fonction d’exportation des données vers Access. Pour les besoins de l’exercice 12.1, un fichier SPSS a été créé avec toutes les corrections nécessaires des erreurs détectées dans les données brutes au chapitre 11. Ce fichier corrigé est …\NAEA DATA CLEANING\ EXERCISE SOLUTIONS\DATA_SET_1_SOLUTION. SAV. IMPORTATION ET FUSION DES DONNÉES | 173 EXERCICE 12.1 Exportation de données de SPSS vers Access L’exercice suivant vous montre comment exporter des données de SPSS vers Access : 1. Ouvrez …\NAEA DATA CLEANING\EXERCISE SOLUTIONS\DATA_SET_1_ SOLUTION.SAV. 2. Dans la barre d’outils, sélectionnez File – Export to Database. 3. Dans la boîte ODBC Data Sources, sélectionnez MS Access Database et cliquez sur Next (ou double-cliquez simplement sur MS Access Database). 4. Dans l’écran ODBC Driver Login, recherchez la base de données que vous avez créée précédemment (…\MY SOLUTIONS\MATHS_3A_DATA.ACCDB). Cliquez sur Open, puis sur OK. 5. Dans l’écran Choose how to export the data, cochez la dernière case : Create a new table. 6. Dans la zone de texte Name, saisissez TBL_MATHS_3A_DATA_CLEANED. Cliquez ensuite sur Next. 7. Dans l’écran Select variables to store in new table, sélectionnez toutes les variables de la liste de gauche (CTRL+A). Cliquez sur une des flèches de cette liste pour transférer toutes les variables vers la boîte Table: TBL_MATHS_3A_DATA_CLEANED (figure 12.1.A). FIGURE 12.1.A Sélectionner les variables à exporter Source : exemple dans le logiciel SPSS. (suite) 174 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 12.1 (suite) 8. Cliquez sur Next, puis sur Finish. SPSS exporte les données dans Access et y crée une nouvelle table, TBL_MATHS_3A_ DATA_CLEANED, comme le montre l’apparition de cette table dans la liste All Access Objects de votre base de données Access. Remarque : Si vous importez des données dans Access à partir d’une autre source, vous devez vous assurer que les noms des variables ne contiennent aucun espace ou caractère spécial (par exemple : *, &, $). Si tel n’est pas le cas, ces espaces et caractères spéciaux doivent être remplacés par le caractère de soulignement (_), qui est autorisé. Comme SPSS n’accepte pas non plus ces caractères dans le nom de ses variables, vous ne rencontrerez pas ce problème lors de l’export et de l’import des données entre SPSS et Access. L’IMPORT DES DONNÉES CONNEXES Comme indiqué précédemment, certaines informations importantes sur les établissements, le système éducatif ou les élèves, non tirées des documents de test des élèves, peuvent être conservées dans un fichier central officiel. Ces données peuvent faciliter des comparaisons de la performance des États ou des régions, ou comprendre d’autres infor- mations importantes relatives à des groupes. Dans certains pays, par exemple, les informations requises concernant les parents ou le milieu des élèves peuvent être enregistrées dans les bases de données cen- trales officielles de certains ministères. L’exercice 12.2 montre comment ces données peuvent être impor- tées dans Access et de quelle manière des requêtes peuvent être utili- sées pour relier les données de différentes tables. Dans cet exemple, les données à importer et à relier concernent les établissements et sont conservées dans un fichier Excel central appelé SCHOOLS. XLSX. La variable SchoolName de ce fichier peut être utilisée pour des publications officielles, où le nom de l’établissement doit être cor- rectement orthographié (par exemple, sur le certificat de test des IMPORTATION ET FUSION DES DONNÉES | 175 EXERCICE 12.2 Importation de données sur les établissements dans Access Les étapes suivantes vous montrent comment importer dans Access des données sur les établissements stockées dans Excel : 1. Ouvrez …\NAEA DATA CLEANING\MY SOLUTIONS\MATHS_3A_DATA.ACCDB (avec les modifications enregistrées dans l’exercice précédent). 2. Dans le ruban External Data, sélectionnez Excel dans la section Import. 3. Cliquez sur le bouton Browse et naviguez jusqu’à …\NAEA DATA CLEANING\ EXERCISES\SCHOOLS.XLSX. 4. Sélectionnez le classeur SCHOOLS.XLSX et cliquez sur Open. Cliquez ensuite sur OK pour importer les données dans une nouvelle table Access. 5. Sélectionnez Sheet1, puis cliquez sur Next. 6. Laissez la case First row contains column headings cochée et cliquez sur Next. 7. L’écran suivant vous permet de spécifier des informations sur les données que vous importez. Pour les besoins de cet exercice, cliquez simplement sur Next. 8. Cet écran vous permet de définir les clés primaires de la table. Cliquez sur Choose my own Primary Key et sélectionnez SchoolCode dans le menu déroulant. Cliquez ensuite sur Next. 9. Nommez la table tbl_Schools, puis cliquez sur Finish. La table contenant les données des établissements que vous avez importées apparaît désormais dans la section Tables du menu All Access Objects. élèves), au lieu de la variable SchoolName figurant dans la table des réponses des élèves, qui peut souvent être mal orthographiée et ne doit par conséquent être utilisée qu’à titre de référence. Après que toutes les données à fusionner ou à rechercher ont été importées dans une table Access, des requêtes peuvent être créées pour rechercher des informations, créer de nouvelles tables avec des informations spécifiques ou effectuer d’autres recherches sur les données pour en vérifier le contenu et la qualité. La section suivante décrit deux importants processus de nettoyage des données. Le pre- mier est la fusion de données de deux fichiers, un processus qui peut prendre beaucoup de temps et être une source d’erreurs lorsqu’on utilise d’autres logiciels tels qu’Excel. Il est donc très important de 176 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES ne créer qu’un seul fichier en tant qu’unique source de données pour toutes les analyses de l’évaluation nationale. La deuxième section décrit comment utiliser Access pour rechercher les doublons. Les opérateurs de saisie (et parfois même de numérisation) peuvent être distraits et saisir accidentellement deux fois la même information. Sans une routine spécifique pour repérer les doublons, il est souvent difficile de détecter ce type de problème de nettoyage des données. JONCTION DES DONNÉES DE DIFFÉRENTES TABLES À L’AIDE DE REQUÊTES ACCESS Parce que les documents de test ou les feuilles de réponses des élèves contiennent relativement peu d’information contextuelle utile pour les décideurs intéressés par les résultats d’une évaluation nationale, il peut être nécessaire de faire appel à d’autres sources d’information sur les établissements et les élèves. Les exercices précédents ont décrit le processus d’importation de deux tables dans Access : a) la table des réponses des élèves, modifiée pendant le nettoyage des données (TBL_MATHS_3A_DATA_ CLEANED) et b) une table contenant des informations sur les éta- blissements (tbl_Schools). Ces tables ont un champ en commun : l’identifiant de l’établissement, nommé SchoolID dans la première table et SchoolCode dans la deuxième. L’exercice 12.3 montre main- tenant comment joindre ces fichiers. Un nombre limité de variables a été utilisé dans l’exercice 12.3 pour décrire le processus de combinaison d’ensembles de données. Pour une évaluation nationale, on utilise généralement beaucoup plus de variables tirées des questionnaires destinés aux élèves, parents, enseignants et établissements. LE CONTRÔLE DES VERSIONS Chaque fois qu’une modification des données est effectuée dans le cadre des procédures de validation, vérification, ou gestion des données, une nouvelle version de l’ensemble de données est créée. Chaque version IMPORTATION ET FUSION DES DONNÉES | 177 EXERCICE 12.3 Création d’une requête simple dans Access Les étapes suivantes vous permettront de créer une requête simple dans Access : 1. Ouvrez …\NAEA DATA CLEANING\MY SOLUTIONS\MATHS_3A_DATA.ACCDB (avec les modifications enregistrées dans l’exercice précédent). 2. Dans le ruban Create, sélectionnez Query Design. Access ouvre la boîte de dialogue Show Table. Vous pouvez y sélectionner les tables que vous souhaitez inclure dans la requête. (Lorsque vous maîtriserez mieux Access, vous pourrez travailler sur plusieurs tables et combinaisons de tables et de requêtes pour définir des opérations plus complexes.) 3. Sélectionnez TBL_MATHS_3A_DATA_CLEANED et cliquez sur Add (voir la figure 12.3.A). Répétez le processus pour ajouter la table tbl_Schools, et cliquez sur Close. La zone de travail de la requête contient deux tables, avec pour chacune, la liste des variables qui la composent. Les barres de défilement vous permettent de toutes les visualiser. La zone de travail et la taille des boîtes contenant les tables peuvent être modifiées en plaçant le curseur sur leurs bords, en cliquant dessus et en les faisant glisser. FIGURE 12.3.A Ajouter des tables à une requête Source : exemple dans le logiciel Access. (suite) 178 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 12.3 (suite) 4. Dans la table TBL_MATHS_3A_DATA_CLEANED, sélectionnez la variable SchoolID. Notez que les données de ces deux tables provenant de sources différentes, les variables n’y portent pas exactement le même nom (SchoolID et SchoolCode). Elles contiennent cependant la même information et ont le même format. Les deux sont numériques. Bien qu’il soit préférable d’utiliser des noms de variables identiques, la chose n’est pas toujours possible parce que les ensembles de données sont parfois gérés par des organismes différents. 5.Pour joindre les deux tables, sélectionnez la variable SchoolID dans la table TBL_ MATHS_3A_ DATA_CLEANED, faites-la glisser en face de la variable SchoolCode de tbl_Schools et relâchez la souris (voir la figure 12.3.B). FIGURE 12.3.B Joindre deux tables Source : exemple dans le logiciel Access. La ligne entre SchoolID et SchoolCode indique que ces variables ont été sélectionnées comme critère de jonction. Les deux tables sont maintenant liées, et n’importe quelle variable de l’une ou l’autre peut être sélectionnée et déplacée vers l’espace de travail (vous pouvez aussi double-cliquer dessus). 6. Double-cliquez sur les variables StudID, GivenName, FamilyName et Yearlevel de TBL_MATHS_3A_DATA_CLEANED. Remarque : Vous pouvez également sélection- ner et déplacer plusieurs variables en une fois en enfonçant la touche Maj pendant la sélection. La fonction courante glisser-déposer de Microsoft s’applique à Access. (suite) IMPORTATION ET FUSION DES DONNÉES | 179 EXERCICE 12.3 (suite) 7. Vous souhaitez inclure toutes les variables de tbl_Schools. Double-cliquez sur l’astérisque au-dessus de la variable SchoolCode dans tbl_Schools. Cette action transporte toutes les variables de la table dans l’espace de travail, où la ligne intitulée Table indique la source des données (voir la figure 12.3.C). Les informations sur les établissements proviennent de la table tbl_Schools, tandis que les informations sur les élèves proviennent de la table TBL_MATHS_ 3A_DATA_CLEANED. Sélectionnez les informations relatives aux établissements dans la table tbl_Schools parce qu’elle constitue une source plus fiable que la table TBL_MATHS_3A_DATA_CLEANED, dont les données proviennent des couvertures des carnets de test. 8. Sélectionnez la colonne YearLevel parmi les champs de la figure 12.3.C en cliquant sur la petite bande grise au-dessus du nom du champ. En maintenant le curseur sur cette bande, le curseur se transforme en une flèche blanche et vous pouvez cliquer et déplacer cette colonne en dernière position (après les variables tbl_Schools*). De cette façon, la variable YearLevel s’affichera dans la dernière colonne du tableau de données résultant. FIGURE 12.3.C Variables de la requête Source : exemple dans le logiciel Access. (suite) 180 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 12.3 (suite) 9. Si nécessaire, cliquez sur un espace libre pour annuler une sélection. 10. Lancez la requête en cliquant sur l’icône rouge ! de la barre d’outils Access. Le tableau de données résultant devrait ressembler à celui présenté dans la figure 12.3.D. Le résultat est un fichier dont les enregistrements (lignes) regroupent toutes les données relatives à l’élève. D’autres requêtes peuvent encore lui être appliquées pour un nettoyage final avant son exportation en tant qu’ensemble de données nettoyé destiné aux analystes. FIGURE 12.3.D Résultat de la requête Source : exemple dans le logiciel Access. 11. Cliquez sur Office – Save et enregistrez la requête sous le nom qry_student_&_ school_data_combined et appuyez sur OK. 12. Notez que votre nouvelle requête apparaît maintenant sous la forme d’une icône dans le menu All Access Objects des données modifiées a été enregistrée sous un nom différent, mais seul le fichier d’exportation final est utilisé par les analyses ultérieures. Un dossier complet doit donc retracer le chemin parcouru pour obtenir les données finales, en consignant toutes les étapes intermé- diaires et les fichiers créés au cours du processus. Le fichier README.DOCX convient parfaitement à cet effet. Toutes les étapes menant à la production des données finales y sont consignées, une information essentielle pour empêcher les personnes de travailler sur des versions différentes des sources de données et de produire des résultats incohérents. IMPORTATION ET FUSION DES DONNÉES | 181 LA SÉCURISATION DES DONNÉES La confidentialité et la sécurité sont sans aucun doute des aspects importants dans une évaluation nationale. Il est essentiel que la sécu- rité de ses données soit aussi assurée que possible, tant pour des rai- sons de confidentialité que pour empêcher qu’elles ne soient altérées (par inadvertance ou intentionnellement) par ceux qui y ont accès. Lorsque les données sont en format électronique, il est important de définir des droits d’accès aux données au niveau tant d’un réseau que d’un ordinateur individuel. La base de données dans laquelle les don- nées sont stockées doit également être sécurisée, ce qui peut se faire de deux façons différentes mais pas mutuellement exclusives : en appliquant un mot de passe à la base de données et en ajoutant des fonctions de sécurité au niveau des utilisateurs. Appliquer un mot de passe à la base de données Lorsqu’un mot de passe est appliqué à une base de données, les utili- sateurs sont invités à le saisir avant de pouvoir utiliser l’application. L’accès au système est ainsi limité aux personnes connaissant le mot de passe. Dans sa forme la plus simple, chaque base de données peut avoir son mot de passe. Pour définir un mot de passe pour une base de données Access, il faut l’ouvrir en mode d’utilisation exclusive. Pour ce faire, fermez la base de données et rouvrez-la en suivant les instruc- tions fournies dans le message d’avertissement (figure 12.1). Une fois la base de données ouverte en utilisation exclusive, le mot de passe peut être défini en cliquant sur Set Database Password dans FIGURE 12.1 Message avertissant de l’ouverture pour utilisation exclusive Source : Message d’avertissement du logiciel Access. 182 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES l’onglet Database Tools, en saisissant le mot de passe souhaité dans les boîtes de texte voulues et en cliquant sur OK. À partir de ce moment, Access invitera l’utilisateur à saisir le mot de passe avant d’autoriser la base de données à s’ouvrir. Ajouter à la base de données une sécurité de niveau utilisateur L’ajout à une base de données de différents degrés d’autorisation ou de sécurité de niveau utilisateur est un moyen efficace de limiter l’uti- lisation et la manipulation des données à certains utilisateurs du sys- tème. Par exemple, les personnes dont la seule tâche est de saisir des données à l’aide d’une interface prévue à cet effet n’ont pas besoin d’avoir accès aux fonctions qui leur permettraient de modifier la structure de la base de données ou l’un ou l’autre de ses objets. La sécurité doit donc être définie au niveau de l’utilisateur pour empêcher les personnes de modifier la base de données d’une manière ne relevant pas de leurs attributions. La définition des droits d’accès des utilisateurs doit être l’une des dernières actions à entreprendre lors de la conception d’une base de données parce qu’il peut être ensuite difficile d’apporter des modifi- cations au système et les utilisateurs devront alors recevoir un accès aux nouveaux objets. La mise en œuvre de ce type de sécurité doit se faire de façon ordonnée, car on peut facilement bloquer le système pendant la définition des droits d’accès des utilisateurs. Ce problème peut être évité en créant une copie de sauvegarde non sécurisée de la base de données avant d’entamer le processus. Cette copie doit être conservée séparément jusqu’à ce que la définition des droits d’accès des utilisateurs soit achevée. À ce moment-là, la copie de sauvegarde non sécurisée peut être supprimée. Pour définir la sécurité au niveau des utilisateurs dans Access, il faut cliquer sur Users and Permissions – User Level Security Wizard dans l’onglet Database Tools et suivre, étape par étape, le processus proposé par l’Assistant. Un moyen efficace de garder une trace des modifications apportées au cours du processus de définition de la sécurité consiste à appuyer sur CTRL+Print Scrn à chaque étape. Cette action copie la fenêtre active, qui peut ensuite être collée dans un document Word. CHAPITRE 13 DOUBLONS Ce chapitre traite de la question des doublons, notamment la manière de détecter les identifiants (ID) et les enregis- trements en double. L’UTILISATION D’ACCESS POUR DÉTECTER LES IDENTIFIANTS EN DOUBLE Il peut facilement arriver que les données d’un élève soient saisies deux fois dans un fichier. Si cette situation n’est pas détectée, elle peut fausser les résultats. L’unicité de l’identifiant des élèves doit être vérifiée pour s’assurer que chaque élève n’a qu’un seul dossier. Ce contrôle doit être effectué, même si l’équipe d’évaluation nationale a défini un ensemble d’ID uniques, parce que le personnel de saisie des données peut, par inadvertance, créer un ou plusieurs dossiers en double. Même si les règles de validation définies dans les exercices précédents pour la variable StudID empêchent normalement la créa- tion de doublons, il est prudent d’utiliser les procédures qui suivent pour effectuer un double contrôle. L’exercice 13.1 montre comment utiliser Access pour détecter les identifiants en double. 183 184 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 13.1 Création d’une requête Access pour rechercher les doublons Les étapes suivantes vous permettent d’utiliser Access pour détecter les identifiants en double : 1. Ouvrez …\NAEA DATA CLEANING\MY SOLUTIONS\ MATHS_3A_DATA.ACCDB (contenant les modifications enregistrées au cours des exercices précédents). 2. Dans le ruban Create, sélectionnez Query Wizard dans la section Other. Access ouvre alors la boîte de dialogue New Query. Sélectionnez Find Duplicates Query Wizard, et cliquez sur OK. 3. Access vous invite à choisir le tableau dans lequel vous voulez rechercher les doublons. Sélectionnez le tableau TBL_MATHS_3A_DATA_CLEANED, et cliquez sur Next. 4. Dans la liste des champs disponibles (visible à gauche dans la figure 13.1.A), sélectionnez les champs pour lesquels vous suspectez une éventuelle duplication des données, dans le cas présent, StudID. Transférez-le dans la boîte de droite en utilisant le signe > placé entre les boîtes et cliquez ensuite sur Next. FIGURE 13.1.A Champs pour les valeurs en double Source : exemple dans le logiciel Access. La boîte de dialogue vous demande de sélectionner les champs que vous souhaitez inclure dans le rapport sur les valeurs identifiées par la requête. DOUBLONS | 185 EXERCICE 13.1 (suite) 5. Sélectionnez SchoolID, GivenName, FamilyName, et SchoolName (figure 13.1.B), parce qu’ils faciliteront l’identification des enregistrements à corriger ; cliquez ensuite sur Next. Access propose un nom pour la requête (dans le cas présent, Find duplicates for TBL_MATHS_3A_DATA_CLEANED). FIGURE 13.1.B Autres champs de la requête Source : exemple dans le logiciel Access. 6. Sélectionnez View the results et cliquez sur Finish. LA DÉTECTION DES ENREGISTREMENTS EN DOUBLE Une requête de recherche des doublons dans un fichier renvoie un ou plusieurs enregistrements en double lorsque les données ont été sai- sies plusieurs fois par erreur. Cette situation peut se produire lorsqu’un opérateur perd sa concentration et saisit deux fois les données d’un même carnet, ou lorsque des carnets déjà saisis se retrouvent acciden- tellement dans la pile des carnets non enregistrés et sont saisis une nouvelle fois. Notons que les données reprises dans les figures 13.1, 13.2, 13.4 et 13.5 proviennent d’une évaluation fictive. Elles servent 186 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES à montrer le résultat d’une requête de recherche des doublons dans Access. Des données fictives ont été utilisées parce que la variable StudID n’admet pas de doublons dans nos données et qu’une requête de recherche des doublons basée sur StudID aurait, par conséquent, renvoyé une valeur nulle. L’exercice 13.1 ne détecte aucun ID en double parce StudID a été défini en tant que clé primaire (et que les doublons ne sont pas admis pour une clé primaire), si bien que la requête de l’exercice ne renvoie aucun enregistrement répondant aux critères de recherche. Pour un exemple de l’affichage des doublons, voir la figure 13.1. Les résultats présentés dans la figure 13.1 indiquent que des don- nées ont été enregistrées par erreur. Lorsqu’une requête détecte un doublon, la validité des deux enregistrements doit être vérifiée. Si les réponses des élèves sont identiques, la double saisie des données est très probable. Les enregistrements doivent, cependant, encore être vérifiés par rapport aux sources de données d’origine, les documents des tests des élèves. Un enregistrement de l’erreur dans README.DOCX est montré dans la figure 13.2, avec les modifications effectuées. FIGURE 13.1 Enregistrements en double identifiés Source : exemple dans le logiciel Access. FIGURE 13.2 Documentation de la correction d’erreurs dans les ID des élèves ID Valeur de la StudID Variable Valeur corrigée unique donnée Enregistrement Enregistrement Enregistrement 2 510 entier en double supprimé DOUBLONS | 187 Pour supprimer un enregistrement, sélectionnez-le en cliquant sur la ligne contenant les données à supprimer. Dans le ruban Home, sélectionnez Delete dans la section Records. Soyez attentif pendant cette opération, Access ne permet pas d’annuler une suppression. Pour minimiser les suppressions accidentelles, Access vous demande de confirmer que vous voulez vraiment supprimer l’enregistrement (voir la figure 13.3). Si vous cliquez sur Yes, l’enregistrement sera supprimé. La requête Find duplicates peut également montrer si un même StudID a été saisi pour deux élèves (voir la figure 13.4). Cette situa- tion peut se produire quand un analyste utilise de façon incorrecte la fonction copier-coller ou lorsqu’une valeur a été modifiée manuelle- ment par erreur. La figure 13.5 montre l’écriture dans README. DOCX correspondant à une telle modification. FIGURE 13.3 Suppression d’un enregistrement Source : message d’avertissement dans le logiciel Access. FIGURE 13.4 ID identique pour deux élèves Source : exemple dans le logiciel Access. 188 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES FIGURE 13.5 Documentation de la correction d’erreurs dans les ID des élèves Valeur de la ID unique StudID Variable Valeur corrigée donnée 4 755 StudID 755 756 L’UTILISATION D’ACCESS POUR DÉTECTER LES NOMS EN DOUBLE Access est également utilisé pour rechercher les noms en double dans un même établissement (exercice 13.2). S’il existe deux enregistre- ments ayant des ID différents pour un même nom, les carnets de test d’origine doivent être vérifiés pour voir si l’établissement ne compte pas effectivement deux élèves portant le même nom. La nécessité d’effectuer ces contrôles est la principale raison pour laquelle les car- nets doivent être soigneusement conservés après correction pour pouvoir être facilement retrouvés. Le processus est similaire à celui décrit dans la section précédente. Une requête doit être créée avec les variables correspondant au nom des élèves et à l’identifiant de l’établissement, afin d’identifier les élèves portant le même nom au sein de l’établissement. Access utilise les variables pour effectuer une recherche dans les données. Si, par exemple, on choisit John pour GivenName, Smith pour FamilyName et 1294 pour SchoolID, la variable de recherche temporaire créée dans Access a la valeur 1294. Access n’essaie pas de retrouver tous les élèves nommés John ou Smith, mais limite sa recherche à tous les élèves de l’établissement 1294 nommés John Smith. Le lecteur peut vérifier ses progrès dans les exercices 13.1 et 13.2 avec la base de données …\NAEA DATA CLEANING\EXERCISE SOLUTIONS\MATHS_3A_DATA_ SOLUTION2.ACCDB. Pour effectuer les analyses, l’utilisateur doit pouvoir accéder à un fichier contenant les résultats des tests. Un score total peut être cal- culé pour chaque élève à l’aide de SPSS et exporté dans Access avec le reste des données nettoyées, comme indiqué dans l’exercice 12.1. DOUBLONS | 189 EXERCICE 13.2 Utilisation d’une requête de recherche des doublons pour trouver les noms en double des élèves Cet exercice montre comment utiliser une requête Find duplicates dans Access : 1. Ouvrez …\MY SOLUTIONS\MATHS_3A_DATA.ACCDB (avec les modifications enregistrées lors des exercices précédents). 2. Dans le ruban Create, sélectionnez Query Wizard dans la section Other. Access ouvre la boîte de dialogue New Query. Sélectionnez Find Duplicates Query Wizard et cliquez sur OK. 3. Sélectionnez TBL_MATHS_3A_DATA_CLEANED et cliquez sur Next. 4. Sélectionnez GivenName, FamilyName, et SchoolID (figure 13.2.A). Cliquez sur Next. FIGURE 13.2.A Champs pour les valeurs en double 5. Dans l’écran suivant, sélectionnez StudID et SchoolName comme variables souhaitées dans le rapport (voir la figure 13.2.B). Cette action permettra d’identifier facilement les noms en double. Cliquez ensuite sur Next. 6. Nommez la requête Find duplicates for TBL_MATHS_3A_DATA_CLEANED_ names. Sélectionnez View the results et cliquez sur Finish. Le rapport Access (voir la figure 13.2.C) montre si le fichier contient des enregistrements indiquant que 190 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 13.2 (suite) FIGURE 13.2.B Autres champs de la requête Source : exemple dans le logiciel Access. FIGURE 13.2.C Résultats de la requête Source : exemple dans le logiciel Access. deux élèves d’un même établissement portent le même nom, mais ont des identifiants différents. Le gestionnaire des données doit vérifier les carnets de test d’origine ou la liste des élèves de l’établissement pour voir si deux élèves ayant le même nom ont effectivement pris part au test ou si l’un des enregistrements constitue un doublon. Dans ce dernier cas, le tableau doit être corrigé dans la base de données Access. 7. Ouvrez TBL_MATHS_3A_DATA_CLEANED dans votre base de données. 8. Pour retrouver les enregistrements, sélectionnez Find dans le ruban Home (CTRL+F) et saisissez le numéro 3870204 dans la boîte de texte Find what. Cliquez sur Find Next. Access va localiser cet identifiant d’élève dans le fichier et les deux enregistre- ments avec le même nom seront affichés (figure 13.2.D). Il y a deux raisons possibles DOUBLONS | 191 EXERCICE 13.2 (suite) FIGURE 13.2.D Noms en double identifiés Source : exemple dans le logiciel Access. au fait que deux élèves portent le même nom dans le même établissement : soit deux élèves de l’échantillon d’évaluation nationale ont effectivement le même nom, soit les données de l’élève ont été saisies deux fois, par erreur, avec des identifiants différents. Le gestionnaire des données doit vérifier les dossiers scolaires ou les carnets de test d’origine. S’il s’avère que les deux élèves ont bien le même nom, chacun doit être facilement identifiable. Vous pouvez faire la distinction entre les deux élèves en ajoutant l’initiale de leur deuxième prénom (comme JohnC pour John Charles) ou en ajoutant un numéro à chaque prénom. La correction doit être faite dans le tableau et non dans la requête. 9. Dans TBL_MATHS_3A_DATA_CLEANED, saisissez le numéro 1 après le k de Jack pour le premier enregistrement. Faites de même avec 2 dans le deuxième enregistre- ment (voir la figure 13.2.E). FIGURE 13.2.E Rendre les noms en double uniques Source : exemple dans le logiciel Access. 10. Consignez les deux changements dans README.DOCX (figure 13.2.F). FIGURE 13.2.F Doublons dans README.DOCX Valeur de la StudID Variable Valeur corrigée donnée 3870204 Prénom Jack Jack1 3870305 Prénom Jack Jack2 11. Relancez la requête pour vérifier que l’erreur a été corrigée. Elle ne doit renvoyer aucun enregistrement. (Remarque : Pour relancer la requête, double-cliquez sur la requête Find duplicates TBL_MATHS_3A_FINAL_NAMES dans le menu All Access Objects – Queries.) 192 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES En suivant les étapes décrites dans l’exercice 12.3, une requête peut être créée pour le tableau importé afin de joindre les réponses aux items, le total des scores, les données contextuelles des élèves et les données des établissements. Bon nombre des actions entreprises en cas de jonction de deux fichiers visent à s’assurer que le nombre correct d’enregistrements a été retenu, que les enregistrements d’un fichier ont été joints au bon enregistrement de l’autre fichier, et que les doublons ont été détectés et, si nécessaire, supprimés. Ces tâches ont été réalisées dans la par- tie II de ce volume lors de la création des échantillons d’élèves avec une probabilité proportionnelle à la taille. SPSS demandera systéma- tiquement quoi faire avec les doublons trouvés lors de la jointure de fichiers. Veuillez vous référer à ces exercices et noter comment la jonction est définie et exécutée. ANNEXE III.A NETTOYAGE ET GESTION DES DONNÉES : RÉPERTOIRES ET FICHIERS Cette annexe décrit les fichiers à utiliser pour effectuer les exercices de la Partie III. Ils se trouvent sur le CD accom- pagnant ce volume. Le tableau III.A.1 ci-dessous décrit le contenu du répertoire Exercises. La figure III.A.2 montre le contenu du réper- toire Exercise Solutions. La structure du répertoire des fichiers de nettoyage et de gestion des données est présentée dans la figure III.A.1. 193 194 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU III.A.1 Exercices Nom de fichier Programme Explication DATA VERIFICATION EXERCISE. Excel 2007 Effectuer des comparaisons logiques XLSX pour vérifier si des cellules sont identiques. DATA_SET_1.SAV SPSS Exécuter les commandes de fréquence et corriger les enregistrements contenant des erreurs. MATHS 3A CODEBOOK Excel 2007 Ajouter toutes les valeurs du manuel de TEMPLATE. XLSX codage pour les sept derniers items. SAMPLE TEST PAPER 3A.DOCX Word 2007 Utiliser comme outil de référence pour la création du manuel de codage. SCHOOLS.XLSX Excel 2007 Importer la liste des établissements dans la base de données Access. STUDENTQUESTIONNAIRE. Word 2007 Utiliser comme un exemple de DOCX questionnaire des élèves pour une évaluation nationale. TABLEAU III.A.2 Solutions des exercices Nom de fichier Programme Explication DATA VERIFICATION EXERCISE_ Excel 2007 Solution pour les comparaisons SOLUTION.XLSX logiques DATA_SET_1_SOLUTION.SAV SPSS Solution pour la correction des erreurs dans les données MATHS 3A CODEBOOK SOLUTION. Excel 2007 Solution pour la création des XLSX manuels de codage MATHS_3A_DATA_SOLUTION1. Access 2007 Solution pour la création de tables et ACCDB formulaires MATHS_3A_DATA_SOLUTION2. Access 2007 Solution pour l’exportation des ACCDB données et la création de requêtes README.DOCX Word 2007 Enregistrement des modifications apportées aux fichiers de données NETTOYAGE ET GESTION DES DONNÉES : RÉPERTOIRES ET FICHIERS | 195 FIGURE III.A.1 Structure des répertoires contenant les fichiers de nettoyage et de gestion des données NAEA DATA CLEANING EXERCISES EXERCISE SOLUTIONS MY SOLUTIONS DATA VERIFICATION EXERCISE. DATA VERIFICATION XLSX EXERCISE_SOLUTION.XLSX DATA_SET_1.SAV DATA_SET_1_SOLUTION.SAV MATHS_3A_CODEBOOK MATHS_3A_CODEBOOK TEMPLATE.XLSX SOLUTION.XLSX SAMPLE TEST PAPER 3A.DOCX MATHS_3A_ DATA_SOLUTION1.ACCDB MATHS_3A_ SCHOOLS.XLSX DATA_SOLUTION2.ACCDB STUDENTQUESTONNAIRE. README.DOCX DOCX PA RT I E 4 PONDÉRATION, ESTIMATION ET ERREUR D’ÉCHANTILLONNAGE Jean Dumais et J. Heward Gough La partie IV est consacrée à la préparation des données pour l’analyse, qui suit l’échantillonnage, l’administration des tests, la saisie et, finalement, le nettoyage des données. Ces opérations s’appuient sur le travail réalisé précédemment dans la partie II, sur l’ensemble de don- nées du Sentz. La partie IV décrit une série d’importantes étapes pré- alables à l’analyse, comprenant le calcul et l’utilisation des poids de l’enquête, ainsi que le calcul des estimations et de leurs erreurs d’échantillonnage. Enfin, cette partie traite d’un ensemble de sujets particuliers incluant la non-réponse et les problèmes de sur- et sous- dimensionnement des établissements. 197 CHAPITRE 14 CALCUL DES POIDS DE L’ENQUÊTE Ce chapitre décrit les poids de l’estimation, y compris la manière de les calculer, de les ajuster aux non-réponses et d’utiliser une information auxiliaire à jour pour les ajuster afin de calculer des totaux nationaux. LE POIDS DÉTERMINÉ PAR LE PLAN D’ÉCHANTILLONNAGE L’estimation est une technique utilisée pour obtenir de l’information sur la population d’intérêt, à partir des données recueillies auprès d’un échantillon de cette population. La première étape de l’estima- tion consiste à attribuer un poids à chaque unité échantillonnée ou à chacune de celles qui ont répondu. Le poids déterminé par le plan d’échantillonnage peut être considéré comme le nombre moyen d’uni- tés de la population d’intérêt que chaque unité échantillonnée repré- sente. Il est déterminé par le plan d’échantillonnage. Pour une unité de l’échantillon, le poids déterminé par le plan d’échantillonnage, pp (où l’indice p signifie plan d’échantillonnage) est l’inverse de sa probabilité d’inclusion p. Il a été noté plus haut que dans l’échantil- lonnage aléatoire, chaque unité a une probabilité connue, p, de faire 199 200 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES partie de l’échantillon. Si p est, par exemple, de 1 sur 50, chaque unité sélectionnée représente, en moyenne, 50 unités de la population de l’enquête, et le poids déterminé par le plan d’échantillonnage vaut donc pp = 50. Notons que pour un plan d’échantillonnage à plusieurs degrés (fréquemment utilisé dans une évaluation nationale des acquis scolaires), la probabilité de sélection d’une unité est la probabilité combinée de sélection de l’unité à chaque degré. Les échantillons aléatoires simples et aléatoires systématiques ont des probabilités égales, parce que chaque unité a la même chance de faire partie de l’échantillon. En termes statistiques, dans un échantil- lonnage aléatoire simple (EAS ou SRS, Simple Random Sampling en anglais), chaque unité a une probabilité d’inclusion de p = n/N et un poids déterminé par le plan d’échantillonnage pp = 1/p = N/n. Dans le cas d’un échantillonnage aléatoire systématique (SYS), la probabilité d’inclusion vaut p = 1/k, où l’entier k = [n/N] est l’intervalle d’échan- tillonnage, et chaque unité a, par conséquent, un poids déterminé par le plan d’échantillonnage pp = 1/p = k. L’exercice 14.1 montre comment calculer le poids déterminé par le plan d’échantillonnage pour un échantillon aléatoire simple (EAS). EXERCICE 14.1 Poids déterminé par le plan d’échantillonnage pour un échantillon aléatoire simple de 400 élèves Rappelons que le premier échantillon de 400 élèves a été constitué pour le Sentz, par échantillonnage aléatoire simple, à partir d’une liste parfaite des 27 654 élèves éligibles. La probabilité d’inclusion de chaque élève est π = n/N = 400/27 654, et le poids déterminé par le plan d’échantillonnage est pp = 1/π = 27 654/400 = 69,135. Ce poids a été saisi dans le fichier de l’échantillon par SPSS (Statistical Package for Social Sciences – logiciel d’analyse statistique pour les sciences sociales) lors de la constitution de l’échantillon. Vous pouvez le vérifier en accédant au répertoire SRS400 et en ouvrant le fichier STUDENTSRSAMPLE à l’aide des commandes suivantes : File – Open – Data – Look in …\MYSAMPLSOL\STUDENTSRSAMPLE.SAV Open CALCUL DES POIDS DE L’ENQUÊTE | 201 EXERCICE 14.1 (suite) Le résultat devrait ressembler aux données de la figure 14.1.A, après : a) suppression des variables automatiques qui ne seront pas nécessaires (à savoir Inclusion Probability_1_, SampleWeightCumulative_1_ et SampleWeight_Final_) ; b) modification des noms des variables qui seront utiles plus tard dans le processus d’évaluation (à savoir PopulationSize, SampleSize et SampleWeight) ; et c) enregistrement du fichier. Cette étape de nettoyage est identique à celle réalisée plus tôt pour les échantillons des établissements et des classes (voir l’exercice 8.3). Vous pouvez enregistrer le fichier STUDENTSRSAMPLE dans ...\MYSAMPLSOL\ pour une utilisation ultérieure. FIGURE 14.1.A Données du fichier contenant l’échantillon des élèves Source : exemple dans le logiciel SPSS Lorsque le plan d’échantillonnage comprend une stratification, les strates sont considérées comme des populations distinctes constituant chacune une partie de l’échantillon complet. Le poids déterminé par le plan d’échantillonnage de chaque strate est donc calculé indépen- damment, en accord avec le plan d’échantillonnage utilisé pour la strate. Supposons que dans la base d’échantillonnage, une population de N = 1 000 établissements est divisée en deux strates, l’une urbaine et l’autre rurale. La strate urbaine est composée de N1 = 400 202 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU 14.1 Échantillonnage aléatoire simple stratifié avec répartition égale Taille de la Taille de Fraction d’échantillonnage/ Strate population l’échantillon Probabilité d’inclusion Urbaine N1 = 400 n1 = 100 π1 = 1/4 Rurale N2 = 600 n2 = 100 π2 = 1/6 Total N = 1,000 n = 200 établissements et la strate rurale de N2 = 600 établissements. Le tableau 14.1 montre que l’échantillon total d’une taille n = 200 pour l’ensemble des deux strates, a été réparti de manière égale sur cha- cune d’elles. La probabilité d’inclusion ou, dans le cas présent, la frac- tion d’échantillonnage, est égale à n/N = 100/400 = 1/4 = 0,25 pour la strate urbaine, et n/N = 100/600 = 1/6 = 0,167 pour la strate rurale. Dans l’échantillon, le poids déterminé par le plan d’échantillonnage de chaque établissement vaut pp,1 = 4 dans la strate urbaine, et pp,2 = 6 dans la strate rurale. Pour l’échantillonnage à plusieurs degrés, le poids global du plan d’échantillonnage est calculé en prenant l’inverse de la probabilité d’inclusion à chaque degré ou phase, et en les multipliant ensuite. Supposons qu’un échantillonnage en grappes à deux degrés sélec- tionne en premier un échantillon aléatoire simple de n1 = 10 sur N1 = 100 établissements, et au second degré, un échantillon aléatoire simple de n2 = 30 sur les N2 = 60 élèves de chaque établissement (grappe). La probabilité de sélection au premier degré est : n1 10 1 , π1 = = = N1 100 10 et au second degré est : n2 30 1 . π2 = = = N2 60 2 Le poids déterminé par le plan d’échantillonnage pour chaque élève sélectionné est donc : 1 1 wd = × = 10 × 2 = 20. π1 π2 CALCUL DES POIDS DE L’ENQUÊTE | 203 Pour le plan d’échantillonnage à trois degrés utilisé dans le cas du Sentz (établissements, classes et finalement élèves pour tenir compte des non-réponses), où la probabilité de sélection d’un élève i est p ki au kième degré, le poids déterminé par le plan d’échantillonnage pour cet élève est : 1 1 1 wdi = × × π1i π2i π3i = poids_établissement × poids_classe × poids_élève = poids_établissement × poids_classe × 1. Notons que l’échantillon initialement conçu pour le Sentz sélection- nait tous les élèves des classes choisies, de sorte que poids_élève = 1. Le plan semble ainsi n’avoir que deux degrés. L’importance du troi- sième degré deviendra évidente plus tard lorsqu’on constatera que tous les élèves sélectionnés n’ont pas participé à l’évaluation natio- nale. Les poids du troisième degré devront, dans ce cas, être ajustés pour tenir compte de la non-réponse (voir la section suivante). L’exercice 14.2 montre comment calculer le poids déterminé par le plan d’échantillonnage pour un échantillon avec une probabilité proportionnelle à la taille ou PPS (en anglais PPS pour probability proportional to size). Les exercices 14.3 et 14.4 montrent comment ajouter les résultats des tests. EXERCICE 14.2 Poids déterminé par le plan d’échantillonnage pour un échantillon avec PPS d’établissements et de classes Dans le cadre d’un plan à deux degrés, plusieurs établissements ont été sélectionnés dans chaque strate avec une probabilité proportionnelle à la mesure de leur taille (MOS), de sorte que chaque établissement sélectionné a sa propre probabilité de sélection. Pour calculer ces probabilités, vous avez besoin de trois quantités : nh, le nombre d’établissements sélectionnés dans la strate h ; zhi, la taille de l’établissement i dans la strate h ; et Zh, la mesure de la taille totale (cumMOS ) de la strate h. La probabilité de sélection de l’établissement est alors : z hi . π 1hi = nh × Zh (suite) 204 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 14.2 (suite) Par exemple, le nombre total d’élèves dans la Province 1 est Z1 = 5 565 ; et l’échantillon alloué à cette province a une taille n1 = 24. Si la MOS de l’établissement 1101, z1,1101 = 89 (voir les lignes 1 et 2 de la figure 14.1.A), la probabilité de sélection de cet établissement est alors : z 1 ,1101 89 π 1,1,1101 = n 1 × = 24 × = 0. 384 . Z1 5565 Dans chaque établissement de l’échantillon, une classe est alors sélectionnée avec une probabilité égale dans la liste des classes éligibles. S’il y a Mhi classes dans l’établissement i de la strate h, la probabilité de sélection au deuxième degré est : 1 . π 2 hi = Mhi Le module Complex Samples de SPSS calcule les probabilités de sélection et les poids déterminés par le plan d’échantillonnage (appelés par SPSS sample weights ou poids de l’échantillon) lors du tirage des échantillons. Comme deux échantillons imbriqués ont été sélectionnés, le poids total du plan d’échantillonnage des classes et établissements doit être le produit des deux composantes. Ouvrez le fichier à l’aide des commandes suivantes : File – Open – Data – Look in …\MYSAMPLSOL\CLASS_SAMPLE.SAV Open Puis sélectionnez Transform – Compute Variable. Saisissez DesignWeight dans Target Variable, et Weight1*Weight2 dans Numeric expression. Cliquez sur OK. Pour ajuster le format de la variable DesignWeight, passez en mode Variable View (onglet en bas à gauche) et assurez-vous que le format prévoit deux ou trois décimales. Revenez en mode Data View et enregistrez le fichier CLASS_SAMPLE. Les données de ce fichier, qui comprennent les poids déterminés par le plan d’échantillonnage dans un format à deux décimales, sont affichées dans la Figure 14.2.A. Vous pouvez sauvegarder le fichier CLASS_SAMPLE dans ...\MYSAMPLSOL\ pour un usage ultérieur. CALCUL DES POIDS DE L’ENQUÊTE | 205 EXERCICE 14.2 (suite) FIGURE 14.2.A Données du fichier contenant l’échantillon des classes Source : exemple dans le logiciel SPSS EXERCICE 14.3 Ajout des résultats des tests pour un échantillon aléatoire simple de 400 élèves Les résultats fictifs de tous les élèves de 8e année sont stockés dans ...\BASE FILES\ RESPONSES. (Dans la réalité, ils auraient été saisis après administration des tests et nettoyage des données, parfois après calcul des poids initiaux du plan d’échantillonnage.) À cette étape, vous allez associer le fichier contenant les 400 élèves sélectionnés à celui des résultats des tests de ces élèves. Vous trierez et fusionnerez les deux fichiers. 1. Ouvrez et triez le fichier RESPONSES à l’aide des commandes suivantes : File – Open – Data – Look in …\BASE FILES\RESPONSES.SAV Open Sélectionnez Data – Sort cases et déplacez STUDENTID dans Sort by. Cliquez sur OK. (suite) 206 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 14.3 (suite) 2. Ouvrez et triez de la même façon le fichier contenant l’échantillon aléatoire simple des élèves : File – Open – Data – Look in …\MYSAMPLSOL\STUDENTSRSAMPLE.SAV Open Sélectionnez Data – Sort cases et déplacez STUDENTID dans Sort by. Cliquez sur OK. 3. Fusionnez les réponses et l’échantillon des élèves. Oubliez certaines variables sans intérêt et conservez uniquement les enregistrements de l’échantillon. (Dans la réalité, ces opérations correspondent aux étapes de collecte et de saisie des données.) Affichez le fichier RESPONSES à l’écran. Sélectionnez Data – Merge files – Add variables. Choisissez STUDENTSRSAMPLE dans Open dataset et cliquez sur Continue. Cliquez sur Match cases on key variables… et déplacez STUDENTID de Excluded variables vers Key variables. Cliquez sur Non-active dataset is keyed table. Puis cliquez sur OK et une nouvelle fois sur OK. Les variables PopulationSize, SampleSize et SampleWeight doivent maintenant apparaître en tant que variables de l’ensemble de données RESPONSES. La plupart des enregistrements contiennent des cellules vides. Vous devez maintenant conserver uniquement les enregistrements des 400 élèves de l’EAS à l’exclusion des autres élèves. Utilisez les commandes suivantes : Data – Select Cases – Use filter variable. Déplacez PopulationSize vers Use filter variable. Cliquez sur Copy selected cases…. Saisissez SRSResponses dans Dataset name et cliquez sur OK. Fermez RESPONSES sans le sauvegarder. Affichez SRSResponses à l’écran et sauvegardez-le sous …\MYSAMPLSOL\SRSRESPONSES.SAV. La figure14.3.A affiche le fichier des données enregistrées pour trois élèves et donne un extrait des résultats des tests pour l’échantillon des 400 élèves, prêts pour la pondération et l’estimation. L’ordre des variables affichées sur votre écran peut être différent. Notez la variable Status, qui indique le statut de l’élève au moment de l’épreuve. Faites défiler le fichier et remarquez que certains élèves étaient absents de l’établissement le jour du test et que d’autres avaient abandonné l’école ou changé d’établissement après la date à laquelle l’établissement avait constitué la liste des élèves. L’absentéisme, les abandons et les transferts sont des problèmes courants dans les évaluations nationales. CALCUL DES POIDS DE L’ENQUÊTE | 207 EXERCICE 14.3 (suite) FIGURE 14.3.A Extrait des résultats des tests pour l’échantillon des élèves (Continued) Source : exemple dans le logiciel SPSS EXERCICE 14.4 Ajout des résultats des tests pour un plan d’échantillonnage avec PPS Pour un échantillon avec PPS, le processus d’ajout des résultats des tests est similaire à celui suivi pour les 400 élèves de l’EAS. La séquence des étapes d’échantillonnage est toutefois importante : les établissements sont échantillonnés en premier, puis les classes et enfin, les élèves. Cette structure influence la façon dont les fichiers seront triés et fusionnés. Cet exercice correspond, dans la réalité, aux activités de saisie des données de l’évaluation nationale. Pour commencer, vous devez ouvrir le fichier contenant les données des réponses des 27 654 élèves de 8e année. Ces réponses seront ensuite associées aux élèves sélectionnés dans les classes de l’échantillon, et les enregistrements correspondants seront conservés. 1. Ouvrez et triez le fichier RESPONSES comme suit : File – Open – Data – Look in ...\BASE FILES\RESPONSES.SAV Open Sélectionnez Data – Sort cases et déplacez SCHOOLID CLASSID vers Sort by. Cliquez sur OK. 2. Ouvrez et triez le fichier contenant l’échantillon des 120 classes de la façon suivante : File – Open – Data – Look in …\MYSAMPLSOL\CLASS_SAMPLE.SAV Open (suite) 208 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 14.4 (suite) Sélectionnez Data – Sort et déplacez SCHOOLID CLASSID vers Sort by. Cliquez sur OK. 3. Fusionnez les réponses et l’échantillon des classes. Oubliez les variables sans intérêt et conservez uniquement les enregistrements de l’échantillon. Affichez le fichier RESPONSES à l’écran. Sélectionnez Data – Merge files – Add variables. Choisissez CLASS_SAMPLE dans Open dataset et cliquez sur Continue. Cliquez sur Match cases on key variables. Déplacez SCHOOLID et CLASSID de Excluded variables vers Key variables. Cliquez sur Non-active dataset is keyed table. Cliquez sur OK et encore une fois sur OK. Les variables correspondant aux tailles de la population, tailles de l’échantillon et poids devraient maintenant figurer dans le fichier des réponses. Conservez les enregistrements de l’échantillon en sélectionnant Data – Select Cases. Déplacez DesignWeight vers Use filter variable. Cliquez sur Copy selected cases… et saisissez PPSResponses dans le champ Dataset name puis cliquez sur OK. Affichez PPSResponses à l’écran et cliquez sur l’onglet Variable View. Les variables nbclass, class_size, school_size, alloc ne seront pas utiles et peuvent être éliminées. Sauvegardez le fichier sous …\MYSAMPLSOL\PPSRESPONSES.SAV. La figure14.4.A montre un extrait des résultats des tests pour un échantillonnage aléatoire à deux degrés avec PPS. FIGURE 14.4.A Extrait des résultats des tests pour un échantillonnage aléatoire à deux degrés Source : exemple dans le logiciel SPSS Fermez tous les fichiers ouverts sans les sauvegarder. CALCUL DES POIDS DE L’ENQUÊTE | 209 L’AJUSTEMENT DES POIDS POUR LA NON-RÉPONSE Toutes les enquêtes souffrent des non-réponses apparaissant lorsqu’en totalité ou en partie, l’information requise pour les unités échantillon- nées n’est pas disponible pour une raison ou une autre. Une non- réponse peut apparaître quand l’établissement ou l’élève refuse de participer, l’établissement ne peut être localisé, les élèves sont absents ou l’information obtenue est inutilisable. La façon la plus facile de traiter ces non-réponses est de les ignorer. Toutefois, ne pas tenir compte des unités n’ayant pas répondu crée un biais et peut, par exemple, entraîner une sous ou surestimation des niveaux moyens de performance des élèves, du volume des inscriptions scolaires natio- nales ou du corps enseignant. La manière la plus courante de traiter la non-réponse totale est d’ajuster les poids déterminés par le plan d’échantillonnage en par- tant de l’hypothèse que les unités ayant répondu représentent aussi bien les unités ayant répondu que celles n’ayant pas répondu. Cet ajustement est raisonnable lorsqu’on peut supposer que les caractéris- tiques mesurées par l’enquête sont similaires chez les non-répondants et les répondants. Les poids déterminés par le plan d’échantillonnage des non-répondants sont donc redistribués entre les répondants. Cette étape est souvent réalisée à l’aide d’un facteur d’ajustement pour la non-réponse. Le poids déterminé par le plan d’échantillonnage est multiplié par ce facteur pour donner le poids ajusté pour la non- réponse, comme illustré dans l’exemple suivant. Le facteur d’ajustement pour la non-réponse est habituellement défini comme le rapport de la somme des poids de l’échantillon initial sur la somme des poids des unités ayant répondu. L’équipe d’échantillonnage doit consulter les responsables de l’ad- ministration des tests pour établir le nombre des non-répondants dans chaque établissement. Les données sur les non-répondants doivent être enregistrées dans un document tel qu’un formulaire de suivi des élèves (voir l’encadré 4.1). L’équipe d’échantillonnage peut utiliser cette information pour calculer les facteurs d’ajustement voulus. Supposons un échantillon aléatoire simple de n = 20 élèves choisis dans une classe de N = 40 élèves. Le nombre d’unités répon- dantes est désigné par nr. Sur l’échantillon cible initial de 20 élèves, 210 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES seuls nr = 16 élèves ont subi l’évaluation. Pour déterminer le poids déterminé par le plan d’échantillonnage et le poids ajusté pour la non- réponse des unités ayant répondu, il faut suivre les étapes suivantes : • Tout d’abord, calculez les probabilités d’inclusion de l’échantillon aléatoire simple : n 20 1 π= = = . N 40 2 Le poids déterminé par le plan d’échantillonnage de chaque unité de l’échantillon est donc pp = 2. • Calculez ensuite le facteur d’ajustement pour la non-réponse. Comme seulement nr = 16 personnes sur les n = 20 personnes sélectionnées ont fourni l’information demandée, la taille finale de l’échantillon est 16. Si l’on suppose que les unités répondantes peuvent être utilisées pour représenter les unités aussi bien répon- dantes que non-répondantes, le facteur d’ajustement pour la non- réponse est : ∑w d 20 × 2 échantillon A= = = 1.25. ∑wd réponse 16 × 2 • La dernière étape consiste à calculer le poids ajusté pour la non- réponse. Le poids déterminé par le plan d’échantillonnage ajusté pour la non-réponse, wnr, est le produit du poids déterminé par le plan d’échantillonnage par le facteur d’ajustement pour la non-réponse : wnr = pp A = 2 × 1,25 = 2,5. Chaque répondant représente désormais 2,5 élèves dans l’évalua- tion nationale (contre 2 élèves si tous les élèves avaient répondu). Un poids final de 2,5 est donc affecté à chaque unité du fichier. L’exercice 14.5 est présenté à des fins pédagogiques. Il montre comment déterminer le poids des élèves qui, bien que repris dans l’échantillon, n’ont pas participé à l’évaluation nationale. CALCUL DES POIDS DE L’ENQUÊTE | 211 EXERCICE 14.5 Ajustement pour la non-réponse des poids d’un échantillon aléatoire simple de 400 élèves Certains des 400 élèves de l’échantillon n’ont pas subi les tests. L’équipe d’échantillonnage doit tenir compte des non-réponses et considérer deux types distincts de non participants. Premièrement, il est possible que certains élèves n’aient pas pris part aux tests, car ils ont définitivement quitté la classe (et l’établissement). Le statut qui leur est attribué est « abandon » ou « départ » dans les fichiers. Dans ce cas, on pourrait vouloir les conserver dans la base, sans changer leur poids, mais en leur attribuant un score 0 pour les tests. Cette solution peut être considérée comme une pénalité plutôt sévère pour l’utilisation d’une base obsolète. En effet, ces élèves faisaient partie de la population à l’époque où la base a été établie, mais ne figuraient plus, au moment de l’évaluation, dans la population pour laquelle les estimations sont effectivement réalisées. Une pratique courante consiste toutefois à attribuer un poids égal à 0 aux élèves ayant quitté l’établissement et, finalement, à les éliminer de la base de données. Cette option suppose que ces élèves ont simplement changé d’établissement et ont encore une chance de faire partie de l’évaluation ou d’être représentés par quelqu’un dans l’échantillon. Aucun ajustement des poids des élèves participants n’est effectué. Deuxièmement, certains élèves peuvent avoir été temporairement absents pour cause de maladie, parce qu’ils ont aidé leurs parents ou pour toute autre raison. Ces élèves, enregistrés avec le statut absent, peuvent être considérés comme de « véritables » non-répondants. Ils font encore partie de la population et auraient pu être évalués un autre jour. Ils peuvent être considérés comme « manquants par hasard ». Un ajustement pour la non-réponse doit, par conséquent, être appliqué aux poids des membres restants de l’échantillon (y compris ceux qui ont définitivement quitté l’établissement, parce qu’ils sont encore dans la base et faisaient partie de la population au moment où les poids déterminés par le plan d’échantillonnage ont été déterminés). Plus tard, lorsque les estimations seront calculées pour la population évaluée, les unités non répondantes de l’échantillon (absent, transféré, etc.) seront identifiées et éliminées. L’équipe d’échantillonnage doit obtenir de l’équipe de collecte des données le statut de participation (participant, absent, exclu ou tout autre statut nécessaire) de chaque élève sélectionné de chaque établissement participant. Cette information doit être enregistrée et attachée au fichier de l’échantillon de la manière suivante. Les réponses des élèves et leurs poids déterminés par le plan d’échantillonnage sont enregistrés pour un échantillon aléatoire simple dans …\MYSAMPLSOL\ SRSRESPONSES. La variable STATUS précise la participation ou cause de non- participation. L’indicateur RESP distingue les réponses des non-réponses. Comme l’EAS n’utilise pas les données relatives aux classes ou aux établissements, seuls les (suite) 212 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 14.5 (suite) enregistrements du fichier doivent être comptés et comparés à la taille prévue de l’échantillon. Les poids des élèves échantillonnés sont ajustés en fonction de leur statut de participation, et les poids finaux sont enregistrés dans …\MySamplSol\SRSResponses pour une utilisation future. 1. Ouvrez le fichier SRSResponses à l’aide des commandes suivantes : File – Open – Data – Look in …\MYSAMPLSOL\SRSRESPONSES.SAV Open 2. Créez un indicateur pour la réponse ou non-réponse, et comptez le nombre d’unités ayant répondu. Utilisez les commandes suivantes : Transform – Recode into Different Variables…. Puis déplacez STATUS vers Input Variable. Saisissez RESP dans Output Variable Name. Si vous le souhaitez, vous pouvez saisir un titre explicatif dans le champ Label. Cliquez sur Change. Cliquez sur Old and New Values. Dans Old Value, cliquez sur Value et saisissez absent en respectant les majuscules et minuscules. Dans New Value, saisissez le nombre 0. Cliquez sur Add. Dans Old Value, cliquez sur All other values au bas de l’écran. Dans New Value, saisissez le nombre 1 et cliquez sur Add. Cliquez ensuite sur Continue puis OK. Sélectionnez Data – Aggregate dans le menu. Déplacez RESP vers Break variable. Sous Aggregated variables, cliquez sur Number of cases. Saisissez EFFSAM (effective sample – échantillon réel) dans N_BREAK pour remplacer la valeur par défaut. Dans Save, cliquez sur Add aggregated variables to active dataset. Dans Options, cliquez sur Sort file before aggregating, puis cliquez sur OK. Notez le nombre 19 sous l’en-tête EFFSAM où RESP est égal à 0. Ce nombre indique que sur les 400 élèves sélectionnés, 19 sont des non-répondants. 3. Calculez le facteur d’ajustement pour la non-réponse (NRESADJ) et le poids de l’estimation. Sélectionnez dans le menu Transform – Compute Variable. Saisissez NRESADJ dans Target Variable. Saisissez SampleSize/EFFSAM dans Numeric expression. Cliquez sur If… Cliquez sur Include if case satisfies condition. Saisissez RESP=1, cliquez sur Continue puis sur OK. Sélectionnez à nouveau Transform – Compute Variable. Saisissez NRESADJ dans Target Variable. Saisissez 0 dans Numeric expression. Cliquez sur If… Cliquez sur Include if case satisfies condition. Saisissez RESP=0. Cliquez sur Continue puis sur OK et à nouveau sur OK. CALCUL DES POIDS DE L’ENQUÊTE | 213 EXERCICE 14.5 (suite) Sélectionnez à nouveau les commandes Transform – Compute Variable pour vérifier le poids de l’estimation. Saisissez FINALWEIGHT dans Target Variable. Saisissez SampleWeight* NRESADJ dans Numeric expression. Cliquez sur If… Cliquez sur Include all cases. Cliquez sur Continue puis sur OK. Vous devez voir que le poids final de l’estimation vaut 0 pour les élèves absents et environ 72,6 pour les participants et les « transférés » (en fonction du nombre de non-répondants de l’échantillon). Si l’ajustement pour la non-réponse et le poids final affichés sont des nombres entiers, vous pouvez modifier le nombre de décimales affichées en passant en mode Variable View afin de modifier le format. Chaque élève répondant représente maintenant 72,6 élèves. Enregistrez le fichier sous …\MYSAMPLSOL\RESPSRSFINALWT.SAV. Ce fichier sera utilisé plus tard pour calculer les estimations. Fermez tous les autres fichiers ouverts sans les sauvegarder. Si l’on suppose que les caractéristiques mesurées dans une évalua- tion nationale sont similaires pour les non-répondants et les répon- dants, le même facteur d’ajustement pour la non-réponse peut alors être appliqué à tous les groupes ayant répondu. Toutefois, il y a sou- vent de bonnes raisons de supposer que certains sous-groupes peuvent avoir une propension à répondre et des caractéristiques différentes. Par exemple, les élèves des établissements ruraux peuvent être plus souvent absents que ceux des établissements urbains, ou bien les gar- çons et les filles peuvent afficher des taux de réponse différents. Un ajustement appliqué à tous les répondants risque de biaiser les résul- tats. En pareils cas, des ajustements différents devraient être appliqués au sein de chaque strate. L’exemple suivant examine une situation où le taux de réponse des élèves des zones urbaines diffère de celui des élèves des zones rurales (par exemple, lors d’un test de mathématiques). Dans ce cas, des ajus- tements pour la non-réponse différents doivent être appliqués aux deux ensembles de données. Lors de l’évaluation nationale, sur les 100 élèves de chacun des échantillons respectivement prélevés sur les strates urbaines et rurales, seuls nr,1 = 85 élèves urbains et nr,2 = 70 élèves ruraux ont passé le test de mathématiques (tableau 14.2). 214 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Les étapes du calcul des facteurs d’ajustement pour la non-réponse sont les suivantes : • Le poids déterminé par le plan d’échantillonnage est pp,1 = 4 pour la strate urbaine et pp,2 = 6 pour la strate rurale. • Le facteur d’ajustement pour la non-réponse est calculé comme suit pour chaque strate : 100 × 4 Strate 1, urbaine : A1 = = 1,177. 85 × 4 100 × 6 Strate 2, rurale : A2 = = 1,428. 70 × 6 • Le poids ajusté pour la non-réponse de chaque strate est donné par le produit du poids déterminé par le plan d’échantillonnage par le facteur d’ajustement pour la non-réponse : Strate 1, urbaine : wnr,1 = wd,1A1 = 4 × 1,177 = 4,706. Strate 2, rurale : wnr,2 = wd,2A2 = 6 × 1,428 = 8,571. Chaque répondant du fichier d’échantillonnage se voit ainsi attri- buer un poids final de 4,706 dans la strate urbaine et de 8,571 dans la strate rurale (voir le tableau 14.3). En d’autres termes, chaque élève TABLEAU 14.2 Échantillon aléatoire simple stratifié : Populations urbaine et rurale, taille des échantillons et taux de réponse Taille de la Taille de Nombre de Strate population l’échantillon répondants Urbaine N1 = 400 n1 = 100 nr,1 = 85 Rurale N2 = 600 n2 = 100 nr,2 = 70 TABLEAU 14.3 Échantillon aléatoire simple stratifié : Populations urbaine et rurale, taille des échantillons, taux de réponse et poids ajustés pour la non-réponse Taille de la Taille de Nombre de Poids déterminé par le Poids Strate population l’échantillon répondants plan d’échantillonnage ajusté Urbaine N1 = 400 n1 = 100 nr,1 = 85 4 4,706 Rurale N2 = 600 N2 = 100 nr,2 = 70 6 8,571 CALCUL DES POIDS DE L’ENQUÊTE | 215 de la strate urbaine représente environ 4,7 élèves urbains et chaque élève de la strate rurale environ 8,6 élèves ruraux. Dans certains cas, un ajustement pour la non-réponse peut être possible ou nécessaire pour des classes définies par des variables autres que celles utilisées dans la stratification ; par exemple, si les garçons ont tendance à beaucoup moins répondre que les filles, l’ajustement pour la non-réponse sur la base de la localisation urbaine/rurale peut avoir moins de sens qu’un ajustement basé sur le sexe. Un tel ajuste- ment nécessite évidemment que le sexe soit disponible dans la liste des élèves de chaque classe de l’échantillon. Il peut être judicieux de consulter un statisticien spécialiste des enquêtes, car ces ajustements peuvent être plus délicats qu’il n’y paraît et sont susceptibles d’affec- ter la façon dont les poids doivent être calculés en cas de rééchantil- lonnage de l’évaluation (voir le chapitre 16). Lors du calcul du facteur d’ajustement pour la non-réponse, on peut penser que le fait que certaines unités échantillonnées (élèves) puissent sortir du champ de l’enquête (autrement dit ne plus faire partie de la population cible) constitue une question importante. Par exemple, un garçon atteint de troubles de l’apprentissage peut être inscrit dans une classe ordinaire en raison de la politique natio- nale d’intégration scolaire. Il aurait toutefois dû être exclu de l’éva- luation nationale au motif qu’il suit un programme de cours réduit ou adapté et ne fait donc pas partie de la population cible. Le calcul de l’ajustement pour la non-réponse doit être basé sur des unités appartenant au champ de l’enquête, car les unités de l’échantillon n’en faisant pas partie sont généralement aussi des unités extérieures au champ de la base d’échantillonnage. L’exemple précédent sup- pose que tous les non-répondants appartiennent au champ de l’enquête. L’ajustement pour la non-réponse doit être effectué séparément pour des groupes de répondants similaires, où chaque répondant représente les non-répondants de son groupe. Il peut être judicieux que l’équipe d’échantillonnage consulte un spécialiste de l’échantil- lonnage pour l’aider à identifier les groupes de répondants les plus appropriés pour une évaluation spécifique. L’exercice 14.6 montre comment calculer l’ajustement des poids pour un échantillon avec PPS. 216 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 14.6 Ajustement du poids pour la non-réponse dans un échantillon avec PPS Le calcul des poids pour l’évaluation nationale du Sentz dans le cadre d’un échantillonnage à deux degrés avec PPS suppose que tous les établissements et classes sélectionnés répondent. En pratique, tel n’est vraisemblablement pas le cas, et des ajustements supplémentaires des poids sont nécessaires pour que les établissements participants représentent les établissements de l’échantillon n’ayant pas répondu. Comme dans l’exemple d’EAS, il faut tenir compte des non-réponses dans les classes sélectionnées. Là encore, vous devez faire la distinction entre les « transférés », qui restent dans le fichier avec un résultat aux tests = 0, et les absents temporaires, qui sont traités comme des non-répondants. Les poids des autres membres des classes doivent être ajustés d’une façon normalisée. L’ajustement est calculé de la même manière que dans l’exemple de l’EAS, sauf que les classes doivent être prises en compte dans les calculs. 1. Déterminez les groupes de répondants les plus appropriés pour le calcul de l’ajuste- ment. Si, par exemple, on s’attend à ce que les résultats aux tests (ou les taux de réponse) soient sensiblement différents chez les garçons et les filles, ou entre les zones urbaines et rurales, ces catégories peuvent être prises en compte dans le calcul des ajustements pour la non-réponse. Dans le cas présent, un examen rapide des résultats n’a pas montré que ces facteurs étaient particulièrement importants. Les ajustements pour la non-réponse seront donc effectués dans chaque classe. Si, par exemple, une classe comptait à l’origine 42 élèves, dont 1 a depuis quitté l’établissement et 3 sont temporairement absents, les poids originaux sont maintenant multipliés par 42/(42-3) = 42/39 = 1,0769. L’élève qui a quitté l’établissement conserve le poids d’origine, en représentant les autres élèves qui ont quitté l’établissement. Le fichier …\MYSAMPLSOL\PPSRESPONSES.SAV contient les réponses et les poids déterminés par le plan d’échantillonnage de l’échantillon à deux degrés des élèves. Le processus de calcul des facteurs d’ajustement pour la non-réponse est identique à celui utilisé précédemment pour l’échantillon aléatoire simple. Les réponses doivent être comptées par classe et par établissement pour respecter la hiérarchie de l’échantillon. En absence d’information indiquant que la non-réponse est uniforme dans la population, il est conseillé de faire des ajustements au niveau local plutôt que global. Effectuez les étapes suivantes pour a) ouvrir le fichier des réponses voulu ; b) calculer la taille de l’échantillon à la dernière étape de l’échantillonnage (taille de la classe) et le nombre de répondants ; c) calculer le facteur d’ajustement pour la non-réponse au niveau de la classe ; et d) calculer les poids finaux. Commencez par ouvrir le fichier PPSResponses : File – Open – Data – Look in ...\MYSAMPLSOL\PPSRESPONSES.SAV Open CALCUL DES POIDS DE L’ENQUÊTE | 217 EXERCICE 14.6 (suite) 2. Créez un indicateur pour la réponse ou non-réponse et comptez le nombre de cas de réponses.a Sélectionnez Transform – Recode into Different Variables…. Déplacez STATUS vers Input Variable. Saisissez RESP dans Output Variable Name. Si vous le souhaitez, vous pouvez saisir un titre explicatif dans le champ Label. Cliquez sur Change. Cliquez sur Old and New Values. Dans Old Value, cliquez sur Value et saisissez absent en respectant les majuscules et minuscules. Dans New Value, saisissez le nombre 0. Cliquez sur Add. Dans Old Value, cliquez sur All other values (au bas de l’écran). Dans New Value, saisissez le nombre 1 et cliquez sur Add. Cliquez ensuite sur Continue puis sur OK. Sélectionnez Data – Aggregate dans le menu. Déplacez SCHOOLID CLASSID vers Break variable. Dans Aggregated variables, cliquez sur Number of cases. Saisissez CLASS_SIZE dans N_BREAK pour remplacer la valeur par défaut. Dans Save, cliquez sur Add aggregated variables to active dataset. Dans Options, cliquez sur Sort file before aggregating, puis cliquez sur OK. Sélectionnez à nouveau Data – Aggregate. Déplacez RESP vers Break variable et ajoutez-le à SCHOOLID CLASSID, qui devraient être affichés dans la boîte de dialogue depuis la fin de l’étape précédente. Dans Aggregated variables, cliquez sur Number of cases. Saisissez CLASS_RESP (nombre de répondants) dans N_BREAK pour remplacer la valeur par défaut. Dans Save, cliquez sur Add aggregated variables to active dataset. Dans Options, cliquez sur Sort file before aggregating, puis cliquez sur OK. 3. Calculez le facteur d’ajustement pour la non-réponse. Sélectionnez Transform – Compute Variable. Saisissez NRESADJ dans Target Variable. Saisissez CLASS_ SIZE/ CLASS_RESP dans Numeric expression. Cliquez sur If… Cliquez sur Include if case satisfies condition. Saisissez RESP=1. Cliquez sur Continue, puis sur OK. Sélectionnez Transform – Compute Variable. Saisissez NRESADJ dans Target Variable. Saisissez 0 dans Numeric expression. Cliquez sur If… Cliquez sur Include if case satisfies condition. Saisissez RESP=0. Cliquez sur Continue. Cliquez sur OK. Cliquez à nouveau sur OK. 4. Calculez le poids final de l’évaluation. Sélectionnez Transform – Compute Variable à partir du menu. Saisissez FINALWEIGHT dans Target Variable. Saisissez DesignWeight*NRESADJ dans Numeric expression. Cliquez sur If… Cliquez sur Include all cases. Cliquez sur Continue, puis sur OK. (suite) 218 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 14.6 (suite) Sauvegardez les poids déterminés par le plan d’échantillonnage ajustés pour la non-réponse dans le fichier …\MYSAMPLSOL\RESP2STGFINALWT.SAV pour une utilisation ultérieure. La figure14.5.A présente un extrait du fichier de l’échantillon avec PPS montrant le facteur d’ajustement et le poids final dans les deux dernières colonnes. FIGURE 14.6.A A Extrait du fichier de l’échantillon avec PPS Source : exemple dans le logiciel SPSS. a. Dans cet exemple, les comptes sont à jour. Parfois, un délai peut séparer la création de la base (par exemple, pendant le 1er mois de l’année scolaire) et la réalisation des tests (par exemple, le 10e mois). Pendant cette période, le nombre des élèves peut changer pour diverses raisons, telles que la migration naturelle (arrivées, départs). En pareil cas, vous devez actualiser les comptes. L’EXPORTATION ET L’IMPORTATION DES DONNÉES NETTOYÉES L’étape finale des processus de nettoyage et de pondération des données est l’export des données nettoyées dans un format appro- prié à l’analyse. SPSS (Statistical Package for Social Sciences – logiciel d’analyse statistique pour les sciences sociales) peut importer des CALCUL DES POIDS DE L’ENQUÊTE | 219 données en format Access ainsi qu’en divers formats texte. Le logi- ciel d’analyse statistique SAS (Statistical Analysis System) peut importer des données en format Access et SPSS, ainsi qu’en de nombreux autres formats texte. WesVar accepte facilement les fichiers créés à partir d’Access, EpiData, Epi Info, SAS, SPSS et Stata. LA POSTSTRATIFICATION : UTILISATION DE DONNÉES AUXILIAIRES POUR AMÉLIORER LES ESTIMATIONS EN AJUSTANT LES POIDS DE L’ESTIMATION Le poids déterminé par le plan d’échantillonnage multiplié par le fac- teur d’ajustement pour la non-réponse peut être utilisé pour détermi- ner le poids final et les estimations des caractéristiques souhaitées. Des informations sur la population de l’enquête sont parfois dispo- nibles dans d’autres sources (par exemple, les dernières statistiques sur les inscriptions). Ces données peuvent être incorporées dans le processus de pondération. Deux raisons principales justifient l’utilisation de données auxi- liaires au moment de l’estimation. Tout d’abord, il est souvent impor- tant de faire correspondre les estimations de l’enquête avec les totaux de population connus. Par exemple, il est souhaitable que le nombre estimé des garçons et des filles corresponde au nombre officiel des garçons et filles inscrits à l’école. Deuxièmement, la poststratification peut améliorer la précision des estimations. Rappelons qu’un estimateur est dit précis lorsque sa variance d’échantillonnage (mesure de l’erreur d’échantillonnage) est faible. Au moment de la conception du plan d’échantillonnage, l’in- formation auxiliaire doit toutefois être disponible pour toutes les uni- tés de la base. Lors de l’estimation, des données auxiliaires peuvent être utilisées pour améliorer la précision des estimations, à condition que leur valeur soit connue pour chacune des unités de l’enquête et soit disponible dans une source fiable. Des données auxiliaires peuvent également être utilisées pour affi- ner les taux de non-réponse de certains sous-groupes de la popula- tion. Elles peuvent également aider à faire des ajustements pour tenir 220 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES compte d’inadéquations dans la couverture entraînant une différence entre la population de l’enquête et la population cible. Une utilisation réussie des données auxiliaires lors de l’estimation dépend de trois exigences fondamentales : • les données auxiliaires doivent être bien corrélées avec les variables de l’enquête ; • les sources externes d’information relative à la population doivent être exactes ; • les données auxiliaires doivent être recueillies auprès de toutes les unités de l’échantillon ayant répondu lorsque seuls les totaux de population sont connus. Habituellement, l’information auxiliaire utilisée pour la poststrati- fication (comme le nombre de personnes par sexe et par groupe d’âge, ou le nombre d’élèves suivant des cours de mathématiques avancés ou de langues spéciales) provient de sources officielles (recensement national, ministère de l’Éducation, etc.), mais n’est connue ou mise à la disposition de l’équipe d’échantillonnage que sous la forme de totaux de population et non de valeurs individuelles attachées à chaque membre de la population. Pendant la poststratification, ces totaux de population doivent être comparés avec les estimations cor- respondantes tirées de l’échantillon. Cela implique que les données soient recueillies pour chaque individu échantillonné, dans la section contextuelle du questionnaire ou du carnet de test. Le gain d’efficacité des estimations qui utilisent des données auxi- liaires dépend du degré de corrélation entre ces données et les variables de l’enquête. Non seulement les données doivent être fiables, mais la population cible doit être identique et les concepts, définitions et périodes de référence comparables dans la source externe et l’enquête. La poststratification est utilisée pour ajuster les poids de l’enquête à l’aide de variables de stratification appropriées qui n’ont pu être utilisées lors de la conception du plan d’échantillonnage, parce qu’elles n’étaient pas disponibles ou parce qu’une information plus récente et fiable s’est trouvée disponible après la constitution de l’échantillon. La poststratification est utilisée lorsque des données auxiliaires sont disponibles sous la forme de comptes (par exemple, le CALCUL DES POIDS DE L’ENQUÊTE | 221 TABLEAU 14.4 Enquête sur l’établissement : Répartition du personnel en poststrates par sexe Poststrate 1, Poststrate 2, Nombre de Groupe hommes femmes répondants Tous les membres du personnel 3 12 15 Professeurs de mathématiques 1 7 8 nombre d’élèves masculins et féminins dans la population). Elle est très efficace pour réduire la variance de l’échantillonnage lorsque les populations moyennes associées aux variables d’intérêt diffèrent for- tement entre les poststrates (par exemple, lorsque les scores des gar- çons et des filles sont très différents). Il est néanmoins préférable de stratifier au moment de la conception du plan d’échantillonnage plu- tôt que de poststratifier. L’exemple simple suivant montre comment utiliser la poststratifi- cation pour améliorer l’estimation du nombre de femmes ensei- gnantes dans un établissement. Supposons qu’une équipe de chercheurs mène une enquête pour obtenir des informations sur les enseignants d’un établissement. Un échantillon aléatoire simple de n = 25 personnes a été constitué à partir d’une liste anonyme des N = 78 employés de l’établissement. Supposons, dans cet exemple, que les données auxiliaires qui auraient pu être utilisées pour la stratification n’étaient pas disponibles au moment du plan d’échantillonnage. Des données sur le sexe, l’âge et la matière enseignée ont été recueillies auprès de chaque répondant. Sur les n = 25 personnes sélectionnées à l’origine, nr = 15 ont répondu. Le tableau 14.4 pré- sente, par sexe, les données pour l’ensemble de l’échantillon et pour les enseignants de mathématiques. Notons les points suivants : • La probabilité d’inclusion de chaque unité échantillonnée est égale à : n 25 π= = = 0,32 N 78 222 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES et le poids déterminé par le plan d’échantillonnage vaut donc pp = 1/p = 3,12. • En supposant que toutes les personnes de l’enquête avaient la même probabilité de répondre (il y a, de fait, eu un groupe de non- répondants), le facteur d’ajustement pour la non-réponse vaut : 25 A= = 1,67. 15 • Le poids ajusté pour la non-réponse vaut : pnr = ppA = 3,12 x 1,67 = 5,2. Tous les répondants ont donc le même poids ajusté pour la non- réponse, pnr = 5,2. Il a été utilisé pour produire les estimations de l’enquête présentées dans le tableau 14.5. Les poids ajustés pour la non-réponse conduisent à une estimation d’environ 16 hommes et 62 femmes travaillant dans l’établissement, avec une estimation de 33 % d’hommes et 58 % de femmes ensei- gnant les mathématiques. Supposons qu’après l’administration des tests, l’équipe constate que 42 hommes et 36 femmes travaillaient dans l’établissement au moment de l’enquête. Les estimations produites par celle-ci sont donc très différentes de ces valeurs réelles. L’équipe décide alors que ses estimations doivent être cohérentes avec le nombre connu d’hommes et de femmes. Elle pense également que la matière enseignée peut être liée au sexe du professeur. Si les données liées au sexe avaient été disponibles au moment du plan d’échantillonnage, l’équipe aurait pu stratifier l’enquête selon le sexe. Que peut-elle faire maintenant ? L’échantillon peut être stratifié après la création de ce que l’on appelle les poids poststratifiés à utiliser pendant l’estimation. Ce poids, TABLEAU 14.5 Estimations de l’enquête après ajustement pour la non-réponse Hommes Femmes Total Nombre de membres du personnel (3 x 5,2) = 15,6 62,4 78,0 Nombre de professeurs de mathématiques 5,2 36,4 41,6 Proportion de professeurs de mathématiques 0,33 0,58 0,53 CALCUL DES POIDS DE L’ENQUÊTE | 223 ppst, est le produit du poids ajusté pour la non-réponse, pnr, par le fac- teur d’ajustement pour la poststratification. Le facteur d’ajustement pour la poststratification est calculé par poststrate. Il correspond au rapport entre le nombre d’unités de popu- lation dans la poststrate, N, et le nombre estimé d’unités de popula- tion dans la poststrate, Nˆ, qui est estimé en utilisant les poids déterminés par le plan d’échantillonnage ajusté pour la non-réponse. (Bien que cet exemple s’applique ici à un échantillon EAS, la même formule, N/Nˆ peut être utilisée pour des plans d’échantillonnage plus complexes.) Dans cet exemple, les facteurs d’ajustement de poststratification sont : Nhommes 42 Poststrate 1, hommes : = = 2.69. ˆ N 15 .6 hommes Nfemmes 36 Poststrate 2, femmes : = = 0.58. ˆ N 62 .4 femmes Après leur application aux poids ajustés pour la non-réponse, les facteurs d’ajustement pour la poststratification donnent les poids poststratifiés finaux suivants : Nhommes Poststrate 1, hommes : wpst,hommes = wnr × = 5.2 × 2.69 = 14. ˆ N hommes Nfemmes Poststrate 2, femmes : wpst,femmes = wnr × = 5.2 × 0.58 = 3. ˆ Nfemmes Grâce aux poids poststratifiés, les estimations du nombre d’hommes et de femmes sont maintenant cohérentes avec les nombres connus d’hommes et de femmes dans l’établissement et, dans la mesure où le sexe est lié au nombre et à la proportion de matières enseignées, la précision peut être nettement améliorée. Notons que la proportion des professeurs de mathématiques n’est pas modifiée dans chaque poststrate, mais qu’elle a changé dans la population totale, qui com- prend plus d’une poststrate. Les estimations révisées de l’enquête sont présentées dans le tableau 14.6. 224 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU 14.6 Estimations de l’enquête ajustées pour la non-réponse, avant et après ajustement pour la poststratification Poststratification Hommes Femmes Total Avant ajustement Nombre de membres du personnel (3 x 5,2) = 15,6 62,4 78,0 Nombre de professeurs de mathématiques 5,2 36,4 41,6 Proportion de professeurs de mathématiques 0,33 0,58 0,53 Après ajustement Nombre de membres du personnel (3 x 5,2 x 2,69) = 42 36 78 Nombre de professeurs de mathématiques 14 21 35 Proportion de professeurs de mathématiques 0,33 0,58 0,45 D’autres méthodes plus complexes d’ajustement du poids existent, mais elles sortent du cadre de ce traitement de l’échantillonnage. Pour les questions plus complexes, l’équipe d’échantillonnage d’une éva- luation nationale peut consulter un spécialiste de l’échantillonnage afin de trouver la méthode d’ajustement la plus appropriée à sa situation. Notons enfin qu’aucune tentative n’a été faite pour poststratifier les données du Sentz. Après une première analyse des résultats pon- dérés, d’éventuelles différences auraient pu être détectées et conduire à une poststratification à l’aide d’une ou plusieurs variables clés pour lesquelles une information à jour et précise serait disponible. CHAPITRE 15 CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE POUR DES ÉCHANTILLONS ALÉATOIRES SIMPLES Les exemples et les calculs présentés jusqu’ici avaient pour but de calculer les poids déterminés par le plan d’échan- tillonnage et de les ajuster, si nécessaire, pour tenir compte de la non- réponse et de données auxiliaires (poids poststratifiés). Ces calculs ont produit un ensemble de poids finaux à utiliser pour le calcul des estimations dans une évaluation nationale. Des statistiques descriptives simples, telles que des totaux, des moyennes et des proportions, sont produites pour pratiquement toutes les enquêtes. Différents types d’estimateurs sont utilisés en fonction du type des variables. Des proportions et des comptes sont habituellement déterminés pour les variables qualitatives, tandis que des moyennes et des totaux sont calculés pour les variables quantita- tives. Dans le chapitre 14, nous avons montré comment obtenir les poids de l’estimation. Nous allons maintenant montrer comment utiliser ces poids pour produire certaines estimations de base pour une population, telles que des totaux, des moyennes et des propor- tions. Nous allons également montrer comment déterminer la préci- sion de ces estimations (souvent appelée erreur d’échantillonnage). Le chapitre 15 est consacré aux échantillons aléatoires simples. Le chapitre 16 traite de l’estimation de l’erreur d’échantillonnage pour des plans d’échantillonnage complexes. 225 226 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Outre le type des données, l’estimation doit tenir compte de la nature de la population pour laquelle des estimations sont effectuées. Celles-ci peuvent être produites pour la totalité de la population de l’enquête ou pour un sous-groupe particulier, ou domaine, de la population (par exemple, une province, une matière enseignée, ou une source de finan- cement des établissements), que l’information définissant le domaine soit ou non connue au moment de l’échantillonnage. Lorsque la classi- fication initiale des unités d’échantillonnage a changé entre le moment de la sélection de l’échantillon et l’estimation, cette nouvelle classifica- tion doit être utilisée pour l’estimation des domaines. Un tel change- ment peut intervenir, par exemple, lorsqu’un enseignant a été enregistré dans les fichiers administratifs en tant que professeur de mathéma- tiques, alors qu’il se décrit lui-même comme professeur de langues. Les réponses aux questions suivantes contribuent à déterminer comment calculer les estimations de l’enquête : • Quel est le type des données utilisées : qualitatives ou quantitatives ? • Quel est le type de statistiques recherché : total, moyenne ou proportion ? • Quels sont les poids finaux ? • Quels sont les domaines d’intérêt ? Les procédures pour l’estimation, à l’aide des poids, de totaux, moyennes et proportions pour la population complète et les domaines de l’enquête sont décrites dans ce chapitre pour les variables qualita- tives et quantitatives. Ces estimateurs peuvent être utilisés pour tous les plans d’échantillonnage aléatoire, qu’ils soient simples (par exemple, l’échantillonnage aléatoire simple ou l’échantillonnage aléa- toire systématique) ou plus complexes. L’important est que le poids final de chaque unité soit correctement pris en compte. L’ESTIMATION D’UN TOTAL POUR UNE POPULATION Pour obtenir de bonnes estimations des données de la population d’une évaluation nationale, des poids finaux corrects doivent être attribués aux unités. La notation statistique pour le calcul des estima- tions est présentée dans l’annexe IV.A. Les procédures d’estimation sont montrées dans l’exercice 15.1. CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE | 227 EXERCICE 15.1 Estimations pour SRS400 Le but de cet exercice est de produire trois estimations intéressant les responsables des politiques pour la population totale d’un échantillon aléatoire simple, SRS400 : a) le nombre total d’élèves ; b) leur âge moyen ; et c) la proportion des élèves ayant obtenu un score minimum de 230 en mathématiques. Trois estimations seront ensuite produites pour la sous-population des « garçons » (sexe = 1) : a) le nombre total de garçons, b) leur âge moyen, et c) la moyenne de leurs scores en mathématiques. Les données requises ont été stockées dans …\MYSAMPLSOL\RESPSRSFINALWT.SAV. Les estimations doivent concerner la population au moment de l’évaluation. Bien que les abandons figurent toujours dans le fichier, avec des poids finaux, parce qu’ils appartenaient à la base d’échantillonnage initiale, ils ne peuvent donc pas contribuer aux estimations. Au moment de l’évaluation, toutes leurs caractéristiques ont une valeur zéro, y compris une variable muette conceptuelle, belongs to the population being assessed (appartient à la population évaluée), elle aussi égale à zéro. L’assignation de la valeur zéro à leurs caractéristiques revient à considérer la population évaluée comme un domaine au sein de la population définie par la base d’échantillonnage. Les enregistrements relatifs aux abandons doivent donc être exclus du fichier utilisé pour le calcul des estimations finales. Les seuls contributeurs directs aux estimations sont donc les élèves réellement évalués, qui représentent également les absents grâce aux ajustements qui ont conduit aux poids finaux. Dans le calcul des estimations, il faut prendre en compte le statut (participant ou absent) de chaque élève et utiliser la variable STATUS comme filtre. Une variable muette, MAT230, doit également être créée parce que les responsables des politiques souhaitent de l’information sur les élèves ayant obtenu un score minimum de 230 au test de mathématiques. 1. Pour commencer, ouvrez SPSS, trouvez l’ensemble de données et créez la variable MAT230. Des détails sur la façon de créer MAT230 dans WesVar sont donnés dans les étapes 8 à 12 de l’annexe IV.D. Utilisez les commandes suivantes : File – Open – Data …\MYSAMPLSOL\RESPSRSFINALWT Open Transform – Recode into Different Variables… 2. Déplacez MATH vers Input Variable. Saisissez MAT230 dans Output Variable Name. Si vous le désirez, vous pouvez également saisir un intitulé. Cliquez sur Change. 3. Cliquez sur Old and New Values. Dans Old Value, cliquez sur Range, value through HIGHEST et saisissez 230. Dans New Value, saisissez le chiffre 1. Cliquez sur Add. Dans Old Value, cliquez sur All Other Values (au bas de l’écran). Dans New Value, saisissez le chiffre 0. Cliquez sur Add, Continue, et OK. (suite) 228 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 15.1 (suite) Avant de pouvoir produire des estimations, vous devez éliminer les non-participants et utiliser le poids de l’estimation. Utilisez les commandes suivantes : Data – Select Casesa – If condition is satisfied… – If… 4. Déplacez STATUS vers la boîte située en haut à droite. Saisissez = « participant » et cliquez sur Continue. Dans Output, cliquez sur Filter out unselected cases, et ensuite sur OK. 5. Tout comme pour l’échantillonnage, vous allez maintenant utiliser l’Assistant SPSS pour vous guider à travers les étapes requises pour l’estimation. Assurez-vous que seuls les participants subsistent dans le fichier. Utilisez les commandes suivantes : Analyze – Complex Samples – Prepare for Analysis… Create a Plan File 6. Cliquez sur Browse pour localiser MYSAMPLSOL (figure 15.1.A). Saisissez SRS_plan comme nom de fichier. Cliquez ensuite sur Save et Next. 7. Déplacez FinalWeight de Variables vers la boîte Sample Weight et cliquez sur Next. Cliquez sur Equal WOR et ensuite Next. À ce stade, le programme peut vous avertir que la section est incomplète ; continuez pour la compléter. FIGURE 15.1.A Appel de l’Assistant d’analyse de SPSS Source : exemple dans le logiciel SPSS. a. Cette étape peut se dérouler différemment dans SPSS18 ; il est possible que vous ayez à modifier l’instruction ou le format de la variable de « condition » (vous pourriez, par exemple, convertir STATUS en une variable numérique à l’aide de TRANSFORM). (suite) CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE | 229 EXERCICE 15.1 (suite) 8. Cliquez sur Read values from variable. Sélectionnez Population Sizes dans la boîte Units en haut à droite. Déplacez PopulationSize de Variables vers Read values… et cliquez sur Next. Dans le panneau Summary, cliquez sur No, do not add another stage ensuite sur Next. Puis cliquez sur Finish. 9. Sélectionnez maintenant les commandes : Analyze – Complex Samples – Descriptives Sélectionnez le fichier plan que vous venez de créer, …\MYSAMPLSOL\SRS_PLAN. Sélectionnez l’ensemble de données …\MYSAMPLSOL\RESPSRSFINALWT, et cliquez sur Continue puis sur OK. Déplacez Age, Math et MAT230 de Variables vers Measures. Cliquez sur Statistics et vérifiez que Means et Standard Error sont sélectionnés. Cliquez sur Continue puis sur OK. Un petit tableau des résultats s’affiche dans la fenêtre des résultats de SPSS (figure 15.1.B). FIGURE 15.1.B Statistiques descriptives pour l’âge et les mathématiques Source : exemple dans le logiciel SPSS. Pour calculer des estimations pour le domaine des « garçons » au lieu de la population tout entière, vous pouvez utiliser le fichier SRS_plan que vous venez de créer et activer la commande Descriptives pour définir une sous-population de la façon suivante : Analyze – Complex Samples – Descriptives Sélectionnez le fichier plan que vous venez de créer …\MYSAMPLSOL\SRS_PLAN. Puis sélectionnez l’ensemble de données …\MYSAMPLSOL\RESPSRSFINALWT. Cliquez sur Continue puis sur OK. Déplacez Age, Math et MAT230 de Variables vers Measures. Déplacez Gender de Variables vers Subpopulations. Cliquez sur Statistics et vérifiez que Means et Standard Error sont sélectionnés. Puis cliquez sur Continue puis sur OK. (suite) 230 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 15.1 (suite) Les résultats pour les filles (GENDER = 0) et pour les garçons (GENDER = 1) figurent dans le tableau des résultats de la figure 15.1.C. FIGURE 15.1.C Statistiques descriptives pour l’âge et les mathématiques, par sexe Source : exemple dans le logiciel SPSS. L’ESTIMATION D’UNE MOYENNE POUR UNE POPULATION Pour une variable quantitative, l’estimation d’une valeur moyenne pour la population (par exemple, l’âge moyen des élèves) s’obtient en additionnant le produit de la valeur pour chaque unité de l’échan- tillon et du poids correspondant. Ce total est ensuite divisé par la somme des poids. Autrement dit, l’estimation de la moyenne pour CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE | 231 la population est l’estimation de la valeur totale de la variable quantitative divisée par l’estimation du nombre total d’unités dans la population : ∑p y i i ˆ Y ˆ response . Y = = ∑p response i Nˆ L’ESTIMATION D’UNE PROPORTION DE LA POPULATION Pour les données qualitatives, l’estimation de la proportion des unités de la population de l’enquête ayant une caractéristique C donnée s’ob- tient en additionnant les poids des unités ayant cette caractéristique et en divisant le total par la somme des poids de toutes les unités. Pour chaque unité i, une variable muette, ϕi, peut être utilisée pour indiquer si l’unité a la caractéristique C (ϕi = 1) ou non (ϕi = 0). En d’autres termes, l’estimation de la proportion de la population est l’estimation du nombre total d’unités possédant la caractéristique donnée divisée par l’estimation du nombre total d’unités dans la population : ∑ piϕi ˆ N ˆ = P response = c . ∑ pi ˆ c N response LES ESTIMATIONS POUR DES SOUS-GROUPES DE LA POPULATION Des estimations peuvent être demandées pour des sous-groupes, souvent appelés domaines dans la littérature sur l’échantillonnage. Ces domaines peuvent inclure des cohortes d’âge, de sources de finance- ment des établissements, ou encore du statut socioéconomique des élèves. Dans ces estimations, pour chaque unité i, pi désigne le poids final ajusté pour la non-réponse ; la variable muette δi indique si l’unité fait ou non partie de la sous-population visée (δi = 1 ou 0) ; et la 232 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES variable muette ϕi indique si l’unité a ou non la caractéristique d’inté- rêt (ϕi = 1 ou 0). Pour les données tant qualitatives que quantitatives, la taille d’une sous-population d’intérêt est estimée comme suit : ˆ N sous-population = ∑ pi δi . réponse L’estimation du total d’une donnée quantitative yi pour une sous- population est donnée par : ˆ Y sous-population = ∑ pδ y . réponse i i i L’estimation de la moyenne d’une donnée quantitative yi dans une sous-population est donnée par la formule suivante : ˆ ∑p δ y réponse i i i ˆ Y sous-population Ysous-population = = ∑p δ réponse i i ˆ N sous-population et pour une donnée qualitative : ∑p δ ϕ i i i ˆ N ˆ réponse sous-population ∩C P = = . ∑p δ sous-population ˆ N i i sous-population réponse Un poids final approprié doit être utilisé pour produire des estima- tions. S’il est ignoré (comme ce fut le cas dans au moins une évalua- tion nationale), les estimations sont incorrectes. Après avoir achevé l’exercice 15.1, le lecteur intéressé peut trou- ver à l’annexe IV.B, une comparaison des données de SRS400 et d’un recensement basé sur la population totale de 27 654 élèves. CONCLUSION Ce chapitre est limité aux estimations dans le cadre d’un échantillon- nage aléatoire simple. Le module Complex Samples de SPSS peut être utilisé pour calculer des estimations et leurs erreurs d’échantillonnage CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE | 233 dans le cadre d’échantillonnages complexes. Ce logiciel peut toutefois être difficile à appliquer dans ce dernier cas, car il requiert une compréhension relativement approfondie de l’échantillonnage. Le chapitre 16 propose une approche et un logiciel alternatif (voir aussi l’annexe IV.C). CHAPITRE 16 CALCUL DES ESTIMATIONS ET 16 DE LEURS ERREURS D’ÉCHANTILLONNAGE POUR DES ÉCHANTILLONS COMPLEXES Les estimations produites à partir d’une enquête sont sujettes à deux types d’erreurs : erreurs d’échantillonnage et erreurs non dues à l’échantillonnage. Ces dernières comprennent les erreurs de mesure, de tendance, de réponses, etc. Lorsqu’elles sont systématiques, ces erreurs entraînent souvent des biais et sont diffi- ciles à mesurer. Lorsqu’elles sont aléatoires, on peut les estimer avec du travail et de généreuses ressources. Dans les évaluations nationales, les erreurs non dues à l’échantillonnage sont causées par des facteurs humains, tels qu’une supervision inadéquate de l’administration des tests, des erreurs commises pendant le nettoyage ou la saisie des don- nées, un manque d’effort pour répondre aux questions des tests ou du questionnaire, ou encore de fausses réponses à certains items du questionnaire. En revanche, les erreurs d’échantillonnage ne sont pas imputables à des facteurs humains. L’erreur d’échantillonnage mesure la variation entre les estimations produites à partir des différents échantillons possibles avec une même taille et un même plan d’échantillonnage. 235 236 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Dans une évaluation nationale basée sur un échantillon, l’erreur d’échantillonnage doit être déterminée. Le but de ce chapitre est de montrer comment la variance d’échantillonnage (erreur d’échantil- lonnage) est estimée dans la plupart des enquêtes d’évaluation, et l’importance d’intégrer correctement le plan d’échantillonnage dans cette estimation. Ce chapitre explique comment une estima- tion de l’erreur d’échantillonnage peut assez facilement être obte- nue à l’aide d’un rééchantillonnage, dans lequel, au lieu d’un échantillon de taille n, k échantillons indépendants de taille n/k sont constitués. La variabilité des estimations des k échantillons est alors utilisée pour estimer la variance d’échantillonnage (voir annexe IV.C). Les erreurs d’échantillonnage liées au plan utilisé pour l’évaluation du Sentz sont estimées à l’aide de WesVar (exercice 16.1). La théorie sous-tendant l’estimation de l’erreur d’échantillon- nage sort du domaine de ce chapitre, mais le lecteur intéressé peut se référer à des livres sur la théorie de l’échantillonnage (voir, par exemple, Lohr, 1999) pour plus de détails sur les méthodes d’esti- mation fondées sur le plan d’échantillonnage, ou à des livres consa- crés à l’analyse des données d’enquêtes complexes (voir, par exemple, Lehtonen et Pahkinen, 1995). La procédure de calcul des poids par la méthode du jackknife est décrite dans l’annexe IV.D. Il existe d’autres méthodes, telles que le bootstrapping ou la méthode du rééchantillonnage à répliques équilibrées, mais elles ne seront pas abordées ici. Si l’échantillon est suffisamment grand et le nombre de strates modéré, d’autres stratégies de jackknife peuvent être utilisées. Dans de nombreux programmes internationaux d’évaluation, les estima- tions sont calculées de manière normalisée par un service central, et la méthode utilisée peut être différente de celle décrite ici. Lorsque des pays participants doivent produire leurs propres estimations, la stratégie décrite dans l’exercice 16.1 est souvent adoptée à cause de son attirante simplicité. Il y a toutefois des limites à ce que la méthode du jackknife peut accomplir. Elle est assez efficace pour l’estimation des variances de totaux ou de fonctions continues de totaux (par exemple, des ratios, des proportions ou des coefficients de corréla- tion). Elle l’est beaucoup moins lorsqu’il s’agit de statistiques CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE | 237 EXERCICE 16.1 Estimations de la variance par la méthode du jackknife pour un échantillon avec une probabilité proportionnelle à la taille (PPS) Si vous ne l’avez pas encore fait, installez WesVar sur votre ordinateur. Pour ce faire, suivez les instructions données dans l’annexe IV.D, et revenez ensuite à l’exercice. 1. Pour le Sentz, vous devez d’abord préparer les répliques, calculer les poids jackknife et les assigner aux établissements. L’annexe IV.D contient les instructions pour créer 60 zones jackknife (deux établissements par zone) et calculer les poids du rééchantil- lonnage. Ces instructions SPSS peuvent être facilement modifiées pour travailler avec différentes tailles d’échantillon. Le fichier …\MYSAMPLSOL\RESP2STGWTJK contient les réponses, les poids finaux de l’estimation, ainsi que les zones jackknife et les unités jackknife. 2. Obtenez des estimations de l’âge moyen, du score moyen en mathématiques et de la proportion d’élèves ayant un score en mathématiques d’au moins 230 dans la population générale des élèves et pour les garçons. Les instructions sont données pour calculer les estimations de la variance jackknife à l’aide de WesVar. 3. Lancez WesVar. Ensuite, si nécessaire, référez-vous aux étapes 8 à 17 de l’annexe IV.D pour les instructions sur la façon de créer la variable dérivée MAT230 et d’ajouter des intitulés à RESP2STGWTJK. Sauvegardez l’ensemble de données. Cliquez sur New WesVar Workbook et sélectionnez …\MYSAMPLSOL\RESP2STGWTJK. Vous pouvez lui donner un autre nom pour consultation ultérieure (n’oubliez pas de le sauvegarder !) Cliquez sur Table puis sur Subset Detail et saisissez STATUS = « participant » dans le champ Subpop string. Cliquez sur Add Table Set (Single). Vérifiez que Missing, RS2 et RS3 ne sont pas sélectionnés et que seul Value l’est. Déplacez GENDER de Source Variables vers Selected et cliquez sur Add as New Entry. Cliquez sur Computed Statistics dans le panneau de gauche, puis sur AGE dans Source Variables. Cliquez ensuite sur BlockMean. M_AGE sera ajouté à la liste Computed Statistics. Faites de même avec MATH et MAT230. Vous pouvez changer les intitulés comme vous l’avez fait précédemment. Cliquez maintenant sur la flèche verte (ou cliquez sur Requests – Run Workbook Requests) pour exécuter la requête (figure 16.1.A). 4. Cliquez sur l’icône Open Book ou sur Requests – View Output, et faites défiler l’affichage pour pouvoir sélectionner GENDER afin de voir les résultats affichés dans la figure 16.1.B. Notez que le calcul et l’affichage des statistiques peuvent prendre un certain temps. L’exécution est terminée lorsque l’icône View Output s’affiche dans Requests. (suite) 238 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 16.1 (suite) FIGURE 16.1.A Exécuter une requête WesVar Source : exemple dans le logiciel WesVar. FIGURE 16.1.B Estimations de la population pour les variables âge et mathématiques, par sexe Source : exemple dans le logiciel WesVar. CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE | 239 discontinues non linéaires ou d’ordre (par exemple, des coefficients de Gini ou des médianes). Si de telles statistiques sont souhaitées, il faut consulter un spécialiste pour déterminer la meilleure approche de rééchantillonnage. Les exemples de l’exercice 16.2 ont été conçus à l’aide du fichier SPSS des données de l’évaluation nationale …NATASSESS\ NATASSESS.SAV. Il est également la source de données utilisée dans la première partie du volume 4, Analyser les données issues d’une éva- luation nationale des acquis scolaires. Nous terminerons par un appel à la prudence : le marché offre un large éventail de logiciels statistiques et de traitement des données, utilisables sur des ordinateurs individuels. Un grand nombre de ces produits, y compris ceux prétendument spécialisés dans le traitement des enquêtes, donnent des résultats incorrects s’ils ne prennent pas en compte le fait qu’une enquête est basée sur un plan d’échantillonnage complexe. L’utilisateur intéressé est invité à consulter des revues pro- fessionnelles consacrées aux logiciels statistiques (voir, par exemple, http://www.fas.harvard. edu/~stats/survey-soft/survey-soft.html). EXERCICE 16.2 Calcul des différences liées au sexe pour un test de mathématiques Comme vous l’avez déjà fait pour le fichier de démonstration de l’exercice 16.1, avant toute autre action, vous devez créer une version WesVar du fichier et calculer les poids du rééchantillonnage jackknife. Lancez WesVar, cliquez sur New WesVar Data File et sélectionnez …\NATASSESS\ NATASSESS.SAV. Faites défiler les Source Variables pour localiser et déplacer le poids déterminé par le plan d’échantillonnage, WGTPOP, vers le champ Full Sample, et STUDID vers le champ ID. Déplacez toutes les variables restantes vers la boîte Variables. Sauvegardez le fichier sous le nom …\NATASSESS\NATASSESS.var. Cliquez sur le bouton Scale pour créer les poids du rééchantillonnage. Parce que, comme décrit précédemment, les données d’évaluation ont été recueillies dans le cadre d’un plan d’échantillonnage complexe, utilisez deux unités jackknife par strate jackknife. Dans Method, cliquez sur JK2 ; vous pouvez également modifier en JK le préfixe des poids (suite) 240 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 16.2 (suite) des répliques. Déplacez JKINDIC vers le champ VarUnit (c’est-à-dire l’unité jackknife dans NATASSESS), et déplacez JKZONE (c’est-à-dire la strate jackknife) vers la boîte VarStrat. Cliquez sur OK pour créer les poids et sauvegarder le fichier. Aucun recodage ou intitulé des cellules n’est requis à ce stade. Fermez l’écran et retournez au fichier WesVar et à l’écran de création des classeurs WesVar. Une autre solution consiste à ouvrir un classeur New WesVar Workbook et à choisir …\ NATASSESS\NATASSESS.var. Cliquez sur Open puis sur Descriptive Statistics. Cliquez sur Analysis Variables dans le panneau de gauche et déplacez les trois variables d’intérêt (dans ce cas) – MATHPC (pourcentage de réponses correctes en maths), MATHRS (score brut en maths) et MATHSS (score gradué en maths) – de Source Variables vers Selected. Cliquez sur la flèche verte pour exécuter la requête (figure 16.2.A) et sur l’icône open book (ou cliquez sur Requests – View Output) pour voir les résultats. Élargissez en cliquant sur le +. Pour obtenir les données pour MATHPC, cliquez sur le + et sur Statistics (figure 16.2.B). Cette requête produit un grand nombre de statistiques univariées pour MATHPC (moyenne, percentile, variances de la population, et autres statistiques pondérées de FIGURE 16.2. A Classeur WesVar avant l’étape d’analyse Source : exemple dans le logiciel WesVar. CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE | 241 EXERCICE 16.2 (suite) FIGURE 16.2.B Statistiques descriptives WesVar pour MATHPC Source : exemple dans le logiciel WesVar. base) ainsi que, si nécessaire, leurs erreurs d’échantillonnage estimées, comme le montre la figure 16.2.C. Notez que WesVar ne calcule pas de mode. Fermez la fenêtre des résultats. Sélectionnez WorkBook Title 1 dans le panneau de gauche, et cliquez sur Table, puis sur Add Table Set (Single). Dans le panneau de gauche, cliquez sur Computed Statistics, sélectionnez MATHSS dans Source Variables, et cliquez sur Block Mean ; le score moyen en mathématiques est alors calculé. Sélectionnez Table Set #1, déplacez GENDER de Source Variables vers Selected, et cliquez sur Add as New Entry. Si nécessaire, cliquez sur + pour élargir Table Set. Cliquez sur le nœud Cells dans le panneau de gauche. Le panneau de droite affiche toutes les cellules produites pour cette table dans Cell Definition ; sélectionnez 1, saisissez Boys dans le panneau Label et cliquez sur Add as New Entry. Faites de même avec Girls dans la cellule 2 (figure 16.2.C). Cliquez sur Cell Functions (dans le panneau de gauche), saisissez Diff = Boys – Girls dans la boîte Function Statistic et cliquez sur Add as New Entry. Sélectionnez For… (suite) 242 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 16.2 (suite) FIGURE 16.2.C Intitulé des cellules dans WesVar Source : exemple dans le logiciel WesVar. dans le panneau de gauche. Déplacez M_MATHSS vers le côté droit, et renvoyez SUM_WTS vers Variables (figure 16.2.D). Exécutez maintenant la requête en cliquant sur la flèche verte. Pour voir les statistiques, cliquez sur l’icône open book (ou Requests – View Output), et cliquez sur GENDER dans la boîte Table Set. Finalement, pour voir les résultats, cliquez sur l’icône open book (ou sur Requests – View Output) et sélectionnez le nœud concerné. Le score moyen des garçons est estimé à 250,44 (erreur d’échantillonnage = 2,88) et celui des filles à 249,55 (erreur d’échantillonnage = 2,52) (figure 16.2.E). Pour voir les données sur la différence entre les garçons et les filles, cliquez sur Functions dans GENDER (figure d’exercice 16.2.F). CALCUL DES ESTIMATIONS ET DE LEURS ERREURS D’ÉCHANTILLONNAGE | 243 EXERCICE 16.2 (suite) FIGURE 16.2.D Calcul de différences entre le contenu des cellules Source : exemple dans le logiciel WesVar. FIGURE 16.2.E WesVar : Comparaisons des scores moyens en mathématiques, par sexe Source : exemple dans le logiciel WesVar. (suite) 244 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES EXERCICE 16.2 (suite) FIGURE 16.2.F WesVar : Différence des scores moyens en mathématiques Source : exemple dans le logiciel WesVar. Notez que l’ensemble des statistiques calculées et affichées est contrôlé à partir du nœud options de la table. Les données affichées peuvent différer de celles présentées dans la figure 16.2.F étant donné qu’elles dépendent des options choisies. Les différences estimées sont très petites (diff = 0,89), et la valeur-t associée vaut 0,89/3,189 = 0,279, ce qui signifie qu’elles ne sont pas statistiquement significatives (valeur-p = 0,781 > 0,05). CHAPITRE 17 SUJETS SPÉCIAUX Ce chapitre traite d’un certain nombre de questions d’échantillonnage liées aux préoccupations, problèmes et erreurs couramment rencontrés dans les évaluations nationales. Elles concernent, entre autres, le traitement de la non-réponse, la stratifica- tion, le tri de la base d’échantillonnage et la sélection des échantil- lons ; le traitement des établissements de très grande et très petite taille ; et les normes d’adéquation des taux de réponse dans une évaluation nationale. LA NON-RÉPONSE Il n’existe pas de solution universelle ou uniforme au traitement de la non-réponse. Dans une enquête sociale générale, les raisons de la non- réponse dans une partie du pays (telles que la fermeture d’établisse- ments en raison des conditions météorologiques) peuvent être différentes de celles invoquées dans une autre (par exemple, mécon- tentement général à l’égard des autorités locales). L’ampleur, la source et l’impact de la non-réponse sont presque impossibles à prévoir, ce qui rend très difficile la conception d’une stratégie globale pour s’en prémunir. Au fil du temps, les statisticiens ont néanmoins mis au point 245 246 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES un certain nombre de pratiques plus ou moins acceptées pour faire face à la non-réponse. Une stratégie consiste à accroître la taille de l’échantillon pour compenser la non-réponse attendue. Cette méthode est valable tant que les raisons de la non-réponse ne sont pas liées à l’objet de l’en- quête. L’augmentation peut porter sur l’ensemble de l’échantillon ou être limitée à certaines strates ou certains groupes de répondants ayant enregistré un faible taux de réponse par le passé. Dans le contexte d’une évaluation nationale des acquis scolaires, si un échan- tillon de 100 établissements participants est nécessaire, et qu’on s’attend à ce que, disons, 25 % refusent de participer, 134 établisse- ments (75 % de 134 = 100,5) doivent être sélectionnés et contactés. Un taux de réponse meilleur que prévu augmentera légèrement le coût de la collecte et du traitement des données. C’est pourquoi il est conseillé de prévoir des coûts supplémentaires potentiels dans le budget initial. Une deuxième stratégie courante dans les évaluations consiste à utiliser des réponses par procuration, c’est-à-dire des établissements de remplacement. En général, un établissement de remplacement est sélectionné pour chaque établissement échantillonné. L’établissement de remplacement doit être aussi semblable que possible à l’établisse- ment sélectionné. S’il existe un fichier trié (pour une stratification implicite), une technique consiste à utiliser l’établissement suivant ou précédant immédiatement l’établissement concerné dans la liste triée, en supposant qu’il est disponible pour un remplacement. Cette stratégie n’élimine pas le biais de non-réponse, mais peut le réduire au minimum, si le tri est en fait lié aux résultats. Un établissement sélectionné pour l’échantillon principal ne peut jamais être utilisé pour en remplacer un autre qui n’a pas répondu. Un même établisse- ment de remplacement peut être considéré comme un remplaçant pour deux établissements sélectionnés consécutifs (par exemple, lorsque le taux d’échantillonnage est très élevé dans une strate et que le nombre d’établissements disponibles pour le remplacement est insuffisant). Dans ce cas, l’établissement de remplacement ne peut être utilisé qu’une seule fois. Les établissements de remplacement peuvent être une solution de secours rassurante. Les équipes nationales d’évaluation peuvent SUJETS SPÉCIAUX | 247 néanmoins aider à limiter le recours à des établissements de rempla- cement en prenant des mesures afin d’encourager tous les établisse- ments initialement sélectionnés à participer. LA STRATIFICATION, LE TRI DE LA BASE D’ÉCHANTILLONNAGE ET LA SÉLECTION DE L’ÉCHANTILLON La plupart des évaluations nationales utilisent un plan stratifié à plusieurs degrés. Ce type de plan a été décrit dans le chapitre 8. Comme indiqué précédemment, des strates peuvent être utilisées pour garantir que certains types d’établissements soient sélectionnés (par exemple, pour les provinces) et que l’échantillon de chaque groupe ait une taille donnée (par exemple, 75 établissements par pro- vince). Ces strates sont dites explicites. On peut également utiliser d’autres critères qui n’exigent pas le même niveau de précision ou pour lesquels une représentation proportionnelle est suffisante (par exemple, les communes d’une province ou le financement au sein d’une province). Ces strates sont dites implicites. Dans la pratique, les strates implicites sont des variables de tri au sein des strates explicites. Enfin, quelle que soit la technique de sélection des échantillons utili- sée (telle que l’échantillonnage aléatoire simple, l’échantillonnage aléatoire systématique, ou la probabilité proportionnelle à la taille), la base d’échantillonnage doit être triée par taille d’établissement avant la sélection de l’échantillon. Ce tri améliore le choix des établis- sements de remplacement. L’utilisation de l’échantillonnage aléatoire systématique est une caractéristique commune des processus de sélection. Certains pays le combinent avec une probabilité égale et d’autres avec une probabilité proportionnelle à la taille de l’établissement. En clair, le tri de la base doit être effectué dans chaque strate expli- cite, parce qu’il correspond à une stratification implicite. Une façon utile de trier la base d’échantillonnage avant tirage de l’échantillon consiste à alterner l’ordre de tri par taille d’une strate implicite à l’autre. Le tableau 17.1 montre la façon dont ce type de tri peut être effectué. Il n’est pas obligatoire de trier la base de cette façon, mais cela renforce la similarité des établissements sélectionnés et de remplacement, et doit 248 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU 17.1 Base d’échantillonnage avec un ordre des mesures de la taille différent suivant les strates Strate Strate Mesure de ID de Adresse Nom du Autre variable explicite implicite la taille l’établissement postale directeur de la base 1 1 Petite 1 ... ... ... 1 ... ... ... … … … 1 1 GRANDE … … … … 1 2 GRANDE … … … … 1 ... ... … … … … 1 2 Petite … … … … 1 3 Petite … … … … 1 ... ... … … … … 1 3 GRANDE … … … … 2 1 Petite … … … … … … … … … … H 3 … N … … … Remarque : Dans la colonne 3, tous les établissements du pays figurant dans la première strate (les trois premières lignes de données) sont classés par ordre de taille croissant. Il n’est pas possible d’énumérer tous les établissements appartenant à chaque strate dans ce tableau ; le symbole « ... » représente les établissements compris entre le plus petit et le plus grand. réduire le biais de non-réponse. Ce tri par taille améliore également les chances de sélectionner des établissements de toutes les tailles dans chaque strate explicite, de minimiser ainsi les différences entre les strates, et, par conséquent, d’améliorer la précision des estimations. LES ÉTABLISSEMENTS DE TRÈS GRANDE TAILLE En cas d’utilisation de l’échantillonnage avec une probabilité propor- tionnelle à la taille, le poids déterminé par le plan d’échantillon- nage est directement affecté par la taille de l’unité d’échantillonnage. Les unités de très petite taille ont des poids très importants, et, inversement, les unités de très grande taille des poids très petits. Certaines unités peuvent même se retrouver avec des poids inférieurs à un. Dans ce cas, la pratique habituelle consiste à choisir l’unité « avec certitude » et à recommencer l’échantillonnage pour le reste de la base. SUJETS SPÉCIAUX | 249 Par exemple, prenons le tableau 17.2 montrant une strate de Nh = 10 établissements avec le poids déterminé par le plan d’échantil- lonnage qu’aurait chaque établissement s’il était sélectionné. Supposons qu’un échantillon de nh = 3 établissements doit être consti- tué à partir de cette strate. Si l’établissement 1 (représentant plus de 50 % des élèves de la base) était sélectionné, son poids déterminé par le plan d’échantillonnage serait inférieur à un. Pour résoudre le pro- blème, on peut décider de sélectionner d’office cet établissement et qu’il ne représentera que lui-même. L’établissement 1 constitue une unité autoreprésentative. Ensuite, deux établissements devront être sélectionnés parmi les neuf restants, comme le montre le tableau 17.3. Si un expert en échantillonnage suggère cette stratégie, il peut aussi recommander que deux classes soient sélectionnées dans l’établisse- ment 1. Notons que cette sélection a pour effet de rapprocher les poids des unités restantes et d’ainsi réduire l’erreur d’échantillonnage. Si, après avoir retiré l’établissement 1, il s’avère que l’établissement 2 cause un problème similaire, il sera lui aussi retiré, et la base ainsi que l’échantillon seront modifiés de la façon illustrée précédemment. L’échantillon passerait, bien entendu, à quatre unités (deux unités autoreprésentatives et deux tirées des huit unités restantes). TABLEAU 17.2 Base d’échantillonnage de 10 établissements et poids déterminés par le plan d’échantillonnage associés si les établissements étaient sélectionnés Mesure de la Mesure de Poids déterminés ID de taille de la taille par le plan l’établissement l’établissement cumulée d’échantillonnage 1 500 500 830/(3 × 500) = 0,5533 2 50 550 830/(3 × 50) = 5,5333 3 50 600 830/(3 × 50) = 5,5333 4 40 640 830/(3 × 40) = 6,9167 5 40 680 830/(3 × 40) = 6,9167 6 35 715 830/(3 × 35) = 7,9048 7 35 750 830/(3 × 35) = 7,9048 8 30 780 830/(3 × 30) = 9,2222 9 30 810 830/(3 × 30) = 9,2222 10 20 830 830/(3 × 20) = 13,8333 250 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES TABLEAU 17.3 Base d’échantillonnage ajustée Mesure de la Mesure de Poids déterminés ID de taille de la taille par le plan l’établissement l’établissement cumulée d’échantillonnage 1 500 500 500/500 = 1,0000 2 50 50 330/(2 × 50) = 3,3000 3 50 100 330/(2 × 50) = 3,3000 4 40 140 330/(2 × 40) = 4,1250 5 40 180 330/(2 × 40) = 4,1250 6 35 215 330/(2 × 35) = 4,7143 7 35 250 330/(2 × 35) = 4,7143 8 30 280 330/(2 × 30) = 5,5000 9 30 310 330/(2 × 30) = 5,5000 10 20 330 330/(2 × 20) = 8,2500 LES ÉTABLISSEMENTS DE TRÈS PETITE TAILLE De nombreux pays ayant une population rurale importante comptent un nombre relativement grand d’établissements de petite taille. Supposons que les plus petits établissements de la base ont si peu d’élèves remplissant les critères (par exemple, moins de 10 chacun) qu’ils ne peuvent fournir suffisamment d’information sur eux-mêmes. (La taille minimale de la grappe est déterminée par la psychométrie de l’enquête, le nombre de carnets utilisés pour les tests et d’autres paramètres extérieurs au processus d’échantillonnage.) Certaines évaluations recommandent d’exclure les établissements n’atteignant pas un certain seuil (par exemple, cinq élèves par classe). Cette stratégie concentre la collecte des données sur les établisse- ments dont la taille et le nombre de classes sont suffisants pour garan- tir une évaluation économique ainsi qu’une modélisation et des analyses fiables. L’exclusion des plus petits établissements peut toute- fois conduire à de sérieux problèmes d’insuffisance de couverture dans les pays ou zones comptant beaucoup de petits établissements ruraux. Elle peut aussi cacher aux analystes et aux responsables des politiques des particularités ou problèmes spécifiques aux petits établissements. SUJETS SPÉCIAUX | 251 Une autre possibilité recommandée par certains experts en échan- tillonnage consiste à regrouper en pseudo-établissements soit un grand et un petit soit plusieurs petits établissements géographique- ment proches. Supposons que, dans une évaluation, les responsables des poli- tiques s’intéressent à une statistique sur la taille des institutions et que le matériel des tests soit si volumineux qu’il remplit trois carnets. L’évaluation peut alors nécessiter la participation d’au moins 15 élèves par établissement, pour pouvoir constituer cinq groupes où chacun des trois carnets est distribué à au moins un élève (rotation des car- nets). En pareil cas, les petits établissements constituent un problème supplémentaire. La liste triée des établissements peut ressembler à celle présentée dans le tableau 17.4. Les établissements 1012, 1013, 1014 et 1015 n’ont pas assez d’élèves pour satisfaire les exigences de l’évaluation. En outre, ils ne sont pas tous dans la même zone. La base d’échantillonnage peut maintenant être triée par zone et par mesure de la taille, afin de TABLEAU 17.4 Base d’échantillonnage ID de Mesure de la taille de Zone Mesure de la l’établissement l’établissement géographique taille cumulée 1001 75 1 75 1002 60 2 135 1003 50 2 185 1004 40 1 225 1005 40 2 265 1006 35 1 300 1007 15 1 315 1008 20 3 335 1009 30 2 365 1010 30 3 395 1011 15 2 410 1012 10 2 420 1013 5 2 425 1014 5 2 430 1015 2 3 432 252 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES pouvoir facilement localiser les solutions et, si nécessaire, déterminer la meilleure façon de créer des pseudo-établissements. Si les établisse- ments 1011 et 1013 sont assez proches les uns des autres et si les établissements 1012 et 1014 sont situés dans des communes voisines, la base peut être réorganisée comme indiqué dans le tableau 17.5. Une fois rassemblés, les différents établissements formant le pseudo-établissement sont traités comme une unité d’échantillonnage unique. Par exemple, si le pseudo-établissement 1111 est sélectionné, tous les élèves des établissements 1011 et 1013 initiaux seront invités à la session d’évaluation. Les taux de réponse et de participation seront calculés pour le pseudo-établissement 1111 et non séparément pour les établissements d’origine 1011 et 1013. Le poids de l’estima- tion sera appliqué au pseudo-établissement en utilisant la mesure de sa taille totale. TABLEAU 17.5 Base d’échantillonnage modifiée Établissements initiaux Pseudo-établissements Mesure Mesure Mesure de la ID du Mesure de la ID de de la Zone taille pseudo- de la taille l’établissement taille géographique totale établissement taille cumulée 1007 15 1 15 1007 15 15 1006 35 1 50 1006 35 65 1004 40 1 90 1004 40 90 1001 75 1 165 1001 75 165 1013 5 2 170 1111 20 185 1011 15 2 200 1111 1014 5 2 175 1112 15 200 1012 10 2 185 1112 1009 30 2 230 1009 30 230 1005 40 2 270 1005 40 270 1003 50 2 320 1003 50 320 1002 60 2 380 1002 60 380 1015 2 3 382 1115 22 402 1008 20 3 402 1115 1010 30 3 432 1010 30 432 SUJETS SPÉCIAUX | 253 Tout en maintenant un niveau optimal de couverture, cette stra- tégie introduit dans les statistiques un bruit susceptible d’être indésirable. De nombreuses analyses psychométriques essaient de faire la distinction entre les contributions de l’établissement et de l’élève au score de l’évaluation (dans les analyses à plusieurs degrés), en faisant l’hypothèse que la contribution de l’établissement est la même pour tous les élèves qui le fréquentent, mais peut varier d’un établissement à l’autre. Le fait de fusionner les petits établissements en un pseudo-établissement plus grand peut introduire une variabi- lité entre établissements dans un modèle attendant une contribution fixe de tous les membres d’une même unité. Une analyse de la struc- ture des établissements d’origine doit être effectuée. Les respon- sables de l’enquête, les statisticiens d’enquête et les analystes d’évaluation doivent aborder cette question avant de choisir les options d’échantillonnage définitives. LES NORMES DÉTERMINANT L’ADÉQUATION DES TAUX DE RÉPONSE Comme indiqué précédemment, les exclusions (telles que celle des établissements situés sur des îles éloignées ou des très petits établisse- ments) ne dépassent souvent pas 5 % de la population cible souhaitée. Au-delà de cette limite, un avertissement accompagne la publication des résultats. Une fois que les établissements ont participé à l’évalua- tion ou ont été remplacés, et que les données de l’échantillon ont été recueillies, différents taux de réponse et de participation peuvent être calculés. Bien qu’aucune règle universelle ne définisse ceux qui sont « bons » et « mauvais », une certaine norme est aujourd’hui reconnue et utilisée dans les plus importantes évaluations internationales. L’International Association for Educational Assessment (l’association internationale pour l’évaluation éducative) utilise la règle suivante dans bon nombre de ses évaluations : • 85 % (non pondéré) de l’échantillon initial des établissements (avant remplacement) 254 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES et • 85 % (non pondéré) de l’échantillon des élèves des établissements participants (établissements initiaux ou de remplacement) ou • 75 % (pondéré) pour la participation combinée des établissements et des élèves (participation des établissements multipliée par la participation des élèves des établissements participants). Quelles que soient les règles, plus la participation des élèves ou des établissements est faible, plus le risque de biais est élevé. ANNEXE IV.A NOTATION STATISTIQUE POUR LE CALCUL DES ESTIMATIONS Pour les données qualitatives et quantitatives, l’estimation du nombre total d’unités de la population ciblée est calculée en additionnant les poids finaux ajustés des unités ayant répondu : ˆ = N ∑ p, réponse i où i désigne la ième unité ayant répondu de l’échantillon, pi est son poids final ajusté, et la somme est calculée pour toutes les unités ayant répondu. Pour les données quantitatives, l’estimation d’une valeur totale (telle que la dépense totale) est la somme, pour toutes les unités ayant répondu, du produit du poids final pi par la valeur yi de chacune de ces unités : Yˆ = ∑ py, réponse i i Si une variable muette est définie : ⎪δ i = 1, pour toutes les unités ayant répondu ⎧ yi = ⎨ ⎪δ i = 0, pour toutes les unités n’ayant pas répondu, ⎩ 255 256 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES cette somme pondérée par les poids de l’estimation (ajustés pour la non-réponse) pour toutes les unités ayant répondu devient : Yˆ = ∑ échantillon pi yi = ∑ échantillon pi δ i = ∑ échantillon (pi × 1) = ∑ échantillon ˆ, pi = N qui est une estimation de N, la taille de la population. ANNEXE IV.B COMPARAISON DES DONNÉES DU SRS400 ET D’UN RECENSEMENT La comparaison des données du SRS400 et du recensement utilise le fichier …\BASE FILES\CENSUS.SAV qui contient les données de chacun des 27 654 élèves du Sentz. C’est un fichier idéal qui n’existerait pas dans la réalité. Tous les élèves ont des résultats d’évaluation, sauf ceux qui sont considérés comme ayant abandonné leurs études, selon l’indication dans le champ statut de la réponse. Ce fichier représente donc les données qui auraient été obte- nues par un recensement parfait. En utilisant le fichier CENSUS et le menu Data – Aggregate, SPSS a produit les résultats présentés dans le tableau IV.B.1. Nous allons maintenant comparer les estimations de l’échantillon aléatoire simple et du recensement. Parce qu’il s’agit d’un échantillon aléatoire simple, les estimations non pondérées (dernière colonne à TABLEAU IV.B.1 Données du Sentz basées sur un recensement Âge moyen Score moyen en Proportion Domaine (années) mathématiques supérieure à 230 Population totale 14,00 216,83 0,25 Filles 13,99 211,99 0,16 Garçons 14,01 221,69 0,35 257 258 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES droite dans le tableau IV.B.2) et pondérées (colonne du milieu) des moyennes et des proportions sont égales, mais tel n’est pas le cas pour les totaux. La population créée pour ce volume contient des propor- tions à peu près égales de garçons et de filles. Les données ont été organisées de telle sorte que les garçons aient de meilleurs scores en mathématiques que les filles, celles-ci de meilleurs scores dans d’autres matières, et les élèves des zones urbaines de meilleurs scores que les élèves des zones rurales. Cet échantillon compte une proportion assez élevée de garçons urbains, qui aide à expliquer la différence entre les données du recensement et les estimations de l’échantillon pour la proportion relativement élevée de garçons ayant obtenu plus de 230 en mathématiques. La valeur « réelle » est calculée pour la population telle qu’elle était connue, disons, au début de l’année scolaire. Le fichier « recense- ment » contient par conséquent des enregistrements pour lesquels aucune information n’est disponible (à savoir, les abandons) et pour lesquels tous les scores valent zéro. Ces valeurs nulles diminuent le score moyen. Si les statistiques concernant la population sont recalculées pour représenter la population au moment de l’évaluation (ce qui se fait en éliminant du fichier de recensement les élèves ayant un score zéro en mathématiques), les comparaisons montrent que les résultats de TABLEAU IV.B.2 Comparaison des estimations, avec et sans pondération, et des valeurs du recensement, en début d’année scolaire, pour un échantillon aléatoire simple Estimation correcte, Estimation Valeur « réelle » avec les poids (± incorrecte, sans les (début d’année erreur poids (± erreur Variable étudiée scolaire) d’échantillonnage) d’échantillonnage) N 27,654 27 437 ± 331 378 Âge moyen (tous) 14,00 13,98 ± 0,04 13,98 ± 0,04 Proportion ≥ 230 en maths 0,25 0,25 ± 0,02 0,25 ± 0,02 Ngarçons 13 807 12 920 ± 722 178 Âge moyen (garçons) 14,01 14,05 ± 0,06 14,05 ± 0,06 Score moyen en maths (garçons) 221,69 223,1 ± 1,0 223,1 ± 1,0 COMPARAISON DES DONNÉES DU SRS400 ET D’UN RECENSEMENT | 259 l’enquête se rapprochent des valeurs « réelles », et se situent large- ment dans les marges d’erreur. Ce résultat est présenté dans le tableau IV.B.3. Les planificateurs, gestionnaires ou analystes des évaluations dis- posent rarement d’un tel luxe d’informations. TABLEAU IV.B.3 Comparaison des estimations, avec et sans pondération, et des valeurs du recensement, au moment de l’évaluation, pour un échantillon aléatoire simple Valeur Estimation correcte, Estimation « réelle » avec les poids incorrecte, sans les (moment de (± erreur poids (± erreur Variable étudiée l’évaluation) d’échantillonnage) d’échantillonnage) N 27 368 27 437 ± 331 378 Âge moyen (tous) 14,00 13,98 ± 0,04 13,98 ± 0,04 Proportion ≥ 230 en maths 0,26 0,25 ± 0,02 0,25 ± 0,02 Ngarçons 13 665 12 920 ± 722 178 Âge moyen (garçons) 14,01 14,05 ± 0,06 14,05 ± 0,06 Score moyen en maths (garçons) 224,00 223,1 ± 1,0 223,1 ± 1,0 ANNEXE ESTIMATION DE IV.C L’ERREUR D’ÉCHANTILLONNAGE À L’AIDE DE TECHNIQUES DE RÉÉCHANTILLONNAGE Dans les plans les plus complexes (autres que l’échantillonnage aléatoire simple ou aléatoire systématique), la for- mule de la variance exacte est difficile à déterminer, et encore moins à programmer. Dans de nombreux cas, la mise en œuvre pratique du plan d’échantillonnage crée des situations qui rendent impossible l’utilisation de la formule de la variance exacte. Les méthodes d’esti- mation de la variance d’échantillonnage peuvent être approxima- tives, mais doivent être correctes et fiables. Une catégorie de ces types de méthodes s’appelle l’échantillonnage répété ou rééchantillonnage. Les groupes aléatoires, le rééchantillonnage à répliques équilibrées, le jackknifing et le bootstrapping font partie des méthodes les plus connues d’estimation de la variance de rééchantillonnage. Une mé- thode particulièrement intelligente d’approximation de la variance a été développée à la fin des années 1950 (Keyfitz, 1957) et ensuite adaptée pour devenir la méthode du jackknife. Elle est souvent utili- sée dans des études internationales d’évaluation des acquis scolaires à grande échelle. 261 262 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES LE RÉÉCHANTILLONNAGE Dans le rééchantillonnage, le statisticien d’enquête constitue k échan- tillons indépendants de taille n/k, au lieu d’un seul échantillon de taille n. Pour chacun de ces k échantillons (ou répliques), une estima- tion de la caractéristique d’intérêt est produite en utilisant les poids. La variabilité des estimations des k échantillons est ensuite employée pour estimer la variance d’échantillonnage. L’estimation, t, de la carac- téristique d’intérêt (un total, une moyenne, une proportion ou une médiane) est la moyenne des estimations t de chaque réplique j : k tj t= ∑ j=1 k . La variance d’échantillonnage estimée de t, Vâr(t) est donnée par l’expression : 2 1 k (tj − t ) ˆ r (t ) = Va k ∑ j =1 (k − 1) . Notons que cette expression est de la forme s2/n. Supposons qu’un plan à trois degrés (établissements, classes et élèves) est utilisé pour estimer le niveau général de littératie des élèves de 10e année. Au lieu de constituer un échantillon de taille n = 10 et ˆ d’utiliser les formules exactes pour estimer Var ˆ (Y complex ), les chercheurs sélectionnent deux échantillons de taille n = 5. Le tableau IV.C.1 pré- sente le score moyen pondéré des élèves de chaque établissement (score de l’établissement) et le poids associé à chaque établissement. Le score moyen estimé pour la population est : ˆ 2 Yj 32.8 + 36.6 ˆ = Y repl ∑ j=1 k = 2 = 34.7, et la variance d’échantillonnage estimée du score moyen, obtenue par la méthode de rééchantillonnage, est : k (Yˆ −Y ˆ )2 1 (32.8 – 34.7)2 + (36.6 – 34.7)2 ˆ )=1 ∑ j ˆ (Y Var repl = × = 7.2. k j = 1 (k − 1) 2 1 ESTIMATION DE L’ERREUR D’ÉCHANTILLONNAGE À L’AIDE DE TECHNIQUES | 263 TABLEAU IV.C.1 ˆ Calcul de la variance d’échantillonnage estimée Y à l’aide d’un rééchantillonnage Réplique 1 Réplique 2 Score de Poids de Score de Poids de Établissement l’établissement l’établissement Établissement l’établissement l’établissement 1001 21 16 1006 26 18 1002 27 20 1007 32 20 1003 34 16 1008 37 22 1004 38 20 1009 40 20 1005 42 20 1010 47 20 Total pondéré 3 020 92 3 662 100 Moyenne pondérée 32,8 36,6 Cette méthode produit généralement des estimations de variance très instables, parce que chaque réplique est généralement trop petite pour fournir à elle seule une estimation stable. LE JACKKNIFE Les méthodes de rééchantillonnage telles que le jackknifing et le bootstrapping sont fréquemment utilisées dans les enquêtes utilisant des données complexes. Le principe de l’estimation par la méthode du jackknife consiste à écarter, tour à tour, chaque unité primaire de l’échantillon (les établissements, par exemple) ; à recalculer les poids finaux pour tenir compte de la perte d’une unité ; et à produire une estimation de la caractéristique d’intérêt en utilisant cet échantillon réduit. À mesure que chaque unité est écartée, on constitue autant de répliques qu’il y a d’unités primaires dans l’échantillon complet. L’erreur d’échantillonnage est estimée en prenant le carré des diffé- rences entre l’estimation de chaque réplique et l’estimation de l’échantillon complet (autant que dans le cas du rééchantillonnage décrit dans la section précédente). Pour un échantillon complet de, par exemple, 150 établissements, il faudrait 150 estimations de réé- chantillonnage et des calculs assez fastidieux. 264 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Pour réduire et simplifier les calculs, on peut appliquer un « plan d’échantillonnage jackknife » au plan d’échantillonnage initial. En prenant les unités primaires (par exemple, les établissements) dans l’ordre où elles apparaissent dans la base d’échantillonnage (l’échan- tillonnage systématique avec une probabilité proportionnelle à la taille est presque toujours utilisé dans les évaluations internationales), on prend les deux premières unités pour former une strate jackknife (JK), et on en fait successivement de même avec les unités 3 et 4, 5 et 6, et ainsi de suite. À la fin du processus, n/2 strates JK de deux unités chacune auront été formées. Chaque paire est maintenant considérée comme une strate, indépendamment de la stratification initiale (certaines strates JK peuvent coïncider avec les strates ini- tiales). Dans chaque strate JK, une unité sera écartée au hasard, et le poids de l’unité restante sera ajusté en conséquence (y compris, si nécessaire, pour la non-réponse ou la poststratification). Les unités des autres strates JK conservent leurs poids initiaux. Le tableau IV.C.2 montre comment les n/2 ensembles de poids JK sont déterminés (en supposant que les poids n’ont subi aucun ajustement, pour simplifier l’illustration). Comme pour le rééchantillonnage, une estimation est déterminée pour chaque ensemble de poids JK, et la variance de ces estimations est calculée comme base pour l’erreur d’échantillonnage. L’estimation pour l’ensemble de l’échantillon, les estimations jackknife et la variance d’échantillonnage sont respectivement : ˆ Y = ∑p y ˆ i i ˆ (j) = ,Y ∑p i (j) ˆi y , j = 1,...,J ∑p ∑ pi complex (j) i ( ) J 2 ˆ (Y and V JK ˆ complex )=∑ Y ˆ ( j) − Y ˆ complex , j=1 où J est le nombre de strates JK. Pour le calcul de la variance estimée, certains statisticiens préfèrent utiliser la moyenne des estimations des répliques plutôt que l’estima- tion de l’échantillon complet. Lorsque J est grand, cela ne fait pas une grande différence. Si n est impair, un certain ajustement sera nécessaire pour que deux unités soient traitées comme une seule dans la détermination TABLEAU IV.C.2 Préparation de l’estimation de la variance par la méthode du jackknife Poids des répliques Établissement Poids final Estimation au niveau Strate Unité Abandon échantillonné i pi de l’établissement y ˆi JK JK aléatoire p1(1) ... p1(n/2) (1) (n/2) 1 p1 y ˆ1 1 1 p 1 = 2 x p1 p 1 = p1 2 p2 y ˆ2 1 2 0 p2(1) = 0 p2(n/2) = p2 3 p3 y ˆ3 1 0 p3(1) = p3 p3(n/2) = p3 4 p4 y ˆ4 2 2 1 p4(1) = p4 p4(n/2) = p4 ... ... ... ... ... (1) (n/2) n−1 pn−1 y ˆn−1 1 0 pn−1 = pn−1 p n-1 =0 (1) (n/2) n pn y ˆn n/2 1 pn = pn p n = 2 x pn Estimation N ˆ=Σp i Y ˆ ˆ = Σp y i i Y ˆ (1) = Σp (1)y 1 ˆi Y ˆ (n/2) = Σp (n/2)y^ i i ESTIMATION DE L’ERREUR D’ÉCHANTILLONNAGE À L’AIDE DE TECHNIQUES |265 266 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES aléatoire de l’unité à écarter ou retenir. Un spécialiste de l’échantil- lonnage doit être consulté dans ce cas. L’exemple précédent peut maintenant être examiné en utilisant l’estimation de la variance JK au lieu du rééchantillonnage. Le tableau des données peut être réorganisé, et les poids des répliques JK ainsi que les estimations JK peuvent être calculés comme indiqué précé- demment. Le tableau IV.C.3 montre les 10 établissements du tableau A4.3.1 organisés en paires JK et indique l’unité de chaque paire qui a été choisie au hasard pour être écartée ou maintenue. Les poids des répliques JK sont ensuite calculés comme indiqué ci-des- sus. Si nous prenons la réplique 1 comme exemple, dans la strate JK 1, l’unité JK 1 est écartée, et son poids de rééchantillonnage JK mis à zéro. Pour compenser la perte de l’unité JK 1, le poids de réé- chantillonnage JK de l’unité JK 2 devient le double du poids final initial (20 = 2 x 10) de l’unité. Toutes les autres unités étant restées intactes, leur poids de rééchantillonnage JK reste égal à leur poids final. La même procédure s’applique, tour à tour, à chaque paire JK. Ici, le score moyen estimé est : Yˆ = ∑p y ˆ i i = (8 × 21 + ... + 10 × 47) = 34.8, complex ∑p i (8 + ... + 10) L’estimation de la première réplique est : Yˆ (1) = ∑p i (1) ˆi y = (0 × 21 + 20 × 27 + ... + 10 × 47) = 35.1, ∑p i (1) (0 + 20 + 8 + ... + 10) et les estimations des cinq répliques JK varient entre 33,2 et 35,3 pour une variance estimée : J ˆ (Y V ˆ ) = ∑ (Y ˆ ˆ (j) − Y ) = 3.6 2 JK complex complex j =1 (la variance JK estimée vaut 3,4 lorsque les différences sont mesu- rées par rapport à la moyenne des estimations des répliques JK). Comme mentionné plus haut, on peut montrer que le jackknifing fournit des estimations de la variance plus ou moins non biai- sées, pour autant que la quantité Y estimée soit une caractéristique TABLEAU IV.C.3 Estimation de la variance de l’échantillonnage par la méthode du jackknife Score de Poids des répliques l’établissement Poids final de Strate Unité Abandon Échantillon i yˆi l’établissement pi JK JK aléatoire pi(1) pi(2) pi(3) pi(4) pi(5) 1 21 8 1 1 Écarté 0 8 8 8 8 2 27 10 1 2 Retenu 20 10 10 10 10 3 34 8 2 1 Écarté 8 0 8 8 8 4 38 10 2 2 Retenu 10 20 10 10 10 5 42 10 3 1 Écarté 10 10 0 10 10 6 26 9 3 2 Retenu 9 9 18 9 9 7 32 10 4 1 Écarté 10 10 10 0 10 8 37 11 4 2 Retenu 11 11 11 22 11 9 40 10 5 1 Retenu 10 10 10 10 20 10 47 10 5 2 Écarté 10 10 10 10 0 Estimations 34,8 35,1 35,2 33,2 35,3 34,1 ESTIMATION DE L’ERREUR D’ÉCHANTILLONNAGE À L’AIDE DE TECHNIQUES |267 268 | METTRE EN OEUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES standard telle qu’une somme, une moyenne, un ratio ou un coeffi- cient de corrélation. Les estimations de quantités telles que les médianes, percentiles et coefficients de Gini nécessitent d’ajuster la méthode du jackknife ou d’autres méthodes de rééchantillonnage, telles que le rééchantillonnage à répliques équilibrées. ANNEXE IV.D CRÉATION DE ZONES ET DE RÉPLIQUES JACKKNIFE ET CALCUL DES POIDS JACKKNIFE WesVar est utilisé avec un large éventail de plans d’échantillonnage complexes, là où l’échantillonnage aléatoire simple peut produire des estimations biaisées. Commencez par transférer les données d’un fichier SPSS vers un nouveau fichier WesVar. Votre fichier SPSS doit contenir les variables dont vous avez besoin pour effectuer des analyses dans WesVar. Avant de pouvoir créer un nou- veau manuel, vous devez disposer d’un fichier de données contenant les poids de rééchantillonnage. Le programme peut les calculer. Les instructions qui suivent vous guideront à travers le processus de création des poids jackknife pour un plan d’enquête à deux degrés, à partir du fichier des réponses. Notons que SPSS a été utilisé pour créer les informations d’échantillonnage que WesVar utilise pour créer les poids de rééchantillonnage en vue de l’analyse des données de l’évaluation nationale. 1. Lisez le fichier des réponses SPSS contenant les poids à l’aide des commandes : File – Open – Data – Look in …\MYSAMPLSOL\RESP2STGFINALWT.SAV Open 269 270 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES 2. Les poids de rééchantillonnage étant créés pour les établisse- ments, la liste des établissements participants peut être extraite du fichier des réponses. Il suffit de garder un enregistrement pour chaque établissement participant. Ouvrez Data – Identify Duplicate Cases et déplacez ensuite SCHOOLID vers Define matching cases by. Dans Variables to Create, cliquez sur First case in each group is primary et cliquez ensuite sur OK. Ouvrez ensuite Data – Select Cases et cliquez sur If Condi- tion is satisfied. Cliquez sur If... et déplacez Indicator of each first matching case (PrimaryFirst) vers la boîte de droite (flèche bleue). Saisissez = 1. Cliquez sur Continue. Sous Output, cliquez sur Copy Selected to New Dataset et saisissez un nom, par exemple, RespondingSchools et cliquez sur OK. 3. Ramenez RespondingSchools vers l’écran de visualisation. Cliquez sur l’onglet Variable View au bas de l’écran et suppri- mez toutes les variables, sauf SCHOOLID. Revenez en mode Data View ; une seule variable s’affiche (SCHOOLID), allant de 1101 à 5603 (120e et dernière entrée). Attribuez maintenant les zones JK et des numéros de répli- que JK aux établissements. Étant donné que 120 établisse- ments participent à l’évaluation, il y aura 60 zones JK. Sélectionnez les commandes Transform – Compute Vari- able et saisissez JKZONE sous Target Variable. Saisissez ensuite RND ($Casenum/2) sous Numeric Expression et cliquez sur OK. Sélectionnez à nouveau Transform – Compute Variable et saisissez RANDOMPICK sous Target Variable et rv.Uniform(0,1) sous Numeric Expression. Cliquez sur OK. À ce stade, vous devez voir 120 établissements regroupés en 60 paires numérotées de 1 à 60 et ayant chacun un numéro aléa- toire compris entre 0 et 1. Si ceux-ci apparaissent sous forme d’un nombre entier, augmentez le nombre de décimales en mode Variable View. Vous pouvez maintenant créer les répliques JK. CRÉATION DE ZONES ET DE RÉPLIQUES JACKKNIFE ET CALCUL DES POIDS JACKKNIFE | 271 Sélectionnez Data – Sort Cases et déplacez JKZONE RAN- DOMPICK vers Sort by. Cliquez sur l’ordre de tri Ascending, puis sur OK. Sélectionnez maintenant Data – Identify Duplicate Cases et déplacez JKZONE vers Define matching cases by. (Si nécessaire, éliminez les autres variables qui peuvent figurer dans ce panneau.) Dans Variables to Create, cliquez sur Last case in each group is primary (PrimaryLast) et sur OK. Parce que WesVar s’attend à ce que les répliques soient numérotées en commençant par 1 et non par 0, les codes des répliques doivent être modifiés à l’aide des commandes suivantes : Transform – Recode into Different Variables…. Déplacez PrimaryLast vers Input Variable et saisissez JKREP dans Output Variable Name. Si vous le souhaitez, vous pouvez saisir un intitulé. Cliquez sur Change et puis sur Old and New Values. Dans Old Value, cliquez sur Value et saisissez 0. Dans New Value, saisissez 1 et cliquez sur Add. Sous Old Value, cliquez sur All other values. Maintenant, dans New Value, saisissez 2. Cliquez sur Add, puis sur Continue et sur OK. Notez que toutes les valeurs 0 de PrimaryLast se sont transformées en valeurs 1 pour JKREP et que toutes les valeurs 1 sont devenues 2. Choisissez Data – Sort Cases dans le menu. Éliminez JKZONE et RANDOMPICK de la boîte Sort by et remplacez- les par SCHOOLID ; cliquez sur Ascending et sur OK. Sauvegardez le fichier à l’aide des commandes suivantes : File – Save as – …\MYSAMPLSOL\ASSIGNJK. Cliquez sur Save. Vous pouvez vérifier votre solution à l’aide du fichier de sauvegarde fourni dans 2STG4400. 4. À ce stade, les zones JK et les numéros de répliques JK ont été créés et attribués aux établissements participants ; ces infor- mations doivent maintenant être rattachées à …\MYSAMPL- SOL\RESP2STGFINALWT.SAV, le fichier des réponses et des 272 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES poids avec lequel vous avez commencé. Si nécessaire, ouvrez ce fichier ou, s’il est déjà dans votre espace de travail, ramenez- le vers l’écran de visualisation, mais ne fermez pas le fichier ASSIGNJK. Sélectionnez les commandes Data – Merge files – Add vari- ables. Sélectionnez ASSIGNJK dans le champ Open dataset et cliquez sur Continue. Cliquez sur Match cases on key variables et déplacez SCHOOLID du champ Excluded variables vers Key variables. Si nécessaire, déplacez toutes les variables inutiles (CLASS, PopulationSize1, SampleSize1, PopulationSize2, Sample- Size2, CLASS_SIZE, CLASS_RESP et NRESADJ) de New active dataset vers Excluded variables. Cliquez sur Non-active dataset is keyed table et cliquez sur OK deux fois. Sauvegardez le fichier sous …\MYSAMPLSOL\ RESP2STGWTJK. Fermez SPSS. 5. Maintenant, le fichier des réponses contient au moins STUDENTID, SCHOOLID, les différents scores, l’indicateur RESP, FINAL WEIGHT, JKZONE et JKREP. Il ne reste plus qu’à laisser WesVar calculer les poids du rééchantillonnage JK et à sauvegarder ce fichier WesVar pour une utilisation ultérieure. Lancez WesVar. Cliquez sur New WesVar Data File. Sélec- tionnez le répertoire approprié sous Look in. Sélectionnez …\MYSAMPLSOL\RESP2STGWTJK dans la fenêtre des répertoires. Toutes les variables disponibles apparaissent dans la fenêtre Source Variables (figure IV.D.1). (Cliquez sur Done si la fenêtre Create Extra Formatted Vari- ables s’affiche.) Cliquez sur Full Sample et déplacez FINAL- WEIGHT vers cette fenêtre (le nom de la variable est tronqué après le huitième caractère, pour donner dans ce cas FINAL- WEI) ; si vous le souhaitez, vous pouvez déplacer STUDEN- TID vers la case ID. CRÉATION DE ZONES ET DE RÉPLIQUES JACKKNIFE ET CALCUL DES POIDS JACKKNIFE | 273 FIGURE IV.D.1 Liste des variables disponibles Source : exemple dans le logiciel WesVar. Cliquez sur Variables, puis sur >> pour déplacer toutes les variables restantes vers la fenêtre de droite ; si vous le sou- haitez, les variables inutiles peuvent être renvoyées vers la fenêtre de gauche en utilisant <. Sauvegardez le fichier dans votre dossier MYSAMPLSOL. Vous pouvez utiliser le même nom parce que le format et l’extension sont propres aux fichiers WESVAR et que ceux-ci ne seront pas confondus avec les fichiers SPSS originaux. 6. Maintenant, avant de pouvoir calculer une quelconque table, WesVar doit créer les poids des répliques pour calculer l’erreur d’échantillonnage. Toujours sur le même écran, cliquez sur le bouton Scale ou sur Data – Create weights. 274 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES Dans Source Variables, déplacez JKZONE vers VarStrat, déplacez JKREP vers VarUnit et cliquez sur JK2 sous Method. Si vous cliquez sur OK, la valeur par défaut de replicate prefix sera RPL, mais vous pouvez la remplacer par JK comme dans la figure IV.D.2. Cliquez ensuite sur OK et acceptez d’écraser le fichier. 7. WesVar a ajouté des poids de rééchantillonnage pour l’estimation de l’erreur d’échantillonnage et le fichier ressem- ble maintenant à la figure IV.D.3. 8. Toujours sur le même écran, cliquez sur le bouton recode (celui avec une flèche vers le bas dans la partie supérieure de l’écran) ou cliquez sur Format – Recode. 9. Cliquez sur New Continuous (to Discrete) pour convertir les scores en maths en une variable binaire indiquant qui a ou non obtenu un score d’au moins 230. FIGURE IV.D.2 Zones jackknife dans WesVar Source : exemple dans le logiciel WesVar. CRÉATION DE ZONES ET DE RÉPLIQUES JACKKNIFE ET CALCUL DES POIDS JACKKNIFE | 275 FIGURE IV.D.3 Poids de rééchantillonnage WesVar Source : exemple dans le logiciel WesVar. 10. Saisissez MAT230 dans New variable name. Sélectionnez MATH dans Source Variables et cliquez sur > pour le dé- placer vers Range of Original Variables. Saisissez >=230 sous Range of original variables et saisissez 1 sous MAT230. 11. Déplacez le curseur vers la deuxième ligne, et en dessous de MATH>=230, saisissez MATH<230 et attribuez le code 0. 12. Cliquez sur OK, puis de nouveau sur OK pour exécuter la création de la variable binaire. Sauvegardez le fichier sous le même nom. 13. Toujours sur le même écran, cliquez sur Format – Label. 14. Sélectionnez GENDER dans Source Variables. Saisissez les intitulés Girl pour la valeur 0, Boy pour la valeur 1 et Total pour la valeur Marginal (figure IV.D.4). 276 | METTRE EN ŒUVRE UNE ÉVALUATION NATIONALE DES ACQUIS SCOLAIRES FIGURE IV.D.4 WesVar : Création d’intitulés Source : exemple dans le logiciel WesVar. 15. Sélectionnez MAT230 dans Source Variables. Saisissez les in- titulés Math score below 230 pour la valeur 0, Math score at least 230 pour la valeur 1 et Total pour la valeur Marginal. 16. Sélectionnez RESP dans Source Variables. Saisissez les intitulés Nonresponse pour la valeur 0, Participant pour la valeur 1 et Total pour la valeur Marginal. 17. Cliquez sur OK et sauvegardez (écrasez) le fichier …\ MYSAMPLSOL\. 18. Fermez cette fenêtre. Toutes modifications (telles que la recodification ou le formatage) peuvent être effectuées à partir de cette fenêtre en cliquant sur Open WesVar Data File (à gauche de l’écran WesVar) et en sélectionnant le fichier dont vous avez besoin. CRÉATION DE ZONES ET DE RÉPLIQUES JACKKNIFE ET CALCUL DES POIDS JACKKNIFE | 277 Pour calculer les estimations, cliquez sur New WesVar Workbook à droite de l’écran WesVar (figure IV.D.5). Le guide de l’utilisateur de WesVar fournit de précieuses informations. Vous pouvez maintenant revenir à l’exercice 16.1. FIGURE IV.D.5 WesVar : Ouvrir la capture d’écran Source : exemple dans le logiciel WesVar. RÉFÉRENCES Anderson, P. et G. Morgan. 2008. Developing Tests and Questionnaires for a National Assessment of Educational Achievement. Washington, DC : Banque mondiale. Cartwright, F. et G. Shiel. À paraître. Analyzing Data from a National Assessment of Educational Achievement. Washington, DC : Banque mondiale. Cochran, W. G. 1977. Sampling Techniques. IIIe éd. New York : Wiley. Greaney, V. et T. Kellaghan. 2008. Assessing National Achievement Levels in Education. Washington, DC : Banque mondiale. Howie, S. J. 2004. « Project Plan. » Document inédit, Centre for Evaluation and Assessment, Pretoria. Ilon, L. 1996. « Considerations for Costing National Assessments. » Dans National Assessment : Testing the System, P. Murphy, V. Greaney, M. E. Lockheed et C. Rojas (dir.), 69–88. Washington, DC : Banque mondiale. Kellaghan, T., V. Greaney et T. S. Murray. 2009. Using the Results of a National Assessment of Educational Achievement. Washington, DC : Banque mondiale. Keyfitz, N. 1957. « Estimates of Sampling Variance Where Two Units Are Selected from Each Stratum. » Journal of the American Statistical Association 52 (280) : 503–12. Kish, L. 1965. Survey Sampling. New York : Wiley. 279 280 | RÉFÉRENCES Lehtonen, R. et E. J. Pahkinen. 1995. Practical Methods for the Design and Analysis of Complex Surveys. New York : Wiley. Lohr, S. L. 1999. Sampling: Design and Analysis. Pacific Grove, Californie : Duxbury Press. TIMSS (Trends in International Mathematics and Science Study). 1998a. Manual for Entering the TIMSS-R Data (Doc. Ref. No. 98-0028). Chestnut Hill, Massachusetts : International Study Center, Boston College. ———. 1998b. Manual for International Quality Control Monitors (Doc. Ref. No. 98-0023). Chestnut Hill, Massachusetts : International Study Center, Boston College. ———. 1998c. Sampling Design and Implementation for TIMSS 1999 Countries: Survey Operational Manual (Doc. Ref. No. 98-0026). Chestnut Hill, Massachusetts : International Study Center, Boston College. UNESCO (Organisation des Nations unies pour l’éducation, la science et la culture). 1997. International Standard Classification of Education ISCED. Paris : UNESCO.