Numéro |
Pédagogie Médicale
Volume 18, Numéro 4, Novembre 2017
|
|
---|---|---|
Page(s) | 189 - 198 | |
Section | Références | |
DOI | https://doi.org/10.1051/pmed/2018013 | |
Publié en ligne | 12 décembre 2018 |
L’évaluation des apprentissages : une démarche rigoureuse★
The assessment of students: a systematic process
1
Université du Québec en Outaouais, Département des sciences de l’éducation,
Gatineau,
Québec, Canada
2
Université de Montréal, Faculté des sciences de l’éducation, Département d’administration et fondements de l’éducation,
Montréal,
Québec, Canada
* Correspondance et offprints : Sylvie FONTAINE, université du Québec en Outaouais, pavillon Alexandre-Taché, case postale 1250, succursale Hull, Gatineau, Québec, Canada, J8X 3X7. Mailto : sylvie.fontaine@uqo.ca.
Reçu :
14
Octobre
2018
Accepté :
26
Octobre
2018
commentaires éditoriaux formulés aux auteurs le 24 octobre 2018
Contexte : L’évaluation des apprentissages est de la responsabilité des enseignants. Or, il arrive souvent que ces derniers ne se sentent pas suffisamment outillés pour mettre en œuvre en toute confiance une démarche d’évaluation des apprentissages. Objectif : Cet article a pour but de permettre aux enseignants d’approfondir leur compréhension dans le domaine de l’évaluation des apprentissages. Exégèse : Nous présentons d’abord une vue d’ensemble de quatre approches adoptées dans le domaine de l’évaluation des apprentissages depuis plusieurs années. Nous illustrons: premièrement l’approche centrée sur la mesure; deuxièmement l’approche à double fonction, formative et sommative; troisièmement, une approche qui maintient la fonction sommative, mais spécifie davantage la fonction formative de l’évaluation et finalement, une approche très récente qui intègre l’évaluation formative et sommative dans un même espace évaluatif. Cette première section de l’article expose ainsi les assises conceptuelles qui permettront au lecteur de mieux situer les trois démarches d’évaluation des apprentissages décrites subséquemment. Des exemples créés à partir des référentiels professionnels en ergothérapie et en médecine servent à illustrer la mise en œuvre des deux premières démarches présentées. Enfin, puisque l’évaluation des apprentissages prend appui sur des principes qui s’inscrivent dans un effort pour limiter la subjectivité dans l’évaluation, la dernière section de l’article s’attarde à présenter ces principes intrinsèquement liés à toute démarche d’évaluation.
Abstract
Context: The assessment of students is the responsibility of teachers. Yet, teachers often feel insufficiently equipped to implement confidently assessment processes. Objective: This article aims to enable teachers to deepen their understanding in the field of students’ assessment. Analysis: We present an overview of the four approaches adopted in the field of students’ assessment for the last several years. We first illustrate the measurement approach, secondly the dual-function, formative and summative, approach, thirdly an approach that maintains the summative function but adds a specification to the formative function and finally, a very recent approach that closely intertwines formative and summative assessment. This section of the article sets out the conceptual framework that will enable the reader to better situate the three assessment processes subsequently described. Examples created from the professional framework pertaining to occupational therapy or medicine serve to illustrate the implementation of the first two processes presented. Finally, because the assessment of students’ learning is based on principles aiming to limit the subjectivity in the assessment of student learning, the last section of the article focuses on presenting these principles intrinsically linked to any assessment process.
Mots clés : démarche d’évaluation / évaluation formative / évaluation sommative / principes d’évaluation / pédagogie médicale
Key words: students’ assessment processes / formative assessment / summative assessment / asessment principles / medical education
© EDP Sciences / Société Internationale Francophone d’Education Médicale, 2018
Introduction
La société actuelle est inondée par des évaluations de tout genre telles que l’évaluation des programmes, des politiques gouvernementales, des organisations, des étudiants, des enseignements, et cela reflète l’exigence de rendre des comptes dans laquelle nous vivons aujourd’hui. Hadji [1] parle même d’une « frénésie évaluative » (p. 14) qui prône un besoin constant d’attribuer une valeur à tout objet ciblé, que celui-ci soit un programme, une organisation ou toute autre entité. Bien que la pertinence de ces multiples évaluations puisse être mise en cause, la nécessité d’évaluer les apprentissages des étudiants universitaires s’avère incontestable. En effet, dans le milieu universitaire, quelle que soit la discipline de formation, l’évaluation des apprentissages joue un rôle essentiel pour confirmer l’apprentissage réalisé par les étudiants et se présente comme le témoin de leur réussite [2]. La reconnaissance des compétences maîtrisées et des connaissances acquises passe nécessairement par des activités d’évaluation [3–5]. Or, ces activités d’évaluation n’ont pas la même portée selon l’intervenant du milieu éducatif.
En effet, à des fins administratives, l’évaluation est un ancrage qui permet de symboliser la valeur de l’apprentissage réalisé par l’étudiant qui, au final, verra sa performance académique située sur l’échelle de notation de son institution. En fin de parcours académique, les résultats obtenus par l’étudiant aux diverses activités évaluatives mèneront, ou non, à une attestation formelle de l’apprentissage de l’étudiant sous forme de certification ou de diplôme.
Pour l’étudiant qui doit réaliser des tâches d’évaluation pour démontrer le statut de son apprentissage à un moment spécifique dans son cheminement, l’analyse des résultats obtenus à diverses tâches d’évaluation lui permet de cibler ses difficultés et ses lacunes et, conséquemment, de réguler son apprentissage [6].
Principal responsable dans la mise en œuvre d’une démarche d’évaluation pour son groupe d’étudiants, l’enseignant puise quant à lui dans l’évaluation des apprentissages des indications sur l’état des connaissances de ses étudiants et sur le développement des compétences qu’ils doivent maîtriser. L’analyse des résultats obtenus par ses étudiants aux tâches d’évaluation lui fournit des pistes pour orienter la rétroaction et pour ajuster son enseignement [7,8].
Cet article s’adresse principalement aux intervenants universitaires soucieux de progresser dans le développement de leur compétence en évaluation des apprentissages. Nous y traitons des finalités de l’évaluation et proposons des démarches en vue de systématiser et d’accroître la rigueur de cette dernière. Les principes qui sous-tendent l’évaluation sont aussi présentés. Notre approche se veut pragmatique et, en ce sens, des exemples, issus du milieu universitaire, viendront étayer le texte.
Des finalités d’évaluation qui évoluent
Évaluer signifie « [...] statuer sur la valeur de quelque chose [...] en tenant compte du contexte et des objectifs, puis [...] obtenir des données valides pour accompagner le jugement sur les éléments constitutifs de la valeur. » ([9], p. 15). Cette définition de l’évaluation, qui s’inscrit dans un angle conceptuel, est porteuse de finalités évaluatives qui se sont modifiées au fil des années et des réformes dans le domaine de l’éducation. Pour les fins de cet article, nous avons retenu une catégorisation des finalités évaluatives en quatre approches spécifiques :
-
l’approche centrée sur la mesure du rendement ;
-
l’approche de l’évaluation selon sa double fonction : formative et sommative ;
-
l’approche actuelle de l’évaluation, qui maintient la fonction sommative tout en changeant le libellé pour « évaluation de l’apprentissage », et qui spécifie davantage la fonction formative avec les libellés « évaluation pour l’apprentissage » et « évaluation en tant qu’apprentissage » et finalement ;
-
la récente proposition d’approche intégrée de Black et Wiliam [3].
L’approche centrée sur la mesure du rendement
Cette approche, largement inspirée de la psychométrie et solidement ancrée dans de nombreux esprits, s’attarde à la quantification et au classement des individus. Associée au domaine de la psychologie, cette approche, qui s’appuie principalement sur des tests, permet, entre autres, l’étalement des différences individuelles, la sélection des individus, la promotion dans le cheminement académique et la délivrance de diplômes [10]. Le courant psychométrique est aussi très présent dans le contexte des évaluations standardisées à grande échelle telles que les tests du Programme international pour le suivi des acquis des élèves (PISA), les tests du Programme international de recherche en lecture scolaire (PIRLS), les examens d’entrée dans certains programmes d’études ou encore, les examens d’ordres professionnels tels que les examens du Conseil médical du Canada. Aux divers paliers de l’éducation, cette approche s’est traduite par la mise en œuvre d’une démarche instrumentée de l’évaluation et a donné lieu à l’utilisation de tests, d’examens, de questionnaires, etc. [9].
Cette finalité est bien présente dans les institutions universitaires qui se basent sur les résultats que les étudiants obtiennent à des tests et des examens pour certifier que les apprentissages sont réalisés et que le niveau d’acquisition des connaissances ou le développement de compétences est satisfaisant. Or, si les résultats des étudiants attestent de leur réussite, ils ont aussi des conséquences sociales [11] telles que la réussite d’un cours, l’admission à un programme d’étude, l’obtention de bourses d’études, d’une certification, d’un diplôme et parfois même, d’un emploi. Ces enjeux sont importants et, conséquemment, l’évaluateur est investi d’une responsabilité quant à la qualité et à la validité des instruments d’évaluation qui sont proposés aux étudiants. La notion de validité sera abordée plus en détail dans un prochain article (Loye et Fontaine, en préparation).
L’approche de l’évaluation selon sa double fonction : formative et sommative
Jusqu’à tout récemment, et possiblement encore aujourd’hui dans plusieurs disciplines, les termes évaluation formative et évaluation sommative étaient utilisés pour désigner, respectivement, l’évaluation en situation d’apprentissage et l’évaluation menant à la prise de décision. Introduite dans le contexte de l’évaluation des apprentissages par Bloom, Hasting et Madaus [12], l’évaluation formative se distingue de l’évaluation sommative par son étroite interrelation avec l’enseignement. Ainsi, l’évaluation formative peut être effectuée de façon continue ou avoir lieu à des moments variés tels que la fin d’une activité ou d’un ensemble d’activités portant sur une thématique d’apprentissage. Sa caractéristique première est d’informer l’enseignant, à partir d’une collecte de données ou d’observations planifiées, de l’état de l’apprentissage des étudiants et des difficultés qui subsistent. Cette information est, par la suite, prise en compte pour ajuster l’intervention pédagogique de l’enseignant. En ce sens, sa fonction est essentiellement pédagogique.
L’évaluation sommative, souvent réalisée à l’aide d’examens, de tests ou de travaux en fin de parcours, est associée à la fonction administrative de l’évaluation. Les résultats de l’évaluation sommative mènent à une prise de décision concernant la réussite d’un cours par l’étudiant et, ultérieurement, à l’octroi d’un certificat ou d’un diplôme d’études pour l’étudiant qui a réussi tous ses cours. L’évaluation sommative s’inscrit dans l’approche centrée sur la mesure décrite plus haut, lorsque l’enseignant rend compte du résultat final de l’étudiant en additionnant les points obtenus aux diverses activités d’évaluation [6].
L’approche actuelle de l’évaluation des apprentissages
La littérature anglo-saxonne propose de distinguer davantage les fonctions de l’évaluation. Ainsi, l’expression « évaluation en tant qu’apprentissage » (assessment as learning) est suggérée pour encadrer une démarche d’évaluation qui implique le monitorage et la gestion de l’apprentissage par l’étudiant [13]. Cette fonction implique que l’évaluation est en elle-même un apprentissage. La deuxième fonction, « l’évaluation pour l’apprentissage », ou encore en soutien à l’apprentissage (assessment for learning), incarne une approche dans laquelle l’enseignant utilise les résultats de l’évaluation pour ajuster et planifier son enseignement [5,14–16]. Cette fonction de l’évaluation, très semblable à l’évaluation formative, inclut cependant la communication par l’enseignant de nombreuses rétroactions destinées aux étudiants afin que ceux-ci puissent réguler leur apprentissage [17]. Cette spécificité émerge d’un changement de paradigme en éducation qui met dorénavant l’apprenant au centre des préoccupations éducatives. Enfin, l’expression « évaluation de l’apprentissage » (assessment of learning) remplace le terme évaluation sommative sans en changer la fonction et désigne l’approche plus ciblée sur l’utilisation d’examens et de tests dont les résultats mènent à la prise de décisions administratives.
L’approche intégrée de l’évaluation des apprentissages
Vingt ans après leur importante recension des écrits sur l’évaluation formative et ses avantages, Black et Wiliam [3] proposent maintenant une approche intégrée de l’évaluation formative et sommative dans la démarche pédagogique. À l’instar de Popham, ils conçoivent les distinctions de l’approche actuelle (évaluation pour, en tant que et de l’apprentissage) comme étant le résultat de prepositional permutations [3] (transpositions prépositionnelles) et ils recadrent la pratique d’évaluation en insistant sur le fait que l’évaluation n’est pas formative ou sommative en soi. En fait, c’est l’inférence que l’enseignant fait des résultats de l’étudiant qui aura une visée formative ou sommative. Ils proposent aux enseignants d’adopter une démarche pédagogique qui favorise le dialogue interactif avec leurs étudiants afin de collecter, en continu, des traces de l’état de leur apprentissage. C’est à partir de l’interprétation de ces traces que l’enseignant pourra ajuster son enseignement et planifier ses activités d’évaluation futures.
Après cette présentation des différentes finalités de l’évaluation, nous nous intéressons maintenant à trois démarches d’évaluation des apprentissages. Les deux premières sont illustrées d’exemples fondés sur le référentiel de compétences lié à l’exercice de la profession d’ergothérapeute au Québec [18] et sur le référentiel de compétences CanMEDS 2015 pour les médecins [19]. Puis, nous présentons quelques caractéristiques de l’approche intégrée proposée par Black et Wiliam [3], qui nous semble prometteuse pour favoriser l’apprentissage des étudiants dans le contexte social actuel.
Des démarches pour l’évaluation des apprentissages
À l’instar de Black et Wiliam [3] (p. 20), nous croyons que « If students learned what they were taught, then assessment would be unnecessary; we could simply document the educational experiences of each student secure in the knowledge that this would describe their capabilities accurately » (Si les étudiants apprenaient tout ce qui leur est enseigné, l’évaluation serait inutile ; nous pourrions simplement documenter l’expérience de chaque étudiant, entièrement confiants de décrire leurs capacités avec précision. Traduction libre). Bien évidemment, ce n’est pas toujours le cas ; les étudiants n’apprennent pas tout ce qui leur est enseigné. C’est pourquoi l’évaluation devient essentielle pour témoigner de ce qui est appris, maîtrisé, et pour s’assurer que cela est suffisant pour la réussite d’un cours ou d’un programme. L’évaluation fait partie de la démarche pédagogique de l’enseignant et en ce sens, elle se doit d’être planifiée au même titre que son enseignement. Cette nécessité de planifier l’enseignement et l’évaluation est reconnue dès le milieu du XXe siècle, lorsque Tyler [20] soulève quatre questions, dont la quatrième porte sur l’évaluation, pour orienter l’instruction et la planification du curriculum. Ces questions (traduction libre) sont les suivantes :
-
Quels objectifs l’école devrait-elle viser ?
-
Quelles expériences éducatives permettront l’atteinte de ces objectifs ?
-
Comment ces expériences éducatives seront-elles organisées ?
-
Comment déterminer si ces objectifs ont été atteints ?
La quatrième question s’opérationnalise dans une démarche systématique et rigoureuse de planification de l’évaluation des apprentissages. Trois exemples de démarche d’évaluation font l’objet des sections suivantes.
Démarche d’évaluation des apprentissages : le modèle classique
Nous décrivons les cinq étapes présentées dans la figure 1 et présentons un exemple basé sur le référentiel de compétences lié à l’exercice de la profession d’ergothérapeute au Québec [18]. Nous retenons les termes « évaluation formative », pour tout ce qui concerne l’évaluation qui a pour but de soutenir l’apprentissage, et « évaluation sommative » pour l’évaluation à visée administrative.
![]() |
Figure 1 Démarche d’évaluation des apprentissages. |
La planification de l’évaluation
Quelle que soit la visée de l’activité évaluative, formative ou sommative, la planification de l’évaluation se fait de manière concomitante à la planification de l’enseignement. L’enseignant choisit des contenus jugés essentiels dans le cadre de son cours et précise les connaissances, habiletés, compétences qui doivent être maîtrisées au regard de ces contenus. En pédagogie médicale, des référentiels tels que celui de l’Ordre des ergothérapeutes du Québec (OEQ) et celui du Collège Royal des médecins et chirurgiens du Canada (CanMEDS) encadrent la pratique des professionnels. Ces documents ciblent les compétences qui doivent être développées par tous les étudiants qui aspirent à la profession. Dans le contexte de la planification de l’évaluation, ces documents se veulent donc des outils de base incontournables pour les enseignants. Non seulement offrent-ils des indications quant aux compétences à développer, mais ils fournissent aussi des pistes précises pour l’évaluation des apprentissages. Le tableau I est un extrait des compétences propres à la profession dans le référentiel de l’OEQ [18] (p. 14).
Ainsi, l’enseignant qui planifie sa démarche d’enseignement et d’évaluation pourra déterminer la visée de l’évaluation, formative ou sommative, et le moment propice à l’évaluation d’une compétence spécifique. À partir du référentiel de l’OEQ, on pourrait imaginer le scénario suivant. L’enseignant planifie les activités consistant à fournir aux étudiants diverses demandes de service en ergothérapie et à leur enseigner une démarche d’analyse et d’évaluation des besoins des personnes qui font les demandes de services. Afin de s’assurer que les étudiants maîtrisent bien cette démarche, il pourra cibler un moment clé pendant le trimestre pour collecter des traces de leur compréhension de la démarche d’analyse et d’évaluation. Ce moment doit être planifié pour s’assurer de la pertinence de l’évaluation ; celle-ci ne doit pas avoir lieu avant que les étudiants aient développé les compétences qui seront évaluées, mais suffisamment tôt pour donner aux étudiants le temps de faire des ajustements qui s’imposent.
La collecte des traces qui documentent les apprentissages
La décision d’évaluer les étudiants et le choix du moment pour le faire donnent lieu à deux autres actions : choisir le type de données à collecter pour statuer sur l’apprentissage réalisé et développer les outils, le cas échéant.
Dans l’exemple précédent, l’enseignant a ciblé, pour des fins d’évaluation, la compétence de l’étudiant à évaluer le besoin de la personne (en gris dans le Tableau I). Il a prévu que cette évaluation aurait lieu dans la première partie du trimestre. Comme les étudiants sont en début de formation, il décide que l’évaluation sera à visée formative et que les manifestations de l’apprentissage seront verbalisées à haute voix par les étudiants plutôt que présentées sous forme de rapport écrit. En fait, il souhaite que les étudiants travaillent en petits groupes, ayant chacun une demande de service, qu’ils analysent les besoins de la personne et que chaque groupe présente ensuite son évaluation lors d’une discussion en classe. Il considère que les étudiants pourront bénéficier d’une rétroaction de sa part, mais aussi de la part des autres étudiants du groupe. En termes d’outils d’évaluation, l’enseignant prépare une liste de vérification qui reprend les étapes à respecter dans l’analyse de la demande de service. Cette liste est jointe à la demande de service distribuée aux étudiants.
L’interprétation
Bien que l’interprétation et le jugement soient souvent le fruit d’un même regard, nous considérons que l’interprétation concerne plus spécifiquement la lecture que l’enseignant fait des résultats d’évaluation obtenus par les étudiants. Dans l’exemple précédent, il s’agirait de l’écoute de l’enseignant qui emmagasine les indices de la compréhension que les étudiants ont de la démarche d’analyse de besoins. Par exemple, l’enseignant pourrait être à même d’observer que certains sous-groupes se sont limités à quelques données de base pour procéder à l’évaluation de la demande. Évidemment, le jugement est directement lié à l’interprétation des données recueillies et lui succède le plus souvent dans la continuité.
Le jugement
Le jugement est l’« étape centrale de la démarche d’évaluation pédagogique, qui consiste à donner un avis sur la progression ou l’état de réalisation des apprentissages à la lumière des diverses informations recueillies. » [21]. Dans notre exemple, l’enseignant porte un jugement sur la présentation orale faite par chacun des sous-groupes. Il note que certains groupes n’ont pas compris le principe d’exhaustivité dans l’analyse du besoin puisqu’ils se sont limités à quelques données de base pour évaluer la demande de service de la personne. Ainsi, à partir de la présentation orale des sous-groupes d’étudiants, il sera capable de juger de l’état des apprentissages de son groupe et d’identifier les lacunes, dans le cas présent, le manque d’exhaustivité dans l’analyse de la situation de la personne. Toutefois, il ne peut pas en rester là, la dernière étape de la démarche d’évaluation l’amène à prendre une décision au regard de son constat.
La prise de décision
« Les recherches sont unanimes à considérer l’enseignant comme un preneur de décision » ([22], p. 3). En effet, la démarche d’évaluation que nous présentons illustre bien le fait que l’enseignant doit prendre de nombreuses décisions. Il doit décider de ce qui sera évalué, de la visée de l’évaluation, du moment de l’évaluation, des outils d’évaluation, etc. À la suite d’une activité d’évaluation, qu’elle soit formative ou sommative, l’enseignant doit aussi prendre une décision. Selon les lacunes identifiées, il pourra, par exemple, décider de faire un retour en classe, d’enseigner la notion lacunaire à nouveau, de fournir des exercices additionnels, etc. Dans notre exemple, l’enseignant pourrait décider de faire un retour en groupe et d’illustrer à l’aide d’un cas toutes les questions qui se posent habituellement pour en guider l’analyse. Pour ce faire, il pourrait faire un exposé magistral ou avoir recours au dialogue et aux interactions.
Bien que nous ayons présenté cette démarche de façon linéaire, la réalité académique fait souvent en sorte que l’enseignant procède différemment selon le groupe d’étudiants avec lequel il travaille. Par exemple, l’enseignant d’un groupe particulièrement faible pourra faire un retour sur sa planification initiale et ajouter des activités d’évaluation formative pour s’assurer de la progression des apprentissages de son groupe. À l’opposé, si un groupe d’étudiants maîtrise déjà une compétence qui est au programme et que l’enseignant est en mesure de faire ce constat, il aura tout intérêt à collecter des données à des fins sommatives rapidement et à passer à une autre notion/compétence pour éviter de démotiver ses étudiants. Cela l’amènera à coup sûr à revoir sa planification.
Processus d’évaluation des compétences
La démarche d’évaluation qui vient d’être présentée est assez classique et bien connue dans le milieu de l’éducation. Toutefois, d’autres démarches sont également possibles. Par exemple, Prégent et al. [23], qui s’attardent spécifiquement à l’enseignement universitaire dans une approche par compétences, proposent un processus cyclique de l’évaluation plutôt qu’une démarche linéaire (Figure 2).
Leur ouvrage campe l’évaluation des apprentissages dans une approche par compétences qui favorise une évaluation fondée sur des situations authentiques, c’est-à-dire des situations similaires à celles que l’étudiant pourrait rencontrer dans son milieu de travail ou de vie. La démarche d’évaluation présentée par ces auteurs présuppose que l’enseignement s’inscrit dans une approche par compétences et que l’enseignant est soucieux d’évaluer ses étudiants à partir de « situations réalistes et complexes simulant le contexte d’une situation de travail […] » [23]. Cette approche peut très bien s’opérationnaliser dans le domaine de la pédagogie médicale qui favorise les situations authentiques pour l’évaluation des étudiants. Nous décrivons les cinq étapes du processus proposé par Prégent et al. [23] et illustrons chaque étape en puisant dans le référentiel CanMEDS 2015.
![]() |
Figure 2 Processus d’évaluation des compétences en situation authentique (d’après Prégent et al. [23], p. 144). |
Préparer l’évaluation
La préparation de l’évaluation se fait en prenant en compte le contexte, le contenu et les compétences qui sont visées dans un cours. Un cours théorique dispensé sous forme d’exposés magistraux à 100 étudiants donnera lieu à un type d’évaluation différent de ce qui peut être envisagé pour un cours qui a pour objectif le développement de compétences et d’habiletés pratiques pour une vingtaine d’étudiants. Ainsi, pour développer la compétence de l’étudiant en médecine à établir des relations professionnelles avec le patient, sa famille et ses proches aidants [19], l’enseignant s’assurera de planifier des moments pendant lesquels les étudiants seront réellement en interaction avec des intervenants qui agissent à ce titre.
Concevoir et produire les instruments
La préparation de l’évaluation est suivie d’actions spécifiques qui doivent être réalisées par l’enseignant. Ainsi, celui-ci doit d’abord construire une situation d’évaluation, c’est-à-dire un ensemble d’activités interreliées qui visent le développement de compétences [4] et l’acquisition de connaissances, puis décrire la responsabilité des étudiants dans cette situation et enfin rédiger des consignes pour qu’ils puissent réaliser la situation d’évaluation.
Pour la compétence ciblée lors de l’étape précédente, l’enseignant pourrait, par exemple, développer la situation suivante : un patient, accompagné de son épouse, rencontre le médecin de famille pour discuter des options possibles pour le traitement de sa dépression. L’étudiant assumera la pleine responsabilité de la rencontre dans le temps imparti pour ce type de consultation. Les consignes, jointes à la description de la situation, portent sur les aspects suivants : manifestation de respect et de compassion envers le patient, écoute attentive afin d’identifier les valeurs, les principes et les préférences du patient au regard de sa situation médicale, etc. Ces aspects sont en fait les manifestations qui opérationnalisent la compétence à établir des relations professionnelles avec le patient, sa famille et ses proches aidants, issues du CanMEDS 2015. L’enseignant observe l’étudiant en interaction avec le patient. Ce type de situation d’évaluation, qui répond au format du Clinical Evaluation Exercice (CEX), est utilisé pour permettre l’observation de l’étudiant dans une tâche professionnelle [24].
Offrir des rétroactions aux étudiants
La rétroaction de l’enseignant guide l’étudiant dans la progression de ses apprentissages et dans le développement de ses compétences. Il s’agit d’une étape essentielle dans le processus d’évaluation proposé par Prégent et al. [23] qui suggère de fournir une rétroaction écrite ou orale à l’étudiant immédiatement après que la situation d’évaluation ait été réalisée. Dans notre exemple, l’enseignant pourrait indiquer à l’étudiant les aspects positifs dans son interaction avec le patient et son épouse, et explorer avec lui des solutions pour améliorer certaines habiletés ou attitudes à partir de l’observation uniquement ou encore, à la suite d’une présentation orale de la situation par l’étudiant. Cette rétroaction doit cibler des aspects précis de la compétence qui auront été formalisés dans une grille d’évaluation connue de l’étudiant. Cette grille d’évaluation, partagée avec l’étudiant, encadre de manière rigoureuse la démarche de rétroaction et respecte bien le principe de transparence qui sera défini plus en détail dans la dernière section du présent article.
Attribuer la note finale
Comme mentionné précédemment, l’évaluation a aussi une fonction administrative. L’enseignant devra donc attribuer une note, généralement exprimée en pourcentage, ou une cote, habituellement une lettre (A+, A, B, C…), selon l’échelle de notation privilégiée dans l’institution universitaire. La note que l’enseignant attribue à l’étudiant est basée sur l’instrument d’évaluation qu’il a développé en cohérence avec la situation d’évaluation. Lorsque les grilles d’évaluation sont standardisées, comme c’est souvent le cas dans le domaine de l’enseignement médical, l’enseignant doit s’assurer de l’adéquation entre la situation d’évaluation qu’il donne aux étudiants et les compétences qui sont évaluées à l’aide de la grille standardisée. Nous reviendrons brièvement sur le principe de cohérence en dernière section de cet article et de manière plus détaillée dans un prochain article de cette série (Loye et Fontaine, en préparation).
Revoir et améliorer le processus d’évaluation
L’évaluation des apprentissages des étudiants doit être valide et rigoureuse, car elle confirme la validité du diplôme qui sera décerné à la fin du programme de formation. La dernière étape du processus présenté se veut donc réflexive et porte sur chacune des étapes précédentes. Prégent et al. [23] proposent une série de questions pour orienter la réflexion de l’enseignant à chacune des étapes. Dans l’exemple du CEX invoqué plus haut, l’enseignant pourrait, par exemple, questionner la pertinence de la situation d’évaluation, des intervenants, de la durée prescrite pour la consultation, etc. (préparation de l’évaluation). Il pourrait aussi questionner la grille utilisée pour l’évaluation, sa clarté, l’univocité et l’exhaustivité des critères, etc. (instrumentation). Enfin, il pourrait aussi questionner la pratique consistant à demander aux étudiants de présenter la situation d’évaluation oralement avant de leur offrir une rétroaction. Son questionnement serait alors relatif au fait que la rétroaction, qui porte uniquement sur l’observation de l’enseignant, s’appuie sur des faits plutôt que sur l’interprétation de l’étudiant de ces faits (offrir des rétroactions).
Le processus de Prégent et al. [23] trouve sa pertinence dans les programmes universitaires qui choisissent d’adopter une approche par compétences qui favorise les situations d’évaluation authentiques. Le dernier modèle que nous présentons est tout récent et s’inscrit dans un effort d’intégrer l’évaluation des apprentissages à l’enseignement. Il offre un ancrage théorique à l’ensemble des composantes de la démarche pédagogique, incluant l’évaluation, et ne dissocie pas la démarche d’évaluation de la démarche pédagogique globale.
Le modèle de l’évaluation intégrée à la démarche pédagogique (Black et Wiliam [3])
Dans un article récent, Black et Wiliam [3] présentent un modèle théorique qui intègre l’évaluation des apprentissages à la démarche pédagogique (Figure 3). Bien que l’explication de ce modèle dépasse le propos de cet article qui cible plus spécifiquement les démarches d’évaluation, nous croyons pertinent d’insister sur certains aspects du modèle qui sont liés à l’évaluation.
Ces auteurs ciblent deux aspects qui n’ont pas été explorés dans les démarches d’évaluation présentées jusqu’à présent. Premièrement, ils proposent le dialogue et les interactions comme méthode pédagogique à privilégier pour l’enseignement, la planification et l’évaluation des apprentissages des étudiants. Deuxièmement, ils insistent sur la synergie qui devrait exister entre l’évaluation formative et l’évaluation sommative. Nous décrivons brièvement ces aspects.
![]() |
Figure 3 Modèle pour l’évaluation intégrée à la démarche pédagogique (traduction libre, Black et Wiliam [3], p. 6). |
Le dialogue et les interactions
Black et Wiliam [3] placent l’étudiant au cœur de son apprentissage et suggèrent qu’il soit le point focal de l’enseignant pour toutes les étapes de la démarche pédagogique. Ils proposent que la démarche d’enseignement implique des dialogues et des interactions enseignant–étudiants et étudiants–étudiants. Ainsi, l’enseignant planifie son enseignement de sorte à intégrer une collecte de données en continu, qui lui permettra de juger de l’état des connaissances et de la compréhension que les étudiants ont du sujet et, le cas échéant, de procéder aux ajustements souhaitables dans son enseignement. La poursuite des dialogues et des interactions est guidée par cette collecte de données, qu’ils appellent des « traces de la compréhension des étudiants » (traduction libre, p. 9), qui permettra à l’enseignant de faire des inférences quant à l’apprentissage réalisé. Ce dialogue interactif s’inscrit tout à fait dans une pratique d’évaluation formative porteuse d’un apprentissage plus efficace [3]. Ils insistent toutefois sur le fait que l’interaction formative ne devrait pas se limiter au dialogue oral, mais inclure également les travaux écrits des étudiants.
Une synergie dans les visées de l’évaluation
Black et Wiliam [3] sont d’avis qu’il ne devrait pas y avoir de rupture entre le formatif et le sommatif et proposent plutôt une synergie entre ces deux visées de l’évaluation. Selon eux, ces évaluations sont complémentaires et les instruments d’évaluation utilisés ne sont pas en soi formatifs ou sommatifs. Un même outil d’évaluation, par exemple, un examen clinique objectif structuré (ECOS), pourrait donner lieu à une inférence sommative (l’étudiant a réussi 10 stations sur 12) ou à une inférence formative (l’étudiant n’est pas exhaustif dans son examen physique du patient) qui permettra à l’enseignant de fournir une rétroaction ciblée à l’étudiant. Ils intègrent l’évaluation sommative à la démarche d’enseignement et revendiquent pour les enseignants le rôle principal dans le développement d’outils d’évaluation valides qui permettront la prise de décision. Cette proposition au regard du rôle attribué aux enseignants va un peu à l’encontre de la situation actuelle qui prône plutôt des examens standardisés à grande échelle pour l’octroi de certifications et de diplômes.
Outre une démarche d’évaluation rigoureuse à mettre en œuvre, certains principes doivent aussi être considérés lorsqu’il est question d’évaluation des apprentissages. Nous abordons maintenant ces principes.
Les principes qui soutiennent l’évaluation
Selon Romainville [25], l’évaluation des apprentissages comporte des biais qui ont trait aux choix faits par l’enseignant quant aux situations d’évaluation, aux critères de corrections ou encore, à l’interprétation de ces critères. En fait, dans le domaine de l’évaluation des apprentissages dit-il, « l’objectivité absolue est impossible » ([25], p. 1), mais elle peut être rehaussée par un encadrement systématique de la démarche d’évaluation. Les principes de transparence, de rigueur et de cohérence qui sont présentés plus loin encadrent l’évaluation afin d’en limiter la subjectivité et de maximiser son objectivité. Un bref aperçu de deux principes en lien avec les droits des étudiants sera également présenté en guise de conclusion pour cette section.
Le principe de transparence
Bien que plusieurs définitions de la transparence soient présentées dans les ouvrages de référence, nous retenons que la transparence est « le caractère de ce qui est visible pour tous » ([26], p. 2665) et que ce principe implique une « façon claire et ordonnée de présenter les postulats […] qui sous-tendent les orientations, les objectifs d’un processus […] » ([21], p. 1405). Dans le contexte de l’évaluation des apprentissages, ce principe s’opérationnalise donc par une communication claire et précise aux étudiants des modalités d’évaluation, des attentes et des critères à partir desquels ils seront évalués. Cela doit être fait, bien sûr, préalablement à toute activité d’évaluation. De plus, lors de la préparation des situations d’évaluation, le principe de transparence se traduit également par la rédaction de consignes claires et exhaustives pour chacune des situations d’évaluation qui seront proposées aux étudiants.
Le principe de rigueur
La rigueur est associée à la qualité de l’ensemble des situations d’évaluation proposées aux étudiants dans un cours donné. Une évaluation de qualité implique que le nombre de situations d’évaluation est suffisant pour que « l’enseignant puisse inférer, avec une certaine confiance », la progression de l’étudiant pour une compétence spécifique ([2], p. 22). La rigueur fait aussi référence à la pertinence des choix de situations d’évaluation qui sont retenues par l’enseignant. Afin de limiter les biais qui peuvent être associés à ces choix, il importe donc de s’assurer que ce qui est évalué fait bel et bien partie du programme d’études ou encore, que les grilles d’évaluation utilisées sont directement liées aux compétences qui font l’objet de l’évaluation. Le but ultime est de faire progresser les étudiants dans le développement des compétences du programme auquel ils sont inscrits et de s’assurer ainsi qu’ils deviennent des professionnels compétents.
Le principe de cohérence
Hadji [1] propose quatre niveaux de cohérence pour toute activité évaluative.
Le premier concerne la cohérence spécifique, qu’il considère comme garante de « la légitimité épistémologique » (p. 222) de l’évaluation. Autrement dit, l’évaluation doit être une réelle appréciation des compétences de l’étudiant et en cela, elle nécessite un jugement de la part de l’enseignant. Cela implique que les situations d’évaluation proposées aux étudiants soient authentiques, mais également complexes pour refléter la réalité à laquelle les étudiants devront faire face. L’évaluation doit permettre à l’enseignant de statuer réellement sur l’état de compétences de ses étudiants. Il n’est donc pas suffisant de calculer des points sur une feuille d’exercices pour inférer le niveau de progression de la compétence évaluée.
Le deuxième concerne la cohérence externe, ancrée dans la nécessité d’avoir un lien solide entre les situations d’évaluation et la finalité du cours ou du programme. En effet, les situations d’évaluation doivent être intrinsèquement liées aux objectifs visés par le cours. Ce type de cohérence s’apparente au principe de rigueur énoncé plus haut.
Le troisième concerne la cohérence interne, qui dépasse le cadre d’un seul cours pour s’intéresser à la cohérence de l’activité évaluative dans l’ensemble du programme d’études. Il s’agit alors, dans le cadre d’un programme d’études, d’avoir des activités évaluatives qui ont une certaine compatibilité. Cela ne veut toutefois pas dire que les étudiants doivent toujours être évalués de la même façon dans tous les cours du programme. Cependant, pour un même cours, il est difficilement justifiable d’avoir des façons d’évaluer les étudiants qui sont complètement opposées.
Le quatrième niveau décrit par Hadji [1] concerne la cohérence méthodologique. L’auteur fait ici référence à la concordance qui est souhaitée entre la nature de l’apprentissage (compétences, connaissances, habiletés, attitudes) et le type d’activités d’évaluation qui sera proposé aux étudiants. Lorsqu’un cours de nature théorique et factuelle est enseigné à 100 étudiants dans un large amphithéâtre, l’examen à choix multiples est sans doute le plus adéquat. Par contre, il serait difficile d’évaluer adéquatement la capacité de l’étudiant à établir une relation professionnelle avec le patient avec un examen de ce type. Comme Maslow le dit si bien « Si le seul outil que vous avez est un marteau, vous tendez à voir tout problème comme un clou. » ([27], p. 15) Il importe ainsi que les enseignants développent leur compétence dans la construction de divers outils d’évaluation.
Les principes d’égalité et d’équité
Enfin, les principes d’égalité et d’équité, souvent confondus, s’appliquent aussi à toute démarche d’évaluation des apprentissages et sont directement reliés aux droits des étudiants. Tous les étudiants doivent se voir offrir une chance égale de réussir les activités évaluatives, c’est le principe d’égalité. Or, certains étudiants peuvent avoir des difficultés d’apprentissage, des troubles d’anxiété, etc. Pour que ces étudiants aient des chances égales de réussite, des mesures d’adaptation doivent être mises en place pour prendre en compte leurs difficultés, c’est le principe d’équité.
Conclusion
Nous avons abordé, en tout ou en partie, trois démarches pour encadrer l’évaluation des apprentissages des étudiants. Ces démarches mettent en avant des points communs, par exemple, l’importance de planifier les activités d’évaluation en lien avec les objectifs d’apprentissage ou avec le développement de compétences spécifiques, dans le cadre d’un cours ou d’un programme d’enseignement, ou encore le rôle de l’enseignant dans la préparation des tâches d’évaluation. Bien que les deux premières démarches se ressemblent davantage, le processus de Prégent et al. [23] va au-delà du modèle classique en ce qui concerne l’étape de rétroaction aux étudiants et l’étape de réflexion, qui guident l’amélioration de la démarche d’évaluation. Ces deux étapes illustrent le souci, d’une part, de maximiser la progression des apprentissages des étudiants grâce à la rétroaction et d’autre part, de s’assurer que l’évaluation rende compte le mieux possible de l’apprentissage réalisé ou de l’état du développement des compétences. Le modèle pour l’évaluation intégrée à la démarche pédagogique de Black et Wiliam [3], bien que partiellement présenté, se distingue des deux démarches précédentes par l’accent mis sur l’interaction et le dialogue enseignant–étudiants et étudiants–étudiants, en vue de collecter en continu des données relatives aux apprentissages pour guider l’enseignement, la planification et la conception d’instruments d’évaluation. Il se distingue aussi par le recadrage de l’habituelle distinction entre évaluation formative et évaluation sommative en attribuant à l’inférence qui est faite à partir de l’évaluation, qu’elle soit formative ou sommative, un rôle central. Ce dernier modèle nous semble prometteur pour deux raisons. Premièrement, le recadrage de l’évaluation formative et sommative par le biais de l’inférence, plutôt que par une distinction dans l’instrumentation, offre une alternative aux enseignants qui considèrent que l’évaluation formative, en plus d’être chronophage, occasionne un surcroît de travail pour la construction d’outils d’évaluation. Deuxièmement, le recours aux interactions et aux dialogues entre l’enseignant et les étudiants, mais aussi entre les étudiants, est une pratique qui est déjà adoptée par plusieurs enseignants. Le travail qui doit maintenant être fait se situe au niveau de la planification pour la rendre plus systématique et rigoureuse au regard de ce qui sera ciblé comme traces de l’apprentissage réalisé.
Les principes qui sous-tendent l’évaluation des apprentissages ont été brièvement présentés. Pour l’enseignant responsable de l’évaluation de ses étudiants, le respect de ces principes renforce grandement la qualité de l’évaluation qu’il propose aux étudiants et, ce faisant, la crédibilité qui peut être accordée aux résultats que les étudiants obtiennent. Or, hormis quelques exceptions, les enseignants universitaires, en sciences de la santé et dans les autres disciplines, ne sont pas formés dans le domaine de l’évaluation des apprentissages. Nous croyons qu’une formation continue qui aborde la mise en œuvre de démarches rigoureuses qui respectent les principes énoncés et la construction d’outils d’évaluation valides s’avère essentielle. L’enjeu en est la validité des notes et la crédibilité des diplômes qui sont décernés aux étudiants [28,29].
Contributions
Sylvie Fontaine est l’auteure principale de cet article. Nathalie Loye a collaboré à la planification préliminaire de l’article et elle a commenté les versions de l’article.
Conflits d’intérêts
Les auteurs déclarent n’avoir aucun lien d’intérêt concernant les données publiées dans cet article.
Approbation éthique
Non sollicitée car sans objet
Références
- Hadji C. Faut-il avoir peur de l’évaluation ? Bruxelles : De Boeck Supérieur, 2012. [Google Scholar]
- Fontaine S, Savoie-Zajc L, Cadieux A. L’impact des CAP sur le développement de la compétence des enseignants en évaluation des apprentissages. Éduc Franc 2013;41:10‐34. [Google Scholar]
- Black P, Wiliam D. Classroom assessment and pedagogy. Assess Educ: Princ Policy Pract 2018. DOI: 10.1080/0969594X.2018.1441807. [Google Scholar]
- Durand MJ, Chouinard R. L’évaluation des apprentissages. De la planification de la démarche à la communication des résultats (2e éd.). Montréal (QC) : Éditions Marcel Didier, 2012. [Google Scholar]
- Stiggins RJ. Essential formative assessment competencies for teachers and school leaders, in Handbook of formative assessment, Andrade HL, Cizek GJ, Editors. New York: Routledge, 2009. [Google Scholar]
- Laurier M, Tousignant R, Morissette D. Les principes de la mesure et de l’évaluation des apprentissages (3e éd.). Montréal (QC) : Gaëtan Morin, 2005. [Google Scholar]
- Allal L. Régulations des apprentissages : orientations conceptuelles pour la recherche et la pratique en éducation, in Régulation des apprentissages en situation scolaire et en formation, Allal L, Mottier Lopez L (dir.). Bruxelles : De Boeck, 2007, p. 7-23. [Google Scholar]
- Hattie J, Timperley H. The power of feedback. Rev Educ Res 2007;77:81‐112. [Google Scholar]
- Blais J-G. L’obligation de résultats à la lumière de l’interaction entre le quantitatif et le social, in L’obligation de résultats en éducation, Lessard C, Meirieu P (dir.). Québec : Les Presses de l’Université Laval, 2004, p. 123-144. [Google Scholar]
- Scallon G. L’évaluation des apprentissages dans une approche par compétences. Bruxelles : De Boeck, 2004. [Google Scholar]
- Messick S. Validity of psychological assessment: Validation of inferences from persons’ responses and performances as scientific inquiry into score meaning. Am Psychol 1995;50:741. [Google Scholar]
- Bloom BS, Hastings JT, Madaus GF. Handbook of summative and formative evaluation of student learning. New York: McGraw-Hill, 1971. [Google Scholar]
- Hayward L. Assessment is learning: The preposition vanishes. Assess Educ: Princ Policy Pract 2015; 22:27‐43. [Google Scholar]
- Davies A. L’évaluation en cours d’apprentissage. Québec (QC) : Chenelière-éducation, 2008. [Google Scholar]
- Earl LM. Assessment as learning: Using classroom assessment to maximize learning. Thousand Oaks (CA): Corwin Press, 2003. [Google Scholar]
- Stiggins R, Chappuis J. What a difference a word makes. J Staff Dev 2006;27:10‐4. [Google Scholar]
- Monney N, Fontaine S. L’évolution de la conception de l’évaluation des apprentissages, in Évaluer les apprentissages. Démarche et outils d’évaluation pour le primaire et le secondaire, Fontaine S, Savoie-Zajc L, Cadieux A, Editors. Anjou : CEC, 2013. [Google Scholar]
- Ordre des ergothérapeutes du Québec. Référentiel de compétences lié à l’exercice de la profession d’ergothérapeute au Québec (mise à jour), 2010, révisé mars 2013. [On-line]. Disponible sur : https://www.oeq.org/DATA/NORME/13∼v∼referentiel-de-competences_2013_couleurs.pdf. [Google Scholar]
- Frank JR, Snell LS, Sherbino J, Boucher A. Référentiel de compétences CanMEDS 2015 pour les médecins. Collège royal des médecins et chirurgiens du Canada, 2015. [On-line]. Disponible sur : http://www.royalcollege.ca/rcsite/canmeds/canmeds-framework-f. [Google Scholar]
- Tyler RW. Basic principles of curriculum and instruction. Chicago: University of Chicago Press, 1949. [Google Scholar]
- Legendre R. Dictionnaire actuel de l’éducation. Montréal (QC) : Guérin, 2005. [Google Scholar]
- Louis R. L’évaluation des apprentissages en classe : Théorie et pratique. Montréal : Éditions Études Vivantes, 1999. [Google Scholar]
- Prégent R, Bernard H, Kozanitis A. Enseigner à l’université dans une approche-programme. Montréal (QC) : Presses internationales Polytechnique, 2009. [Google Scholar]
- Jouquan J. L’évaluation des apprentissages des étudiants en formation médicale initiale. Pédagogie Médicale 2002;3:38‐52. [CrossRef] [EDP Sciences] [Google Scholar]
- Romainville M. Objectivité versus subjectivité dans l’évaluation des acquis des étudiants. Rev Int Pédagog Enseign Supér 2011;27‐2. [Google Scholar]
- Le Petit Larousse illustré. Paris : Larousse, 2004. [Google Scholar]
- Maslow AH. The psychology of science. New York: Harper BT & Row, 1996. [Google Scholar]
- Cizek GJ. Cheating on tests: How to do it, detect it, and prevent it. Mahwah (NJ): Lawrence Erlbaum, 1999. [CrossRef] [Google Scholar]
- Fendler RJ, Yates MC, Godbey JM. Observing and deterring social cheating on college exams. Int J Scholarsh Teach Learn 2018;12:4. [Google Scholar]
Citation de l’article : Fontaine S., Loye N., L’évaluation des apprentissages : une démarche rigoureuse. Pédagogie Médicale 2017:18;189-198
Liste des tableaux
Liste des figures
![]() |
Figure 1 Démarche d’évaluation des apprentissages. |
Dans le texte |
![]() |
Figure 2 Processus d’évaluation des compétences en situation authentique (d’après Prégent et al. [23], p. 144). |
Dans le texte |
![]() |
Figure 3 Modèle pour l’évaluation intégrée à la démarche pédagogique (traduction libre, Black et Wiliam [3], p. 6). |
Dans le texte |
Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.
Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.
Le chargement des statistiques peut être long.