Accès gratuit
Numéro
Pédagogie Médicale
Volume 19, Numéro 1, Février 2018
Page(s) 15 - 25
Section Recherche et perspectives
DOI https://doi.org/10.1051/pmed/2019002
Publié en ligne 26 avril 2019

© EDP Sciences / Société Internationale Francophone d’Education Médicale, 2019

Introduction

Le jugement évaluatif des formateurs est de plus en plus sollicité dans le cadre de programmes qui s’inscrivent dans une approche de formation par compétences. La subjectivité inhérente aux évaluateurs est toutefois souvent critiquée. Dans le cadre de cette étude, nous tentons de comprendre davantage les processus cognitifs mobilisés lors du raisonnement évaluatif. Plus spécifiquement, nous confrontons un modèle théorique du jugement évaluatif à des données empiriques, soit des verbatim de cliniciens-enseignants qui évaluent la performance d’un résident.

Problématique et cadre conceptuel

L’approche de formation par compétences est de plus en plus présente en pédagogie des sciences de la santé [1]. Plusieurs organisations se sont même dotées de cadres de compétences ; c’est notamment le cas du Collège royal des médecins et chirurgiens du Canada, qui a développé le cadre de compétence CanMEDS pour baliser les compétences à acquérir durant la formation [2]. Dans une approche de formation par compétences, l’évaluation des apprenants est de plus en plus axée sur les attributs généraux attendus chez les futurs professionnels de la santé plutôt que centrée spécifiquement sur les connaissances [3]. Cette philosophie de l’évaluation introduit de nouveaux défis concernant l’opérationnalisation de l’évaluation et requiert le recours aux évaluateurs pour observer, interpréter et juger la performance d’apprenants [4]. Ce jugement implique un processus d’inférence de la compétence ou des compétences d’un individu à partir d’un ensemble d’actes situés ou de manifestations tangibles que constitue une performance en contexte d’interaction [5].

Le recours à des formateurs dans leur rôle d’évaluateurs pour porter un jugement évaluatif sur la performance des apprenants n’est pas nouveau en pédagogie des sciences de la santé. Toutefois, ce phénomène prend de plus en plus d’ampleur. L’évaluation de la performance clinique à partir d’observations est considérée comme une composante nécessaire de la formation des professionnels de la santé [6,7]. Dans la littérature, il a jusqu’à présent souvent été reproché à l’évaluateur d’être une source d’erreurs [811]. Désormais, ce changement de perspective sur l’évaluation conduit de plus en plus à le considérer comme une source importante d’informations [1215]. Corollairement, ce changement de paradigme donne lieu à un nouveau champ de recherche en pédagogie médicale, dédié spécifiquement à la problématique du jugement évaluatif (rater cognition).

Afin de développer une conceptualisation et une terminologie communes des ressources cognitives des évaluateurs, sollicitées et mobilisées au cours du processus d’évaluation, Gauthier et al. [16,17] ont procédé à une revue intégrative de la littérature [18,19]. Le modèle proposé organise les résultats autour d’une séquence de phases, en l’occurrence une séquence d’événements au cours desquels différents mécanismes (à savoir, des processus sous-jacents spécifiques décrits par l’utilisation d’un langage similaire dans toutes les études) interviennent lors de l’évaluation de la performance du stagiaire. Le modèle résultant, qui identifie trois phases, est illustré sur la figure 1, et les neuf différents mécanismes répertoriés dans chacune de ces phases sont résumés dans le tableau I.

Le modèle proposé par Gauthier et al. [16] se base uniquement sur des écrits scientifiques. Les articles concernés, pour la plupart, mettent l’accent sur des mécanismes spécifiques, ou encore sur un sous-ensemble des mécanismes identifiés. Il est donc pertinent de vérifier si l’ensemble des mécanismes est mis à l’œuvre dans une situation donnée, et si l’intégration d’un plus grand ensemble de mécanismes peut révéler de nouvelles compréhensions par rapport au jugement évaluatif. Cette étude propose de vérifier empiriquement le modèle de Gauthier et al. [16] avec des données provenant d’entrevues semi-dirigées, réalisées auprès d’évaluateurs considérés hors pair par leurs collègues et leurs résidents [16]. Plus spécifiquement, nos objectifs étaient : (1) de vérifier si le modèle théorique est identifiable dans le corpus des données empiriques analysées et (2) d’examiner comment il peut aider à capturer la complexité du raisonnement évaluatif lors de l’observation et de l’évaluation de la performance d’une résidente.

thumbnail Figure 1

Phases du jugement évaluatif au cours de la formation clinique.

Tableau I

Cadre conceptuel du jugement évaluatif de Gauthier et al. [16], élaboré à partir d’une synthèse de la littérature.

Méthodes

Devis

Nous avons réalisé une étude à devis mixte concomitant imbriqué (quan/QUAL) [20,21] où des données qualitatives (QUAL, pour signifier leur dominance) ont été utilisées pour générer des données quantitatives (quan, pour signifier leur moindre importance) pour répondre à la question de recherche. Plus spécifiquement, nous avons utilisé les verbatim de protocoles de pensée à voix haute [22] des 11 participants à l’étude de St-Onge et al. [15]. Ces verbatim ont été codés de manière déductive et inductive en utilisant le modèle théorique de Gauthier et al. [16]. Le codage a été quantifié par la suite et confronté au modèle de Gauthier et al. [16].

Données

Les données utilisées dans cette étude proviennent d’une étude précédente [15]. Brièvement, nous disposions de 11 entrevues audio-enregistrées et transcrites en mode verbatim, où les participants avaient observé une vidéo d’une résidente de deuxième année qui effectuait une rencontre avec un patient standardisé consultant au sujet d’une perte de poids. La vidéo a été divisée en quatre sections (entrevue, examen physique, suivi avec patient, conclusion avec médecin traitant). Entre chaque section, la vidéo était mise sur pause, et les participants devaient commenter la performance de l’étudiante ainsi que donner une note globale finale. Les 11 participants (sept hommes et quatre femmes) étaient des cliniciens-enseignants. Ils avaient une moyenne de 17,6 années d’expérience en pratique clinique de la médecine et de 15,0 ans d’expérience comme évaluateur.

Matériel et procédures

Dans le cadre de la présente étude, nous avons utilisé le modèle théorique proposé par Gauthier et al. [16] comme arbre de codage. Cet arbre a été traduit en français et ensuite révisé par les différents auteurs avant d’être testé sur une première entrevue. Ce codage a mené à certains ajustements de l’arbre, à l’ajout de nouveaux codes ainsi qu’à des éclaircissements dans la manière d’appliquer les codes. Toutes les entrevues ont été codées, en alternance avec des processus itératifs de validation intrajuge (cohérence interne du codeur principale) et interjuge (cohérence entre les membres de l’équipe quant à la codification des entrevues à l’aide de l’arbre de code). L’arbre de code final est présenté dans le tableau III (codage déductif utilisant le modèle conceptuel de Gauthier et al. [16]) et dans le tableau IV (codage inductif).

Analyses

Une fois le processus de codage complété, les données quantitatives portant sur l’occurrence et la co-occurrence de chaque code, en général et par individu, ont été extraites au moyen du logiciel Dedoose. Des analyses de fréquence ont été réalisées afin d’établir la prévalence des différents mécanismes proposés par le modèle.

Résultats

Reflet du modèle théorique dans les analyses empiriques

Les premières analyses effectuées à partir des arbres de codes montrent que les trois phases – observation, traitement et intégration de l’information – ainsi que les neuf mécanismes sont présents dans l’échantillon. En effet, comme cela est attesté par les données présentées dans le tableau II, l’ensemble des trois phases ont été observées chez tous les participants. Pour les mécanismes, neuf sont présents chez cinq des participants (1, 2, 5, 8 et 10), huit d’entre eux sont présents chez cinq autres participants (3, 6, 7, 9 et 11). Pour le participant 4, deux des mécanismes n’ont pas été observés, soit la formulation d’inférences de haut niveau et des références aux stratégies de pondération et synthétisation de l’information. Ce dernier mécanisme, qui fait référence aux différentes méthodes ou systèmes qu’emploient les évaluateurs pour assigner un poids relatif aux composantes de la performance, n’est pas toujours fait de manière consciente.

Pour chacun des neuf mécanismes, une description avec des extraits représentatifs est présentée dans le tableau III.

Tableau II

Mécanismes du jugement évaluatif identifiés pour chacun des participants.

Tableau III

Descriptions et manifestations des mécanismes documentés dans les verbatim.

Éléments présents dans les données, mais non présents dans le modèle

Trois thèmes, non inclus dans le modèle ont été identifiés par l’équipe lors de l’analyse des verbatim : la pratique évaluative en rotation (lors des stages/sur les étages) (7 %), la rétroaction (5 %) et la conscience de ses propres biais (4 %). Leur description ainsi que certains extraits sont présentés dans le tableau IV.

Tableau IV

Description et extraits pour les thèmes identifiés dans les données, mais absents dans le modèle théorique de Gauthier et al. [1].

Complexité du raisonnement évaluatif

Plusieurs extraits englobent plus d’un mécanisme. L’analyse des données empiriques à l’aide dudit modèle nous a permis d’identifier des patrons de co-occurrences entre différents mécanismes, qui suggèrent des interactions entre ces derniers, comme indiqué dans la figure 2. Une co-occurrence égale ou supérieure à 10 fois entre deux mécanismes a été catégorisée comme fréquente et analysée de nouveau pour mieux comprendre les liens entre ces mécanismes. Le mécanisme qui est le plus fréquemment en co-occurrence (avec un autre mécanisme) est le cinquième, le concept personnel de compétence. Sa co-occurrence est relevée avec sept des autres mécanismes. La figure 3 est une représentation visuelle des interactions entre les différents mécanismes. Les interactions les plus fréquentes et des citations exemplaires sont présentées dans le tableau V.

thumbnail Figure 2

Nombre de co-occurrences entre les différents mécanismes du jugement évaluatif. 1 : génération automatique d’impression des personnes ; 2 : formulation d’inférences de haut niveau ; 3 : accent mis sur différentes dimensions des compétences ; 4 : concept personnel de compétence ; 5 : comparaison avec des schémas d’exemples de provenance variée ; 6 : prise en compte de la spécificité de la tâche et du contexte ; 7 : pondération et synthétisation de l’information ; 8 : production de jugement en forme narrative ; 9 : traduction du jugement narratif pour une grille d’évaluation.

thumbnail Figure 3

Représentation des interactions entre les mécanismes en jeu lors du jugement évaluatif.

Tableau V

Extraits représentatifs de l’interaction entre un mécanisme principal et un mécanisme secondaire lors du jugement évaluatif.

Discussion

Signification des résultats

L’objectif principal de cette étude à devis mixte concomitant imbriqué (quan/QUAL) était de vérifier si le modèle conceptuel proposé par Gauthier et al. [16] était identifiable dans des discours d’évaluateurs commentant la performance d’une résidente junior, et si le modèle rendait adéquatement compte de la complexité du jugement évaluatif. Cette étude est une étape importante dans l’approfondissement de nos connaissances et la compréhension du jugement évaluatif de plus en plus sollicité en contexte de formation par compétences. Les données de cette étude corroborent que le processus de jugement évaluatif implique davantage que l’application de critères et de standards explicites et que le modèle conceptuel de Gauthier et al. [16] est bien documentable dans le discours d’évaluateurs qui commentent la performance d’une résidente. Toutefois, le modèle avec ses neuf mécanismes indépendants ne semble pas rendre justice à la complexité de la tâche du jugement évaluatif.

Les résultats de cette étude suggèrent que le processus du jugement évaluatif est encore plus complexe que ne le laissait croire le modèle proposé par Gauthier et al. [16]. En fait, il semblerait que le tout (jugement évaluatif dans son ensemble) est supérieur à la somme de ses mécanismes  ! Les études qui avaient été retenues par Gauthier et al. [16] s’étaient concentrées sur un ou quelques mécanismes à la fois. Ainsi, il se peut qu’il ait été impossible d’obtenir une vision plus englobante ou holistique du jugement évaluatif, conformément à la nature des données utilisées pour élaborer ledit modèle.

Nonobstant la complexité des interactions entre les mécanismes, un mécanisme se démarque des autres – le concept personnel de compétence – si l’on en juge par sa co-occurrence avec sept autres mécanismes, c’est-à-dire presque tous les autres mécanismes du modèle. Le concept personnel de compétence, qui a été identifié de façon explicite dans de nombreuses recherches [12,2325], semble soutenir l’articulation de nombreux mécanismes. Une meilleure compréhension de ce mécanisme clé est donc essentielle dans le contexte actuel où l’évaluation des apprenants, qui peut conditionner l’accès à la profession, repose de plus en plus sur le jugement des évaluateurs.

Selon le modèle de Gauthier et al. [16], il est attendu que nous retrouvions – au cœur de ce mécanisme – un rôle de facilitation dans l’évaluation de la performance d’apprenants. Dans la présente étude, nous avons observé une composante expérientielle, c’est-à-dire une opérationnalisation contextuelle de compétences qui prend en considération non seulement la performance, mais aussi l’enseignement et l’apprentissage de ces compétences dans un contexte précis. Bien que l’impact de la composante expérientielle ait été bien démontré par Kogan et al. [26], les autres sous-composantes de ce mécanisme demeurent à étudier de manière plus détaillée afin d’être en mesure de mieux comprendre et optimiser le processus du jugement évaluatif des superviseurs cliniques. Les résultats font écho aux discussions théoriques et pratiques reliées au concept de compétence [5,27,28], et plus particulièrement aux défis d’attitrer avec certitude une compétence à un étudiant qui produit une action dans un contexte donné.

Limites

La présente étude comporte certaines limites. L’étude repose sur une analyse secondaire de données. La collecte de données initiales n’avait pas été prévue afin de tester un modèle théorique ; il s’agissait plutôt d’une étude s’appuyant sur la philosophie de la théorisation ancrée [29]. Toutefois, le fait que nous ayons pu observer le modèle dans ces données est indicateur du fait que le modèle est représentatif de la réalité. L’utilisation d’un protocole de pensée à voix haute comporte certaines limites [30,31], mais ce protocole demeure un outil essentiel pour explorer la pensée humaine [32]. Enfin, comme tous les participants sont issus de la même université, il est possible qu’ils partagent une même culture universitaire qui ait influencé indûment les résultats.

Forces

La fiabilité de nos résultats (reproductivité des résultats dans des conditions similaires [33] ; stabilité et constance des résultats [34]) a été assurée par les efforts de standardisation de la compréhension et de l’application de l’arbre de code. La crédibilité des résultats (justesse, pertinence et concordance entre les observations empiriques et leur interprétation [35]) est assurée par le travail de révision constante du codage par des membres de l’équipe. Nous avons tenté de produire une description riche de notre échantillon et de notre contexte pour que les lecteurs puissent juger de la transférabilité des résultats à leurs propres contextes. Finalement, nous avons tenté d’instaurer le plus possible une objectivité dans notre analyse des données en utilisant un arbre de code détaillé.

Conclusion

La conceptualisation du jugement évaluatif comme unité d’analyse, plutôt qu’outil, permet aux chercheurs de bien se situer les uns par rapport aux autres, et permet aussi une meilleure contextualisation de leurs découvertes les uns par rapport aux autres. Les résultats de cette étude nous permettent de suggérer que le modèle théorique du jugement évaluatif proposé par Gauthier et al. [16] est, somme toute, une bonne représentation du processus employé par les superviseurs cliniques lors de l’évaluation de la performance de leurs apprenants. Même s’il faut admettre que des études ultérieures seront nécessaires pour raffiner notre compréhension du jugement, il est important de mobiliser ces connaissances afin de les investir dans l’élaboration d’outils d’évaluation (utilisables par les superviseurs cliniques) ainsi que dans le cadre de la formation de superviseurs cliniques pour la tâche complexe qu’est l’évaluation de la performance des apprenants, dans un contexte où il faut souligner qu’une telle tâche devient particulièrement essentielle avec l’adoption d’approches de formation par compétences.

Contributions

Geneviève Gauthier et Christina St-Onge ont participé à la conception du protocole de recherche, à l’analyse et l’interprétation des résultats ainsi qu’à l’écriture du manuscrit. Simonne Couture a participé au recueil et à l’analyse des données, ainsi qu’à l’écriture du manuscrit.

Financement

Nous tenons à remercier la Chaire de recherche en pédagogie médicale Paul Grand’Maison de la Société des médecins de l’Université de Sherbrooke ainsi que le Conseil de recherches en sciences humaines du Canada pour le soutien financier de ce projet.

Avertissement éditorial

Les données qui font l’objet du présent manuscrit ont été utilisées dans un autre projet de recherche publié dans Advances in Health Sciences Education. (St-Onge C., Chamberland M., Lévesque A., Varpio L., Expectations, Observations, and the Cognitive Processes that Bind Them: Expert Assessment of Examinee Performance. Adv Health Sci Educ Theory Pract 2016;21:627-642.) Cependant, elles ont été analysées sous un nouvel angle dans le présent manuscrit.

Conflits d’intérêts

Les auteurs déclarent n’avoir aucun lien d’intérêt concernant les données publiées dans cet article

Approbation éthique

Ce projet a été approuvé par le Comité d’éthique de la recherche – Éducation et sciences sociales en date du 26 mars 2013 (no de l’enregistrement : CER-ESS 2013-09)

Remerciements

Nous souhaitons remercier Lara Varpio et Martine Chamberland pour leur participation à la collecte de données initiales, Linda Bergeron pour son soutien dans la réalisation de l’étude et ses révisions critiques du manuscrit, ainsi que Marilyne Bolduc pour la mise en page du manuscrit.

Références

  1. Irby DM, Cooke M, O’Brien BC. Calls for reform of medical education by the Carnegie Foundation for the Advancement of Teaching: 1910 and 2010. Acad Med 2010;85:220‐7. [Google Scholar]
  2. Royal College of Physicians and Surgeons of Canada. Competency-based medical education. 2011 [On Line]. Disponible sur http://www.royalcollege.ca/portal/page/portal/rc/common/documents/educational_initiatives/cbme.pdf. [Google Scholar]
  3. ten Cate O, Scheele F. Competency-based postgraduate training: Can we bridge the gap between theory and clinical practice? Acad Med 2007;82:542‐7. [Google Scholar]
  4. ten Cate TJO, Snell L, Carraccio C. Medical competence: The interplay between individual ability and the health care environment. Med Teach 2010;32:669‐75. [Google Scholar]
  5. Kahn S, Rey B. La notion de compétence : une approche épistémologique. Éduc Francoph 2016; 44(2):4‐18. [CrossRef] [Google Scholar]
  6. Harris P, Bhanji F, Topps M, Hart D, Snee S, Touchie C, et al. Evolving concepts of assessment in a competency-based world. Med Teach 2017;39:603‐8. [Google Scholar]
  7. Lockyer J, Carraccio C, Chan M-K, Ross S, Lieberman S, Franck J, et al. Core principles of assessment in competency-based medical education. Med Teach 2017;39:609‐16. [Google Scholar]
  8. Downing SM. Threats to the validity of clinical teaching assessments: What about rater error? Med Educ 2005;39:353‐355. [CrossRef] [PubMed] [Google Scholar]
  9. Hawkins RE, Margolis MJ, Durning SJ, Norcini JJ. Constructing a validity argument for the mini-clinical evaluation exercise: A review of the research. Acad Med 2010;85:1453‐61. [Google Scholar]
  10. Norcini JJ. Current perspectives in assessment: The assessment of performance at work. Med Educ 2005;39:880‐9. [CrossRef] [PubMed] [Google Scholar]
  11. Pelgrim EA, Kramer AWM, Mokkink HG, Van den Elsen L, Grol RPTM, Van der Vleuten CPM. In-training assessment using direct observation of single-patient encounters: A literature review. Adv Health Sci Educ Theory Pract 2011;16:131‐42. [PubMed] [Google Scholar]
  12. Berendonk C, Stalmeijer RE, Schuwirth LWT. Expertise in performance assessment: Assessors’ perspectives. Adv Health Sci Educ Theory Pract 2013;18:559‐71. [CrossRef] [PubMed] [Google Scholar]
  13. Gingerich A, Kogan J, Yeates P, Govaerts M, Holmboe E. Seeing the “black box” differently: Assessor cognition from three research perspectives. Med Educ 2014;48:1055‐68. [CrossRef] [PubMed] [Google Scholar]
  14. Ginsburg S, McIlroy J, Oulanova O, Eva K, Regehr G. Toward authentic clinical evaluation: Pitfalls in the pursuit of competency. Acad Med 2010;85:780‐6. [Google Scholar]
  15. St-Onge C, Chamberland M, Lévesque A, Varpio L. Expectations, observations, and the cognitive processes that bind them: Expert assessment of examinee performance. Adv Health Sci Educ Theory Pract 2016;21:627‐42. [CrossRef] [PubMed] [Google Scholar]
  16. Gauthier G, St-Onge C, Tavares W. Rater cognition: Review and integration of research findings. Med Educ 2016;50:511‐22. [CrossRef] [PubMed] [Google Scholar]
  17. Gauthier G, St-Onge C, Dory V. Synthèse et conceptualisation des processus cognitifs du jugement évaluatif de l’enseignant clinicien. Pédagogie Médicale 2016;17:261‐7. [CrossRef] [EDP Sciences] [Google Scholar]
  18. Cooper HM. Scientific guidelines for conducting integrative research reviews. Rev Educ Res 1982;52:291‐302. [Google Scholar]
  19. Whittemore R, Knafl K. The integrative review: Updated methodology. J Adv Nurs 2005;52:546‐53. [PubMed] [Google Scholar]
  20. Fortin M-F., Gagnon J. Fondements et étapes du processus de recherche : méthodes quantitatives et qualitatives. 3e édition. Montréal : Chenelière Éducation, 2015. [Google Scholar]
  21. Creswell JW. Research design: Qualitative, quantitative, and mixed methods approaches. Thousand Oaks: SAGE Publications, 2014. [Google Scholar]
  22. Ericsson KA, Simon HA. Verbal reports as data. Psychol Rev 1980;87(3):215‐51. [Google Scholar]
  23. Ginsburg S, Regehr G, Lingard L. Basing the evaluation of professionalism on observable behaviors: A cautionary tale. Acad Med 2004;79:S1‐S4. [Google Scholar]
  24. Govaerts MJB, Van de Wiel MWJ, Schuwirth LWT, Van der Vleuten CPM, Muijtjens AMM. Workplace-based assessment: Raters’ performance theories and constructs. Adv Health Sci Educ Theory Pract 2013;18:375‐96. [PubMed] [Google Scholar]
  25. Kogan JR, Conforti L, Bernabeo E, Iobst W, Holmboe E, Holmboe E. Opening the black box of clinical skills assessment via observation: A conceptual model. Med Educ 2011;45:1048‐60. [CrossRef] [PubMed] [Google Scholar]
  26. Kogan JR, Hess BJ, Conforti LN, Holmboe ES. What drives faculty ratings of residents’ clinical skills? The impact of faculty’s own clinical skills. Acad Med 2010;85:S25‐S28. [Google Scholar]
  27. Rey B. « Compétence » et « compétence professionnelle ». Rech Form 2009;60:103‐16. [Google Scholar]
  28. Rey B. La notion de compétence en éducation et formation : enjeux et problèmes. Bruxelles : De Boeck, 2014. [Google Scholar]
  29. Charmaz K. Grounded theory in the 21st century: Applications for advancing social justice studies, in The Sage handbook of qualitative research, Denzin NK, Lincoln YS, Editors. Thousand Oaks, California: Sage Publications, 2005, Vol. 3, p. 507‐535. [Google Scholar]
  30. van Someren MW, Barnard YF, Sandberg J. The think aloud method: A practical guide to modelling cognitive processes. London: Academic Press, 1994. [Google Scholar]
  31. Eva K, Brooks L, Norman G. Forward reasoning as a hallmark of expertise in medicine: Logical, psychological, phenomenological inconsistencies, in Advances in psychology research, Shohov SP, Editor. New York, NY: Nova Science Publishers, Inc., 2002, Vol. 8, p. 41‐69. [Google Scholar]
  32. Hoppmann TK. Examining the “point of frustration”. The think-aloud method applied to online search tasks. Qual Quant 2009;43:211‐24. [Google Scholar]
  33. Lincoln YS, Guba EG. Naturalistic Inquiry. Newbury Park (CA): Sage, 1985. [Google Scholar]
  34. Fortin MF. Fondements du processus de recherche : méthodes quantitatives et qualitatives. Montréal : Chenelière Éducation, 2010. [Google Scholar]
  35. Laperrière A. Les critères de scientificité des méthodes qualitatives, in La recherche qualitative : enjeux épistémologiques et méthodologiques, Poupart J, Groulx LH, Deslauriers JP, Laperrière A, Mayer R, Pires AP, Editors. Boucherville : Gaétan Morin, 1997, p. 365‐389. [Google Scholar]

Citation de l’article : Gauthier G., Couture S., St-Onge C., Jugement évaluatif : confrontation d’un modèle conceptuel à des données empiriques. Pédagogie Médicale 2018:19;15-25

Liste des tableaux

Tableau I

Cadre conceptuel du jugement évaluatif de Gauthier et al. [16], élaboré à partir d’une synthèse de la littérature.

Tableau II

Mécanismes du jugement évaluatif identifiés pour chacun des participants.

Tableau III

Descriptions et manifestations des mécanismes documentés dans les verbatim.

Tableau IV

Description et extraits pour les thèmes identifiés dans les données, mais absents dans le modèle théorique de Gauthier et al. [1].

Tableau V

Extraits représentatifs de l’interaction entre un mécanisme principal et un mécanisme secondaire lors du jugement évaluatif.

Liste des figures

thumbnail Figure 1

Phases du jugement évaluatif au cours de la formation clinique.

Dans le texte
thumbnail Figure 2

Nombre de co-occurrences entre les différents mécanismes du jugement évaluatif. 1 : génération automatique d’impression des personnes ; 2 : formulation d’inférences de haut niveau ; 3 : accent mis sur différentes dimensions des compétences ; 4 : concept personnel de compétence ; 5 : comparaison avec des schémas d’exemples de provenance variée ; 6 : prise en compte de la spécificité de la tâche et du contexte ; 7 : pondération et synthétisation de l’information ; 8 : production de jugement en forme narrative ; 9 : traduction du jugement narratif pour une grille d’évaluation.

Dans le texte
thumbnail Figure 3

Représentation des interactions entre les mécanismes en jeu lors du jugement évaluatif.

Dans le texte

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.