Numéro |
Pédagogie Médicale
Volume 19, Numéro 1, Février 2018
|
|
---|---|---|
Page(s) | 15 - 25 | |
Section | Recherche et perspectives | |
DOI | https://doi.org/10.1051/pmed/2019002 | |
Publié en ligne | 26 avril 2019 |
Jugement évaluatif : confrontation d’un modèle conceptuel à des données empiriques
Rater cognition: putting conceptual model to the test with empirical evidence
1
Département de médecine, Faculté de médecine et des sciences de la santé, Université de Sherbrooke,
Québec, Canada
2
Département de psychologie, Université de Sherbrooke,
Québec, Canada
* Correspondance et offprints : Christina ST-ONGE, 3001, 12e avenue Nord. J1H5N4 Sherbrooke, Québec, Canada. Mailto : christina.st-onge@usherbrooke.ca.
Reçu :
6
Décembre
2017
Accepté :
19
Février
2019
commentaires éditoriaux formulés aux auteurs le 29 novembre 2018 et le 31 janvier 2019
Contexte : Le recours au jugement des évaluateurs est de plus en plus présent en contexte d’utilisation d’une approche de formation par compétences ; toutefois sa subjectivité a souvent été critiquée. Plus récemment, les perspectives variées des évaluateurs ont commencé à être traitées comme source d’information importante et les recherches sur le jugement évaluatif (rater cognition) se sont multipliées. Lors d’une synthèse d’études empiriques sur le sujet, Gauthier et al. ont proposé un modèle conceptuel englobant une série de résultats concourants. Objectif : Dans le cadre de cette étude à devis mixte concomitant imbriqué (quan/QUAL), nous confrontons ce modèle théorique à des données empiriques issues d’entrevues semi-dirigées d’évaluateurs hors pair. Cette analyse vise à valider le modèle théorique et déterminer son utilité pour mieux comprendre le jugement évaluatif. Méthodes : Les verbatim d’entrevues audio-enregistrées de 11 participants observant et jugeant la vidéo d’une résidente lors d’une consultation avec un patient standardisé ont été codés en utilisant le modèle théorique comme arbre de codage. Les données quantitatives portant sur l’occurrence et la co-occurrence de chaque code, en général et par individu, ont été extraites et analysées. Résultats : Les données corroborent que l’ensemble des neuf mécanismes du modèle conceptuel sont bien représentés dans le discours des évaluateurs. Toutefois, les résultats suggèrent que le modèle avec ses neuf mécanismes indépendants ne rend pas justice à la complexité des interactions entre certains mécanismes et qu’un des mécanismes, le concept personnel de compétence, semble soutenir une grande partie des autres mécanismes.
Abstract
Context: The use of rater-based assessment is increasingly present in health professions education but the subjectivity of their judgment has often been criticized. More recently, the multiple perspectives they provide have started to be treated as an important source of information. In a synthesis of empirical studies on rater cognition, Gauthier et al. have proposed a conceptual model encompassing a series of concurrent results. Goal: As part of this concomitant imbricated mixed design (quan/QUAL) study, we test the Gauthier et al. theoretical model on empirical data from semi-structured interviews of outstanding evaluators. This analysis aims at validating the theoretical model, refining it and determining its utility to better understand evaluative judgment. Methods: We coded the verbatim interviews of 11 participants observing and judging a resident’s video during a consultation with a standardized patient using the theoretical model as a coding tree. Quantitative data on the occurrence and co-occurrence of each code, in general and per individual, were extracted and analyzed. Results: The data corroborate that all nine mechanisms of the conceptual model are well represented in the evaluator’s discourse. However, the results suggest that the model with its nine independent mechanisms does not do justice to the complexity of the interactions between certain mechanisms and that one of the mechanisms, the personal concept of competence, seems to underlie many of the other mechanisms.
Mots clés : jugement évaluatif / évaluation de la performance clinique / superviseurs cliniques / évaluateur
Key words: rater-based assessment / performance-based assessment / rater cognition
© EDP Sciences / Société Internationale Francophone d’Education Médicale, 2019
Introduction
Le jugement évaluatif des formateurs est de plus en plus sollicité dans le cadre de programmes qui s’inscrivent dans une approche de formation par compétences. La subjectivité inhérente aux évaluateurs est toutefois souvent critiquée. Dans le cadre de cette étude, nous tentons de comprendre davantage les processus cognitifs mobilisés lors du raisonnement évaluatif. Plus spécifiquement, nous confrontons un modèle théorique du jugement évaluatif à des données empiriques, soit des verbatim de cliniciens-enseignants qui évaluent la performance d’un résident.
Problématique et cadre conceptuel
L’approche de formation par compétences est de plus en plus présente en pédagogie des sciences de la santé [1]. Plusieurs organisations se sont même dotées de cadres de compétences ; c’est notamment le cas du Collège royal des médecins et chirurgiens du Canada, qui a développé le cadre de compétence CanMEDS pour baliser les compétences à acquérir durant la formation [2]. Dans une approche de formation par compétences, l’évaluation des apprenants est de plus en plus axée sur les attributs généraux attendus chez les futurs professionnels de la santé plutôt que centrée spécifiquement sur les connaissances [3]. Cette philosophie de l’évaluation introduit de nouveaux défis concernant l’opérationnalisation de l’évaluation et requiert le recours aux évaluateurs pour observer, interpréter et juger la performance d’apprenants [4]. Ce jugement implique un processus d’inférence de la compétence ou des compétences d’un individu à partir d’un ensemble d’actes situés ou de manifestations tangibles que constitue une performance en contexte d’interaction [5].
Le recours à des formateurs dans leur rôle d’évaluateurs pour porter un jugement évaluatif sur la performance des apprenants n’est pas nouveau en pédagogie des sciences de la santé. Toutefois, ce phénomène prend de plus en plus d’ampleur. L’évaluation de la performance clinique à partir d’observations est considérée comme une composante nécessaire de la formation des professionnels de la santé [6,7]. Dans la littérature, il a jusqu’à présent souvent été reproché à l’évaluateur d’être une source d’erreurs [8–11]. Désormais, ce changement de perspective sur l’évaluation conduit de plus en plus à le considérer comme une source importante d’informations [12–15]. Corollairement, ce changement de paradigme donne lieu à un nouveau champ de recherche en pédagogie médicale, dédié spécifiquement à la problématique du jugement évaluatif (rater cognition).
Afin de développer une conceptualisation et une terminologie communes des ressources cognitives des évaluateurs, sollicitées et mobilisées au cours du processus d’évaluation, Gauthier et al. [16,17] ont procédé à une revue intégrative de la littérature [18,19]. Le modèle proposé organise les résultats autour d’une séquence de phases, en l’occurrence une séquence d’événements au cours desquels différents mécanismes (à savoir, des processus sous-jacents spécifiques décrits par l’utilisation d’un langage similaire dans toutes les études) interviennent lors de l’évaluation de la performance du stagiaire. Le modèle résultant, qui identifie trois phases, est illustré sur la figure 1, et les neuf différents mécanismes répertoriés dans chacune de ces phases sont résumés dans le tableau I.
Le modèle proposé par Gauthier et al. [16] se base uniquement sur des écrits scientifiques. Les articles concernés, pour la plupart, mettent l’accent sur des mécanismes spécifiques, ou encore sur un sous-ensemble des mécanismes identifiés. Il est donc pertinent de vérifier si l’ensemble des mécanismes est mis à l’œuvre dans une situation donnée, et si l’intégration d’un plus grand ensemble de mécanismes peut révéler de nouvelles compréhensions par rapport au jugement évaluatif. Cette étude propose de vérifier empiriquement le modèle de Gauthier et al. [16] avec des données provenant d’entrevues semi-dirigées, réalisées auprès d’évaluateurs considérés hors pair par leurs collègues et leurs résidents [16]. Plus spécifiquement, nos objectifs étaient : (1) de vérifier si le modèle théorique est identifiable dans le corpus des données empiriques analysées et (2) d’examiner comment il peut aider à capturer la complexité du raisonnement évaluatif lors de l’observation et de l’évaluation de la performance d’une résidente.
Figure 1 Phases du jugement évaluatif au cours de la formation clinique. |
Méthodes
Devis
Nous avons réalisé une étude à devis mixte concomitant imbriqué (quan/QUAL) [20,21] où des données qualitatives (QUAL, pour signifier leur dominance) ont été utilisées pour générer des données quantitatives (quan, pour signifier leur moindre importance) pour répondre à la question de recherche. Plus spécifiquement, nous avons utilisé les verbatim de protocoles de pensée à voix haute [22] des 11 participants à l’étude de St-Onge et al. [15]. Ces verbatim ont été codés de manière déductive et inductive en utilisant le modèle théorique de Gauthier et al. [16]. Le codage a été quantifié par la suite et confronté au modèle de Gauthier et al. [16].
Données
Les données utilisées dans cette étude proviennent d’une étude précédente [15]. Brièvement, nous disposions de 11 entrevues audio-enregistrées et transcrites en mode verbatim, où les participants avaient observé une vidéo d’une résidente de deuxième année qui effectuait une rencontre avec un patient standardisé consultant au sujet d’une perte de poids. La vidéo a été divisée en quatre sections (entrevue, examen physique, suivi avec patient, conclusion avec médecin traitant). Entre chaque section, la vidéo était mise sur pause, et les participants devaient commenter la performance de l’étudiante ainsi que donner une note globale finale. Les 11 participants (sept hommes et quatre femmes) étaient des cliniciens-enseignants. Ils avaient une moyenne de 17,6 années d’expérience en pratique clinique de la médecine et de 15,0 ans d’expérience comme évaluateur.
Matériel et procédures
Dans le cadre de la présente étude, nous avons utilisé le modèle théorique proposé par Gauthier et al. [16] comme arbre de codage. Cet arbre a été traduit en français et ensuite révisé par les différents auteurs avant d’être testé sur une première entrevue. Ce codage a mené à certains ajustements de l’arbre, à l’ajout de nouveaux codes ainsi qu’à des éclaircissements dans la manière d’appliquer les codes. Toutes les entrevues ont été codées, en alternance avec des processus itératifs de validation intrajuge (cohérence interne du codeur principale) et interjuge (cohérence entre les membres de l’équipe quant à la codification des entrevues à l’aide de l’arbre de code). L’arbre de code final est présenté dans le tableau III (codage déductif utilisant le modèle conceptuel de Gauthier et al. [16]) et dans le tableau IV (codage inductif).
Analyses
Une fois le processus de codage complété, les données quantitatives portant sur l’occurrence et la co-occurrence de chaque code, en général et par individu, ont été extraites au moyen du logiciel Dedoose. Des analyses de fréquence ont été réalisées afin d’établir la prévalence des différents mécanismes proposés par le modèle.
Résultats
Reflet du modèle théorique dans les analyses empiriques
Les premières analyses effectuées à partir des arbres de codes montrent que les trois phases – observation, traitement et intégration de l’information – ainsi que les neuf mécanismes sont présents dans l’échantillon. En effet, comme cela est attesté par les données présentées dans le tableau II, l’ensemble des trois phases ont été observées chez tous les participants. Pour les mécanismes, neuf sont présents chez cinq des participants (1, 2, 5, 8 et 10), huit d’entre eux sont présents chez cinq autres participants (3, 6, 7, 9 et 11). Pour le participant 4, deux des mécanismes n’ont pas été observés, soit la formulation d’inférences de haut niveau et des références aux stratégies de pondération et synthétisation de l’information. Ce dernier mécanisme, qui fait référence aux différentes méthodes ou systèmes qu’emploient les évaluateurs pour assigner un poids relatif aux composantes de la performance, n’est pas toujours fait de manière consciente.
Pour chacun des neuf mécanismes, une description avec des extraits représentatifs est présentée dans le tableau III.
Mécanismes du jugement évaluatif identifiés pour chacun des participants.
Descriptions et manifestations des mécanismes documentés dans les verbatim.
Éléments présents dans les données, mais non présents dans le modèle
Trois thèmes, non inclus dans le modèle ont été identifiés par l’équipe lors de l’analyse des verbatim : la pratique évaluative en rotation (lors des stages/sur les étages) (7 %), la rétroaction (5 %) et la conscience de ses propres biais (4 %). Leur description ainsi que certains extraits sont présentés dans le tableau IV.
Description et extraits pour les thèmes identifiés dans les données, mais absents dans le modèle théorique de Gauthier et al. [1].
Complexité du raisonnement évaluatif
Plusieurs extraits englobent plus d’un mécanisme. L’analyse des données empiriques à l’aide dudit modèle nous a permis d’identifier des patrons de co-occurrences entre différents mécanismes, qui suggèrent des interactions entre ces derniers, comme indiqué dans la figure 2. Une co-occurrence égale ou supérieure à 10 fois entre deux mécanismes a été catégorisée comme fréquente et analysée de nouveau pour mieux comprendre les liens entre ces mécanismes. Le mécanisme qui est le plus fréquemment en co-occurrence (avec un autre mécanisme) est le cinquième, le concept personnel de compétence. Sa co-occurrence est relevée avec sept des autres mécanismes. La figure 3 est une représentation visuelle des interactions entre les différents mécanismes. Les interactions les plus fréquentes et des citations exemplaires sont présentées dans le tableau V.
Figure 2 Nombre de co-occurrences entre les différents mécanismes du jugement évaluatif. 1 : génération automatique d’impression des personnes ; 2 : formulation d’inférences de haut niveau ; 3 : accent mis sur différentes dimensions des compétences ; 4 : concept personnel de compétence ; 5 : comparaison avec des schémas d’exemples de provenance variée ; 6 : prise en compte de la spécificité de la tâche et du contexte ; 7 : pondération et synthétisation de l’information ; 8 : production de jugement en forme narrative ; 9 : traduction du jugement narratif pour une grille d’évaluation. |
Figure 3 Représentation des interactions entre les mécanismes en jeu lors du jugement évaluatif. |
Extraits représentatifs de l’interaction entre un mécanisme principal et un mécanisme secondaire lors du jugement évaluatif.
Discussion
Signification des résultats
L’objectif principal de cette étude à devis mixte concomitant imbriqué (quan/QUAL) était de vérifier si le modèle conceptuel proposé par Gauthier et al. [16] était identifiable dans des discours d’évaluateurs commentant la performance d’une résidente junior, et si le modèle rendait adéquatement compte de la complexité du jugement évaluatif. Cette étude est une étape importante dans l’approfondissement de nos connaissances et la compréhension du jugement évaluatif de plus en plus sollicité en contexte de formation par compétences. Les données de cette étude corroborent que le processus de jugement évaluatif implique davantage que l’application de critères et de standards explicites et que le modèle conceptuel de Gauthier et al. [16] est bien documentable dans le discours d’évaluateurs qui commentent la performance d’une résidente. Toutefois, le modèle avec ses neuf mécanismes indépendants ne semble pas rendre justice à la complexité de la tâche du jugement évaluatif.
Les résultats de cette étude suggèrent que le processus du jugement évaluatif est encore plus complexe que ne le laissait croire le modèle proposé par Gauthier et al. [16]. En fait, il semblerait que le tout (jugement évaluatif dans son ensemble) est supérieur à la somme de ses mécanismes ! Les études qui avaient été retenues par Gauthier et al. [16] s’étaient concentrées sur un ou quelques mécanismes à la fois. Ainsi, il se peut qu’il ait été impossible d’obtenir une vision plus englobante ou holistique du jugement évaluatif, conformément à la nature des données utilisées pour élaborer ledit modèle.
Nonobstant la complexité des interactions entre les mécanismes, un mécanisme se démarque des autres – le concept personnel de compétence – si l’on en juge par sa co-occurrence avec sept autres mécanismes, c’est-à-dire presque tous les autres mécanismes du modèle. Le concept personnel de compétence, qui a été identifié de façon explicite dans de nombreuses recherches [12,23–25], semble soutenir l’articulation de nombreux mécanismes. Une meilleure compréhension de ce mécanisme clé est donc essentielle dans le contexte actuel où l’évaluation des apprenants, qui peut conditionner l’accès à la profession, repose de plus en plus sur le jugement des évaluateurs.
Selon le modèle de Gauthier et al. [16], il est attendu que nous retrouvions – au cœur de ce mécanisme – un rôle de facilitation dans l’évaluation de la performance d’apprenants. Dans la présente étude, nous avons observé une composante expérientielle, c’est-à-dire une opérationnalisation contextuelle de compétences qui prend en considération non seulement la performance, mais aussi l’enseignement et l’apprentissage de ces compétences dans un contexte précis. Bien que l’impact de la composante expérientielle ait été bien démontré par Kogan et al. [26], les autres sous-composantes de ce mécanisme demeurent à étudier de manière plus détaillée afin d’être en mesure de mieux comprendre et optimiser le processus du jugement évaluatif des superviseurs cliniques. Les résultats font écho aux discussions théoriques et pratiques reliées au concept de compétence [5,27,28], et plus particulièrement aux défis d’attitrer avec certitude une compétence à un étudiant qui produit une action dans un contexte donné.
Limites
La présente étude comporte certaines limites. L’étude repose sur une analyse secondaire de données. La collecte de données initiales n’avait pas été prévue afin de tester un modèle théorique ; il s’agissait plutôt d’une étude s’appuyant sur la philosophie de la théorisation ancrée [29]. Toutefois, le fait que nous ayons pu observer le modèle dans ces données est indicateur du fait que le modèle est représentatif de la réalité. L’utilisation d’un protocole de pensée à voix haute comporte certaines limites [30,31], mais ce protocole demeure un outil essentiel pour explorer la pensée humaine [32]. Enfin, comme tous les participants sont issus de la même université, il est possible qu’ils partagent une même culture universitaire qui ait influencé indûment les résultats.
Forces
La fiabilité de nos résultats (reproductivité des résultats dans des conditions similaires [33] ; stabilité et constance des résultats [34]) a été assurée par les efforts de standardisation de la compréhension et de l’application de l’arbre de code. La crédibilité des résultats (justesse, pertinence et concordance entre les observations empiriques et leur interprétation [35]) est assurée par le travail de révision constante du codage par des membres de l’équipe. Nous avons tenté de produire une description riche de notre échantillon et de notre contexte pour que les lecteurs puissent juger de la transférabilité des résultats à leurs propres contextes. Finalement, nous avons tenté d’instaurer le plus possible une objectivité dans notre analyse des données en utilisant un arbre de code détaillé.
Conclusion
La conceptualisation du jugement évaluatif comme unité d’analyse, plutôt qu’outil, permet aux chercheurs de bien se situer les uns par rapport aux autres, et permet aussi une meilleure contextualisation de leurs découvertes les uns par rapport aux autres. Les résultats de cette étude nous permettent de suggérer que le modèle théorique du jugement évaluatif proposé par Gauthier et al. [16] est, somme toute, une bonne représentation du processus employé par les superviseurs cliniques lors de l’évaluation de la performance de leurs apprenants. Même s’il faut admettre que des études ultérieures seront nécessaires pour raffiner notre compréhension du jugement, il est important de mobiliser ces connaissances afin de les investir dans l’élaboration d’outils d’évaluation (utilisables par les superviseurs cliniques) ainsi que dans le cadre de la formation de superviseurs cliniques pour la tâche complexe qu’est l’évaluation de la performance des apprenants, dans un contexte où il faut souligner qu’une telle tâche devient particulièrement essentielle avec l’adoption d’approches de formation par compétences.
Contributions
Geneviève Gauthier et Christina St-Onge ont participé à la conception du protocole de recherche, à l’analyse et l’interprétation des résultats ainsi qu’à l’écriture du manuscrit. Simonne Couture a participé au recueil et à l’analyse des données, ainsi qu’à l’écriture du manuscrit.
Financement
Nous tenons à remercier la Chaire de recherche en pédagogie médicale Paul Grand’Maison de la Société des médecins de l’Université de Sherbrooke ainsi que le Conseil de recherches en sciences humaines du Canada pour le soutien financier de ce projet.
Avertissement éditorial
Les données qui font l’objet du présent manuscrit ont été utilisées dans un autre projet de recherche publié dans Advances in Health Sciences Education. (St-Onge C., Chamberland M., Lévesque A., Varpio L., Expectations, Observations, and the Cognitive Processes that Bind Them: Expert Assessment of Examinee Performance. Adv Health Sci Educ Theory Pract 2016;21:627-642.) Cependant, elles ont été analysées sous un nouvel angle dans le présent manuscrit.
Conflits d’intérêts
Les auteurs déclarent n’avoir aucun lien d’intérêt concernant les données publiées dans cet article
Approbation éthique
Ce projet a été approuvé par le Comité d’éthique de la recherche – Éducation et sciences sociales en date du 26 mars 2013 (no de l’enregistrement : CER-ESS 2013-09)
Remerciements
Nous souhaitons remercier Lara Varpio et Martine Chamberland pour leur participation à la collecte de données initiales, Linda Bergeron pour son soutien dans la réalisation de l’étude et ses révisions critiques du manuscrit, ainsi que Marilyne Bolduc pour la mise en page du manuscrit.
Références
- Irby DM, Cooke M, O’Brien BC. Calls for reform of medical education by the Carnegie Foundation for the Advancement of Teaching: 1910 and 2010. Acad Med 2010;85:220‐7. [Google Scholar]
- Royal College of Physicians and Surgeons of Canada. Competency-based medical education. 2011 [On Line]. Disponible sur http://www.royalcollege.ca/portal/page/portal/rc/common/documents/educational_initiatives/cbme.pdf. [Google Scholar]
- ten Cate O, Scheele F. Competency-based postgraduate training: Can we bridge the gap between theory and clinical practice? Acad Med 2007;82:542‐7. [Google Scholar]
- ten Cate TJO, Snell L, Carraccio C. Medical competence: The interplay between individual ability and the health care environment. Med Teach 2010;32:669‐75. [Google Scholar]
- Kahn S, Rey B. La notion de compétence : une approche épistémologique. Éduc Francoph 2016; 44(2):4‐18. [CrossRef] [Google Scholar]
- Harris P, Bhanji F, Topps M, Hart D, Snee S, Touchie C, et al. Evolving concepts of assessment in a competency-based world. Med Teach 2017;39:603‐8. [Google Scholar]
- Lockyer J, Carraccio C, Chan M-K, Ross S, Lieberman S, Franck J, et al. Core principles of assessment in competency-based medical education. Med Teach 2017;39:609‐16. [Google Scholar]
- Downing SM. Threats to the validity of clinical teaching assessments: What about rater error? Med Educ 2005;39:353‐355. [CrossRef] [PubMed] [Google Scholar]
- Hawkins RE, Margolis MJ, Durning SJ, Norcini JJ. Constructing a validity argument for the mini-clinical evaluation exercise: A review of the research. Acad Med 2010;85:1453‐61. [Google Scholar]
- Norcini JJ. Current perspectives in assessment: The assessment of performance at work. Med Educ 2005;39:880‐9. [CrossRef] [PubMed] [Google Scholar]
- Pelgrim EA, Kramer AWM, Mokkink HG, Van den Elsen L, Grol RPTM, Van der Vleuten CPM. In-training assessment using direct observation of single-patient encounters: A literature review. Adv Health Sci Educ Theory Pract 2011;16:131‐42. [PubMed] [Google Scholar]
- Berendonk C, Stalmeijer RE, Schuwirth LWT. Expertise in performance assessment: Assessors’ perspectives. Adv Health Sci Educ Theory Pract 2013;18:559‐71. [CrossRef] [PubMed] [Google Scholar]
- Gingerich A, Kogan J, Yeates P, Govaerts M, Holmboe E. Seeing the “black box” differently: Assessor cognition from three research perspectives. Med Educ 2014;48:1055‐68. [CrossRef] [PubMed] [Google Scholar]
- Ginsburg S, McIlroy J, Oulanova O, Eva K, Regehr G. Toward authentic clinical evaluation: Pitfalls in the pursuit of competency. Acad Med 2010;85:780‐6. [Google Scholar]
- St-Onge C, Chamberland M, Lévesque A, Varpio L. Expectations, observations, and the cognitive processes that bind them: Expert assessment of examinee performance. Adv Health Sci Educ Theory Pract 2016;21:627‐42. [CrossRef] [PubMed] [Google Scholar]
- Gauthier G, St-Onge C, Tavares W. Rater cognition: Review and integration of research findings. Med Educ 2016;50:511‐22. [CrossRef] [PubMed] [Google Scholar]
- Gauthier G, St-Onge C, Dory V. Synthèse et conceptualisation des processus cognitifs du jugement évaluatif de l’enseignant clinicien. Pédagogie Médicale 2016;17:261‐7. [CrossRef] [EDP Sciences] [Google Scholar]
- Cooper HM. Scientific guidelines for conducting integrative research reviews. Rev Educ Res 1982;52:291‐302. [Google Scholar]
- Whittemore R, Knafl K. The integrative review: Updated methodology. J Adv Nurs 2005;52:546‐53. [PubMed] [Google Scholar]
- Fortin M-F., Gagnon J. Fondements et étapes du processus de recherche : méthodes quantitatives et qualitatives. 3e édition. Montréal : Chenelière Éducation, 2015. [Google Scholar]
- Creswell JW. Research design: Qualitative, quantitative, and mixed methods approaches. Thousand Oaks: SAGE Publications, 2014. [Google Scholar]
- Ericsson KA, Simon HA. Verbal reports as data. Psychol Rev 1980;87(3):215‐51. [Google Scholar]
- Ginsburg S, Regehr G, Lingard L. Basing the evaluation of professionalism on observable behaviors: A cautionary tale. Acad Med 2004;79:S1‐S4. [Google Scholar]
- Govaerts MJB, Van de Wiel MWJ, Schuwirth LWT, Van der Vleuten CPM, Muijtjens AMM. Workplace-based assessment: Raters’ performance theories and constructs. Adv Health Sci Educ Theory Pract 2013;18:375‐96. [PubMed] [Google Scholar]
- Kogan JR, Conforti L, Bernabeo E, Iobst W, Holmboe E, Holmboe E. Opening the black box of clinical skills assessment via observation: A conceptual model. Med Educ 2011;45:1048‐60. [CrossRef] [PubMed] [Google Scholar]
- Kogan JR, Hess BJ, Conforti LN, Holmboe ES. What drives faculty ratings of residents’ clinical skills? The impact of faculty’s own clinical skills. Acad Med 2010;85:S25‐S28. [Google Scholar]
- Rey B. « Compétence » et « compétence professionnelle ». Rech Form 2009;60:103‐16. [Google Scholar]
- Rey B. La notion de compétence en éducation et formation : enjeux et problèmes. Bruxelles : De Boeck, 2014. [Google Scholar]
- Charmaz K. Grounded theory in the 21st century: Applications for advancing social justice studies, in The Sage handbook of qualitative research, Denzin NK, Lincoln YS, Editors. Thousand Oaks, California: Sage Publications, 2005, Vol. 3, p. 507‐535. [Google Scholar]
- van Someren MW, Barnard YF, Sandberg J. The think aloud method: A practical guide to modelling cognitive processes. London: Academic Press, 1994. [Google Scholar]
- Eva K, Brooks L, Norman G. Forward reasoning as a hallmark of expertise in medicine: Logical, psychological, phenomenological inconsistencies, in Advances in psychology research, Shohov SP, Editor. New York, NY: Nova Science Publishers, Inc., 2002, Vol. 8, p. 41‐69. [Google Scholar]
- Hoppmann TK. Examining the “point of frustration”. The think-aloud method applied to online search tasks. Qual Quant 2009;43:211‐24. [Google Scholar]
- Lincoln YS, Guba EG. Naturalistic Inquiry. Newbury Park (CA): Sage, 1985. [Google Scholar]
- Fortin MF. Fondements du processus de recherche : méthodes quantitatives et qualitatives. Montréal : Chenelière Éducation, 2010. [Google Scholar]
- Laperrière A. Les critères de scientificité des méthodes qualitatives, in La recherche qualitative : enjeux épistémologiques et méthodologiques, Poupart J, Groulx LH, Deslauriers JP, Laperrière A, Mayer R, Pires AP, Editors. Boucherville : Gaétan Morin, 1997, p. 365‐389. [Google Scholar]
Citation de l’article : Gauthier G., Couture S., St-Onge C., Jugement évaluatif : confrontation d’un modèle conceptuel à des données empiriques. Pédagogie Médicale 2018:19;15-25
Liste des tableaux
Descriptions et manifestations des mécanismes documentés dans les verbatim.
Description et extraits pour les thèmes identifiés dans les données, mais absents dans le modèle théorique de Gauthier et al. [1].
Extraits représentatifs de l’interaction entre un mécanisme principal et un mécanisme secondaire lors du jugement évaluatif.
Liste des figures
Figure 1 Phases du jugement évaluatif au cours de la formation clinique. |
|
Dans le texte |
Figure 2 Nombre de co-occurrences entre les différents mécanismes du jugement évaluatif. 1 : génération automatique d’impression des personnes ; 2 : formulation d’inférences de haut niveau ; 3 : accent mis sur différentes dimensions des compétences ; 4 : concept personnel de compétence ; 5 : comparaison avec des schémas d’exemples de provenance variée ; 6 : prise en compte de la spécificité de la tâche et du contexte ; 7 : pondération et synthétisation de l’information ; 8 : production de jugement en forme narrative ; 9 : traduction du jugement narratif pour une grille d’évaluation. |
|
Dans le texte |
Figure 3 Représentation des interactions entre les mécanismes en jeu lors du jugement évaluatif. |
|
Dans le texte |
Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.
Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.
Le chargement des statistiques peut être long.