Numéro |
Pédagogie Médicale
Volume 19, Numéro 3, Août 2018
|
|
---|---|---|
Page(s) | 137 - 142 | |
Section | Concepts et Innovations | |
DOI | https://doi.org/10.1051/pmed/2019022 | |
Publié en ligne | 14 octobre 2019 |
Concepts et Innovation
Enjeux et défis de l’évaluation longitudinale : quelques pistes de réflexion préalables à son implantation★
Issues and challenges of longitudinal assessment: Some insights prior to its implementation
Département de médecine, Faculté de médecine et des sciences de la santé, Université de Sherbrooke,
Québec, Canada
* Correspondance et offprints : Christina ST-ONGE, faculté de médecine et des sciences de la santé, 3001, 12e avenue Nord, J1H5N4 Sherbrooke, Québec, Canada. Mailto : christina.st-onge@usherbrooke.ca.
Reçu :
22
Août
2019
Accepté :
20
Septembre
2019
commentaires éditoriaux formulés aux auteurs le 17 septembre 2019
Contexte et problématique : La formation de futurs professionnels de la santé compétents est une préoccupation importante pour tous les membres de la communauté en pédagogie des sciences de la santé. À cet effet, on accorde beaucoup d’importance à l’évaluation comme agent régulateur de l’accès aux professions. En lien avec la perspective de l’approche par compétences, l’idée de structurer l’évaluation de façon longitudinale, autour des trajectoires de développement professionnelles, apparaît d’une grande pertinence. Exégèse : L’évaluation longitudinale fait référence à toutes les évaluations mises en place pour documenter le rendement et le progrès des apprenants selon une trajectoire de développement préétablie. Les éducateurs et chercheurs qui prônent l’implantation de l’évaluation longitudinale dans des programmes qui préparent à la pratique des professions en santé y voient de multiples avantages, parmi lesquels la facilitation de la rétroaction qui pourrait être plus authentique, une identification précoce des apprenants en difficulté et une augmentation de l’autonomie des apprenants dans leurs développements. Cependant, les preuves qui soutiennent les retombées positives associées à l’évaluation longitudinale sont « faibles » pour ne pas dire manquantes. Conclusion : Il est essentiel, en tant que communauté, de documenter les effets et l’impact de l’évaluation longitudinale de façon plus systématique, structurée et rigoureuse.
Abstract
Context and background: Members of the health professions education community are driven by the motivation to train competent health professionals. In this context, assessment is often used in a gatekeeping capacity, be it at the admissions or licensure levels. Aligned with the perspective of the competency-based education, the idea of structuring the evaluation in a longitudinal way, around professional development trajectories, appears to be especially relevant. Analysis: Longitudinal assessment refers to all assessment that is used to document trainees’ performance and progress. Educators and researchers that support the implementation of longitudinal assessment associate it with many potentially positive outcomes such as authentic and facilitate feedback, early detection of trainees with difficulties, and an increase in trainee autonomy in their own development. However, to date, little empirical evidence supports potentially positive outcomes. Conclusion: As a community, we must mobilize ourselves to undertake a more structured and systematic approach to document and evaluate the implementation of longitudinal assessment.
Mots clés : évaluation longitudinale / évaluation du rendement et du progrès / évaluation pour l’apprentissage / développement des compétences
Key words: longitudinal assessment / developmental progress assessment / assessment for learning / development of competencies
© SIFEM, 2019
Introduction
De plus en plus d’éducateurs et d’institutions positionnent leurs choix pédagogiques dans la perspective d’une responsabilité sociale qui implique de pouvoir anticiper les besoins de la société et de former de futurs professionnels aptes à y répondre [1,2]. Au cours des dernières décennies, la communauté en pédagogie des sciences de la santé s’est tournée vers l’approche par compétences, en lien avec l’idée de parcours professionnalisant, pour guider le développement ou le renouvellement de programmes de formation qui mènent à la pratique [3–5].
Une prémisse au cœur de l’approche par compétence est la notion de trajectoire de développement. En contexte de formation professionnelle, la trajectoire de développement fait référence au parcours qui balise le développement et la progression attendue d’un apprenant vers la pratique professionnelle compétente [4,6–38]. Certains auteurs en pédagogie des sciences de la santé ont documenté que le fait de pouvoir se référer à une trajectoire de développement, en contexte professionnalisant, peut accélérer le processus menant à la pratique professionnelle compétente [39]. Pouvoir se référer à une trajectoire explicite permettrait ainsi à l’apprenant de se situer dans son développement et de mieux visualiser les prochaines étapes à franchir vers son objectif ultime, en l’occurrence pratiquer la profession de son choix. La trajectoire de développement et ses balises offrent aux apprenants un outil pour leur propre évaluation.
L’importance accordée à l’évaluation des apprentissages et des compétences est indéniable en pédagogie des sciences de la santé. Les programmes de formation utilisent l’évaluation des apprentissages et des compétences dans des contextes à enjeux élevés, tels que l’admission à des programmes et la certification professionnelle. De plus en plus, chercheurs et pédagogues y accordent aussi une valeur pédagogique. Le concept d’évaluation « pour » l’apprentissage – et non plus seulement des apprentissages – s’est imposé comme thème de recherche émergent au cours des dernières années [40]. Les tenants de cette approche voient l’évaluation comme une collaboration entre enseignants et apprenants pour définir les cibles d’apprentissages et les critères de succès qui seront éventuellement utilisés pour soutenir la rétroaction fournie aux apprenants [40]. Dès lors la question de la mobilisation conjointe des notions de trajectoires de développement et d’évaluation pour l’apprentissage devient centrale dans la perspective du développement de la compétence chez les futurs professionnels de la santé, ce qui met en exergue la perspective de l’évaluation longitudinale.
Les ingrédients nécessaires d’une évaluation longitudinale
L’évaluation longitudinale concerne toutes les évaluations mises en place pour documenter le rendement et le progrès des apprenants selon une trajectoire de développement préétablie [4,6–38]. Les informations exploitées dans le cadre d’une évaluation de ce type peuvent être recueillies au regard de plusieurs dimensions et perspectives.
Évaluation informée par une trajectoire de compétence
L’évaluation longitudinale des apprenants doit être informée par rapport à une trajectoire de développement établie. Cette trajectoire de développement doit être connue par toutes les parties prenantes, les administrateurs, les évaluateurs (superviseurs cliniques) et les apprenants, en lien avec des critères qu’il importe d’expliciter [6,8,12–15,17–19,21,22,24,25,29,30,33,34,38,41–48]. Très souvent, ces critères peuvent faire l’objet d’une co-construction entre les parties prenantes dans une perspective d’évaluation pour l’apprentissage [40].
Évaluation informée par de l’observation directe
Dans un contexte d’évaluation longitudinale, l’évaluation doit aussi être informée par une observation directe de la performance qui fait l’objet d’une évaluation. On note ici que les observations ne doivent pas nécessairement être longues, mais plutôt ciblées sur l’élément de la trajectoire de développement qui fait l’objet de ladite évaluation [4,8,15,23–25,41,44,49].
Évaluation informée par de multiples observations et de multiples observateurs dans de multiples contextes
Cette exigence de multiples observations par de multiples observateurs, notamment différents superviseurs, dans de multiples contextes, n’est ni nouvelle ni exclusive à l’évaluation longitudinale. Toutefois, elle revêt une importance particulière dans un contexte d’évaluation longitudinale [6,8,12–15,17–19,21,22,24,25,29,30,33,34,38,41–48]. Comme indiqué précédemment, il ne s’agit pas d’observer la performance d’un apprenant longtemps ; il faut plutôt favoriser des observations focalisées. L’objectif de recourir à de multiples sources d’information à l’occasion de plusieurs moments d’observation vise à recueillir une « mosaïque » d’informations, qui soit la plus représentative possible de la performance de l’apprenant. Un panel ou comité gère ce corpus d’informations et décide du niveau de progression des apprenants, ce qui permet de ne pas laisser aux seuls superviseurs cliniciens la charge de la décision concernant la progression des apprenants — ou son absence.
Les avantages de l’évaluation longitudinale
Les éducateurs et chercheurs qui prônent l’implantation de l’évaluation longitudinale dans des programmes menant à la pratique de professions en santé y voient de multiples avantages, parmi lesquels une rétroaction facilitée et plus honnête, une identification précoce des apprenants en difficulté et une augmentation de l’autonomie des apprenants dans leurs développements [3,4,50].
Une rétroaction facilitée et plus honnête
Le fait que les rétroactions soient, d’une part, ancrées sur des attentes explicites et connues par toutes les parties prenantes et, d’autre part, informées par l’observation directe de la performance constitue autant de conditions plus favorables pour qu’elles soient authentiques et honnêtes. Ainsi, la mise en place d’une évaluation longitudinale qui est informée par une trajectoire de développement devrait faciliter la rétroaction aux apprenants [6,13,16,18,20,22,31,37,45,46,51–55]. Comme cela a déjà été évoqué, la décision relative à la progression d’un apprenant ne repose plus − ou plus exclusivement – sur le superviseur clinique mais sur un comité ou panel qui en assume la responsabilité partagée. Dès lors, les évaluateurs peuvent se permettre une évaluation plus objective de la performance des apprenants. Plus largement, ce changement vers une culture de l’évaluation pour l’apprentissage devrait permettre des discussions ouvertes entre apprenants et évaluateurs, permettant ainsi d’établir de meilleures relations de mentorat.
Une identification précoce des étudiants en difficulté
Les évaluateurs qui s’appuient sur une trajectoire de développement sont plus outillés pour donner une rétroaction explicite et spécifique sur le rendement et le progrès des apprenants. Ainsi, un des avantages de l’évaluation qui s’appuie sur une trajectoire de développement est de pouvoir dépister plus précocement les étudiants en difficulté [6,13,16,18,20,22,31,37,45,46,51–55]. De plus, les apprenants qui reçoivent une rétroaction honnête sont mieux outillés pour identifier plus rapidement leurs limites et, ainsi, mettre en place des stratégies pour y remédier.
Une augmentation de l’autonomie des apprenants (life-long learning)
La mise en place d’évaluation longitudinale est sous-tendue par l’idée que cette forme d’évaluation peut contribuer à augmenter l’autonomie des apprenants et les responsabiliser envers leurs propres développements professionnels [6,11,14,17–19,24,37,46,51–54,56]. Dans ce contexte, les apprenants peuvent élaborer des plans de développements personnalisés en fonction de données recueillies et accessibles dans des plateformes telles que leur portfolio. En fait, les trajectoires de développement sur lesquels s’appuie l’évaluation longitudinale sont vues comme des outils riches, qui permettent aux apprenants de développer des habiletés réflexives et des habiletés d’apprenants à vie. Une fois qu’ils ont situé leur propre développement sur la trajectoire de développement, les apprenants sont en mesure d’identifier des attentes explicites devant mener à la pratique professionnelle compétente [6,11,14,17–19,24,37,46,51–54,56]. Éventuellement, les habiletés d’autonomie qu’ils auront développées pourront être investies dans les plans de développement de formation continue et de maintien de leurs compétences.
Qu’en est-il de la validité de l’interprétation des scores dans la perspective dynamique de l’évaluation longitudinale ?
Documenter la validité de l’interprétation d’un score issu d’une évaluation est en soi un défi. Dans le cadre d’une évaluation longitudinale, il ne s’agit plus d’une mesure statique à un moment donné et bien précis. L’objectif est d’effectuer une évaluation qui permet de documenter le changement – idéalement du progrès – d’un apprenant sur la trajectoire de développement. Cette réalité ajoute une difficulté au processus de validation des dispositifs d’évaluation en tant qu’instruments de mesure des apprentissages. Une telle validation repose habituellement sur une analyse statistique pour documenter les qualités métrologiques (par exemple, la fidélité et des preuves de la validité de l’interprétation des scores) des outils concernés. Or, les modèles de mesure couramment utilisés dans les processus d’élaboration et validation de modalités évaluatives n’ont pas été conçus pour documenter les qualités métrologiques lorsque l’objet à mesurer n’est pas statique mais dynamique, c’est-à-dire mouvant ; de ce fait, on peut difficilement réconcilier leurs postulats avec cette utilisation. Certes, certains modèles ou analyses statistiques ont comme objectifs la mesure du changement, mais ne nous informent pas toujours sur la qualité des scores ou la validité de l’interprétation de ces derniers. Lorsque, de surcroît, les informations à interpréter dans le cadre de la démarche évaluative sont constituées à la fois de données quantitatives et qualitatives, et alors que l’importance de recourir à ces dernières est de plus en plus argumentée lorsqu’il s’agit de documenter des compétences [6,21,56–59], le défi est encore plus grand. Ainsi, la vérification des qualités métrologiques devient encore plus complexe, au point où il faudrait considérer des critères de rigueur complémentaires aux approches psychométriques et qui sont plus appropriés à la démarche qualitative (crédibilité, fiabilité, transférabilité).
Au total, peu d’arguments probants sont actuellement disponibles pour documenter la validité des jugements interprétatifs fait dans le cadre d’une évaluation longitudinale. Ce constat peut nous motiver à explorer des pistes alternatives aux critères métrologiques traditionnellement psychométriques. Il pourrait cependant freiner l’adoption de cette forme d’évaluation de la part de certaines personnes responsables de l’évaluation, notamment celles qui s’inscrivent dans une perspective docimologique de l’évaluation et qui s’en tiennent à la démonstration statistique des qualités métrologiques [8,27,45,55].
Favoriser une implantation réussie de l’évaluation longitudinale
Nonobstant les preuves limitées quant aux retombées positives de l’évaluation longitudinale, il faut prendre en considération certaines barrières et certains facilitateurs potentiels afin d’optimiser son implantation. L’évaluation longitudinale peut prendre différentes formes selon le contexte et le programme où elle est implantée. Les recommandations suivantes veulent favoriser une implantation qui respecte les postulats émis précédemment.
La préparation du contexte local
Elle inclut les actions à mener à l’égard de toutes les ressources humaines qui devront être mobilisées de près ou de loin dans le contexte de l’évaluation longitudinale et qui peuvent grandement faciliter son implantation [14,17,18,22,24,31,37,57]. La préparation du corps professoral contribue très certainement à une implantation réussie de l’évaluation longitudinale. Toutefois, cette formation professorale n’est pas sans coût ; ces coûts additionnels peuvent nuire à l’implantation de l’évaluation longitudinale dans certains contextes [8,17,26,31,37,55]. Un objectif de l’approche par compétence est de soutenir le développement professionnel progressif des futurs professionnels. L’une des manières de soutenir une telle intention, entre autres, est de rendre explicite une trajectoire de développement des compétences, connue de toutes les parties prenantes.
Si, dans un milieu donné, les éléments constitutifs, les critères et les indicateurs qui permettent d’appréhender opérationnellement une telle trajectoire sont déjà disponibles ou, au moins, en cours de développement, il sera plus facile d’y rattacher un dispositif d’évaluation longitudinale que si tout doit être créé de novo [14,32,37,45]. Lorsqu’il est possible d’adapter l’implantation de l’évaluation longitudinale au contexte local, celle-ci en est facilitée [8,22,37]. Avoir accès à de bons outils d’évaluation au bon moment est essentiel pour l’implantation réussie de l’évaluation longitudinale. Toutefois, devoir créer ces outils est souvent vu comme un obstacle à l’implantation de l’évaluation longitudinale [4,8,24,30,37,45,47].
La prise en compte de défis méthodologiques et logistiques
D’autres défis se posent lors de l’implantation de l’évaluation de la progression et du rendement. Parmi eux, celui lié à la nécessité de créer des opportunités d’observation des pratiques et des performances des étudiants n’est pas le moindre ; il est en effet nécessaire d’augmenter à la fois la fréquence des situations d’observation directe et le nombre de tâches à observer, ce qui peut être perçu comme autant d’obstacles à l’implantation de l’évaluation longitudinale [24,31,44]. De plus, un comité doit être mis sur pied pour gérer et traiter l’information colligée sur le rendement des apprenants et pour prendre des décisions quant à leur progression. Le passage de l’évaluation de l’apprentissage vers l’évaluation aux fins d’apprentissage constitue une partie importante des changements nécessaires au succès de la mise en œuvre de programmes conçus selon l’approche par compétences. Pour une transition harmonieuse, ce changement de perception de l’évaluation est donc nécessaire. La littérature rapporte que lorsque la culture du milieu est déjà prédisposée à voir l’évaluation comme levier pour l’apprentissage, l’implantation de l’évaluation longitudinale se fait plus facilement que lorsqu’il doit y avoir un changement substantiel de culture [8,15,17,23,37,55].
Conclusion
On ne peut pas être contre la vertu. En l’occurrence, il est tentant de postuler la robustesse de l’idée qu’évaluer le rendement et le progrès, dans une logique de documentation d’un parcours de développement des compétences grâce à une évaluation longitudinale peut contribuer au développement de compétences chez les futurs professionnels de la santé. Toutefois, les preuves qui soutiennent cette hypothèse sont « faibles » pour ne pas dire manquantes. Il est donc essentiel de s’y intéresser de façon plus systématique, structurée, rigoureuse, en dépassant les convictions idéologiques qui portent à croire que cette façon d’évaluer nous aidera à former de meilleurs professionnels de la santé. Plusieurs questions restent à instruire concernant, notamment, les effets concrets de l’évaluation longitudinale sur la compétence des professionnels formés, la qualité de l’interprétation ou des décisions prises à partir des données d’évaluation longitudinale, qu’elles soient quantitatives ou qualitatives. Ceci pose un énorme défi pour la communauté en éducation des professions de santé. Divers professionnels devront collaborer étroitement pour trouver des solutions créatives, innovatrices et inédites, permettant de documenter la qualité de l’interprétation et des décisions prises à partir de données évaluatives provenant de l’évaluation longitudinale.
Liens d’intérêts
L’auteure ne déclare aucun conflit d’intérêt en lien avec le contenu de cet article.
Approbation éthique
Non sollicitée.
Remerciements
Une première version de ces idées a été présentée dans le cadre d’une conférence plénière intitulée « L’évaluation longitudinale de la progression », lors du 8e Forum International Francophone de Pédagogie des Sciences de la Santé à Montréal, le 30 mai 2019. Ces réflexions sont le fruit de collaborations avec les professeurs Serge Langevin, Aliki Thomas, Élisabeth Boileau et Frédéric Bernier, ainsi que Mme Élise Vachon Lachiver, candidate au doctorat. Ces réflexions s’appuient sur des travaux financés par le Collège Royal des médecins et chirurgiens du Canada, les Fonds de développement pédagogique de la Société des médecins de l’Université de Sherbrooke, ainsi que le département de médecine de l’Université de Sherbrooke.
Références
- Boelen C, Woollard B. Social accountability and accreditation: a new frontier for educational institutions. Med Educ 2009;43:887‐94. [CrossRef] [PubMed] [Google Scholar]
- Frenk J, Chen L, Bhutta ZA, Cohen J, Crisp N, Evans T, et al. Health professionals for a new century: transforming education to strengthen health systems in an interdependent world. Lancet 2010;376:1923‐58. [CrossRef] [PubMed] [Google Scholar]
- Frank JR, Snell L, ten Cate O, Holmboe ES, Carraccio C, Swing S, et al. Competency-based medical education: theory to practice. Med Teach 2010;32:638‐45. [Google Scholar]
- Holmboe ES, Sherbino J, Long DM, Swing SR, Frank JR. The role of assessment in competency-based medical education. Med Teach 2010;32:676‐82. [Google Scholar]
- Hodges B, Lingard L. The question of competence: reconsidering medical education in the twenty-first century. Ithaca: Cornell University Press, 2012. [Google Scholar]
- Rebel A, DiLorenzo AN, Fragneto RY, Dority JS, Rose G, Nguyen D, et al. A competitive objective structured clinical examination event to generate an objective assessment of anesthesiology resident skills development. A&A Case Reports 2016;6:313‐9. [CrossRef] [Google Scholar]
- Yadlapati R, Keswani RN, Ciolino JD, Grande DP, Listernick ZI, Carlson DA, et al. A system to assess the competency for interpretation of esophageal manometry identifies variation in learning curves. Clin Gastroenterol Hepatol 2017;15:1708‐1714.e3. [CrossRef] [PubMed] [Google Scholar]
- Swing SR, Cowley DS, Bentman A. Assessing resident performance on the psychiatry milestones. Acad Psychiatry 2014;38:294‐302. [Google Scholar]
- Tromp F, Vernooij-Dassen M, Grol R, Kramer A, Bottema B. Assessment of CanMEDS roles in postgraduate training: the validation of the Compass. Patient Educ Couns 2012;89:199‐204. [CrossRef] [PubMed] [Google Scholar]
- Clardy PF, Schwartzstein RM. Considering cognition. Current challenges and future directions in pulmonary and critical care fellowship training. Ann Am Thorac Soc 2015;12:474‐9. [CrossRef] [PubMed] [Google Scholar]
- Awad Z, Tornari C, Ahmed S, Tolley NS. Construct validity of cadaveric temporal bones for training and assessment in mastoidectomy. Laryngoscope 2015;125:2376‐81. [CrossRef] [PubMed] [Google Scholar]
- McBride CL, Rosenthal RJ, Brethauer S, DeMaria E, Kelly JJ, Morton JM, et al. Constructing a competency-based bariatric surgery fellowship-training curriculum. Surg Obes Relat Dis 2017;13:437‐41. [Google Scholar]
- Szilagyi JE. Curricular progress assessments: the mileMarker. Am J Pharm Educ 2008;72:101. [CrossRef] [PubMed] [Google Scholar]
- Ten Cate O, Chen HC, Hoff RG, Peters H, Bok H, Van Der Schaaf M. Curriculum development for the workplace using Entrustable Professional Activities (EPAs): AMEE Guide No. 99. Med Teach 2015;37:983‐1002. [Google Scholar]
- Tardif J, Dubois B. De la nature des compétences transversales jusqu’à leur évaluation : une course à obstacles, souvent infranchissables. Rev Fr Linguist Appl 2013;18:29‐45. [Google Scholar]
- O’Brien CL, Sanguino SM, Thomas JX, Green MM. Feasibility and outcomes of implementing a portfolio assessment system alongside a traditional grading system. Acad Med 2016;91:1554‐60. [Google Scholar]
- Brown DR, Warren JB, Hyderi A, Drusin RE, Moeller J, Rosenfeld M, et al. Finding a path to entrustment in undergraduate medical education: a progress report from the AAMC core entrustable professional activities for entering residency entrustment concept group. Acad Med 2017;92:774‐9. [Google Scholar]
- Joiner AB, Abbott S, Longson D. Is performance-based progress testing in psychiatry feasible? Acad Psychiatry 2016;40:790‐5. [Google Scholar]
- Harden RM. Learning outcomes as a tool to assess progression. Med Teach 2007;29:678‐82. [Google Scholar]
- Boissart M. Portfolio, outil de mesure et de développement professionnel. Objectif Soins 2012;207:29‐32. [Google Scholar]
- Pugh D, Touchie C, Wood TJ, Humphrey-Murto S. Progress testing: is there a role for the OSCE? Med Educ 2014;48:623‐31. [CrossRef] [PubMed] [Google Scholar]
- Caverzagie KJ, Cooney TG, Hemmer PA, Berkowitz L. The development of entrustable professional activities for internal medicine residency training: a report from the Education Redesign Committee of the Alliance for Academic Internal Medicine. Acad Med 2015;90:479‐84. [Google Scholar]
- Eva KW, Bordage G, Campbell C, Galbraith R, Ginsburg S, Holmboe E, et al. Towards a program of assessment for health professionals: from training into practice. Adv Health Sci Educ Theory Pract 2016;21:897‐913. [CrossRef] [PubMed] [Google Scholar]
- Peters H, Holzhausen Y, Boscardin C, ten Cate O, Chen HC. Twelve tips for the implementation of EPAs for assessment and entrustment decisions. Med Teach 2017;39:802‐7. [Google Scholar]
- Pugh D, Cavalcanti RB, Halman S, Ma IWY, Mylopoulos M, Shanks D, et al. Using the entrustable professional activities framework in the assessment of procedural skills. J Grad Med Educ 2017;9:209‐14. [PubMed] [Google Scholar]
- Nadeau MT, Tysinger J, Wiemers M. A case-based approach for teaching professionalism to residents with online discussions. J Adv Med Educ Prof 2016;4:1‐7. [PubMed] [Google Scholar]
- Campbell CR, Lomperis AMT, Gillespie KN, Arrington B. Competency-based healthcare management education: the Saint-Louis university experience. J Health Adm Educ 2006;23:135‐68. [PubMed] [Google Scholar]
- Pugh D, Bhanji F, Cole G, Dupre J, Hatala R, Humphrey-Murto S, et al. Do OSCE progress test scores predict performance in a national high-stakes examination? Med Educ 2016;50:351‐8. [CrossRef] [PubMed] [Google Scholar]
- Rekman J, Gofton W, Dudek N, Gofton T, Hamstra SJ. Entrustability scales: outlining their usefulness for competency-based clinical assessment. Acad Med 2016;91:186. [Google Scholar]
- Nousiainen MT, McQueen SA, Hall J, Kraemer W, Ferguson P, Marsh JL, et al. Resident education in orthopaedic trauma: the future role of competency-based medical education. Bone Joint J 2016;98-B:1320‐5. [Google Scholar]
- Hicks PJ, Margolis M, Poynter SE, Chaffinch C, Tenney-Soeiro R, Turner TL, et al. The pediatrics milestones assessment pilot: development of workplace-based assessment content, instruments, and processes. Acad Med 2016;91:701‐9. [Google Scholar]
- Deitte LA, Gordon LL, Zimmerman RD, Stern EJ, McLoud TC, Diaz-Marchan PJ, et al. Entrustable professional activities: ten things radiologists do. Acad Radiol 2016;23:374‐81. [CrossRef] [PubMed] [Google Scholar]
- Diemer F, Lauret M-E., Prats E, Calas P. Évaluation préliminaire d’un dispositif de coévaluation en travaux pratiques d’endodontie. Pédagogie Médicale 2005;6:79‐87. [CrossRef] [EDP Sciences] [Google Scholar]
- Sheepway L, Lincoln M, McAllister S. Impact of placement type on the development of clinical competency in speech-language pathology students. Int J Lang Commun Disord 2014;49:189‐203. [Google Scholar]
- Millington SJ, Hewak M, Arntfield RT, Beaulieu Y, Hibbert B, Koenig S, et al. Outcomes from extensive training in critical care echocardiography: identifying the optimal number of practice studies required to achieve competency. J Crit Care 2017;40:99‐102. [Google Scholar]
- Mészáros K, Barnett MJ, McDonald K, Wehring H, Evans DJ, Sasaki-Hill D, et al. Progress examination for assessing students’ readiness for advanced pharmacy practice experiences. Am J Pharm Educ 2009;73:109. [CrossRef] [PubMed] [Google Scholar]
- Conforti LN, Yaghmour NA, Hamstra SJ, Holmboe ES, Kennedy B, Liu JJ, et al. The effect and use of milestones in the assessment of neurological surgery residents and residency programs. J Surg Educ 2018;75:147‐55. [Google Scholar]
- Meier AH, Gruessner A, Cooney RN. Using the ACGME milestones for resident self-evaluation and faculty engagement. J Surg Educ 2016;73:e150‐7. [Google Scholar]
- Lajoie SP. Transitions and trajectories for studies of expertise. Educ Res 2003;32:21‐5. [Google Scholar]
- DeLuca C, Chapman-Chin AEA, LaPointe-McEwan D, Klinger DA. Student perspectives on assessment for learning. Curricul J 2018;29:77‐94. [CrossRef] [Google Scholar]
- Mookherjee S, Chang A, Boscardin CK, Hauer KE. How to develop a competency-based examination blueprint for longitudinal standardized patient clinical skills assessments. Med Teach 2013;35:883‐90. [Google Scholar]
- Van Loon KA, Driessen EW, Teunissen PW, Scheele F. Experiences with EPAs, potential benefits and pitfalls. Med Teach 2014;36:698‐702. [Google Scholar]
- Santen SA, Peterson WJ, Khandelwal S, House JB, Manthey DE, Sozener CB. Medical student milestones in emergency medicine. Acad Emerg Med 2014;21:905‐11. [CrossRef] [PubMed] [Google Scholar]
- Holmboe ES. Realizing the promise of competency-based medical education. Acad Med 2015;90:411‐3. [Google Scholar]
- Goldman RH, Tuomala RE, Bengtson JM, Stagg AR. How effective are new milestones assessments at demonstrating resident growth? One year of data. J Surg Educ 2017;74:68‐73. [Google Scholar]
- Guy C. Genetic counseling milestones: A framework for student competency evaluation. J Genet Couns 2016;25:635‐43. [CrossRef] [PubMed] [Google Scholar]
- Durham JA, Moore UJ, Corbett IP, Thomson PJ. Assessing competency in dentoalveolar surgery: a 3-year study of cumulative experience in the undergraduate curriculum. Eur J Dent Educ 2007;11:200‐7. [Google Scholar]
- Englander R, Flynn T, Call S, Carraccio C, Cleary L, Fulton TB, et al. Toward defining the foundation of the MD Degree: core entrustable professional activities for entering residency. Acad Med 2016;91:1352‐8. [Google Scholar]
- Touchie C, Ten Cate O. The promise, perils, problems and progress of competency-based medical education. Med Educ 2016;50:93‐100. [CrossRef] [PubMed] [Google Scholar]
- Lockyer J, Carraccio C, Chan MK, Hart D, Smee S, Touchie C, et al. Core principles of assessment in competency-based medical education. Med Teach 2017;39:609‐16. [Google Scholar]
- Tennant M, Scriva J. Clinical assessment in dental education: a new method. Aust Dent J 2000;25‐30. [Google Scholar]
- Ketteler ER, Auyang ED, Beard KE, McBride EL, McKee R, Russell JC, et al. Competency champions in the clinical competency committee: a successful strategy to implement milestone evaluations and competency coaching. J Surg Educ 2014;71:36‐8. [Google Scholar]
- Friedman KA, Raimo J, Spielmann K, Chaudhry S. Resident dashboards: helping your clinical competency committee visualize trainees’ key performance indicators. Med Educ Online 2016;21:29838. [CrossRef] [PubMed] [Google Scholar]
- Carraccio C, Englander R, Holmboe ES, Kogan JR. Driving care quality: aligning trainee assessment and supervision through practical application of entrustable professional activities, competencies, and milestones. Acad Med 2016;91:199‐203. [Google Scholar]
- Drolet BC, Marwaha JS, Wasey A, Pallant A. Program director perceptions of the general surgery milestones project. J Surg Educ 2017;74:769‐72. [Google Scholar]
- Hauer KE, Clauser J, Lipner RS, Holmboe ES, Caverzagie K, Hamstra SJ, et al. The internal medicine reporting milestones: cross-sectional description of initial implementation in U.S. Residency programs. Ann Intern Med 2016;165:356‐62. [CrossRef] [PubMed] [Google Scholar]
- Nabors C, Forman L, Peterson SJ, Gennarelli M, Aronow WS, DeLorenzo L, et al. Milestones: a rapid assessment method for the Clinical Competency Committee. Arch Med Sci 2017;13:201‐9. [CrossRef] [PubMed] [Google Scholar]
- Cook DA, Kuper A, Hatala R, Ginsburg S. When assessment data are words: validity evidence for qualitative educational assessments. Acad Med 2016;91:1359‐69. [Google Scholar]
- Marceau M, Gallagher F, Young M, St-Onge C. Validity as a social imperative for assessment in health professions education: a concept analysis. Med Educ 2018;52:641‐53. [CrossRef] [PubMed] [Google Scholar]
Citation de l’article : St-Onge C. Enjeux et défis de l’évaluation longitudinale : quelques pistes de réflexion préalables à son implantation. Pédagogie Médicale 2018:19;137-142
Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.
Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.
Le chargement des statistiques peut être long.