Introduction
L’évaluation des performances des étudiants est un sujet complexe qui mérite d’être instruit en profondeur. Depuis l’avènement, dans les années 1960, de la docimologie critique, on sait que la capacité de l’humain à évaluer avec objectivité a ses limites si elle ne s’inscrit pas dans une démarche clairement balisée et que, même dans ce cas, elle reste sujette à caution. Ainsi, l’ordre dans lequel les copies ou prestations sont évaluées, l’ethnie et le genre du correcteur et de l’évalué, la qualité formelle de la copie ou de la production (voire de la prestation), l’effet de contraste, l’effet de halo et l’effet de tendance centrale ne sont que quelques exemples des nombreux biais et effets démontrant que la poursuite de l’objectivité ne peut se faire qu’au prix d’efforts importants qui nécessitent à la fois de l’énergie (ou, à tout le moins, une vraie implication) et de la compétence. Ces efforts doivent être fournis et il en va de la responsabilité des enseignants. Ces derniers en sont-ils toutefois conscients ? La recherche de l’objectivité fait-elle bien partie de leurs préoccupations ?
L’évaluation vise à détecter si l’étudiant possède ou non les compétences minimales par l’enseignement. Il importe donc de s’assurer que les compétences réelles des étudiants et celles mesurées par les épreuves mises en place soient en adéquation. Sachant que la mesure issue d’un examen comporte une part d’erreur, plusieurs scénarios – favorables ou non – peuvent être envisagés. Dans les cas les plus favorables, le test permet à l’étudiant qui devait réussir de réussir et fait échouer celui qui devait échouer selon ses compétences réelles. Les cas de figure à éviter sont les deux suivants : l’étudiant réussit au test alors qu’il aurait dû échouer sur base de ses compétences réelles ou, à l’inverse, il échoue au test alors qu’il aurait dû réussir, toujours sur base de ses compétences réelles. Le premier scénario (réussite sans les compétences minimales) est dommageable à la fois pour l’étudiant qui réussit malgré qu’il n’ait pas les prérequis nécessaires pour poursuivre son cursus, pour l’établissement scolaire qui doit encadrer cet étudiant dans la suite de son parcours, mais aussi pour la société qui risque tôt ou tard d’accueillir quelqu’un d’incompétent, mais diplômé. Le second scénario (échec malgré les compétences minimales) est fortement dommageable pour l’individu qui avait les compétences pour réussir, mais qui se voit échouer. Il est aussi dommageable pour la société qui se prive ainsi de personnes compétentes pour exercer certains métiers. Diminuer l’erreur de mesure en augmentant la qualité des évaluations est donc un enjeu majeur, tant au niveau sociétal qu’individuel. Mais cela constitue-t-il un défi pour les enseignants ?
L’évaluation des étudiants, lors d’examens par exemple, a pourtant fait l’objet d’une attention soutenue de la part des scientifiques œuvrant dans le domaine de l’évaluation. De nombreux ouvrages (par exemple, Brookhart & Nitko, 2014 et Bearman et al., 2016) suggèrent des modalités d’évaluation pertinentes, des pratiques à respecter, des conseils à suivre, des modèles ou processus utiles pour augmenter la qualité des évaluations, des pièges et chausse-trappes à éviter... Ces informations, à condition d’être connues et maîtrisées par l’ensemble des enseignants du supérieur, fourniraient un socle utile à l’amélioration des pratiques évaluatives de ces derniers. Les enseignants du supérieur connaissent-ils cette littérature ? Quelle considération ont-ils de celle-ci ? Sont-ils conscients que l’évaluation requiert des compétences spécifiques ? La littérature nous apporte très peu d’informations sur la manière dont les lignes directrices issues de la littérature sont perçues, connues, maîtrisées et appliquées par les enseignants du supérieur. Les rares études ayant approché ce sujet sont plutôt peu rassurantes : les enseignants semblent y être relativement hermétiques. Or, si ces lignes directrices n’impactent effectivement pas les pratiques des enseignants, il y a tout lieu de croire que les erreurs de mesure portant sur la note sont très importantes. Il en va de même pour l’opacité des critères, le manque d’entraînement des étudiants...
Une enquête réalisée il y a quelques années à l’Université de Liège (ULg) par Gilles, Detroz et Blais (2010) nous apprend que, si 90 % des enseignants sont au moins « plutôt d’accord » avec l’idée qu’évaluer nécessite des compétences spécifiques, ils sont aussi 90 % à dire qu’ils se sentent « plutôt compétents » pour le faire. Très peu (moins de 10 %) avaient néanmoins reçu de l’information sur les « bonnes pratiques docimologiques ».
1
C’est un peu comme si cette compétence était innée ou si la fonction de Professeur à l’Université créait, de facto, cet organe évaluateur. C’est pour le moins interpellant.
Une analyse sommaire des programmes de formation des enseignants du supérieur ne nous rassure guère, non plus, à ce sujet. En effet, si l’on s’intéresse aux programmes de formation des Masters en Pédagogie, du CAPAES et des Masters de spécialisation en Pédagogie de l’enseignement supérieur organisés en Fédération Wallonie-Bruxelles, on constate une large variabilité quant aux enseignements portant spécifiquement sur l’évaluation des étudiants. Même si cela mériterait une analyse plus approfondie, il semble bien que certains de ces programmes mettent peu la priorité ou l’accent sur cette problématique.
Nos observations des dispositifs d’évaluation nous poussent à penser que la plupart des dispositifs rencontrés ne nous semblent pas de nature à diminuer les erreurs de mesure. Citons un indicateur quelque peu inquiétant : l’augmentation foudroyante des tests QCM de masse (qui ont quasi doublé lors des cinq dernières années à l’ULg1). D’autant que le recours à ce type de questionnement, dans la plupart des cas, n’est pas forcément la conséquence d’un choix conscient, instruit et assumé en faveur de cette modalité d’évaluation (dont certaines qualités sont, par ailleurs, bien répertoriées dans la littérature), mais semble être le plus souvent un choix « par défaut » inhérent à la massification importante des étudiants et aux contraintes pratiques que celle-ci impose.
Mais, au-delà de nos observations, quel est l’état, aujourd’hui, en Fédération Wallonie-Bruxelles, de l’évaluation des acquis des étudiants dans l’enseignement supérieur ?
Aucune réponse précise ne peut être apportée à cette question, ni pour l’évaluation en Fédération Wallonie- Bruxelles, ni pour le reste du monde, car très peu de littérature est orientée sur le sujet et les pratiques d’évaluation restent considérées comme du domaine « privé de chaque enseignant » (Romainville, 2002) ; elles sont dès lors peu connues et peu documentées. De fait, on ne sait à peu près rien quant à la manière dont les enseignants évaluent leurs étudiants, quant aux modalités d’évaluation qu’ils utilisent, à l’intérêt qu’ils accordent à leur rôle d’évaluateur, à la qualité de ce qu’ils font concrètement, à l’impact que peut avoir l’évaluation sur les apprentissages et sur les enseignements, ni même à la manière dont la littérature se répercute sur les connaissances et savoir-faire docimologiques des enseignants. Romainville (2006) avait déjà dressé ce constat puisque, dans l’ouvrage intitulé « La pratique enseignante en mutation à l’université », il déclarait que seule une poignée d’études portait sur cette thématique. Parmi ces études, figure celle conduite par Blais et al. (1997) à l’Université de Montréal et dans ses écoles affiliées.
En Fédération Wallonie-Bruxelles, une tentative d’étude sur le sujet a eu lieu en 2009. En effet, le SMART-ULg a adapté l’enquête de Blais et ses collaborateurs et l’a proposée à quelques sections des universités de Liège et de Mons en Belgique, de Cochabamba en Bolivie et de Dakar au Sénégal (Gilles, Detroz & Blais, 2010). Cette étude a permis l’émergence de quelques conclusions générales : les méthodes d’évaluation utilisées par un enseignant sont – à tout le moins en partie – liées à la taille du groupe auquel il enseigne, aux contraintes qu’il rencontre (temps, salle et matériel disponible...), aux consignes données par son Université, à la culture dans laquelle il baigne, à la discipline dans laquelle il enseigne, aux valeurs qu’il défend... Nous avons également pu constater que les pratiques docimologiques laissaient à désirer dans bien des cas. Les informations récoltées via cette étude de 2010 sont toutefois restées parcellaires et ont donc laissé encore beaucoup de zones d’ombre. L’intérêt de notre recherche est de poursuivre ce questionnement et de le transposer à notre contexte actuel.
© ADMEE-Europe (Association pour le Développement des Méthodologies d’Évaluation en Éducation), Neuchâtel, Suisse