L'évaluation automatisée : mes archives


KallioinenBeautifulRobot.jpgNous sommes automates dans les trois quarts de nos actions. (Leibniz)

Je me sens éducateur quand j’interagis avec mes élèves. Quand je corrige leur travail, toutefois, le lot de corrections fait de moi un automate. L’évaluation souffre alors de la distanciation et de répétition. Heureusement, l’affectivité pour le sujet me rappelle à l’objectivité de la tâche, la sienne comme la mienne. Néanmoins, je peine à retenir ma pensée qui vagabonde du côté de la créativité, car je préférerais m’attaquer aux joies de l’enseignement que le fardeau de l’évaluation.

Le rapport maître-élève n’a de sens que dans son humanité; l’objectivité n’est qu’un palliatif aux carences humaines. La réalité m’oblige cependant à trouver des solutions pour composer avec la tâche. Par conséquent, je m’intéresse aux solutions technologiques. Sans toutefois reléguer l’évaluation entièrement à l’intelligence artificielle, malgré ses progrès fulgurants, je pense que l’évaluation automatisée peut grandement assister l’élève dans la conscientisation de ses apprentissages et l’enseignement dans l’objectivation de son appréciation.

Afin de guider ma réflexion sur l’évaluation automatisée, je veux colliger ici l’information sur le sujet.

• Wang, J, and Stallone Brown, M. Automated Essay Scoring Versus Human Scoring: A Comparative Study [en ligne]. The Journal of Technology, Learning, And Assessment, 2007, vol. 6, no. 4.

The current research was conducted to investigate the validity of automated essay scoring (AES) by comparing group mean scores assigned by an AES tool, IntelliMetric™, and by human raters. [...] Results of the test indicated that the mean score assigned by the AES tool IntelliMetric™ was significantly higher than the faculty human raters’ mean score on WriterPlacer Plus test. This finding did not corroborate previous studies that reported non-significant mean score differences between AES and human scoring.

• Scharber, C., Dexter, S. and Riedel, E. Students’ Experiences with an Automated Essay Scorer [en ligne]. The Journal of Technology, Learning, And Assessment, 2008, vol. 7, no. 1.

The purpose of this research is to analyze pre-service teachers’ use of and reactions to an automated essay scorer used within an online, case-based learning environment called ETIPS. Data analyzed include post-assignment surveys, a user log of students’ actions within the cases, instructor-assigned scores on final essays, and interviews with four selected students. These in-depth data about students’ reactions to and opinions of the ETIPS automated essay scorer help inform the automated essay scoring field about users’ perceptions of automated scoring.

• BBC : Artificial examiners put to the test; Aug. 2007.

The computer can easily break down children’s handwriting into individual letters and interpret the words. To refine the process, the computer also carries a database of handwriting samples that it can use to compare the general form of handwritten words.


(Image thématique : The Beautiful Robot, par Matti Kallioinen)


Par ricochet :

L’évaluation robotisée

La quête numérique de l’évaluation

La simulation comme moyen d’évaluation

L’évaluation informatisée de l’écriture

Vous pouvez suivre les commentaires en réponse à ce billet avec le RSS 2.0 Vous pouvez laisser une réponse, ou trackback.

Laisser un commentaire

*