Neil Kramm et Sioux McKenna (Université Rhodes, en Afrique du Sud) signent un texte d’opinion sur l’encadrement de l’utilisation de l’IA dans l’article AI amplifies the tough question: What is higher education really for?

Cet article confronte une vision utilitaire de l’enseignement supérieur (basée sur l’obtention de crédits et de diplômes) à une vision basée sur la transformation par le savoir. Pour les auteurs, l’encadrement de l’IA — et plus largement les méthodes d’évaluation employées — reflète la vision de l’éducation des établissements d’enseignement supérieur.

Le sens des études supérieures

Kramm et McKenna expliquent qu’une vision utilitaire de l’enseignement supérieur, axée sur l’octroi de crédits, la diplomation et l’insertion professionnelle, considère l’éducation comme une marchandise. Cette vision justifie l’utilisation de méthodes d’évaluation basées sur la mesure (ex. tests à choix multiples, textes à court développement) menant à la délivrance de diplômes.

« Dans cette approche, l’objectif de l’évaluation est généralement pour les universités de vérifier si les personnes étudiantes ont maîtrisé le contenu afin de leur donner des crédits. Elle ne permet pas à l’évaluation d’être un lieu d’apprentissage ou d’expérimentation de nouvelles idées. »

(Kramm et McKenna, 2023, p.2 [traduction libre])

Ces évaluations peuvent être relativement bien réussies par les IA génératives, ce qui force les établissements à chercher un moyen d’en détecter l’utilisation et de la punir.

Les limites de l’approche de détection et de punition

Kramm et McKenna estiment que l’approche de détection-punition rate sa cible. En prenant l’exemple des logiciels de détection du plagiat, les auteurs font valoir que ceux-ci mènent souvent à de fausses accusations dont les conséquences sont importantes pour les personnes étudiantes. De plus, des recherches ont montré que ces logiciels n’ont pas permis de réduire le nombre de cas de plagiat ni de favoriser l’intégrité académique. Ultimement, l’approche de détection et de punition ne permet pas d’agir sur les raisons qui poussent les personnes étudiantes à plagier, en plus de créer un climat de méfiance.

Les auteurs déplorent que cette même approche soit actuellement appliquée pour les outils d’IA générative. À leurs yeux, en adoptant ce modèle d’intervention, les établissements négligent leur responsabilité éducative, soit de susciter une relation transformatrice avec la connaissance.

Quelles sont les alternatives ?

Kramm et McKenna plaident en faveur d’une conception de l’enseignement supérieur visant la transformation des personnes étudiantes, à mesure qu’elles s’approprient les connaissances de leur domaine d’études. Cette vision exige une réflexion sur la place de l’IA et la manière dont elle peut être utilisée pour favoriser ou limiter ces relations transformatrices avec le savoir. Il devient donc impératif de réfléchir à ce que l’évaluation doit permettre :

« Nous devons réfléchir profondément à la raison pour laquelle nous évaluons et comment nous le faisons. Si l’IA génératrice peut facilement effectuer une certaine tâche, alors nous devons nous demander si les étudiants et les étudiantes devraient apprendre à effectuer cette tâche. Et si c’est le cas, nous devons leur expliquer la valeur de cette démarche. »

(Kramm et McKenna, 2023, p.4 [traduction libre])  

Du point de vue de ces auteurs, la question ne serait donc plus de savoir comment détecter et punir l’utilisation de l’IA générative, mais bien d’identifier en quoi une évaluation contribue à la transformation par le savoir des personnes étudiantes et comment l’IA peut influencer cette transformation.  

Référence

Kramm, N., et McKenna, S. (2023). AI amplifies the tough question : What is higher education really for? Teaching in Higher Education, 1‑6. https://doi.org/10.1080/13562517.2023.2263839