Le Conseil supérieur de l’enseignement (CSE) et la Commission de l’éthique en science et en technologie (CEST) ont récemment rendu disponible leur rapport Intelligence artificielle générative en enseignement supérieur : enjeux pédagogiques et éthiques.

L’ORES attire l’attention sur les cinq piliers qui orientent les 20 recommandations formulées dans le rapport : 

  • L’alignement pédagogique
  • L’intégrité académique
  • La compétence numérique
  • La qualité de l’information
  • Les enjeux éthiques, notamment ceux liés à la protection de la vie privée ou encore à l’impact environnemental de l’IA générative.

L’alignement pédagogique : une question de cohérence

Pour le CSE et la CEST, l’alignement pédagogique devrait servir de repère pour l’intégration (ou non) de l’IA générative en enseignement supérieur. Autrement dit, il convient de s’interroger sur l’apport de cette technologie sur l’apprentissage et sa cohérence avec les objectifs pédagogiques, les activités d’apprentissages et les modalités d’évaluation.

De même, le CSE et la CEST relèvent le manque de connaissances scientifiques sur les impacts de l’IA générative sur la cognition et sur l’éducation. Or, ce manque de données pourrait nuire à l’alignement pédagogique alors que des utilisations non évaluées pourraient s’avérer nuisibles ou inutiles.

L’intégrité académique : des politiques et des pratiques à revoir

L’IA générative amène à se questionner sur les notions d’intégrité académique et de plagiat. Tant les chercheurs et chercheuses que les responsables d’établissements et les étudiantes et étudiants croient nécessaire de réviser les politiques institutionnelles en matière de plagiat et d’intégrité.

« [Ces politiques] devraient définir, sans ambiguïté, des règles concernant les moments où les apprenantes et les apprenants, le corps enseignant et les autres parties prenantes de l’enseignement supérieur sont autorisés à les utiliser de même que la manière de le faire. » (p.35)

Les inquiétudes liées à l’intégrité académique forcent également une remise en question des méthodes traditionnelles d’évaluation des travaux. Des méthodes d’évaluation plus authentiques ou encore des processus d’évaluation qui mettent l’accent sur la pensée logique, la résolution de problèmes ou la réflexion pourraient s’avérer plus adéquats pour contourner l’utilisation de l’IA générative que celles qui misent uniquement sur les connaissances déclaratives.  

La compétence numérique : former « à » l’IA, pas seulement « pour » l’IA

Le CSE et la CEST notent que la formation à la compétence numérique offerte aux élèves et aux personnes étudiantes de tous les niveaux gagnerait à être améliorée, malgré des avancées notables dans le soutien offert de la part des établissements. Il apparait important d’outiller les personnes étudiantes, tout comme le personnel enseignant, à comprendre le fonctionnement des outils d’IA, « dans une perspective d’autonomisation des personnes par rapport au numérique ».

Le rapport souligne aussi le fait que l’utilisation de l’IA générative est susceptible de reproduire ou même d’amplifier des inégalités entre les personnes qui étudient puisque, en raison des inégalités numériques, la capacité à tirer profit des technologies d’IA variera grandement.

Une actualisation du Cadre de référence de la compétence numérique (2019) apparait donc nécessaire pour tenir compte des développements en matière d’IA générative.

La qualité de l’information : l’importance de développer l’esprit critique

Les risques de mésinformation sont nombreux lorsque sont utilisés des outils d’IA générative.

« On parle de « fabulations » ou d’« hallucinations » pour décrire ces réponses incorrectes qui s’écartent des résultats attendus et qui ne sont pas directement fondées sur le matériel présent dans les jeux de données d’entraînement des systèmes d’IA générative (Borji, 2023 ; Lee, 2023). » (p.59)

Le rapport explique également que le biais d’automatisation et l’effet de halo contribuent à ce que les personnes accordent une grande confiance aux réponses fournies par les d’IA générative. Le développement de l’esprit critique apparait donc crucial pour se prémunir contre la mésinformation.

Les systèmes d’IA générative sont également susceptibles d’amplifier des biais discriminatoires, notamment parce que leur conception et leur entraînement comportent eux-mêmes de nombreux biais. En plus de contribuer à reproduire des inégalités, ces biais nuisent à la qualité de l’information.

Des enjeux éthiques à explorer

Le rapport fait état de problèmes éthiques liés à l’utilisation des outils d’IA générative en enseignement supérieur :

  • La qualité et l’accessibilité des services psychosociaux dans le contexte où ceux-ci peuvent être offerts par robots conversationnels.
  • La protection de la vie privée (et notamment le maintien du consentement libre et éclairé lorsque vient le temps d’utiliser – ou de refuser d’utiliser – des outils d’IA).
  • La propriété intellectuelle et le droit d’auteur.
  • L’impact environnemental majeur de l’IA générative (qui pourrait « aller à l’encontre des efforts de sobriété numérique de certains établissements », p.70).

Vers une vision et des balises communes ?

Tout au long du rapport, le CSE et la CEST rappellent l’importance pour le ministère de l’Enseignement supérieur d’exercer un leadership en matière d’intégration de l’IA générative en enseignement supérieur, tout en reconnaissant l’autonomie des établissements, l’autonomie professionnelle des personnes enseignantes et la liberté académique.

Dans cette visée, le CSE et la CEST recommandent notamment la création d’une structure collaborative de concertation nationale « visant à développer une vision commune et à définir des principes directeurs de base à l’égard d’une utilisation responsable et sécuritaire de l’IA générative en enseignement supérieur ainsi que des priorités stratégiques et des orientations à l’échelle du système » (p.30).

Voir aussi

Le milieu de l’éducation s’active et cogite à l’IA 

Cet article de l’équipe du Collimateur – Veille pédagonumérique (UQAM) paru à l’occasion de la dévoilement du rapport du CSE et de la CEST présente quatre ressources pour nourrir les réflexions en matière d’intégration de l’IA générative en enseignement supérieur.

Référence

Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie (2024). Intelligence artificielle générative en enseignement supérieur : enjeux pédagogiques et éthiques.