Parutions
Pistes de réflexion sur l’intelligence artificielle en enseignement supérieur
7 février 2023
Parutions
7 février 2023
Un chercheur et une chercheuse amorcent une réflexion sur les enjeux éthiques et critiques de l’intelligence artificielle (IA) en enseignement supérieur.
Simon Collin, professeur à la Faculté des sciences de l’éducation de l’Université du Québec à Montréal, et Emmanuelle Marceau, professeure de philosophie au Cégep du Vieux Montréal et professeure associée à l’École de santé publique de l’Université de Montréal, signent un article qui présente des enjeux éthiques et critiques liés à la conception de l’IA, aux données massives qui y sont associées et à l’usage de l’IA en enseignement supérieur. Leur article présente également des pistes de solutions pour agir sur ces enjeux.
Collin et Marceau expliquent que des enjeux de représentation et de représentativité accompagnent la conception des technologies. Les décisions des équipes de conception sont susceptibles d’être teintées par deux biais :
En enseignement supérieur, Collin et Marceau expliquent que ces biais risquent de favoriser le développement d’une IA répondant à certaines caractéristiques du corps enseignant et de la population étudiante, mais omettant les besoins de celles et ceux qui ne correspondent pas à ces caractéristiques.
Pour réduire ces biais, il serait souhaitable de composer des équipes de conception diversifiées. En effet, une équipe ayant divers profils sociodémographiques et ethnoculturels est plus susceptible d’assurer une meilleure représentation de différents groupes sociaux.
« Sur le plan de l’enseignement supérieur, il s’agirait de s’assurer que les équipes de conception recrutent des personnes enseignantes ayant une expertise et une expérience approfondies de la pédagogie, d’une part, et qu’elles soient représentatives de la diversité des milieux d’enseignement, d’autre part. »
(Collin et Marceau, 2023, §28)
L’implication d’enseignants et d’enseignantes dès la phase de conception de l’IA, selon les modèles de conception centrés-usagers (Labarthe, 2010, dans Collin et Marceau, 2023), permettrait aussi de mieux considérer les besoins des individus.
Le chercheur et la chercheuse signalent cependant que ces deux pistes de solution ont elles aussi des limites. D’une part, le personnel enseignant susceptible de participer au processus de conception de l’IA pourrait ne pas être représentatif de l’ensemble du personnel enseignant. D’autre part, les équipes de conception pourraient se montrer peu ouvertes envers les commentaires des personnes usagères.
Collin et Marceau rappellent que l’entraînement de l’IA passe par l’utilisation de données massives. Or, les données massives peuvent elles-mêmes comporter des biais qui se répercuteront sur les algorithmes.
« Transposé à l’enseignement supérieur, ce type de biais est susceptible de discriminer certains profils d’étudiantes et d’étudiants ou de milieux d’enseignement sur la base d’associations récurrentes de données générées par d’autres profils ou milieux. »
(Collin et Marceau, 2023, §24)
Les pistes de solutions en ce qui concerne la collecte et l’utilisation des données massives portent sur le consentement des individus. Malheureusement, Collin et Marceau font valoir que le consentement libre, éclairé et continu des personnes est difficile à obtenir lorsqu’il est question d’IA, cette technologie étant particulièrement opaque.
« En enseignement supérieur, ce manque de transparence implique que les établissements d’enseignement supérieur qui intègrent l’IA le font sans une compréhension fine des données collectées et de leurs implications éducatives et sociales pour les étudiantes et les étudiants, alors même qu’ils sont responsables d’assurer le consentement libre, éclairé et continu de ces derniers. »
(Collin et Marceau, 2023, §30)
Pour les enseignants et les enseignantes, l’IA offre le potentiel d’automatiser plusieurs tâches. À cet égard, Collin et Marceau s’interrogent sur les effets de l’IA sur l’autonomie et le jugement professionnels.
« [L]e personnel enseignant et l’IA constituent une relation d’interdépendance étroite et permanente au sein de laquelle se distribuent les rôles, les tâches et les responsabilités pédagogiques. Or, l’automatisation de l’IA rend cette dernière progressivement apte à prendre en charge une partie croissante des tâches pédagogiques, éventuellement aux dépens de l’agentivité du personnel enseignant. »
(Collin et Marceau, 2023, §25)
Les pistes de solutions concernent ici la formation du corps enseignant et des personnes étudiantes au sujet de l’IA, de son fonctionnement et de ses implications éducatives et sociales. Par exemple, des activités délibératives sur les enjeux de l’IA pourraient contribuer au développement d’une posture critique chez les étudiants et les étudiantes.
Cependant, ce type d’activité comporte des défis puisqu’« il est nécessaire pour les formatrices et les formateurs, ainsi que pour les futures enseignantes et les futurs enseignants de disposer des connaissances sur chacune de ces dimensions, en l’absence de quoi il leur est impossible de délibérer. » (§32)
Collin et Marceau concluent leur article en soulignant que la réflexion éthique et critique concernant l’utilisation de l’IA en enseignement supérieur devrait être amorcée dès sa conception. Cette posture critique permettrait de prévenir les risques liés à l’utilisation de l’IA, tout en tirant profit de ce qu’elle peut offrir.
Collin, S., et Marceau, E. (2023). Enjeux éthiques et critiques de l’intelligence artificielle en enseignement supérieur. Éthique publique, 24(2). https://doi.org/10.4000/ethiquepublique.7619
Suggestions de lecture
Intelligence artificielle générative : qu’en disent les étudiantes et étudiants ?
Formation en stage et diversité étudiante
Accompagnement à la réussite : vers des initiatives intégrées aux programmes
L’avenir de l’enseignement supérieur : des adaptations nécessaires
La transition vers les études postsecondaires en milieu minoritaire francophone
Vers une prise en compte prudente et judicieuse de l’IA en enseignement supérieur
Soutien, sentiment d’efficacité personnelle et transitions
L’importance de contextualiser les problèmes pour favoriser l’apprentissage en sciences de la nature
Tendances en matière d’apprentissage numérique