Le numéro d’octobre de la revue Médiations et médiatisations propose des réflexions sur les impacts de l’IA dans l’éducation et en enseignement supérieur.

L’ORES attire l’attention sur deux articles qui traitent plus particulièrement d’usages potentiels d’outils d’IA en contexte d’apprentissage.

Aspirations et défis de l’IA dans l’éducation

Aïssa Messaoudi, professeur invité à l’Université des finances et de l’économie du Shandong, explore les avantages et les défis liés à l’utilisation de l’IA en éducation.

Se basant sur une revue de la littérature, le professeur identifie les applications actuelles et possibles de l’IA en éducation en matière de personnalisation de l’apprentissage. Il relève 6 moyens de personnalisation et explique leurs visées :

Moyen de personnalisationVisée de l’IA
Apprentissage adaptatifRépondre aux besoins individuels grâce à une adaptation du contenu, du rythme d’apprentissage et des méthodes d’enseignement.
Ressources pédagogiques adaptativesCréer des ressources dont le fond et la forme varient pour s’adapter aux intérêts et aux besoins des apprenantes et des apprenants.
Systèmes de tutorat intelligentsOffrir un suivi personnalisé des apprentissages, à faible coût.
Analyse des performancesGuider la prise de décisions pédagogiques grâce à un processus de collecte, de mesure et d’interprétation des données sur le progrès des personnes étudiantes.
Évaluations automatiséesOffrir des rétroactions personnalisées, détaillées et adaptées à chaque personne étudiante de façon presque instantanée.
Prédiction de la réussitePrédire la réussite et la non-réussite grâce à la collecte et l’analyse de données sur les apprenantes et les apprenants, dans le but d’offrir des mesures adaptées aux personnes à risque d’échec.

Le professeur rappelle que l’efficacité des outils d’IA dans ces champs d’action est encore discutable, mais il estime que de futurs développements technologiques risquent fortement de rendre ces outils satisfaisants. Il relève donc des enjeux à considérer dans le contexte du déploiement de tels outils :

  • La question de la protection des données personnelles est cruciale, surtout en l’absence de législation encadrant l’industrie de l’IA.
  • L’exactitude des outils de prédiction reste à démontrer, sachant que les outils d’IA ne sont pas exempts de biais et que l’on sait peu de choses sur leur conception.
  • L’évaluation par les outils d’IA pourrait aussi s’avérer problématique. D’une part parce qu’elle pourrait être source de pression chez les personnes apprenantes en leur donnant l’impression d’être constamment évaluées. D’autre part, parce qu’elle est moins précise et indulgente que l’évaluation conduite par un humain.
  • Les systèmes de tutorat intelligent sont prometteurs, mais la qualité des échanges n’atteint pas celles des discussions entre personnes apprenantes et enseignantes.

Les robots conversationnels comme tuteurs?

Une équipe de l’Université de Mons explore l’utilisation de robots conversationnels en tant qu’outils pédagogiques en enseignement supérieur.

Dans le cadre de cette expérimentation, un robot conversationnel a été intégré à Teams pour répondre à des questions en lien avec un cours de sciences de l’éducation et de la formation. Les réponses programmées permettaient au robot conversationnel de fournir des définitions, des exemples ou des ressources complémentaires au sujet de concepts abordés dans le cours.

Bien que l’outil ait été offert à 443 étudiantes et étudiants, seulement 89 l’ont utilisé. Les personnes non-utilisatrices expliquent principalement ne pas en avoir éprouvé le besoin (n=263). Les personnes ayant utilisé le robot conversationnel en ont une perception positive. Elles le jugent facile à utiliser et pertinent pour accomplir des tâches plus rapidement. Ces personnes jugent aussi que les informations transmises étaient précises et compréhensibles. L’analyse des échanges entre les étudiantes et les étudiants et le robot conversationnel montre par ailleurs que ce dernier a principalement été utilisé pour du soutien pédagogique (ex. contenus du cours, consignes liées à un travail) et, dans une moindre mesure pour du soutien technique et logistique (ex. trouver les enregistrements d’un cours).

Références

Marchal, P., Kumps, A., Floquet, C., Deruwé, O., et De Lièvre, B. (2024). Perceptions et usages d’un chatbot comme tuteur de cours en sciences de l’éducation. Médiations et médiatisations, (18). 125‑147. https://doi.org/10.52358/mm.vi18.410

Messaoudi, A. (2024). Les défis de l’IA dans l’éducation : de la protection des données aux biais algorithmiques. Médiations et médiatisations, (18). 148–160. https://doi.org/10.52358/mm.vi18.409