Enseignant utilisant l'IA

Les enseignants adoptent l’IA, mais leurs élèves les prennent de court !

Les outils d’intelligence artificielle, comme ChatGPT, sont de plus en plus utilisés dans l’enseignement. Pourtant, certains enseignants, qui interdisent leur usage aux étudiants, les utilisent secrètement eux-mêmes. Cette situation soulève de nombreuses questions éthiques et pratiques.

Une découverte troublante par une étudiante

En février dernier, Ella Stapleton, étudiante à l’université Northeastern de Boston, a fait une découverte étonnante. Lors de la relecture d’un cours sur le management des organisations, elle a repéré une instruction à ChatGPT dans les supports pédagogiques de son professeur. « Développe tous les angles. Sois plus complet et précis », l’instruction disait. La jeune femme n’a pas mis longtemps à identifier les caractéristiques d’un texte généré par une intelligence artificielle : des définitions sous forme de listes à puces, des exemples simplistes, et un style un peu trop uniforme.

Elle a alors alerté une amie, et ensemble, elles ont creusé un peu plus. En fouillant d’autres documents, elles ont trouvé des incohérences dans les diaporamas et des images dont l’anatomie semblait étrange, typique des erreurs produites par les IA. Ce n’était pas ce à quoi elle s’attendait, étant donné la réputation de son université et le coût élevé des frais de scolarité.

La réclamation : un acte symbolique

Agréablement surprise mais aussi déçue, Ella a décidé de porter plainte contre son professeur pour l’usage dissimulé de l’IA. Elle a même réclamé un remboursement partiel de ses frais de scolarité pour ce cours, invoquant une violation des standards déontologiques de l’université. À ses yeux, l’usage de l’IA par son professeur, tout en interdisant son utilisation par les étudiants, était un cas de décalage éthique flagrant.

READ  Parcoursup : pourquoi les lettres générées par l’IA sont vite recalées

L’inversion des rôles : les étudiants dénoncent

Depuis le lancement de ChatGPT en 2022, les établissements éducatifs ont réagi différemment. Si certains ont interdit l’utilisation de ces outils, d’autres ont mis en place des logiciels pour détecter les textes générés par l’IA. Cependant, aujourd’hui, les rôles semblent s’inverser. Ce sont désormais les étudiants qui dénoncent l’utilisation excessive de l’IA par leurs enseignants, notamment sur des plateformes comme Rate My Professors. Ils soulignent non seulement l’ironie de cette situation mais aussi le côté financier du problème : ils paient pour des cours donnés par des êtres humains, pas par des machines.

Certains enseignants justifient leur recours à l’IA par le gain de temps qu’elle leur permet. D’après plusieurs témoignages, ChatGPT et autres agents conversationnels servent de véritables assistants pédagogiques. Ces outils sont utilisés pour gagner du temps en créant des supports de cours ou même en structurant les retours aux étudiants.

Le recours à l’IA : un phénomène en forte croissance

L’usage de l’IA dans l’enseignement supérieur est en constante augmentation. Selon un sondage réalisé en 2024 par le cabinet Tyton Partners, 18 % des enseignants déclaraient utiliser des outils d’IA générative dans leur enseignement. Ce chiffre a presque doublé cette année. De plus, des entreprises comme OpenAI et Anthropic ont lancé des versions professionnelles de leurs agents conversationnels, spécialement conçues pour les universités.

Des cas similaires à travers les États-Unis

L’histoire de Marie, une étudiante de l’Université du Sud du New Hampshire, a mis en lumière un autre aspect du problème. En consultant les résultats d’un devoir de trois pages pour son cours d’anthropologie, elle a trouvé une conversation avec ChatGPT dans les commentaires de sa note. Là aussi, un échange était intervenu pour attribuer une « très bonne appréciation » à Marie sans qu’elle ne le sache. Bien que la professeure ait reconnu l’utilisation de l’IA pour structurer ses retours, cela a créé un malaise chez l’étudiante, qui a finalement décidé de changer d’université.

READ  IA : La bombe à retardement qu'aucun expert n'ose ignorer !

Enseigner un usage responsable de l’IA

L’usage de l’IA dans les établissements d’enseignement soulève des préoccupations sur l’intégrité académique et la responsabilité. Paul Shovlin, professeur d’anglais à l’Université de l’Ohio, aborde cette question en soulignant l’importance d’enseigner aux étudiants l’usage responsable de l’IA. Selon lui, ils doivent être formés à comprendre les implications éthiques de l’utilisation de ces outils, car ils risquent de les utiliser tout au long de leur vie professionnelle.

Une leçon pour l’avenir

Les incidents comme ceux vécus par Ella et Marie font réfléchir les universités sur l’intégration de l’IA dans l’enseignement. Rick Arrowood, le professeur à l’origine de l’affaire de Northeastern, a reconnu que son recours à l’IA pour générer des supports pédagogiques était une erreur, bien qu’il pensait que cela améliorerait la qualité des cours. Après sa rencontre avec l’administration, il a pris conscience de l’importance d’une plus grande transparence dans l’utilisation des nouvelles technologies.

Dans l’optique de prévenir de futures situations similaires, Northeastern a désormais des lignes directrices officielles. Tous les enseignants doivent désormais déclarer l’utilisation de l’IA et vérifier l’exactitude des documents générés avant de les partager avec leurs étudiants.

L’enseignement est toute ma vie, a déclaré Rick Arrowood, et il espère que son expérience pourra servir de leçon à d’autres enseignants.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut