Depuis l’ouverture au public de ChatGPT, l’émergence de l’IA générative et intégrative fait grand bruit dans l’enseignement supérieur. Son impact est discuté, les réactions des institutions sont commentées et il est temps désormais de proposer des orientations.
IA et enseignement supérieur : le contexte
Certains étudiants et étudiantes admettent utiliser l’outil non pour le fond mais pour la forme, pour sa capacité à mieux rédiger qu’eux. C’est la question de la maitrise du langage qui se pose alors. Se pose aussi bien sûr la question de la recherche documentaire, de l’expertise, de l’esprit critique face à un texte créé de toute pièce par une IA fondée sur la statistique bayésienne et qui vise donc la moyenne et la plus forte probabilité tandis qu’une partie de l’intelligence humaine traque davantage la différenciation et la spécificité.
Les réactions de l’enseignement supérieur…
Face à ces questions, les réactions depuis le début de l’année 2023 sont désormais assez clairement cartographiées :
Certains acteurs ont tout simplement mis de côté le phénomène sous le prétexte que c’était une mode et que cela ne durerait pas.
D’autres ont indiqué vouloir interdire l’outil en cherchant à en détecter l’usage puis en sanctionner l’utilisation. Après 10 mois d’existence et de pratiques, il est devenu évident que ces productions n’étaient pas détectables formellement (Les leaders de la détection du plagiat et de « l’intégrité rédactionnelle » s’y cassent les dents !). Par ailleurs des études récentes montrent l’inefficacité de la détection dans la plupart des cas.
D’autres enfin cherchent à s’approprier l’outil pour en tirer parti. En l’utilisant en tant « qu’assistant » (pour la rédaction de plans de cours, de sujets d’exercices, de qcm, de jeux de données, de cas, de corrigés) ou encore, par exemple, pour stimuler nos élèves à apporter un regard critique sur la réponse à une question (prompt) fournie par une IA générative.
La voie à suivre…
Les positionnements qui émergent à l’échelle internationale s’orientent majoritairement vers la troisième proposition : accepter que l’IA fasse désormais partie de notre paysage et pour longtemps. A l’échelle des grandes écoles et universités françaises, c’est incontestablement la voie de la sagesse. Elle pourrait être balisée de la manière suivante :
Avoir une position claire en posant clairement le cadre réglementaire et éthique dans lequel les usages de l’IA doivent s’insérer dans nos pratiques pédagogiques,
Garder le contrôle des outils en développant une culture de l’IA auprès des élèves et des enseignants et enseignantes : sensibiliser aux usages éthiques et responsables de l’IA, repenser les enseignements et en particulier les évaluations des apprentissages en les recentrant sur les compétences, former les élèves à interroger efficacement l’IA, etc.
Rendre les outils accessibles au plus grand nombre car il est de notre devoir de préparer tous les élèves et les enseignants et enseignantes à ces mutations.
A l’échelle nationale, il est temps de nous inspirer de nos collègues québécois. Ils ont en effet déjà bien avancé dans la réflexion en proposant des ressources financières et humaines pour produire de la recherche concernant l’impact de l’IA sur les apprentissages en créant et en animant le Pôle montréalais d’enseignement supérieur en Intelligence Artificielle (PIA) dont « la mission est d’assurer une réponse concertée des cégeps et des universités aux besoins de formation suscités par les développements en cours et futurs de l’intelligence artificielle en construisant, au sein des établissements membres, une compréhension partagée de ses impacts. »
Les auteurs sont Stéphane Justeau, doyen associé à la pédagogie et Laurent Barbin, ingénieur pédagogique, ESSCA School of Management
A lire aussi : Face au défi de ChatGPT, comment enseigner à poser les bonnes questions et obtenir les meilleures réponses ?