Disponible gratuitement en ligne, ChatGPT est un robot conversationnel qui permet à quiconque de générer des textes sur n’importe quel sujet en quelques secondes. Évidemment, l’efficacité d’un tel outil le rend alléchant pour les étudiants qui aimeraient sauver des heures de rédactions et de lectures.
Par son accessibilité et son efficacité, les établissements d’enseignement supérieur se voient contraints d’encadrer l’utilisation de ChatGPT. Si l’Université Concordia considère que sa définition du plagiat telle qu’il est inscrit dans son code de conduite pédagogique – « la présentation du travail d’autrui, sous quelque forme que ce soit, en le faisant passer pour sien ou sans en mentionner la source véritable » (alinéa 19.a.) – exclut déjà l’utilisation des systèmes d’intelligence artificielle basés sur le langage. Cela dit, d’autres établissements réagissent différemment.
L’Université de Montréal (UdeM) adopte, quant à elle, une approche plus directe. L’établissement a d’ailleurs informé ses étudiants qu’une mise à jour de ses règlements sur le plagiat rendait désormais prohibé «l’utilisation de robots conversationnels» comme ChatGPT dans le cadre d’évaluations académiques.
Toutefois, si Concordia n’a pas jugé nécessaire de mettre à jour son code de conduite, l’Université n’ignore pas le sérieux de la situation pour autant. L’institut d’intelligence artificielle appliquée de l’Université Concordia, une organisation chargée de faire progresser l’utilisation sociale de l’IA, travaille actuellement à mettre sur pied une équipe de chercheurs spécialisés sur l’usage de l’IA dans un contexte d’études supérieures. L’équipe aura pour mission de fournir des recommandations publiques visant à encadrer l’utilisation universitaire de ces nouveaux outils. Ces recommandations pourraient être utilisées par d’autres Universités.
De son côté, l’Université McGill maintient une position prudente. «Avec l’émergence de l’utilisation des chatbots, ou robots conversationnels, dans un contexte universitaire, McGill cherche activement à renforcer la protection de son intégrité académique, tout en examinant les moyens d’intégrer les nouvelles technologies», nous communique l’Université, non sans maintenir que le plagiat demeure une pratique condamnée.
L’Université du Québec à Montréal (UQÀM), comme Concordia, considère que l’utilisation des robots conversationnels peut être considérée comme du plagiat en vertu de leur règlementation en la matière. «Les experts du Carrefour d’innovation et de pédagogie universitaire de l’UQÀM suivent de près l’arrivée et l’évolution des technologies en intelligence artificielle, dont ChatGPT», nous communique l’UQÀM. Lors des formations au Carrefour d’innovation et de pédagogie universitaire, la question des IA est traitée et «un atelier portant exclusivement sur ces technologies est aussi en préparation». Une journée d’étude de la question des IA en éducation est organisée par le Pôle montréalais d’enseignement supérieur en intelligence artificielle (PIA) le 31 mai prochain. L’UQÀM croit que les apprentissages issus de cet événement seront pertinents pour «poursuivre la réflexion sur cette question»
Pour lutter contre le plagiat, OpenAI, l’entreprise derrière ChatGPT a nouvellement dévoilé un outil de détection de textes générés par intelligence artificielle. Alors que la paraphrase des textes générés par IA est souvent suffisante pour en flouer l’origine robotique, l’efficacité de l’outil est volatile.
Qu’en pense le loup?
Pour illustrer la performance de ChatGPT, voici la réponse donnée par ce robot à la question «Quels sont les dangers de l’utilisation des outils d’intelligence artificielle comme ChatGPT par des étudiants universitaires?».
L’utilisation des outils d’intelligence artificielle tels que ChatGPT par des étudiants universitaires peut présenter plusieurs dangers, notamment :
1. La dépendance : Les étudiants peuvent devenir trop dépendants de l’outil d’IA pour les aider à résoudre les problèmes ou répondre aux questions, ce qui peut les empêcher de développer leur propre pensée critique et leur capacité à résoudre des problèmes par eux-mêmes.
2. La fraude académique : Les étudiants pourraient utiliser l’outil d’IA pour créer du contenu plagiaté ou pour tricher lors d’évaluations en ligne, ce qui constitue une fraude académique.
3. La partialité : Les outils d’IA sont entraînés à partir de données qui peuvent être biaisées, ce qui peut se refléter dans les résultats produits. Les étudiants doivent être conscients de cette limitation et prendre cela en compte lorsqu’ils utilisent l’outil.
4. La confidentialité : Si l’outil est utilisé pour stocker ou traiter des données sensibles, les étudiants doivent être conscients des risques de violation de la confidentialité ou de la sécurité des données.
5. La sécurité informatique : L’utilisation d’un outil d’IA peut présenter des risques pour la sécurité informatique de l’utilisateur, tels que les attaques de phishing ou les logiciels malveillants.
Il est important que les étudiants soient conscients de ces dangers et qu’ils soient formés à utiliser les outils d’IA de manière responsable et éthique. Les universités doivent également mettre en place des politiques et des directives claires pour encadrer l’utilisation des outils d’IA afin de minimiser les risques pour les étudiants.
– ChatGPT