Actualité > Le billet
Le billet
ChatGPT et l’enseignement du droit
ChatGPT, « outil conversationnel établi à partir d’une intelligence artificielle », est le dernier sujet à la mode. Il est conçu pour dialoguer avec un interlocuteur en répondant à ses questions de manière construite et argumentée. Beaucoup s’inquiètent que cette IA soit massivement utilisée par les élèves, voire par les étudiants pour réaliser les exercices qu’ils doivent effectuer en dehors du temps scolaire ou universitaire. Cette IA pourrait, dit-on, bouleverser l’enseignement en général et l’enseignement du droit en particulier.
S’agissant du droit, la menace n’est pas de court terme. Déjà, encore faut-il réussir à accéder au service, ce qui est loin d’être toujours possible en ce moment, les serveurs étant victimes de leur succès. Mieux vaut que les étudiants soient prévoyants et ne s’y prennent pas du jour pour le lendemain…
En outre, de nombreux juristes français se sont amusés à interroger cette IA et ont obtenu des réponses erronées ou approximatives. Le droit français ne semble pas être un de ses points forts.
Les étudiants feraient donc bien, pour l’instant, de se méfier des réponses données, comme ils doivent le faire d’ailleurs des informations qui sont disponibles en ligne. Tous les sites ne se valent pas, tant s’en faut. Ainsi, la consultation des résultats d’un moteur de recherche non spécialisé ne doit jamais être l’alpha et l’oméga des travaux préparatoires des étudiants. Elle peut être un point de départ, mais certainement pas la ligne d’arrivée. Les étudiants doivent se fier à leurs cours, aux manuels qu’ils pourront trouver dans leur bibliothèque universitaire et aux bases de données spécialisées, certes payantes pour la plupart, mais auxquelles ils ont accès gratuitement depuis leur environnement numérique de travail. Les grands éditeurs juridiques ont d’ailleurs fait de sérieux efforts, ces dernières années, pour améliorer la précision de leurs moteurs de recherche, certains présentant même leurs résultats de manière instantanée.
Certes, ChatGPT n’est pas un simple moteur de recherche. Il est censé pouvoir répondre à une question, de manière argumentée, et donc faire, non seulement le travail de recherche, mais également le travail d’exploitation et de mise en forme de ces recherches.
Toutefois, pour comprendre une règle de droit, il ne suffit pas de savoir lire. Il faut être capable de trouver la jurisprudence pertinente qui s’est développée à son sujet, analyser les opinions doctrinales émises sur le thème ou encore replacer la règle étudiée dans l’ordonnancement juridique pour en saisir la portée. Par ailleurs, cette IA achoppe visiblement sur la fiabilité des informations sur la base desquelles elle a été entraînée. Étonnamment, elle peut, parfois, lorsqu’elle est interrogée successivement sur un même problème, répondre tout et son contraire, faute sans doute de pouvoir hiérarchiser les sources d’information, contradictoires, auxquelles elle a accès.
Cette absence de fiabilité limite, pour l’instant, l’intérêt de l’outil, au moins en droit français, et ce d’autant qu’il est difficile d’évaluer la fiabilité de la réponse, faute de transparence sur les sources qui ont servi à la construction de celle-ci. Formellement parfaite, la réponse peut donc être totalement erronée au fond, sans que l’interlocuteur ait les moyens de douter de sa véracité. Autrement dit, la réponse peut fort bien avoir une apparence de vérité, mais se révéler totalement erronée, sans que le destinataire de la réponse, par hypothèse ignorant de la solution, n'ait le moyen de la mettre en doute.
À court terme, et par le petit bout de la lorgnette de l’enseignement du droit, ChatGPT n’est peut-être pas la révolution que certains annoncent. Il y a beau temps, en effet, que l’évaluation des devoirs dont la réalisation ne se fait pas sur le temps universitaire (et en présentiel) pose questions. Tous ceux qui, pendant la période covid, ont dû concevoir des examens à distance ont douloureusement expérimenté les problèmes de fraude.
Par fainéantise, manque de temps (étudiants salariés), manque de confiance en soi ou simplement par facilité, nombre d’étudiants reproduisent/adaptent du contenu trouvé en ligne, ou font réaliser le travail par d’autres qu’eux, parfois sous le prétexte du travail « en groupe ». À deux égards, le devoir maison manque alors sa cible : il ne donne pas une image fidèle du niveau de l’étudiant ; il ne forme pas l’étudiant aux méthodes qu’il doit maîtriser. L’étudiant remporte ainsi une victoire à la Pyrrhus, plus dure étant sa chute lors de l’examen final.
On notera d’ailleurs qu’un certain nombre d’étudiants comprend mal, de bonne foi semble-t-il, le concept de plagiat, eux qui voient reproduits sur des applications dédiées, à l’infini, par des personnes différentes, la même danse, la même histoire, le même extrait de film, etc., celui récoltant le plus de « vues » n’étant pas nécessairement le créateur de la danse, de l’histoire ou du film, etc.
ChatGPT n’est donc finalement qu’un nouvel outil, certes potentiellement beaucoup plus abouti, qui permettra à certains de faire l’économie d’un travail personnel et de fausser l’évaluation des devoirs non surveillés. Rien de véritablement nouveau donc.
Les enseignants-chercheurs s’adapteront, comme ils se sont déjà adaptés, l’utilisation des logiciels de détection de plagiat étant devenue la règle. D’ailleurs, il n’a fallu que quelques jours pour que des développeurs mettent au point des applications permettant de vérifier si un devoir a été conçu par une IA. À n’en pas douter, les logiciels de détection de plagiat s’enrichiront rapidement d’une nouvelle fonctionnalité.
Finalement, la solution passera sans doute par la suppression de l’évaluation des devoirs « maison », ce à quoi se sont déjà résignés de nombreux enseignants.
À terme, la progression de ces intelligences artificielles, si tant est qu’elle soit inexorable, pose des questions autrement plus vertigineuses : si une intelligence artificielle fait tout mieux et plus rapidement, aussi bien dans les arts qu’au travail, que restera-t-il à faire aux êtres humains ?
Autres Billets
-
[ 2 décembre 2024 ]
Responsabilité financière des gestionnaires publics : tous justiciables…
-
[ 25 novembre 2024 ]
Hannoukka, l'Élysée et la laïcité
-
[ 18 novembre 2024 ]
Crise en Nouvelle-Calédonie : sur la légalité des détentions subies dans l’Hexagone
-
[ 12 novembre 2024 ]
Le principe de neutralité du service public face aux collaborations avec des universités israéliennes dans le contexte de la guerre de Gaza et du Liban
-
[ 4 novembre 2024 ]
PLFSS 2025 : l’avenir des droits sociaux en débats
- >> Tous les Billets