top of page

L’utilisation de l’intelligence artificielle dans la formation du juriste 

L’intelligence artificielle (IA) se retrouve désormais dans tous les domaines du savoir et, le droit n’y fait pas exception. En quelques mois, les étudiants en droit ont découvert des outils capables de faire de la synthétisation de jurisprudence, de rédiger des arguments et même de réfléchir pour eux. Cette révolution technologique soulève toutefois plusieurs problèmes. Un de ces problèmes consiste à remettre en question la place de la formation des futurs juristes, puisque la machine devrait y occuper une place grandissante. L’IA offre des avantages pédagogiques et professionnels, mais risque d’affaiblir la rigueur intellectuelle et la réflexion critique essentielle à la culture juridique.

ChatGPT Image 22 déc. 2025, 02 h 41 min 44 s.png

Par Raphaël Layani

22 décembre 2025

L’impact sur les études en droit

 

La formation du juriste se fait traditionnellement par l’apprentissage du raisonnement juridique. Ainsi, c’est cette capacité à faire ressortir d’une trame conflictuelle des faits importants et trouver le droit applicable à travers un processus d’analyse structurée qui marque le parcours d’un futur juriste. Cependant, l’avènement d’outils comme ChatGPT, Lexis + IA, et bien d’autres encore, a transformé cette procédure en une simple tâche de production textuelle. Les étudiants peuvent obtenir en quelques secondes une fiche de jurisprudence ainsi qu’une analyse juridique paraissant complète et fiable sans passer par l’effort de compréhension et de réflexion qui est primordial pour un juriste. On commence alors à assister à une certaine forme de paresse intellectuelle chez les étudiants. L’efficacité et la facilité remplacent la difficulté inhérente du raisonnement juridique.

Par conséquent, l’intelligence artificielle (IA) semble être un raccourci trompeur. Les étudiants qui commencent des études en droit n’ont pas encore beaucoup de connaissances techniques. L’IA donne à ces étudiants une illusion de savoir, mais elle ne peut pas vraiment expliquer le cheminement juridique derrière les réponses qu’elle leur offre. Les étudiants se contentent donc d’un résultat sans se soucier de la réflexion qui se cache derrière celui-ci. Un autre problème vient aussi du fait que les intelligences artificielles, comme ChatGPT, ne sont pas toujours fiables, comme l’illustre le jugement Specter Aviation Limited c. Laprade¹. Dans cette affaire, le défendeur se représentant seul a produit une contestation d’une sentence d’arbitrage produite à l’aide de l’IA. Ce document contenait de la jurisprudence fictive inventée par l’outil d’intelligence artificielle. Le juge du dossier a qualifié cette erreur de manquement grave au sens de l’article 342 du Code de Procédure Civil. Ainsi, la cour a imposé une sanction de 5000$ au défendeur en affirmant que :

« Tenter d’induire la partie adverse et le Tribunal en erreur en produisant des extraits fictifs de jurisprudence et autres autorités constitue un manquement grave. Que cette conduite soit intentionnelle ou plutôt le fruit d’une simple négligence, le justiciable est redevable des plus hauts standards par rapport aux procédures qu’il dépose à la Cour. »².

Cette mise en garde devrait particulièrement résonner chez les étudiants en droit. En effet, si les tribunaux exigent des justiciables ordinaires, même non représentés, les plus hauts standards de la rigueur concernant l’utilisation de l’IA, cette exigence sera encore plus stricte pour les futurs avocats. Il est donc essentiel que la formation des juristes soit conçue de manière à développer, dès le départ, une vigilance éclairée quant aux limites de l’intelligence artificielle.

Il importe néanmoins de souligner que l’IA n’est pas uniquement porteuse de risques pour la formation juridique, mais peut aussi contribuer positivement à son évolution. Bien encadrés, ces outils peuvent permettre de renforcer l’apprentissage en fournissant des explications supplémentaires ainsi qu’en permettant aux étudiants de vérifier leur structure argumentative. Cette utilisation doit alors être encadrée. Plusieurs facultés de droit ont justement commencé à émettre des lignes directrices en ce sens. Il est néanmoins important d’avertir le plus tôt possible les nouveaux étudiants des limites et des risques associés à ces outils.  Le rôle d’un futur juriste n’est pas seulement d’être efficace et de prendre l’avenue la plus facile. Il exige une agilité intellectuelle, une capacité à développer un argument en situation de stress sans soutien technologique et surtout de comprendre le processus de raisonnement qui l’amène à prendre position.

L’IA n’est pas fondamentalement mauvaise, mais elle le devient si un juriste n’est pas capable de fonctionner sans elle. On voit maintenant plus rarement des étudiants préparer eux-mêmes leurs résumés de jurisprudence ou prendre le temps de synthétiser leurs propres notes. Cette nouvelle réalité devrait inciter les facultés de droit à élaborer des approches pédagogiques permettant d’initier les étudiants à l’usage réfléchi de l’IA. Les outils d’IA ne devraient donc pas être diabolisés, mais il faut quand même reconnaitre que, plus ils nous font gagner du temps sur le court terme, plus ils risquent de nous couter cher en temps d’étude supplémentaire lorsque viendra le temps de réaliser que nous ne comprenons pas réellement la matière qui sort tout droit de l’IA. L’enjeu n’est donc pas de rejeter ces outils, mais d’apprendre à les intégrer de façon responsable pour que l’IA devienne un soutien et non un remplacement au raisonnement juridique.

​​​​

Notes de bas de pages

1. Specter Aviation Limited c. Laprade, 2025 QCCS 3521

2. Ibid¸au para 57

bottom of page