Il y a quelques semaines, dans un train reliant Paris à Bordeaux, j’ai été le témoin involontaire d’une scène édifiante. Trois étudiants en droit, assis à côté de moi, discutaient d’un devoir qu’ils venaient de rendre. Leur professeur leur avait soumis un questionnaire à choix multiples. L’un d’eux, plutôt que de réviser son cours, avait soumis le questionnaire à un agent conversationnel, sans savoir que l’enseignant, prévoyant, avait inséré dans le document, en lettres blanches et donc invisibles à l’œil nu, une consigne invitant l’intelligence artificielle à ne donner que des réponses erronées. Ce qu’elle fit. L’étudiant rendit un devoir entièrement faux sans s’en apercevoir.
L’anecdote est plaisante, mais elle est surtout révélatrice d’un danger bien plus profond : celui d’une génération de juristes qui, en déléguant leur réflexion à la machine, risquent de perdre la capacité même de distinguer le vrai du faux. Cet étudiant n’avait pas seulement triché : il avait abdiqué son jugement. Il avait délégué à la machine non pas une tâche, mais son discernement. Cette scène, apparemment anodine, dit quelque chose d’essentiel sur ce qui nous menace. Non pas une intelligence artificielle qui dominerait l’homme, mais une intelligence artificielle qui le dispenserait de l’effort.
La rupture de la transmission
Quand j’étais jeune magistrat, au début de ma carrière, je rédigeais mes premiers projets de décisions. Je les rédigeais mal, inévitablement. Mon président les corrigeait, m’expliquant pourquoi tel raisonnement ne tenait pas, pourquoi telle formulation était imprécise, pourquoi la solution proposée était juridiquement fragile. Je recommençais et progressais. J’ai ainsi appris la rédaction des jugements, non pas dans les livres, mais par l’exercice concret de la fonction. C’est ce que l’artisanat appelle le compagnonnage : on apprend en faisant, sous le regard de celui qui sait.
C’est le même processus pour le jeune avocat qui rédige ses premières conclusions, pour le jeune juriste d’entreprise qui analyse son premier contrat complexe, pour l’étudiant qui construit son premier syllogisme juridique. Ce processus, lent, parfois ingrat, toujours exigeant, est irremplaçable. Il est le lieu de la transmission. Il est le creuset où se forge le jugement. Apprendre le droit, c’est apprendre à nommer les choses avec exactitude. Comme l’écrivait Albert Camus, « Mal nommer les choses, c’est ajouter au malheur du monde ».
Mais si l’intelligence artificielle se charge désormais de nommer à notre place, si elle accomplit les tâches qui forgent l’apprentissage des jeunes juristes, rédiger un projet de décision, dépouiller la jurisprudence, tâtonner dans l’exercice de la qualification juridique, qui transmettra demain ce savoir-faire indispensable ? Comment le futur juriste, privé de ces étapes essentielles, acquerra-t-il la maîtrise et la sensibilité nécessaires pour devenir un professionnel accompli ?
Le junior qui ne rédige plus, qui ne dépouille plus, qui ne tâtonne plus dans la qualification juridique, comment deviendra-t-il senior ? On ne forme pas un juge en lui confiant le contrôle qualité de ce qu’une machine a produit. On le forme en le confrontant à la résistance du réel, à l’insuffisance de la loi, à l’irréductible singularité des faits. Si nous supprimons ces tâches au nom de l’efficacité, nous gagnerons du temps, mais nous perdrons des juges.
L’illusion de l’efficacité
L’argument est d’une redoutable simplicité : pourquoi consacrer une heure à ce qu’une machine fait en dix secondes ? Il est imparable. Il est aussi le piège le plus efficace que l’on puisse concevoir. Car ce que l’intelligence artificielle produit n’est pas une pensée, mais une corrélation statistique. Cette corrélation a l’apparence de la pensée, elle en emprunte la langue, elle en mime les enchaînements logiques, elle en reproduit les formes. Elle produit des textes qui ressemblent à s’y méprendre à du raisonnement juridique. C’est précisément parce que l’illusion est parfaite que le piège est profond.
L’intelligence artificielle ne se contente pas d’assister les juristes, elle s’immisce dans les opérations mêmes de la pensée. Pour la première fois, l’outil ne se borne pas à servir l’intelligence humaine, il en reproduit les mécanismes. Le risque, comme l’a souligné Raphaël Gaillard dans L’Homme augmenté (Grasset, 2024), est que l’homo augmentatus ne devienne, par un paradoxe tragique, un homo diminutus, dépossédé non seulement de sa liberté, mais de cette capacité critique qui fonde son humanité.
Pourquoi ce paradoxe ? Parce que l’histoire de l’humanité est celle d’une hybridation progressive avec ses outils. Le livre a marqué la première symbiose cognitive : en externalisant la mémoire, l’homme a étendu les limites de l’esprit sans s’y substituer. L’imprimerie a démocratisé le savoir, l’informatique a décuplé notre puissance de calcul. Chaque révolution technique a élargi nos capacités sans altérer notre essence. Mais l’intelligence artificielle franchit un seuil inédit. Elle ne nous aide plus seulement à penser : elle pense à notre place, ou du moins nous donne l’impression qu’elle le fait.
Ce n’est pas une domination brutale de l’homme par la machine qui nous menace, mais une dépendance insidieuse. L’automatisation ne s’impose pas par la contrainte : elle s’installe par consentement, sous couvert d’efficacité, de rapidité, d’une rationalité qui se passe de notre jugement. La dépendance cognitive n’est plus une tentation ponctuelle : elle devient un mode de fonctionnement, une habitude quotidienne, un réflexe. Combien de praticiens commencent désormais par interroger la machine avant de penser par eux-mêmes ? Non par paresse, mais par rationalité apparente.
Le risque n’est pas que les machines nous dominent, mais que nous renoncions à nous dominer nous-mêmes. Sous prétexte de nous soulager, ces systèmes nous dispensent peu à peu de l’effort de penser, de trancher, de nous responsabiliser. L’intelligence artificielle n’ordonne rien, ne contraint pas, ne menace pas la liberté. Elle soulage. C’est précisément ce soulagement qui est dangereux, parce qu’il rend imperceptible ce que l’on perd.
Retrouvez ici la deuxième partie de cet article : IA et apprentisage du droit : le juriste doit savoir poser les bonnes questions
Vincent Vigneau
Olivier Dion - Vincent Vigneau
Vincent Vigneau est magistrat depuis 1990 et président de la Chambre commerciale, financière et économique de la Cour de cassation depuis 2023, après avoir été en poste en Normandie et en région parisienne, notamment à la cour d’appel de Versailles et au Tribunal de grande instance de Nanterre. Il est également membre du conseil de résolution de l’ACPR et préside le conseil de discipline des juges des tribunaux de commerce. Il a par ailleurs été professeur associé à l’université de Versailles-Saint Quentin en Yvelines de 2001 à 2023. Il a coécrit plusieurs ouvrages juridiques et a publié en 2023, son premier roman, Les fleurs de lin (Les presses littéraires) dans lequel il raconte, à travers le personnage principal, son combat contre le cancer.
Pour télécharger ce document, vous devez d'abord acheter l'article correspondant.
