Un avocat américain a été sanctionné après avoir utilisé ChatGPT pour rédiger un mémoire avec de fausses références. Ainsi, fin mai 2025, la Cour d’appel de l’Utah a sanctionné un avocat local, après avoir découvert que l’un de ses mémoires comportait plusieurs références à des décisions de justice… qui n’existaient pas.
Cet avocat avait déposé une requête en appel au nom d’un client. Mais lors de la relecture du document, l’avocat de la partie adverse a constaté que certaines citations jurisprudentielles ne correspondaient à aucun jugement répertorié dans les bases légales officielles. Parmi elles, figurait notamment un prétendu arrêt, Royer v. Nelson, totalement introuvable ailleurs que via ChatGPT.
Le problème vient surtout de ceux qui ne vérifient pas ! Ainsi, interrogé par la Cour, l’avocat a reconnu que ces références provenaient d’un mémoire rédigé par un assistant juridique non diplômé, qui avait utilisé l’outil d’intelligence artificielle sans vérification ensuite de sa part. L’intéressé a présenté ses excuses et admis que le document contenait des exemples de jurisprudence « fabriquée ».
« Le devoir permanent de vérifier et de garantir l'exactitude de ses documents judiciaires »
La cour d’appel a souligné que l’intelligence artificielle pouvait constituer un outil de recherche prometteur, mais a rappelé que la responsabilité ultime de tout dépôt juridique incombait à l’avocat : « Nous convenons que l'utilisation de l'IA dans la préparation des plaidoiries est un outil de recherche juridique qui continuera d'évoluer avec les progrès technologiques. Cependant, nous soulignons que chaque avocat a le devoir permanent de vérifier et de garantir l'exactitude de ses documents judiciaires. Dans le cas présent, les avocats du requérant ont manqué à leurs responsabilités de contrôle en tant que membres du barreau de l'État de l'Utah lorsqu'ils ont soumis une requête contenant un faux précédent généré par ChatGPT. »
L’avocat a été condamné à rembourser à son client les honoraires liés à la préparation du mémoire fautif, régler les frais d’avocat de la partie adverse et verser 1 000 dollars à une association caritative dans le domaine judiciaire. Cette affaire rappelait un précédent new-yorkais de 2023, où deux avocats avaient eux aussi été sanctionnés pour avoir soumis au juge un mémoire truffé de jurisprudence fictive générée par ChatGPT.
Malheureusement, cette affaire n’est pas isolée, ni limitée aux États-Unis. En effet, quelques jours plus tard, le 6 juin dernier, la Haute Cour de Londres avertissait les avocats qui utilisaient l'intelligence artificielle pour citer des affaires inexistantes qu’ils pourraient être poursuivis pour outrage au tribunal, voire faire l'objet de poursuites pénales : « L'utilisation abusive de l'intelligence artificielle a de graves implications pour l'administration de la justice et la confiance du public dans le système judiciaire. Dans ces circonstances, des mesures pratiques et efficaces doivent désormais être prises par les membres de la profession juridique ayant des responsabilités de direction individuelles [...] et par ceux qui sont chargés de réglementer la prestation de services juridiques. »
Les hallucinations : ces contenus vraisemblables qui sont en réalité faux
Pour l’instant, les juridictions françaises n’ont pas encore sanctionné d’avocats qui auraient utilisé ChaptGPT. Au bénéfice du doute, acquiesçons au fait que les avocats français sont plus vertueux.
En effet, dès septembre 2024, le Conseil national des barreaux a élaboré un guide pour aider les avocats à intégrer l'IA générative dans leur pratique professionnelle.
Ce guide rappelle que l'IA générative révolutionne la façon de travailler des avocats et des professionnels du droit. Les possibilités qu’elle offre pour automatiser la recherche documentaire, rédiger des documents juridiques ou anticiper des décisions judiciaires à l’aide d’outils dédiés décuplent la productivité des professionnels du droit. En gagnant du temps sur ces tâches, les juristes peuvent se concentrer sur des tâches plus complexes ou à forte valeur ajoutée.
Mais le Conseil national des barreaux a également mis en garde les professionnels du droit contre les limites et les risques associés de ces outils :
- l'IA générative peut produire des contenus vraisemblables, en apparence véridiques, mais qui sont en réalité faux : ce sont les hallucinations.
- Elle comporte des biais de conception dont il faut avoir conscience (notamment des risques de discriminations, notamment à l’embauche) et des biais cognitifs de l’utilisateur comme le risque de paresse intellectuelle.
- Elle présente un risque de perte de confidentialité, car toutes les données des requêtes sont, par défaut, réutilisées par le propriétaire de la solution d'IA générative pour entraîner son modèle malgré les assurances du contraire.
L’avocat gardien de la fiabilité et de l’intégrité des preuves et de la jurisprudence
Ces décisions de justice confirment que, si l’IA offre des perspectives intéressantes dans la pratique du droit, elle exige un usage strictement encadré et surtout confidentiel. La vérification humaine reste incontournable : un avocat demeure gardien de la fiabilité et de l’intégrité des preuves et de la jurisprudence produite présentées dans un cadre judiciaire.