Résumé: Un chauffeur australien est accusé d’avoir utilisé un téléphone portable en conduisant, en violation du Règlement de 2014 sur la route (NSW) no 300. Sa défense est que ce n’était pas un téléphone, mais une boîte à jus mal identifiée, selon Jeanette Merjane, associée principale au cabinet d’avocats Lander & Rogers.
Il s’agit aussi d’un service fournissant des renseignements sur des documents légaux.
Dans une salle de conférence lumineuse à l’Université de Technologie de Sydney, la session “Can AI Win a Court Case?” de SXSW Sydney compare la présentation d’un avocat humain avec celle du Legal AI Trial Copilot de NexLaw pour défendre le même cas. Alors que Merjane a préparé ses arguments de manière classique, Copilot, qui n’est pas le chatbot AI de Microsoft, sera sollicité pour générer une plaidoirie en direct, qui sera lue par un volontaire comme s’il plaidait devant le tribunal.
Lors de plusieurs manches avant la fin de la partie, la majorité du public est convaincue que Marjane présentera un argument plus fort. Cependant, il y a quelques individus qui estiment que l’utilisation de l’intelligence artificielle pourrait nous réserver des surprises.
L’intelligence artificielle transforme déjà la manière dont le droit est exercé.

En comparaison, il semble que la profession juridique devrait accueillir avec enthousiasme l’utilisation généralisée de l’intelligence artificielle.
Les travaux juridiques impliquent généralement des heures longues, des recherches approfondies et un langage complexe. L’utilisation d’un algorithme d’intelligence artificielle pour automatiser une partie de ce travail difficile pourrait potentiellement réduire les coûts, rendre le système juridique plus accessible et soulager les avocats. De plus, les arguments juridiques font souvent référence à la législation et aux précédents, ce qui pourrait servir de base à un algorithme d’IA.
La technologie AI dans le domaine juridique est déjà en train de modifier les pratiques juridiques à l’échelle mondiale. Par exemple, en novembre 2023, la société AI Luminance a réussi à automatiser une négociation de contrat sans intervention humaine en utilisant son modèle juridique Autopilote. De plus, un législateur brésilien a utilisé le ChatGPT d’OpenAI pour rédiger une législation fiscale qui a ensuite été adoptée. Aux États-Unis, le sénateur de l’État du Massachusetts, Barry Finegold, a fait appel au ChatGPT pour élaborer un projet de loi sur la régulation de l’IA génétique. L’American Bar Association a également souligné que l’IA peut être bénéfique pour prédire les résultats et orienter les stratégies juridiques.
Cependant, l’application de l’intelligence artificielle n’est pas exempte de problèmes. DoNotPay, une entreprise américaine proposant des services juridiques en ligne et des chatbots, est un exemple médiatisé des défis liés à l’utilisation de l’IA dans le domaine juridique. En 2023, DoNotPay a annoncé son intention d’utiliser son intelligence artificielle pour plaider une affaire rapidement, en ayant un chatbot écoutant les procédures via un smartphone et donnant des instructions au défendeur par le biais d’une oreillette. Cependant, ce projet a été abandonné suite à des avertissements des procureurs de l’État concernant le risque d’accusations de pratique illégale du droit pour le PDG Joshua Browder.
Même après l’annulation de son expérience, DoNotPay a été confronté à des problèmes avec la Commission fédérale du commerce (FTC) en septembre dernier en raison de sa technologie AI. La FTC a constaté que DoNotPay avait prétendu pouvoir remplacer l’industrie juridique de 200 milliards de dollars par l’intelligence artificielle, mais a conclu que ses services n’ont pas tenu leurs promesses et ne peuvent pas être une alternative au travail d’un avocat humain.
Dans une déclaration à Mashable, Brenda Tronson a expliqué que si un client interagissait directement avec un outil d’IA générique fournissant des conseils juridiques, l’entité juridique responsable de cet outil serait considérée comme fournissant des conseils juridiques. Brenda Tronson est une maître de conférences en droit et justice à l’Université de Nouvelle-Galles du Sud, ainsi qu’une avocate spécialisée en éthique juridique et en droit public au niveau 22 Chambers à Sydney.
Si cette entité juridique n’est pas autorisée à fournir des conseils, elle risquerait, selon moi, de se livrer à des activités juridiques non autorisées et serait tenue responsable de ses actes.
Les chatbots utilisant l’intelligence artificielle génétique cherchent à fournir des réponses à des questions de nature juridique.
LawConnect CEO Christian Beck n’était pas au courant de l’existence de DoNotPay lorsque Mashable l’a interviewé en octobre. Cependant, il ne semblait pas inquiet que le chatbot juridique de son entreprise, destiné aux personnes non spécialisées, puisse rencontrer des difficultés similaires.
Beck a expliqué à Mashable qu’il existe des lois qui empêchent les non-juristes de se faire passer pour des avocats et de donner des conseils juridiques. Cependant, selon lui, des plateformes comme ChatGPT répondent à toutes les questions juridiques sans être soumises à ces lois. Il a ajouté que leur approche consiste à combiner les réponses de l’intelligence artificielle avec les vérifications effectuées par des avocats qualifiés.
Révélé en octobre dernier, le chatbot AI de LawConnect est conçu pour répondre aux questions juridiques des utilisateurs. Alors que l’intelligence artificielle proposera des réponses instantanées, les utilisateurs ont la possibilité d’adresser leurs demandes à des avocats réels pour une vérification et d’autres actions éventuelles. Le chatbot repose sur l’API d’OpenAI et s’appuie sur des informations publiques disponibles sur Internet. Cependant, selon Beck, les réponses validées par des avocats sont intégrées à l’IA pour améliorer sa capacité à fournir des réponses correctes à des questions similaires à l’avenir.
Le site Web de LawConnect propose de générer un rapport personnalisé basé sur la description de votre problème juridique, avec la possibilité de le faire examiner et vérifier.
Beck a observé que malgré les défis rencontrés, LawConnect envisage de rendre ses services accessibles dans tous les secteurs juridiques en utilisant les modèles d’intelligence artificielle d’OpenAI pour la traduction, si besoin est. Malgré la complexité de l’entreprise, il n’a pas été découragé par celle-ci.
Beck a affirmé que leur objectif n’est pas de prétendre être des avocats sans l’être. Il a expliqué qu’ils informent les utilisateurs qu’ils reçoivent des réponses de l’IA, mais qu’elles sont vérifiées par des avocats qualifiés pour garantir leur exactitude.
Un avertissement situé en bas du site Web de LawConnect indique que le contenu est destiné à des fins informatives uniquement et ne devrait pas être considéré comme un remplacement des conseils juridiques. Bien que l’outil offre un aperçu de ce à quoi un système juridique assisté par l’IA pourrait ressembler, les entreprises continuent d’explorer cette région.
Texte paraphrasé : AI lawyers experiencing hallucinations

Alors que les réponses immédiates des chatbots dotés d’intelligence artificielle semblent pratiques, des obstacles comme les hallucinations limitent actuellement l’efficacité de ces outils pour rendre la justice plus accessible. Une hallucination se réfère à un contenu fictif produit par l’IA et présenté comme réel par l’algorithme, un problème fréquent étant donné que ces outils ne saisissent pas véritablement ce qu’ils produisent.
« Selon Tronson, si une personne cherchant une aide juridique s’appuie sur ces outils sans pouvoir juger ou confirmer les résultats, elle risque de se retrouver dans une situation plus précaire que si elle n’avait pas utilisé ces outils », a indiqué Tronson à Mashable.
Cependant, même des avocats expérimentés chargés de mener de telles vérifications ont été trompés par de fausses informations générées par l’IA. Il y a déjà eu plusieurs cas largement médiatisés où des avocats ont mal utilisé l’IA génétique parce qu’ils n’avaient pas pris le temps de bien comprendre la technologie.
En juin 2023, deux avocats ont été condamnés à une amende de 5 000 $ pour avoir soumis des documents juridiques faisant référence à des affaires inexistantes. Les avocats ont admis avoir utilisé ChatGPT pour leurs recherches, se basant sur des sources fictives générées par l’outil d’intelligence artificielle. Le juge P. Kevin Castel a critiqué les avocats pour avoir persisté à défendre des cas inventés même après que leur véracité ait été remise en cause, les accusant d’agir de manière délibérée.
Déclaration du cabinet d’avocats Levidow, Levidow & Oberman : « Nous avons fait une erreur de bonne foi en ne pensant pas qu’une technologie pourrait être considérée comme un tissu entier », a déclaré le cabinet pour contester la description de Castel à ce moment-là.
Ces affirmations illustrent une incompréhension évidente de ce qu’est l’IA génique, un outil conçu pour la création de contenu et qui ne peut pas être vérifié de manière fiable.
Malgré des cas comme celui-ci, les avocats continuent de faire confiance à l’intelligence artificielle à leur propre détriment. Plus tard en 2023, un autre avocat a mentionné de faux cas générés par son client, l’ancien avocat de Trump Michael Cohen, en utilisant Google Bard. En février, le cabinet d’avocats américain Morgan & Morgan a averti ses employés contre une confiance aveugle en l’IA après qu’un de ses principaux procureurs a semblé citer des cas inventés par ChatGPT.
Certains professionnels du droit ont une connaissance approfondie des [outils IA] et les utilisent efficacement, tandis que d’autres ont une compréhension limitée de ces outils, avec la plupart se situant quelque part entre les deux extrêmes, selon les propos de Tronson rapportés par Mashable.
Même si Tronson n’a pas testé LawConnect ou le Copilote de NexLaw, elle a remarqué que ces systèmes d’intelligence artificielle spécialisés pourraient être davantage utilisés que des outils comme ChatGPT.
Tronson a mentionné à Mashable que les outils des éditeurs qu’il a examinés sont basés sur un ensemble plus restreint d’informations, offrant des sources et des liens. Il a expliqué que tout outil incluant ces deux caractéristiques est généralement plus utile que ChatGPT, car il réduit les risques d’erreurs et facilite la vérification des informations. À un certain point, cet outil devient en réalité un moteur de recherche qui fournit du contenu sur les résultats (même si ce contenu pourrait être erroné), plutôt que simplement une liste de résultats.
Ce bénéfice restreint remet en cause l’efficacité des outils légaux basés sur l’intelligence artificielle, en raison du coût environnemental élevé de cette technologie et des conséquences potentiellement graves en cas d’erreur judiciaire. Néanmoins, Tronson a admis que ces outils pourraient éventuellement s’améliorer à un point où ils deviendraient plus utiles.
Tronson a mentionné la possibilité d’améliorer les outils existants en termes de fiabilité et de qualité de production, ce qui pourrait potentiellement améliorer l’accessibilité. De plus, le développement d’outils génétiques pour soutenir des organisations telles que l’aide juridique et les centres juridiques communautaires pourrait permettre à ces organisations d’aider un plus grand nombre de personnes, contribuant ainsi à une meilleure accessibilité.
Utilisation de l’intelligence artificielle par les avocats et les juristes.
Réécriture: Lors de la confrontation à SXSW Sydney entre le co-pilote de NexLaw et Merjane, il était clair que les arguments pour contrer les accusations d’utilisation d’un téléphone portable au volant avaient été élaborés par un individu et non par une intelligence artificielle, même si aucune tentative n’avait été faite pour dissimuler l’origine des arguments.
Même en dehors de sa langue formelle, Copilot a commis des erreurs flagrantes comme citer une législation incorrecte et faire référence aux lois dans un mauvais contexte. Sa défense s’est aussi axée sur le témoignage du conjoint de l’accusé et le modèle de voiture qu’ils utilisaient, soutenant que les fonctionnalités Bluetooth et Apple CarPlay de leur Mercedes Benz leur permettaient de ne pas avoir à manipuler leur téléphone manuellement.
Cependant, Merjane a montré une photo de la prétendue infraction, mettant en avant le fait qu’il était impossible d’identifier clairement l’objet tenu par le conducteur. De plus, elle a examiné les relevés téléphoniques de l’accusé pour prouver qu’aucun appel n’était en cours au moment de la prise de la photo, et a mentionné son historique de conduite irréprochable. Merjane a répondu beaucoup plus rapidement aux questions du juge.
- La nouvelle décision indique que la loi sur le droit d’auteur ne s’applique pas à l’art créé exclusivement par l’intelligence artificielle.
- IA n’est pas ton supérieur hiérarchique. Ce n’est pas un employé. C’est un instrument.
- Le FTC déclare qu’il a pris des mesures sévères contre les “avocats robotiques”, les qualifiant d’escroquerie.
- Des avocats ont été condamnés à payer une amende de 5000 dollars pour avoir utilisé ChatGPT afin de déposer des plaintes contenant de fausses allégations.
- Le dictionnaire complet pour vous guider à travers notre monde en évolution.
Heureusement, NexLaw’s Legal AI Trial Copilot n’a pas pour objectif de substituer aux avocats. Selon leur site Web, « Copilot est conçu pour soutenir et améliorer le travail des professionnels du droit humain, et non pour les remplacer ».
Selon le professeur David Lindsay de la Faculté de droit de l’UTS, qui a une expérience en tant que juge, il est évident que l’intelligence artificielle peut contribuer à faciliter l’accès à la justice en réduisant les coûts liés à la représentation légale.
À ce stade, la présentation de cet après-midi présente une fausse opposition dans certains aspects. Dans un avenir proche, des avocats formés travailleront en collaboration avec des systèmes d’intelligence artificielle. Ainsi, aborder la question comme une opposition entre les humains et l’IA est une diversion des enjeux cruciaux liés au travail des individus avec les systèmes d’IA, ainsi que des implications juridiques et éthiques qui en découlent.
Les conséquences morales de l’intelligence artificielle juridique et de la déshumanisation du droit.
En plus de la précision des données, les algorithmes juridiques de l’intelligence artificielle posent des questions éthiques en plus de fournir des informations de qualité. L’intégration de l’IA dans le domaine juridique suscite des inquiétudes majeures concernant la responsabilité et la protection de la confidentialité.
D’après Tronson, il existe deux principales préoccupations concernant la confidentialité en ce qui concerne l’intelligence artificielle légale. La première concerne la conservation des informations saisies par le système d’IA (et la juridiction sous laquelle ses serveurs se trouvent). La seconde porte sur l’utilisation des données d’entrée pour former l’algorithme d’IA, en particulier lorsque des informations confidentielles peuvent être divulguées accidentellement.
Tronson a affirmé que la première inquiétude peut être gérée en mettant en avant l’importance des termes contractuels des outils d’intelligence artificielle. Il a ajouté que la probabilité que la seconde inquiétude se réalise devrait être réduite, mais qu’il peut être difficile, voire impossible, d’évaluer cela sans une connaissance approfondie du fonctionnement d’un système spécifique.
Selon Tronson, il est crucial que les responsables des tribunaux et des institutions professionnelles guident les professionnels du droit dans la compréhension des outils d’intelligence artificielle. Elle considère qu’il existe des cas où l’utilisation de l’IA pourrait potentiellement être contraire à l’éthique dans certaines circonstances, notamment en ce qui concerne les déclarations écrites des témoins.
En octobre dernier, un juge à New York a critiqué un expert témoin qui a employé le copilote de Microsoft pour produire une évaluation des préjudices dans un litige immobilier.
Il est crucial de bien comprendre les subtilités et les limites de l’intelligence artificielle pour l’appliquer de manière efficace et équitable. De même, une bonne compréhension des nuances dans le comportement et les droits de l’homme est indispensable pour une application efficace et juste du système juridique. Même si l’IA peut potentiellement rendre le droit plus accessible à tous, il existe un risque considérable que la technologie le déshumanise.
Dans le rapport annuel 2023 de la Cour suprême des États-Unis sur la magistrature fédérale, le juge en chef américain John G. Roberts, Jr. a reconnu que pour ceux qui ne peuvent pas se permettre d’engager un avocat, l’intelligence artificielle peut offrir une aide précieuse. Il met en avant la disponibilité de nouveaux outils facilement accessibles qui fournissent des réponses aux questions de base, notamment en indiquant où trouver des modèles et des formulaires de cour, comment les remplir, et où les présenter au juge.
Il a souligné que l’utilisation de l’intelligence artificielle doit être faite avec prudence et modestie, car les questions juridiques peuvent parfois comporter des aspects ambigus qui demandent encore l’intervention du discernement humain.
Est-ce possible qu’un chatbot AI puisse prendre la place de votre avocat ?

L’expérience de SXSW Sydney a montré que les chatbots juridiques basés sur l’IA ont encore du chemin à parcourir avant de pouvoir égaler les avocats humains. NexLaw soutient que ces outils sont actuellement conçus pour soutenir les avocats plutôt que de les remplacer. Cependant, malgré les progrès de l’IA, remplacer complètement les avocats reste une idée risquée.
Un célèbre dicton souvent cité, issu d’une présentation d’IBM datant de 1979, affirme que « un ordinateur ne peut jamais être tenu responsable, donc un ordinateur ne devrait jamais prendre de décision de gestion ». De la même manière, le remplacement des avocats par l’intelligence artificielle soulève des préoccupations quant à la responsabilité en cas de problèmes. Étant donné le niveau actuel de l’intelligence artificielle et le manque de compréhension généralisé de la technologie, il existe un risque accru de dysfonctionnements.
Selon Tronson, il est essentiel que les avocats se rappellent que les outils ne sont pas capables de penser par eux-mêmes, et qu’il est toujours nécessaire pour un praticien d’utiliser son propre jugement et sa pensée critique lorsqu’il utilise toute forme de technologie. Il a souligné qu’en appliquant la pensée critique et en faisant preuve de discernement, il est possible d’utiliser de manière appropriée l’intelligence artificielle en droit.
Contrairement aux artistes, écrivains et musiciens, il est peu probable que beaucoup de personnes pleurent la disparition des avocats en cas d’automatisation de la profession. Pourtant, une telle évolution aurait un impact profond sur le système juridique, non seulement pour les professionnels du secteur, mais aussi pour toute personne ayant une affaire à traiter, c’est-à-dire tout le monde.
Sujet: Intelligence artificielle