Code de conduite de la legaltech sur l’IA Générative
Les legaltech de France Digitale dont Lexbase, Gino, Doctrine, Ekie, Legalstart et Deeplblock s'engagent dans un code de conduite à respecter certains principes dans leurs innovations et développements intégrant l’intelligence artificielle générative.
Les legaltechs françaises utilisent l’intelligence artificielle pour apporter des solutions innovantes aux professionnels du droit (notamment ceux qui exercent au sein de professions réglementées comme les avocats, les notaires, les commissaires de justice et les magistrats) et aux justiciables, particuliers et entreprises ou toute autre institution publique ou privée. L’intégration de l’intelligence artificielle générative pose des questions nouvelles et légitimes auxquelles nous avons voulu répondre en confiance et transparence. Ce code de conduite sur l’IA générative est un engagement de chaque entité signataire à en respecter les principes dans ses innovations et développements intégrant l’intelligence artificielle générative.
Principe de sécurité et de confidentialité
Les utilisateurs des legaltechs détiennent des données qui peuvent être hautement sensibles et confidentielles, et doivent donc pouvoir faire confiance aux outils qu’ils utilisent.
La legaltech française s’engage à traiter ces données en accord avec les meilleures pratiques de sécurité, avec notamment des tests systématisés lors des mises en production, une revue humaine de chaque nouveauté, et une séparation des environnements de développement et de production.
Par ailleurs, nous nous engageons à héberger les données de nos utilisateurs au sein de l’Espace Économique Européen, dans des datacenters répondant aux standards de sécurité et de confidentialité, et à chiffrer et pseudonymiser autant que possible les données au repos.
Si une situation exige un transfert hors Espace Économique Européen, nous vous informerons et prendrons toutes les mesures juridiques et techniques adéquates pour atténuer tout risque d’accès aux données transférées.
Principe de transparence
La transparence est au cœur de la régulation du numérique et des plateformes et nous l’intégrons comme principe essentiel dans nos innovations basées sur l’IA générative.
Nous nous engageons à vous informer dès lors que nous vous affichons du contenu généré par intelligence artificielle.
Afin de permettre à nos utilisateurs de comprendre le fonctionnement de nos outils, nous nous engageons également à les informer sur les larges modèles de langage (« LLM », pour large language model) utilisés par nos solutions respectives, en vous précisant notamment s’il s’agit de modèles open source ou propriétaires et en indiquant le nom du fournisseur du modèle employé.
Principe de limitation des biais
Pour les modèles que nous entrainons nous-mêmes, nous nous engageons à œuvrer à limiter les biais dans nos jeux de données d’entraînement et de test, configurés spécifiquement pour le système juridique français. Plus généralement, nous nous engageons à auditer régulièrement nos innovations en production pour nous assurer que leur comportement reste conforme aux exigences légales et éthiques.
Ces engagements seront renforcés par notre mise en conformité avec le règlement européen sur l’intelligence artificielle et toute autre disposition légale ou réglementaire applicable en France.
Formation et sensibilisation
Il est essentiel de prévoir des programmes de formation et de sensibilisation pour les utilisateurs de legaltechs afin de les familiariser avec l’utilisation de l’IA générative et de les aider à comprendre ses implications éthiques, sociales et juridiques. Cela contribue à promouvoir une utilisation responsable de la technologie et à prévenir les abus. Nous nous engageons à prévoir des formations à nos outils respectifs pour accompagner leur adoption, en y intégrant une sensibilisation à ces implications.
Responsabilité et contrôle humain
À la vue des développements toujours plus poussés des performances de l’IA générative, il est capital d’affirmer que son utilisation ne doit en aucun cas remplacer l’humain, mais plutôt l’assister.
Si aujourd’hui, l’IA offre des gains de temps considérables dans la réalisation de certaines tâches, elle doit être utilisée sous une supervision humaine.
Les utilisateurs des legaltechs doivent rester maîtres de leurs choix, conserver un œil critique face aux propositions faites par l’IA et garder le contrôle sur l’utilisation qu’ils font des résultats produits par ces systèmes.
Le design et la formulation des réponses de l’IA générative doit les aider en ce sens ; cela implique notamment la présentation des sources utilisées pour générer les réponses, lorsque cela est techniquement possible.
Propriété des données générées
Nous respectons le droit d’auteur sur les documents qui nous sont confiés et nous engageons à ne pas entraîner de modèle d’intelligence artificielle sur la base de documents ou de données de nos utilisateurs, à moins d’avoir obtenu leur accord préalable.
Les utilisateurs des legaltechs peuvent librement réutiliser les contenus générés par l’intelligence artificielle, le cas échéant.
Ce code de conduite a été adopté dans sa première version par le groupe Legaltech de France Digitale le 21.11.2024, étant entendu qu’il a vocation à être adapté régulièrement, compte tenu notamment de la rapidité des évolutions technologiques qu’il couvre.
Ce code de conduite a été signé par 14 Legaltech membres de France Digitale : Deep Block, Doctrine, Ekie, Gino Legaltech, Legalstart, Lexbase, IPOCAMP, Jimini AI, Juripredis, Justice.cool, Mylegitech, Octolo, RegMind et Tomorro.