Expliquer l’IA à un tribunal : Considérations pratiques pour les litiges en matière d’IA
Cette publication fait partie de notre série Perspectives sur l’intelligence artificielle, rédigée par le groupe du droit de l'IA de McCarthy Tétrault – vos partenaires de choix pour vous aider à mieux vous y retrouver dans cet environnement complexe et dynamique. Cette série vous présente des perspectives pratiques et intégratives sur la façon dont l'IA transforme les secteurs industriels, et vous explique comment vous pouvez garder une longueur d'avance. Vous pouvez consulter les autres publications de cette série en cliquant ici ou en visitant notre page Web consacrée à l'intelligence artificielle en cliquant ici.
À mesure que l’intelligence artificielle révolutionne certains aspects du monde des affaires et de la vie quotidienne, elle modifie également l’objet et la pratique du litige. La propriété intellectuelle générée par l’IA, les décisions prises par l’IA et les processus décisionnels de l’IA feront de plus en plus l’objet de différends. Les litiges en matière d’IA seront nombreux et les enjeux qui en découleront seront importants. Reste à savoir comment ils seront traités devant les tribunaux.
Pour être convaincants, les avocats et leurs clients devront décrire au décideur, de manière simple mais complète, les caractéristiques uniques du produit ou de la technologie d’IA qui fait l’objet du litige. Des témoignages d’experts seront souvent nécessaires pour informer les juges et les arbitres qui, comme les avocats chevronnés qui traitent ces affaires, ne sont probablement pas des « natifs du numérique ». Il appartiendra aux avocats plaidants d’aider les juges et les arbitres à prendre des décisions concernant ce monde entièrement nouveau qu’ils ne connaissent pas et ces décisions auront une incidence sur la manière dont l’IA sera développée et mise en œuvre.
Rien de tout cela n’est nouveau. Les avocats qui traitent des affaires technologiques et des litiges en matière de propriété intellectuelle utilisent depuis des décennies des techniques de plaidoirie pour démystifier des sujets hautement techniques. Les juges peuvent apprendre les rouages de médicaments hautement complexes ou de produits techniques avant de rendre des décisions importantes qui ont des répercussions considérables sur des secteurs entiers de l’économie. Cependant, certaines des caractéristiques actuelles et potentielles de l’IA rendront l’application de ces mêmes techniques de plaidoirie dans les litiges en matière d’IA particulièrement difficile. Les équipes de gestion des risques devraient donc rechercher de manière proactive et diligente des conseils multidisciplinaires pour s’assurer que leurs organisations sont prêtes à faire face à un éventuel litige en matière d’IA.[1]
Être prêt à décrire le produit
Dans tout litige impliquant une complexité technique, les tribunaux s’attendent à ce que les parties soient en mesure d’expliquer la technologie en question et son lien avec le différend entre les parties. L’IA risque de compliquer cette tâche, d’autant plus que les modèles de « boîte noire » trouvent une large application sur le plan commercial. Si un demandeur cherche à tenir un développeur ou un utilisateur d’IA responsable des décisions prises par l’IA, le manque d’interprétabilité des décisions contestées posera problème au cours du litige.
Afin d’atténuer ce risque, les organisations qui adoptent des systèmes d’IA dans leurs processus opérationnels devraient au moins être capables de répondre aux questions suivantes :
- Quelles données ont été utilisées pour former l’IA, d’où proviennent ces données et qui en est ou en a été le propriétaire ? Certains des litiges les plus médiatisés en matière d’IA à ce jour concernent des poursuites relatives à des allégations d’extraction abusive de données utilisées pour entraîner des « modèles de langage de grande taille » et d’autres formes d’IA générative. La prise en compte de la provenance des données d’entraînement est une étape importante dans la réduction des risques, y compris pour les utilisateurs organisationnels d’IA.
- Comment l’IA interagit-elle avec les clients ou les utilisateurs finaux et les clients sont-ils conscients que le produit qu’ils utilisent intègre de l’IA ? Dans le cas des applications « entreprise à consommateur » (« B2C ») de l’IA, le point de vue du consommateur est un élément crucial pour l’atténuation des risques et, en fin de compte, pour l’élaboration d’un argumentaire convaincant permettant de contester la responsabilité en cas de litige. Les organisations qui adoptent l’IA pour des applications destinées aux consommateurs devraient prendre soin de concevoir et de documenter l'expérience utilisateur. Cela permettra d’identifier les problèmes potentiels de protection des consommateurs et de rassembler des preuves d’une utilisation sécuritaire, appropriée et légale de l’IA. Un examen attentif des conditions d’utilisation et des clauses de non-responsabilité claires peut contribuer à limiter les risques de litige.
- Quelles sont les mesures prises pour garantir que l’IA protège la vie privée des utilisateurs, que les renseignements confidentiels ou sensibles contenus dans l’ensemble de données demeurent privés ou anonymes et que le produit est conforme aux lois applicables en matière de protection de la vie privée ? Quelles sont les mesures de protection mises en place pour identifier et combattre les préjugés présents dans l’IA ? Chacun de ces éléments constitue un risque potentiel de litige. En fonction du cadre juridique applicable, les organisations qui utilisent l’IA pourraient être tenues de prouver à un tribunal qu’elles ont fait preuve de prudence et de diligence dans leur utilisation de l’IA. Pour ce faire, il serait bénéfique pour une organisation de disposer de documents contemporains attestant des mesures prises pour protéger la vie privée et détecter les préjugés. Bien que ces documents puissent être soumis à production dans le cadre d’une procédure de communication de pièces dans le contexte d’un litige, ils sont susceptibles d’être des outils efficaces de responsabilisation interne pour la même raison.
Les parties aux litiges en matière d’IA devront être en mesure de répondre à ces questions de manière méthodique. Les organisations peuvent s’y préparer en établissant des processus et des politiques de gouvernance de l’IA conformes et alignés sur les meilleures pratiques du secteur.
Identifier des experts indépendants potentiels
L’IA est un domaine complexe qui se développe rapidement. Elle fait appel à des compétences telles que l’informatique, les mathématiques et l’ingénierie. Bien que les tribunaux aient manifesté le désir de mieux comprendre l’IA et de l’intégrer dans leurs fonctions judiciaires,[2] l’IA reste un domaine nouveau et très technique. En fin de compte, les tribunaux auront besoin de l’aide d’experts pour comprendre l’IA de manière générale et les caractéristiques uniques du produit d’IA dans un litige donné.
Travailler avec des experts dans le cadre d’un litige nécessite de respecter scrupuleusement les lois relatives à la preuve par expert. Plus important encore, pour être admissible devant un tribunal canadien, le témoignage d’un expert doit être indépendant, impartial et refléter l’expertise particulière de l’expert. L’implication en amont d’un avocat spécialisé dans les litiges, y compris dans le processus de gestion des risques, peut contribuer à l’identification proactive d’experts potentiels et à préserver leur indépendance.
Comme dans les litiges relatifs à la propriété intellectuelle, à la responsabilité professionnelle et à la protection du consommateur, les témoignages d’experts seront essentiels dans les litiges relatifs à l’IA. Par nécessité, les tribunaux s’appuieront sur l’expertise d’experts indépendants pour comprendre les technologies en question et la manière dont elles devraient être utilisées. Les organisations qui développent et adoptent l’IA doivent garder cela à l’esprit dans le cadre de la gestion et de l’atténuation des risques.
Maintenir la gestion des risques au premier plan
Lorsqu’un litige en matière d’IA survient, une organisation peut avoir besoin de constituer rapidement un dossier de preuve. Elle peut également être confrontée à des obligations de conservation et de production de documents dans le cadre d’une procédure de communication de pièces. Les documents pertinents pour l’IA en question devront être identifiés, conservés et examinés par les avocats dans un délai relativement court.
En particulier dans cette ère initiale d’adoption généralisée de l’IA, les organisations devraient anticiper la possibilité de litiges liés à l’IA et concevoir des systèmes de gestion documentaire internes qui gèrent et atténuent les risques, plutôt que d'y contribuer. Là encore, des processus et des politiques de gouvernance de l’IA bien documentés seront un outil essentiel.
McCarthy Tétrault peut vous aider. Si vous avez des questions sur le contenu de cet article ou sur la façon dont votre organisation peut gérer et atténuer les risques liés aux litiges en matière d’IA, n’hésitez pas à contacter l’un des auteurs, votre contact habituel chez McCarthy Tétrault ou un membre de notre équipe chargée des litiges en matière d’IA.
[1] Pour en savoir plus, consultez la série d'articles sur l'intelligence artificielle de McCarthy Tétrault rédigée par notre groupe de droit de l'IA.
[2] Voir, par exemple, les Lignes directrices sur l'utilisation de l'intelligence artificielle dans les tribunaux canadiens, septembre 2024, par le Conseil canadien de la magistrature. Disponible à l'adresse https://cjc-ccm.ca/fr/nouvelles/le-conseil-canadien-de-la-magistrature-publie-des-lignes-directrices-sur-lutilisation-de. Les Lignes directrices détaillent un cadre fondé sur des principes pour comprendre dans quelle mesure les outils d'IA peuvent être utilisés de manière appropriée pour soutenir ou améliorer le rôle judiciaire.