Harmoniser la gouvernance mondiale en matière d’IA : le rôle et les répercussions de la Convention sur l’IA de l’UE
Cette publication fait partie de notre série Perspectives sur l’intelligence artificielle, rédigée par le groupe du droit de l'IA de McCarthy Tétrault – vos partenaires de choix pour vous aider à mieux vous y retrouver dans cet environnement complexe et dynamique. Cette série vous présente des perspectives pratiques et intégratives sur la façon dont l'IA transforme les secteurs industriels, et vous explique comment vous pouvez garder une longueur d'avance. Vous pouvez consulter les autres publications de cette série en cliquant ici ou en visitant notre page Web consacrée à l'intelligence artificielle en cliquant ici.
Introduction
À une époque où l’intelligence artificielle (ci-après l’« IA ») est de plus en plus intégrée dans tous les aspects de notre vie, le besoin d’adopter un cadre de gouvernance mondial pour garantir son utilisation éthique et responsable n’a jamais été aussi pressant. Ce sentiment d’urgence est au cœur de la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit[1] (ci-après, la « Convention sur l’IA de l’UE »), le premier instrument international juridiquement contraignant sur l’IA.
La Convention sur l’IA de l’UE a été négociée par les 46 États membres du Conseil de l’Europe aux côtés de 11 États non membres (dont les États-Unis et le Canada)[2] et a été ouverte à la signature le 5 septembre 2024, lors d’une conférence des ministres de la Justice en Lituanie[3]. Plusieurs acteurs non étatiques ont participé aux négociations, dont des représentants de l’UNESCO.
La Convention sur l’IA de l’UE est un autre exemple de l’augmentation du cadre législatif entourant l’IA suscitée par les efforts mondiaux visant à concilier les progrès rapides des technologies de l’IA avec la nécessité de protéger les droits de l’homme et de préserver les préceptes fondamentaux de la société.
Objet et portée
À ne pas confondre avec la Loi européenne sur l’intelligence artificielle qui énonce des obligations ciblées pour des acteurs spécifiques de la chaîne de valeur de l’IA qui exercent leurs activités sur le marché de l’UE[4], la Convention sur l’IA de l’UE est plutôt un instrument international conçu pour aborder le cycle de vie des systèmes d’IA, en particulier ceux qui pourraient interférer avec les droits de l’homme, la démocratie et l’État de droit. Son application est étendue, touchant les secteurs public et privé[5].
La Convention prévoit notamment certaines exemptions. Les systèmes d’IA liés à la sécurité et à la défense nationales sont exclus de l’application de la Convention sur l’IA de l’UE[6] (une approche également adoptée dans la Loi européenne sur l’intelligence artificielle), tandis que les activités de recherche et de développement sont exemptées à condition qu’elles ne soient pas utilisées d’une manière susceptible d’interférer avec les droits de l’homme[7].
Exigences et obligations
La Convention sur l’IA de l’UE établit des obligations générales que les pays adhérents doivent intégrer dans leur législation nationale sur l’IA. Elle met l’accent sur des principes généraux plutôt que sur des stratégies d’exécution détaillées, ce qui fait en sorte qu’elle manque de précision sur la manière d’atteindre les objectifs décrits.
En vertu de la Convention sur l’IA de l’UE, les parties doivent mettre en place des mesures visant à garantir que l’utilisation des systèmes d’IA est compatible avec la protection des droits de l’homme[8], la préservation de l’intégrité et de l’indépendance des structures institutionnelles[9] et le maintien des processus démocratiques[10], y compris la séparation des pouvoirs, l’indépendance de la justice, l’accès à la justice et le débat public.
La Convention sur l’IA de l’UE fait mention de la notion de « risques et impacts négatifs » sans en donner une définition claire. Si certains éléments indiquent que ces termes « se réfèrent principalement aux obligations et engagements en matière de droits de l’homme applicables aux cadres existants de chaque partie en matière de droits de l’homme, de démocratie et d’État de droits[11] », les limites de ce concept demeurent ambiguës. Une approche fondée sur les risques ou les impacts est un élément essentiel de la nouvelle législation en matière d’IA, notamment dans la Loi européenne sur l’intelligence artificielle et le projet de Loi sur l’intelligence artificielle et les données du Canada (ci-après, la « LIAD »).
Parmi les autres obligations imposées par la Convention sur l’IA de l’UE, citons la mise en place de mesures visant à :
- garantir le respect de la dignité humaine et de l’autonomie personnelle (article 7);
- assurer la transparence et le contrôle adaptés aux contextes et aux risques, ce qui comprend de déterminer le contenu généré par l’IA, et à exercer et à faire respecter les droits de propriété intellectuelle[12] (article 8);
- établir l’obligation de rendre des comptes et la responsabilité des systèmes d’IA susceptibles d’avoir des impacts négatifs sur les droits de l’homme, la démocratie et l’État de droit (article 9);
- aider à garantir que les activités des systèmes d’IA respectent les droits à l’égalité et à la non-discrimination (article 10);
- assurer le respect de la vie privée et la protection des données à caractère personnel (article 11);
- favoriser la fiabilité des systèmes d’IA et la confiance en leurs résultats (article 12);
- favoriser une innovation sûre dans des environnements contrôlés sous la surveillance d’autorités compétentes (article 13).
Recours et surveillance
Les parties doivent mettre en place des recours effectifs et accessibles contre les violations des droits de l’homme dans le contexte des systèmes d’IA[13]. Pour qu’un recours soit effectif, il doit pouvoir remédier directement aux situations contestées[14]. De plus, un recours est accessible s’il est disponible avec des garanties procédurales suffisantes[15].
La Convention sur l’IA de l’UE appelle à l’évaluation et à l’atténuation continues des risques posés par les systèmes d’IA, ce qui exige un examen approfondi des impacts potentiels, la prise en compte du point de vue des parties prenantes et un suivi continu, tout en portant une attention particulière aux besoins des enfants et des personnes handicapées[16].
Les parties doivent également promouvoir les compétences numériques, y compris l’acquisition de compétences de pointe pour les personnes qui font partie de la chaîne de valeur de l’IA[17], et garantir un débat public et une consultation multipartites au sujet des « questions importantes »[18] soulevées par les systèmes d’IA, bien que ce terme ne soit pas défini.
Enfin, les parties doivent garantir des mécanismes de contrôle indépendants et effectifs des mesures et de la réglementation en matière d’IA, et favoriser la coopération entre les acteurs de la protection des droits de l’homme[19].
Entrée en vigueur
Les signataires actuels comprennent l’UE, les États-Unis, le Royaume-Uni, Andorre, la Géorgie, l’Islande, la Norvège, la Moldavie, Saint-Marin et Israël[20]. Toutefois, la Convention sur l’IA de l’UE ne pourra entrer en vigueur que trois mois après qu’au moins cinq signataires l’auront ratifiée. Comme aucun ne l’a fait à ce jour, la date de son entrée en vigueur demeure encore inconnue (en droit international, une convention n’est pas contraignante pour ses signataires avant sa ratification, qui est l’acte juridique effectif exprimant le consentement d’un État à être lié par une convention). Pour tout signataire ultérieur, dont potentiellement le Canada (qui a participé à la négociation), la Convention sur l’IA de l’UE deviendrait contraignante trois mois après le dépôt de sa ratification[21].
Lors de la signature, de la soumission de l’instrument de ratification, de l’acceptation, de l’approbation ou de l’adhésion, les parties doivent préciser comment elles entendent respecter les obligations prescrites dans la Convention sur l’AI de l’UE dans une déclaration adressée au Secrétaire général du Conseil de l’Europe[22].
En bref : Qu’en est-il de la réglementation future en matière d’IA
Si le Canada décide de signer la Convention sur l’IA de l’UE, la LIAD, qui est en cours d’examen par un comité de la Chambre des communes[23], devra faire l’objet d’importantes révisions.
En effet, même si la LIAD respecte la Convention sur l’IA de l’UE en ce qui concerne les obligations relatives à la tenue de registres, à l’évaluation des risques, aux mesures d’atténuation, à la notification des dommages, à la divulgation publique des descriptions des systèmes d’IA et à la mise en place d’un organisme de surveillance (qui doivent toutefois être précisées dans les futures réglementations qui ne sont pas encore rédigées), elle s’avère insuffisante sur de nombreux points essentiels. La réglementation de la LIAD est axée sur les systèmes d’IA à incidence élevée du secteur privé. Bien qu’il ait été suggéré que le concept de « systèmes à incidence élevée » couvrait les systèmes ayant une incidence sur les droits de l’homme[24], il n’y a actuellement aucune prise en compte explicite de la sauvegarde de la démocratie et de l’État de droit. Les amendements proposés à la LIAD suggèrent cependant de mettre en œuvre des niveaux de systèmes à incidence élevée, y compris notamment les systèmes d’IA utilisés par les tribunaux ou par les organes administratifs dans leurs procédures de jugement des droits d’une personne[25]. Parmi les autres modifications visant les systèmes d’IA à usage général susceptibles de présenter des risques sociétaux en raison de leur échelle, notons l’introduction d’obligations d’évaluation des risques en matière de « diffusion de la désinformation et de fonctionnement des institutions sociétales et démocratiques[26] ».
La période de consultation sur la LIAD s’est terminée le 6 septembre dernier[27] et son avenir demeure incertain. Les élections fédérales de l’automne 2025 et une réécriture possiblement importante de la LIAD pour la rendre conforme à la Convention sur l’IA de l’UE se profilent à l’horizon.
Conclusion
La Convention sur l’IA de l’UE apporte une preuve de l’émergence d’un cadre législatif entourant l’IA sur la scène mondiale et vise à guider la communauté internationale vers une réglementation uniforme des systèmes d’IA. Cet objectif est soutenu par ses principaux signataires, dont l’UE, les États-Unis et le Royaume-Uni. Il est important de noter que certaines grandes puissances, dont la Chine, n’ont pas participé aux négociations.
Puisque la Convention sur l’IA de l’UE établit principalement des principes directeurs, il reste à voir comment les signataires traduiront ces dispositions en législation locale exécutoire.
Autres lectures
- https://www.mccarthy.ca/en/insights/blogs/techlex/10-key-takeaways-navigating-future-ai-law-understanding-eu-ai-act-and-aida
- https://www.mccarthy.ca/en/insights/blogs/techlex/governing-ai-leuropeenne-how-eu-ai-act-regulates-ai-systems-and-why-it-matters-canadian-businesses
[1] Conseil de l’Europe, Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit, STCE 225 (2024), accessible en ligne à l’adresse : https://rm.coe.int/1680afae3d.
[2] Conseil de l’Europe, « Le Conseil de l’Europe ouvre à la signature le premier traité mondial sur l’IA », 5 septembre 2024, accessible en ligne à l’adresse : https://www.coe.int/fr/web/portal/-/council-of-europe-opens-first-ever-global-treaty-on-ai-for-signature.
[3] Reuters, « US, Britain, EU to sign first international AI treaty », 5 septembre 2024, accessible en ligne à l’adresse : https://www.reuters.com/technology/artificial-intelligence/us-britain-eu-sign-agreement-ai-standards-ft-reports-2024-09-05/.
[4] Loi sur l’intelligence artificielle de l’UE, « Résumé de haut niveau de la loi sur l’IA », 27 février 2024, accessible en ligne à l’adresse : https://artificialintelligenceact.eu/fr/high-level-summary/.
[5] Conseil de l’Europe, supra, note 1, art. 3(1)a) et b).
[6] Ibid, art. 3(2) et (4).
[7] Ibid, art. 3(3).
[8] Ibid, art. 4.
[9] Ibid, art. 5(1).
[10] Ibid, art. 5(2).
[11] Conseil de l’Europe, Rapport explicatif de la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit, 2024, accessible en ligne à l’adresse : https://rm.coe.int/1680afae68, par. 67.
[12] Ibid, par. 58.
[13] Conseil de l’Europe, supra, note 1, art. 14.
[14] Conseil de l’Europe, supra, note 11, par. 95 et suivants.
[15] Ibid.
[16] Conseil de l’Europe, supra, note 1, art. 16 à 18.
[17] Ibid, art. 20.
[18] Ibid, art. 19.
[19] Ibid, art. 26.
[20] Conseil de l’Europe, supra, note 2.
[21] Conseil de l’Europe, supra, note 1, art. 30 et 31.
[22] Ibid, art. 3,1.
[23] Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, Projet de loi C-27 (étape du comité – 22 novembre 2021), 1re session, 44e législature canadienne, accessible en ligne à l’adresse : https://www.parl.ca/legisinfo/fr/projet-de-loi/44-1/c-27.
[24] Gouvernement du Canada, « La Loi sur l’intelligence artificielle et les données (LIAD) – document complémentaire », 13 mars 2023, accessible en ligne à l’adresse : https://ised-isde.canada.ca/site/innover-meilleur-canada/fr/loi-lintelligence-artificielle-donnees-liad-document-complementaire.
[25] Ministre de l’Innovation, des Sciences et de l’Industrie, « Lettre au Comité permanent de l’industrie et de la technologie », accessible en ligne à l’adresse : https://www.ourcommons.ca/content/Committee/441/INDU/WebDoc/WD12751351/12751351/MinisterOfInnovationScienceAndIndustry-2023-11-28-Combined-f.pdf, p. 9.
[26] Ibid, p. 12.
[27] Gouvernement du Canada, « Le gouvernement du Canada lance une consultation publique sur l’infrastructure de calcul pour l’intelligence artificielle », 26 juin 2024, accessible en ligne à l’adresse : hhttps://www.canada.ca/fr/innovation-sciences-developpement-economique/nouvelles/2024/06/le-gouvernement-du-canada-lance-une-consultation-publique-sur-linfrastructure-de-calcul-pour-lintelligence-artificielle.html.