Passer au contenu directement.

Relever les défis relatifs à l’équité, à la partialité et à la robustesse de l’IA

Cette publication fait partie de notre série Perspectives sur l’intelligence artificielle, rédigée par le groupe du droit de l'IA de McCarthy Tétrault – vos partenaires de choix pour vous aider à mieux vous y retrouver dans cet environnement complexe et dynamique. Cette série vous présente des perspectives pratiques et intégratives sur la façon dont l'IA transforme les secteurs industriels, et vous explique comment vous pouvez garder une longueur d'avance. Vous pouvez consulter les autres publications de cette série en cliquant ici ou en visitant notre page Web consacrée à l'intelligence artificielle en cliquant ici.

 

Au cours des dernières années, l’intelligence artificielle (« IA ») a fait irruption dans la conscience publique et s’est avérée être une force économique déterminante qui sous-tend certaines des plus grandes sociétés du monde et les nouvelles entreprises les plus prometteuses. L’émergence de l’IA dans des applications commerciales de grande envergure a rapidement mené les chercheurs en IA des universités et de l’industrie à prendre conscience des risques liés à la mise en œuvre de ces algorithmes dans le monde réel. Parallèlement aux réussites stupéfiantes de l’IA moderne, des préoccupations relatives à la partialité, à la discrimination et à la robustesse des algorithmes d’IA ont rapidement été soulevées.

Les algorithmes d’apprentissage automatique ayant donné des résultats fiables lors des essais se sont parfois révélés fragiles et  n’atteignant pas le degré de robustesse requis lorsquet confrontés à la complexité d’une application dans des environnements réels. De même, alors que l’apprentissage automatique s’intégrait de plus en plus aux systèmes permettant de faire des prédictions sur les personnes, il est devenu évident que les modèles d’IA avaient tendance à reproduire, et parfois à amplifier, les préjugés illustrant les stéréotypes sociétaux contenus dans les ensembles de données historiques utilisés pour former les algorithmes.[1]

Ces enjeux ont des répercussions réelles sur les entreprises. Par exemple, en 2023, iTutorGroup a accepté de payer 365 000 USD et de modifier ses pratiques en règlement d’une action intentée par l’Equal Employment Opportunity Commission (EEOC) des États-Unis, qui alléguait que le logiciel d’embauche basé sur l’IA utilisé par iTutorGroup enfreignait les lois contre la discrimination en raison de préjugés discriminatoires liés au sexe et à l’âge inhérents à l’algorithme du logiciel, qui se traduisaient par le rejet automatique des candidats qui étaient des femmes âgées de plus de 54 ans et des hommes âgés de plus de 59 ans.[2]

En réponse à ces problèmes, les chercheurs ont commencé à étudier la partialité, la discrimination et la robustesse des algorithmes de l’IA, ainsi qu’ à concevoir des techniques pour rendre les modèles équitables et robustes lorsqu’ils sont mis en œuvre dans des applications réelles.[3] En raison de l’évolution rapide du domaine, une grande partie de ce corpus de recherche ne date que des deux ou trois dernières années; par conséquent, l’expertise relative à ces aspects n’est pas très répandue. Un bref résumé de l’histoire de l’IA moderne et de la recherche sur la partialité, la discrimination et la robustesse se trouve en annexe de ce billet, ci-dessous.

En réponse à ces enjeux, les gouvernements et les autorités réglementaires estiment nécessaire de réglementer l’IA afin de protéger les personnes contre ces risques (nonobstant l’application des lois actuelles sur les droits de la personne) et, à divers degrés, ont fait appel à des chercheurs et à des experts de l’IA pour établir des lois et des lignes directrices propres à l’IA. Des normes en matière d’IA sont également élaborées pour faire face à ces risques et professionnaliser le domaine de l’IA.

Nous décrivons ci-dessous comment les entreprises auront du mal à gérer les risques juridiques et éthiques associés au développement et à l’utilisation de l’IA sans les conseils d’experts techniques et juridiques de l’IA, dont le nombre est actuellement limité, ainsi que les mesures que les entreprises peuvent prendre pour gérer ces risques.

L’introduction de la réglementation et des normes

La plupart des territoires dans le monde ont commencé à formuler des réglementations sur l’IA, dont certaines sont déjà en vigueur.[4]

Dans l’Union européenne, la Loi européenne sur l’intelligence artificielle[5] est entrée en vigueur le 1er août 2024, tandis qu’au Canada, la Loi sur l’intelligence artificielle et les données (« LIAD ») est actuellement étudiée par le Parlement dans le cadre du projet de loi C-27, la Loi de 2022 sur la mise en œuvre de la Charte du numérique.[6] Aux États-Unis, certains États ont adopté des lois, comme la Colorado AI Act, mais il n’existe actuellement aucun régime réglementaire national. Des normes ont plutôt été élaborées par le National Institute of Standards and Technology (« NIST »), qui fait partie du département du Commerce américain. Les efforts de réglementation et la création de normes visent à atténuer les risques de dommages associés aux systèmes d’IA tout en conciliant la nécessité de permettre l’innovation technologique.

Ces normes et réglementations n’ont pas été conçues en vase clos. Elles ont plutôt tenté de répondre à bon nombre des mêmes préoccupations que celles relevées par les chercheurs et, ce faisant, ont intégré la recherche sur l’IA en matière d’équité, de partialité et de robustesse aux cadres qui définiront les régimes juridiques régissant l’IA.

De nombreuses dispositions de la Loi européenne sur l’intelligence artificielle et de la LIAD s’appuient sur la recherche en matière d’équité et de robustesse et exigent des entreprises qui conçoivent ou mettent en œuvre des systèmes d’IA qu’elles atténuent les risques d’iniquité, de partialité et de robustesse insuffisante. De même, le cadre de gestion des risques du NIST établit des normes pour appuyer l’équité et la robustesse des systèmes d’IA.

LIAD

La LIAD répondra aux risques d’iniquité, de partialité et de robustesse insuffisante des systèmes d’IA dans le secteur privé en adoptant une approche fondée sur les risques afin de réglementer les systèmes à incidence élevée, les modèles d’apprentissage automatique et les systèmes à usage général.

Leprojet de loi est principalement axé sur les systèmes à incidence élevée, dont la définition dépend de règlements qui n’ont pas encore été établis, mais qui devraient être déterminés en partie par la gravité des dommages potentiels causés par le système. La LIAD exigerait des mesures de repérage, d’évaluation, d’atténuation et de contrôle des risques de préjudice ou de résultats biaisés (définis dans la LIAD en référence aux motifs de distinction interdits dans le cadre de la Loi canadienne sur les droits de la personne) découlant de l’utilisation de systèmes à incidence élevée.

Le document complémentaire de la LIAD[7] présente six principes qui guident les obligations relatives aux systèmes à incidence élevée dans le cadre de la LIAD. Deux de ces principes sont « Justice et équité » et « Validité et robustesse ». Ces principes découlent de la recherche sur l’équité et la robustesse, et pour être conformes à la LIAD, les entreprises devront acquérir une expertise dans ces domaines.

Le Document complémentaire de la LIAD explique en outre que « la justice et l’équité impliquent de construire des systèmes d’IA à incidence élevée en étant conscient du potentiel de résultats discriminatoires » et que « des mesures appropriées doivent être prises pour atténuer les résultats discriminatoires pour les individus et les groupes. » La « validité signifie qu’un système d’IA à incidence élevée fonctionne conformément aux objectifs prévus », et la « robustesse signifie qu’un système d’IA à incidence élevée est stable et résilient dans diverses circonstances. »

L’obligation de se conformer aux mesures d’atténuation des risques est énoncée à l’article 8 de la LIAD :

« Article 8 : Le responsable d’un système à incidence élevée établit, conformément aux règlements, des mesures visant à cerner, évaluer et atténuer les risques de préjudice ou de résultats biaisés que pourrait entraîner l’utilisation du système d’intelligence artificielle. »[8]

De plus, les développeurs et les exploitants de systèmes à incidence élevée seront notamment tenus, le cas échéant :

  • de tester l’efficacité de ces mesures;
  • de permettre ou d’assurer une surveillance humaine du système;
  • de veiller à ce que le système fonctionne de manière fiable, tel que prévu et qu’il soit robuste (c’est-à-dire qu’il continuera à fonctionner de manière fiable et tel que prévu, même dans des circonstances défavorables ou inhabituelles), conformément à la réglementation;
  • de surveiller les dommages réels et présumés causés par le système; et
  • en cas de préjudice grave avéré ou présumé, d’évaluer le préjudice et l’efficacité des mesures d’atténuation, cesser l’exploitation du système et signaler le préjudice au commissaire à l’intelligence artificielle et aux données dans un rapport officiel, conformément à la réglementation.

Pour les systèmes à usage général, la LIAD exigerait qu’une entreprise qui met à disposition ou gère les systèmes établisse un cadre de responsabilité écrit, conformément à la réglementation, comprenant une description du personnel ayant contribué au système ainsi quedes politiques et procédures concernant la gestion des risques liés au système, y compris l’utilisation des données.

Un manquement à la LIAD entraînerait un risque de sanctions pécuniaires importantes. Les entreprises qui ne se conforment pas aux obligations prescrites par la LIAD seraient passibles de sanctions administratives, fixées par la réglementation, ainsi que d’une amende maximale de 10 000 000 $ ou de 3 % des recettes mondiales brutes de l’entreprise, selon le montant le plus élevé.[9]

Loi européenne sur l’intelligence artificielle

Les articles 10 et 15 de la Loi européenne sur l’intelligence artificielle portent explicitement sur l’équité et la robustesse des systèmes d’IA à risque élevé. Par exemple, le paragraphe 10(2) exige que les pratiques relatives aux systèmes d’IA à risque élevé comprennent l’examen des préjugés possibles dans les ensembles de données de formation, d’essai et de validation et la prise de mesures appropriées pour détecter, prévenir et atténuer les préjugés possibles. L’article 15 porte sur la précision, la robustesse et la cybersécurité des systèmes d’IA à risque élevé et exige que ces systèmes soient « conçus et développés de manière à atteindre un niveau approprié de précision, de robustesse et de cybersécurité, et à fonctionner de manière cohérente à ces égards tout au long de leur cycle de vie. »[10]

La Loi européenne sur l’intelligence artificielle met l’accent sur l’importance d’utiliser des données de haute qualité et de contrôler et de mettre à l’essai régulièrement les systèmes d’IA pour en vérifier l’exactitude et la fiabilité.

Selon les circonstances, les fournisseurs de systèmes d’IA à risque élevé et les responsables de leur mise en œuvre peuvent notamment être tenus, le cas échéant, de :

  • faire des évaluations de l’incidence sur les droits fondamentaux;
  • mettre en œuvre des systèmes de gestion de la qualité pour gérer les risques;
  • se servir de données de haute qualité pour réduire les préjugés;
  • signaler les incidents;
  • maintenir une surveillance humaine du système par des personnes ayant les compétences, la formation et l’autorité nécessaires; et
  • veiller à ce que le système atteigne un niveau approprié de précision, de robustesse et de cybersécurité.

Tout comme la LIAD, la Loi européenne sur l’intelligence artificielle prévoit la possibilité de sanctions importantes en cas de manquement. Le paragraphe 99(1) de la Loi délègue aux États membres l’élaboration des règles relatives aux sanctions et autres mesures de mise en application, mais prévoit des sanctions en cas de non-respect des pratiques interdites en matière d’IA visées à l’article 5, notamment des amendes pouvant aller jusqu’à 35 000 000 EUR ou 7 % du total des recettes annuelles mondiales, selon le montant le plus élevé.[11] Pour les grandes entreprises, cela pourrait se traduire par des amendes de plusieurs milliards de dollars.

Cadre de gestion des risques liés à l’IA du NIST

Le NIST a publié son cadre de gestion des risques liés à l’IA (« cadre du NIST »)[12] pour le développement et la mise en œuvre sécuritaires de l’IA. Il s’articule autour de quatre « fonctions » : gouverner, organiser, mesurer et gérer. Ces fonctions visent à fournir aux entreprises qui mettent en œuvre des systèmes d’IA des mesures à prendre tout au long du cycle de vie de l’IA pour gérer les risques et garantir la mise en œuvre de systèmes d’IA responsables et sûrs. Bon nombre des risques relevés et des mesures à prendre pour les atténuer font explicitement ou implicitement référence à des préoccupations concernant l’équité, la partialité et la robustesse des systèmes d’IA.

À titre d’exemple, la mesure 2.11 fournit des lignes directrices pour l’évaluation et le contrôle de l’équité et de la partialité du système d’IA. La description de la norme et les actions proposées sont fondées sur les recherches menées ces dernières années sur l’équité et la partialité des algorithmes d’IA. De même, les mesures 2.5 et 2.6 traitent de la robustesse des modèles et de la validité des prédictions du système dans des environnements complexes qui peuvent ne pas correspondre aux environnements de formation et d’essai dans lesquels le système d’IA a été développé.

Le cadre du NIST aide à établir ce qui sera considéré comme des mesures appropriées ou raisonnables d’atténuation des risques, et les entreprises pourront s’appuyer sur ces normes pour établir des politiques internes favorisant la conformité à la loi. Ces normes et réglementations jetteront également les bases de normes de diligence pour les litiges en matière de négligence et fourniront aux tribunaux des exemples de gouvernance et de mise en œuvre responsables de l’IA.

Les entreprises qui mettent en œuvre des systèmes d’IA ont besoin d’expertise

L’introduction de réglementations et de normes ainsi que l’évolution de l’écosystème d’IA en général laissent présager la fin de l’ère du « Far West » en matière de développement et de mise en œuvre de l’IA. Les entreprises devront s’assurer qu’elles disposent de l’expertise nécessaire pour évoluer dans ce nouvel environnement, faute de quoi elles risquent d’engager leur responsabilité, tant au niveau de la conformités réglementaire que de litige.

La conformité à ces réglementations sera un défi pour les entreprises, car elle nécessitera une expertise à la fois technique et juridique en ce qui concerne la partialité, la discrimination et la robustesse des systèmes d’IA. Par exemple, la détermination d’un niveau « approprié » de précision, de robustesse ou de toute autre forme de mesure d’atténuation des risques nécessite une expertise et une connaissance de pointe en matière de mesures d’atténuation des risques. La rareté relative de l’expertise dans ces domaines, combinée aux risques de non-conformité, obligera les entreprises mettant en œuvre des systèmes d’IA à demander l’avis d’un expert pour veiller à ce qu’elles aient mis en place des politiques, des cadres et des mesures de protection techniques pour se conformer à ce que prescrit la loi.

Bien que la recherche sur l’équité, la partialité et la robustesse des algorithmes d’IA ait connu une croissance exponentielle au cours des dernières années, elle reste un domaine de recherche relativement spécialisé, qui n’est abordé que dans certaines institutions du troisième cycle ou dans certains instituts de recherche d’entreprises technologiques. La connaissance de la recherche de pointe dans ces domaines est loin d’être répandue et n’a pas encore été intégrée dans les programmes d’enseignement de l’informatique. Il en résulte une pénurie d’expertise dans ces domaines, et il est peu probable que la plupart des entreprises disposent d’un personnel possédant les connaissances techniques nécessaires pour garantir que la mise en œuvre des systèmes d’IA sera conforme aux réglementations et aux normes.

Outre la rareté de l’expertise technique dans ces domaines, il existe également un manque d’expertise juridique en ce qui concerne les questions émergentes liées à l’IA. Les entreprises auront besoin de conseillers juridiques qui ont une connaissance approfondie de la technologie et de la manière dont les nouveaux régimes juridiques l’encadrent.

Quelles mesures les entreprises peuvent-elles prendre?

Les entreprises qui développent ou utilisent l’IA doivent prendre des mesures proactives pour gérer les risques associés à l’IA, y compris les risques relatifs à la conformité réglementaire et aux litiges.

Elles peuvent commencer par établir des politiques ou des cadres pour l’utilisation responsable de l’IA qui sont conformes aux exigences réglementaires actuelles et prévues et aux normes de pointe comme le cadre du NIST. Ces politiques ou ces cadres devraient notamment comprendre des politiques de gouvernance de l’IA, des mesures de contrôle des résultats et du rendement de l’IA et des essais de pointe en matière d’équité et de robustesse pour les modèles d’IA. Ils devraient également tenir compte de l’apport des experts techniques et juridiques de l’IA qui ont une compréhension plus directe des risques et de la manière de les gérer efficacement.

Les entreprises devraient adopter une approche par paliers, fondée sur les catégories évolutives de risques réglementés des systèmes d’IA, pour réaliser des évaluations internes des systèmes d’IA qu’elles ont l’intention de développer ou d’exploiter. Les systèmes d’IA devraient être conçus pour tenir compte de l’équité, du risque de partialité et de la robustesse. Cela nécessite des évaluations régulières des systèmes d’IA afin de détecter et de corriger les préjugés et le maintien d’un niveau de supervision humaine lorsqu’un système d’IA est utilisé pour prendre des décisions concernant des personnes.

Bien qu’il soit impossible d’éliminer totalement les préjugés du développement des systèmes d’IA, il existe des moyens efficaces d’atténuer ce risque, comme la sensibilisation des concepteurs de systèmes d’IA afin qu’ils reconnaissent et atténuent leurs propres préjugés en travaillant avec une équipe diversifiée et interdisciplinaire, l’intégration de la recherche sur les préjugés inconscients dans le développement et la formation des systèmes d’IA, l’utilisation d’ensembles de données de formation diversifiés et actuels de haute qualité et le contrôle approprié des résultats des systèmes d’IA. Il est également important de mettre en place des mécanismes permettant d’obtenir un retour d’information sur les résultats de l’IA de la part des personnes qui utilisent les systèmes d’IA ou qui sont concernées par leur utilisation.

La mise en œuvre de ces mesures nécessite une expertise. Il est donc impératif que les entreprises qui utilisent l’IA évaluent également si elles disposent d’une expertise suffisante, que ce soit en interne ou par une mobilisation externe et, si ce n’est pas le cas, qu’elles acquièrent efficacement l’expertise adéquate, en tenant compte de l’offre limitée actuelle. Les normes reconnues en matière d’IA, comme le cadre du NIST, peuvent également contribuer à l’élaboration et à la mise en œuvre de ces mesures, y compris à la détermination de leur adéquation.

Si l’IA offre un potentiel indéniable d’innovation et d’amélioration de la productivité, il convient d’adopter une approche nuancée pour en cerner les avantages et les risques. Compte tenu de l’évolution rapide du contexte réglementaire de l’IA, les entreprises doivent porter une attention particulière aux questions juridiques et éthiques liées à l’utilisation de l’IA, en particulier en ce qui concerne les préjugés potentiels, la discrimination et les enjeux de robustesse. En mettant en œuvre les meilleures pratiques comme celles décrites ci-dessus, qui s’appuient sur des conseils techniques et juridiques d’experts en matière d’IA, les entreprises peuvent exploiter le pouvoir de l’IA de manière responsable tout en atténuant les risques liés à la conformité réglementaire et à la responsabilité.

ANNEXE

Un bref historique de l’intelligence artificielle moderne

L’intelligence artificielle n’est pas un terme scientifique bien défini, et sa signification précise a eu tendance à évoluer au fil du temps et en fonction des avancées technologiques. Par exemple, un ordinateur effectuant de simples opérations arithmétiques aurait autrefois été considéré comme la pointe de l’IA, alors qu’aujourd’hui les voitures autonomes et les grands modèles de langage (« GML ») représentent ce que nous considérons comme l’IA.

Si l’irruption de l’IA dans la conscience publique et son émergence en tant que moteur économique sont des phénomènes récents, la recherche qui sous-tend la technologie remonte en fait à des décennies, voire plus. Les premières recherches modernes sur l’IA remontent à Alan Turing, un pionnier de l’informatique, qui a longuement étudié ce que signifiait l’« intelligence artificielle » et s’est efforcé de la concevoir. Après la création de l’ordinateur, d’autres chercheurs (notamment Marvin Minsky, Nathaniel Rochester, John McCarthy et Claude Shannon) ont repris le flambeau de Turing et ont jeté les bases de ce qui allait devenir le programme de recherche moderne sur l’intelligence artificielle.

Historiquement, la recherche sur l’IA peut être divisée en deux camps principaux : ceux qui pensaient que les systèmes experts composés de modèles logiques ou symboliques complets, imitant le raisonnement étape par étape, pouvaient simuler l’intelligence humaine, et ceux qui pensaient que la conception d’algorithmes capables d’« apprendre » à partir de données était la voie à suivre pour développer l’IA. La première école de pensée est généralement appelée « systèmes experts », tandis que la seconde est appelée « apprentissage automatique ».

Les systèmes experts fondés sur des règles étaient à l’origine des premières réussites de l’IA, mais à mesure que la complexité des problèmes augmentait, les limites de ces systèmes devenaient évidentes. Par exemple, Deep Blue, le système expert du jeu d’échecs, a réussi à vaincre Garry Kasparov en 1997 et a été salué comme une étape importante dans le développement de l’IA. Les échecs sont en fait un jeu relativement simple sur le plan mathématique, ce qui a permis aux systèmes experts de surpasser les grands maîtres des échecs. Le jeu de go, en revanche, qui est beaucoup plus complexe que les échecs au chapitre mathématique, s’est avéré impossible à maîtriser pour les systèmes experts.

Lorsque les données sont devenues plus abondantes et que la puissance de calcul s’est améliorée, l’école d’apprentissage automatique de l’IA a connu un succès grandissant. Dans les années 2000, des techniques comme la régression linéaire et logistique, les séparateurs à vaste marge et les forêts aléatoires étaient la norme dans un large éventail de disciplines. Cependant, le domaine de l’IA était encore limité à des problèmes restreints et spécifiques. Puis, en 2012, l’IA moderne a connu son heure de gloire. Alex Krizhevsky et Ilya Sutskever, doctorants de l’université de Toronto, et leur directeur de thèse, Geoffrey Hinton, ont présenté un modèle de vision artificielle fondé sur l’apprentissage profond dans le cadre du concours annuel de catégorisation d’images par l’IA, connu sous le nom d’ImageNet Challenge. Leur modèle, connu sous le nom d’AlexNet[13], représentait une nouvelle architecture de réseau neuronal à convolution[14] profond et a fait sensation dans le domaine. Ce moment a marqué le début de la révolution de l’apprentissage profond[15] et l’arrivée de l’IA comme technologie transformatrice.

L’apprentissage profond est un sous-ensemble de l’apprentissage automatique basé sur des algorithmes connus sous le nom de réseaux neuronaux artificiels, inspirés des réseaux neuronaux biologiques du cerveau humain. Les performances d’AlexNet ont suscité l’intérêt et ont mené à des investissements dans la recherche sur l’IA, et les grandes entreprises technologiques ont commencé à investir massivement dans l’apprentissage profond. L’IA moderne est désormais essentiellement fondée sur l’apprentissage automatique et presque entièrement sur l’apprentissage profond. Ce sont en fait des algorithmes d’apprentissage profond qui alimentent ChatGPT et les autres GLM qui fascinent actuellement le public et mobilisent d’énormes investissements en capital.[16] Un système d’apprentissage par renforcement profond a également surpassé les grands maîtres du jeu de go en 2016.[17]

La progression formidable des performances de l’IA, portée par cette révolution de l’apprentissage profond, n’était pas une simple curiosité issue de la recherche. Les outils et applications alimentés par l’IA ont rapidement commencé à générer une énorme valeur économique. Il est difficile d’exagérer l’importance de la vague d’IA au cours de la dernière décennie. Elle est passée d’un domaine de recherche marginal dans les laboratoires universitaires au fondement des plus grandes entreprises du monde. À l’heure d’écrire ces lignes, les six plus grandes sociétés ouvertes du monde par capitalisation boursière (Microsoft, Apple, Nvidia, Alphabet, Amazon, Meta) ont toutes des modèles d’affaires qui dépendent fortement de l’IA.

Équité, partialité et robustesse des algorithmes d’IA

Avec l’amélioration des performances des modèles d’IA, les entreprises ont commencé à mettre en œuvre des applications et des outils alimentés par l’IA à un rythme effréné. Ces outils génèrent une valeur inestimable et offrent un potentiel de croissance presque infini, mais ils introduisent également de nouveaux risques et modes de défaillance. Le risque que les modèles d’IA produisent des résultats partiaux ou discriminatoires est l’une des préoccupations qui ont rapidement été relevées.

Comme nous l’avons expliqué ci-dessus, les applications modernes d’IA sont alimentées par des modèles d’apprentissage automatique. Comme les algorithmes d’apprentissage automatique apprennent des données à partir desquelles ils sont formés, ils sont susceptibles d’incorporer, et parfois d’amplifier, les préjugés contenus dans l’ensemble de données utilisé pour les former. Le risque de former un algorithme tendancieux est parfois évident, par exemple lorsque vous entraînez un modèle à faire des prédictions sur des personnes en fonction d’un ensemble de données qui contient des décisions antérieures discriminatoires. Il est toutefois aussi possible que les préjugés se glissent dans les modèles d’apprentissage automatique de manière beaucoup plus subtile et contre-intuitive.

Il n’est pas difficile de trouver des exemples concrets de modèles d’IA présentant un comportement ou des résultats discriminatoires. Plusieurs grandes entreprises technologiques ont mis sur le marché des outils de reconnaissance faciale qui se sont avérés très performants pour les visages d’hommes blancs, mais médiocres pour les visages de femmes noires. De même, des entreprises technologiques ont utilisé des outils de recrutement qui ont présenté des préjugés fondés sur le sexe ou la race, et les entreprises qui publient des outils de génération de langage et d’images ont régulièrement eu de la difficulté à s’assurer que les modèles ne reproduisent pas les préjugés ou la discrimination contenus dans les ensembles de données avec lesquels ils ont été entraînés.

La communauté des chercheurs en IA s’est rapidement rendu compte que les algorithmes pouvaient reproduire, voire amplifier, les préjugés et la discrimination et aboutir à des résultats inéquitables. En réponse à cette préoccupation, les chercheurs ont tenté de définir, en termes mathématiques, ce que signifie l’équité d’un algorithme. Ces tentatives ont connu un succès mitigé et ont abouti à l’élaboration de plusieurs définitions ou mesures auxquelles un algorithme pourrait être comparé afin de déterminer si ses résultats sont discriminatoires.[18] Ces mesures de l’équité ont une application quelque peu restreinte, et comme l’équité est une notion contestée et intrinsèquement philosophique et politique, la réduire à une définition mathématique unique nécessite de formuler certaines hypothèses normatives.

Outre les préoccupations relatives à l’équité, il est rapidement devenu évident que si les modèles d’IA affichaient des performances étonnantes dans les environnements de test relativement contrôlés et dans les tâches d’étalonnage, la complexité des applications réelles révélait souvent que les modèles d’IA étaient fragiles et n’avaient pas la robustesse requise pour être mis en œuvre en toute sécurité dans des scénarios à risques élevés.[19] Cette prise de conscience a déclenché des recherches sur les méthodes permettant de rendre les modèles d’IA plus robustes et l’élaboration de techniques sophistiquées pour assurer la robustesse de la performance du modèle face aux complexités et aux défis des applications du monde réel.

Étonnamment, les chercheurs ont découvert que les « attaques par exemples contradictoires » contre les modèles d’apprentissage automatique pouvaient donner lieu à des prédictions extrêmement imprécises, même pour les meilleurs modèles.[20] Par exemple, il est possible de déformer une image d’une manière imperceptible pour l’humain, mais qui amènera un outil de vision artificielle, par ailleurs très précis, à modifier complètement sa prédiction de l’image qui lui est montrée. Toutefois, même en dehors de l’apprentissage automatique antagoniste, les performances des systèmes d’IA les plus vantés ont souvent été quelque peu décevantes, car les développeurs sous-estiment souvent la complexité de l’environnement dans lequel les modèles seront mis en œuvre. 

Malgré la croissance du volume de recherche dans ce domaine au cours des dernières années, la manière dont les notions pertinentes de partialité ou de discrimination doivent être envisagées dans le contexte de l’IA et les mesures pour e lutter contre ces notions qui sont à la fois réalistes et justifiées demeurent insuffisamment connues. Des recherches plus approfondies sont nécessaires dans ce domaine.

 __

[1] S. Barocas et A. Selbst, « Big Data's Disparate Impact » (en anglais seulement), 104 California Law Review 671 (2016).

[2] https://www.eeoc.gov/newsroom/itutorgroup-pay-365000-settle-eeoc-discriminatory-hiring-suit (en anglais seulement)

[3] Voir, par exemple, S. Barocas, M. Hardt et A. Narayanan, « Fairness and Machine Learning: Limitations and Opportunities » (en anglais seulement), MIT Press, 2023, https://www.fairmlbook.org.

  1. Chouldechova, « Fair prediction with disparate impact: A study of bias in recidivism prediction instruments » (en anglais seulement), Big data, vol. 5 2, p. 153-163, 2017; S. Corbett-Davies, E. Pierson, A. Feller, S. Goel et A. Huq, « Algorithmic decision making and the cost of fairness » (en anglais seulement), série KDD '17, Association for Computing Machinery, 2017, p. 797-806, ISBN : 9781450348874. DOI : 10.1145/3097983.3098095; C. Dwork, M. Hardt, T. Pitassi, O. Reingold et R. Zemel, « Fairness through awareness » (en anglais seulement), dans Proceedings of the 3rd Innovations in Theoretical Computer Science Conference, série ITCS '12, Association for Computing Machinery, 2012, p. 214-226, ISNB : 9781450311151. DOI : 10.1145/2090236.2090255; M. Hardt, E. Price, et N. Srebro, « Equality of opportunity in supervised learning » (en anglais seulement), dans NIPS, 2016; R. Berk, H. Heidari, S. Jabbari, M. Kearns et A. Roth, « Fairness in criminal justice risk assessments: The state of the art » (en anglais seulement), Sociological Methods & Research, vol. 50, no1, p. 3-44, 2021. DOI : 10.1177/0049124118782533; M. B. Zafar, I. Valera, M. Gomez Rodriguez et K. P. Gummadi, « Fairness beyond disparate treatment and disparate impact: Learning classification without disparate mistreatment » (en anglais seulement), dans Proceedings of the 26th International Conference on World Wide Web, série WWW '17, International World Wide Web Conferences Steering Committee, 2017, p. 1171-1180, ISBN : 9781450349130. DOI : 10.1145/3038912.3052660; J. Kleinberg, S. Mullainathan et M. Raghavan, « Inherent trade-offs in the fair determination of risk scores » (en anglais seulement), dans 8th Innovations in Theoretical Computer Science Conference (ITCS 2017), C. H. Papadimitriou, éd., série Leibniz International Proceedings in Informatics (LIPIcs), vol. 67, Dagstuhl, Allemagne : Schloss Dagstuhl-Leibniz-Zentrum fuer Informatik, 2017, 43:1-43:23, ISBN : 978-3-95977-029-3. DOI : 10.4230/LIPIcs.ITCS.2017.43; B. Woodworth, S. Gunasekar, M. I. Ohannessian et N. Srebro, « Learning non-discriminatory predictors » (en anglais seulement), dans Proceedings of the 2017 Conference on Learning Theory, S. Kale et O. Shamir, éd., série Proceedings of Machine Learning Research, vol. 65, PMLR, 2017, p. 1920-1953.

[4] Voir, par exemple, https://www.fairly.ai/blog/map-of-global-ai-regulations (en anglais seulement)

[5] Loi européenne sur l’intelligence artificielle (2024) https://artificialintelligenceact.eu/fr/ai-act-explorer/.

 [Loi européenne sur l’intelligence artificielle]

[6] Projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, 1re session, 44e législature, 2021, https://www.parl.ca/legisinfo/fr/projet-de-loi/44-1/c-27, et modifications proposées, https://www.ourcommons.ca/content/Committee/441/INDU/WebDoc/WD12751351/12751351/MinisterOfInnovationScienceAndIndustry-2023-11-28-Combined-f.pdf. [LIAD]

[7] « La Loi sur l’intelligence artificielle et les données (LIAD) – document complémentaire », Innovation, Sciences et Développement économique Canada, https://ised-isde.canada.ca/site/innover-meilleur-canada/fr/loi-lintelligence-artificielle-donnees-liad-document-complementaire. [Document complémentaire]

[8] LIAD, art. 8.

[9] LIAD, art. 30.3.

[10] Loi européenne sur l’intelligence artificielle, art. 15.

[11] Ibid, par. 99(1).

[12] Guide du cadre de gestion des risques liés à l’IA du NIST, https://airc.nist.gov/AI_RMF_Knowledge_Base/Playbook (en anglais seulement),[NIST].

[13] A. Krizhevsky, I. Sutskever et G. Hinton, « ImageNet Classification with Deep Convolutional Neural Networks » (en anglais seulement), dans NIPS'12: Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1, p. 1097-1105.

[14] Y. Lecun, L. Bottou, Y. Bengio et P. Haffner, « Gradient-based learning applied to document recognition » (en anglais seulement), dans Proceedings of the IEEE, vol. 86, no 11, p. 2278-2324, nov. 1998, DOI : 10.1109/5.726791.

[15] Y. LeCun, Y. Bengio et G. Hinton, « Deep learning », Nature 521, p. 436-444 (2015), https://doi.org/10.1038/nature14539.

[16] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, Ł. Kaiser et I. Polosukhin, « Attention is all you need » (anglais seulement), dans Proceedings of the 31st International Conference on Neural Information Processing Systems (NIPS'17), Curran Associates Inc., Red Hook, New York, États-Unis (2017), p. 6000-6010.

[17] D. Silver, A. Huang, C. Maddison et al., « Mastering the game of Go with deep neural networks and tree search », Nature 529, p. 484-489 (2016). https://doi.org/10.1038/nature16961.

[18] Voir ci-dessus à la note 2.

[19] Voir, par exemple, D. Heaven, « Why Deep-Learning Ais are so Easy to Fool », article de nouvelles de Nature, 2019, https://www.nature.com/articles/d41586-019-03013-5.

[20] Voir, par exemple, C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, R. Fergus, « Intriguing properties of neural networks » (en anglais seulement) (2014-02-19); B. Biggio, F. Roli, « Wild patterns: Ten years after the rise of adversarial machine learning » (en anglais seulement) (décembre 2018), Pattern Recognition, 84: p. 317-331; A. Kurakin, I. Goodfellow, S. Bengio, « Adversarial examples in the physical world » (en anglais seulement) (2016).

Auteurs

Abonnez-vous

Recevez nos derniers billets en français

Inscrivez-vous pour recevoir les analyses de ce blogue.
Pour s’abonner au contenu en français, procédez à votre inscription à partir de cette page.

Veuillez entrer une adresse valide