Passer au contenu directement.

L’avenir de la finance : Comment l’utilisation de l’intelligence artificielle (IA) pour la prestation de conseils en placement est-elle réglementée?

Cette publication fait partie de notre série Perspectives sur l’intelligence artificielle, rédigée par le groupe du droit de l'IA de McCarthy Tétrault – vos partenaires de choix pour vous aider à mieux vous y retrouver dans cet environnement complexe et dynamique. Cette série vous présente des perspectives pratiques et intégratives sur la façon dont l'IA transforme les secteurs industriels, et vous explique comment vous pouvez garder une longueur d'avance. Vous pouvez consulter les autres publications de cette série en cliquant ici ou en visitant notre page Web consacrée à l'intelligence artificielle en cliquant ici.

 

Introduction

L’intelligence artificielle (IA) modifie rapidement la manière dont nous traitons nos finances personnelles. En fait, selon un sondage, un tiers des Canadiens utilisent déjà des outils d’IA pour gérer leurs propres finances, et plus de 60 % des zoomers (génération Z) croient que l’IA peut les aider à prendre des décisions financières ou d’investissement plus éclairées. Il s’agit d’une avancée technologique intéressante, car l’IA peut réduire les obstacles et les coûts liés aux conseils en placement professionnels, et elle peut faciliter le travail des conseillers en placement dans la prestation de suggestions à leurs clients.

Dans cet article de la série AI Insights de McCarthy Tétrault, nous nous intéressons à la manière dont les conseillers et les investisseurs utilisent l’IA et dont les autorités canadiennes en valeurs mobilières réagissent à l’utilisation de l’IA dans ce contexte comparativement aux approches suivies aux États-Unis et en Europe. Ensuite, nous examinerons : 1) l’applicabilité de l’obligation d’inscription à titre de conseiller aux sociétés d’IA et 2) la mesure dans laquelle les outils d’IA peuvent être intégrés aux plateformes de négociation en ligne autogérées.

Comment les conseillers utilisent l’AI pour fournir des conseils

Outre les particuliers qui utilisent l’IA pour gérer leurs propres finances, les conseillers ont de plus en plus recours à l’IA. En effet, l’IA peut être utilisée pour accroître l’efficacité, améliorer les relations clients et, surtout, optimiser le rendement des investissements.

Accroître l’efficacité

Les conseillers peuvent utiliser l’IA pour accroître l’efficacité, par exemple en automatisant les processus préalables et postérieurs aux opérations (par exemplepour la production de rapports d’opérations et des documents à soumettre aux organismes de réglementation), ou en intégrant l’IA générative à l’élaboration de documents à l’aide d’outils comme Copilot de Microsoft 365, ce qui peut faire baisser les coûts liés aux opérations.

Améliorer les relations clients

Les conseillers peuvent utiliser des outils d’IA pour améliorer le service client et trouver de nouveaux clients, en utilisant des plateformes d’IA en gestion de la relation client (GRC), comme Salesforce. Par exemple, RBC US Wealth Management a déployé un outil de GRC fondé sur l’IA qui utilise des « [traduction] données démographiques comme l’âge, le niveau de revenu et les entrées et sorties de capitaux » pour optimiser ses services. On peut s’attendre à ce que l’IA améliore les processus d’interaction avec les clients et permette aux conseillers en placement de mieux recueillir et utiliser les données sur les clients.

Optimiser le rendement des investissements

Plus intéressant encore, l’IA peut être un outil puissant pour la constitution de portefeuilles, la sélection des investissements et, ultimement, l’optimisation du rendement des investissements. Par exemple, les conseillers peuvent utiliser des algorithmes fondés sur l’IA pour étudier un large éventail d’options d’investissement, parachever leurs stratégies de négociation ou analyser des données alternatives comme les publications sur les médias sociaux ou les images satellite pour prendre des décisions plus éclairées.

Une étude a indiqué que GPT-4 pouvait produire des résultats comparables à ceux des portefeuilles de référence gérés par des professionnels. Lorsqu’on lui attribue les critères appliqués à un investisseur hypothétique tels que la tolérance au risque, la capacité de risque et les préférences en matière de durabilité, GPT-4 a été en mesure de concevoir un portefeuille adapté à cet investisseur et de suggérer des produits de placement précis. Toutefois, GPT-4 ne peut effectuer seul le profilage des risques, et bien qu’il puisse présenter certains produits (p. ex., des titres boursiers), il ne peut pas mettre en œuvre le portefeuille (c’est-à-dire ouvrir un compte de courtage, acheter ou vendre, ni rééquilibrer des portefeuilles). Pour ces raisons, l’étude suggère que GPT-4 ne soit utilisé par les conseillers que pour améliorer leurs services, et non pour les remplacer.

Position des autorités canadiennes en valeurs mobilières à l’égard de l’utilisation de l’IA dans la prestation de conseils en placement

Les organismes de réglementation canadiens « [traduction, n’ont pas encore proposé de règles précises visant l’utilisation de l’IA par les entreprises ». Cela dit, ils ont reconnu le rôle croissant de l’IA dans le secteur des investissements et semblent y être favorables. Par exemple, la Commission des valeurs mobilières de l’Ontario (CVMO), dans son Plan stratégique de 2024-2030, a prédit que l’IA sera un facteur important qui influencera le paysage des marchés financiers, et a publié un rapport intitulé « » qui examine les nombreux cas d’utilisation de l’IA dans le secteur des investissements. De même, l’Organisme canadien de réglementation des investissements (OCRI) a publié une étude intitulée « Favoriser l'évolution des services-conseils au Canada » qui révèle que les cadres dirigeants de la conformité sont de plus en plus nombreux à envisager l’adoption de capacités d’AI « dans les trois prochaines années », et que 67 % des écho-boomers (génération Y) souhaitent que des recommandations générées par ordinateur fassent partie de leur gestion financière.

Jusqu’à présent, les organismes de réglementation canadiens ont fourni de l’information sur l’utilisation de l’IA par les conseillers et les investisseurs, mais n’ont pas dit grand-chose sur leur position, sur le plan de la réglementation, en matière d’IA dans ce contexte. Les premières indications que nous avons reçues ont été données dans la brève rubrique intitulée « AI Governance » du rapport précité de la CVMO « Exploring Use Cases in Ontario » publié en octobre 2023, dans laquelle la Commission reconnaissait que « [traduction] les méthodes de gouvernance traditionnelles ne permettent pas de traiter les risques uniques [de l’IA], comme le manque de transparence, le recours excessif à différents types de données, la qualité des données, la qualité des données et les biais dans la sélection des modèles ». En conséquence, la CVMO a noté que des cadres de gouvernance de l’IA étaient en cours d’élaboration pour donner la priorité aux « [traduction] principes de l’IA tels que l’impartialité, la performance, la transparence, l’explicabilité et la résilience ».

En septembre 2024, la CVMO a publié une étude intitulée « Intelligence artificielle et l’investissement de détail: Cas d’usage et recherche expérimentale » (Artificial Intelligence and Retail Investing: Use Cases and Experimental Research), dans laquelle elle indique que les participants qui ont reçu un conseil en investissement d’un être humain utilisant un outil d’IA (c’est-à-dire un conseiller « hybride ») se conformaient davantage audit conseil que ceux qui avaient reçu le conseil uniquement d’une source humaine ou d’un outil d’IA. Ces résultats se sont avérés statistiquement non significatifs, mais l’étude a fait une autre observation importante : il n’y avait aucune différence importante entre l’adhésion aux suggestions d’un être humain et celles de l’IA. Cela montre que les Canadiens utilisent sans difficulté l’IA dans leurs finances – comme le souligne la conclusion selon laquelle 90 % « [traduction] des personnes qui utilisent des applications d’IA utilisent l’information pour prendre leurs décisions financières au moins dans une certaine mesure ».

Dans une étude complémentaire également publiée en septembre 2024, intitulée «  » (Artificial Intelligence and Retail Investing: Scams and Effective Countermeasures), la CVMO a constaté que les participants « [traduction] qui étaient exposés à des escroqueries améliorées par l’IA ont beaucoup plus investi dans des opportunités frauduleuses que ceux exposés à des escroqueries conventionnelles ». Il est troublant de constater que l’IA est en mesure : i) de « suralimenter » les programmes d’investissement courants en augmentant leur portée, leur efficience et leur efficacité, ii) de concevoir de nouveaux types d’escroqueries et iii) de faire de fausses allégations de « possibilités d’investissement améliorées par l’IA ».

Pour la CVMO, la volonté de dépendre de l’IA pour les conseils en placement – amplifiée par l’extensibilité rapide des programmes et des escroqueries améliorés par l’IA – « [traduction] renforce la nécessité d’un cadre de réglementation garantissant que les résultats des modèles conçus grâce à l’AI sont exacts et appropriés pour les investisseurs individuels ». Elle a en outre reconnu « [traduction] la nécessité de veiller à ce que les algorithmes soient fondés sur des données de haute qualité, à ce que les facteurs contribuant aux biais soient traités de manière proactive et à ce que ces applications privilégient l’intérêt véritable des investisseurs plutôt que les intérêts des entreprises qui les conçoivent ». À cette fin, nous nous attendons à ce que les ACVM publient des lignes directrices qui répondent à ces risques.

Pour l’instant, la CVMO a cité l’avis 31-342 du personnel des ACVM – Indications à l’intention des gestionnaires de portefeuille relativement aux conseils en ligne (avis 31-342 du personnel des ACVM), publié en 2015 en réaction à l’essor des conseillers en ligne (communément appelés « robots conseillers »), qui prévoit l’indication selon laquelle les décisions de placement produites par des algorithmes doivent être supervisées par des êtres humains. Ce principe de l’« humain dans la boucle » (human in the loop) est répandu dans les discussions concernant les cadres de réglementation de l’IA dans divers contextes, y compris les conseils en placement. Nous nous attendons à ce que les indications des ACVM publiées à l’égard de l’IA renforcent les exigences de manière à prévoir une certaine surveillance humaine.

Les personnes inscrites devraient également se conformer à leurs obligations fondamentales envers leurs clients lorsqu’elles examinent la façon d’intégrer l’IA à leurs processus de conseils en placement, notamment l’obligation de traiter tous les différends importants au mieux des intérêts de leur client[1], et l’obligation légale de diligence et de loyauté qui s’applique aux courtiers et conseillers en valeurs inscrits en Ontario[2]. Des concepts similaires sont retenus dans les approches suivies dans d’autres territoires.

Regard de l’autre côté de la frontière : Que font les États-Unis et l’Europe?

La Securities and Exchange Commission (SEC) a commencé à prendre des mesures pour réglementer l’utilisation de l’IA. Gary Gensler, président de la SEC, a déclaré que l’IA provoquerait une crise financière « [traduction] quasi inévitable » sans une intervention rapide des autorités de réglementation, et la division des examens de la SEC a fait de l’IA l’une de ses priorités de 2024.

En juillet 2023, la SEC a proposé de nouvelles règles visant « [traduction] à éliminer certains conflits d’intérêts, ou à en limiter l’effet, associés aux interactions entre les courtiers ou conseillers en placement et les investisseurs au moyen de l’utilisation par ces entreprises de technologies qui sont optimisées pour des comportements ou résultats en matière d’investissement, ou qui effectuent des prévisions ou des prédictions liées à des comportements ou résultats en matière d’investissement, ou guident ou dirigent de tels comportements ou résultats ». Toutefois, certains ont critiqué les règles proposées comme étant d’application trop large, dans la mesure où celles-ci iraient bien au-delà de l’IA et concerneraient à la fois les investisseurs individuels et les investisseurs institutionnels. Elles ont également été qualifiées de trop onéreuses, car elles vont au-delà du régime de déclaration « complète et équitable » (full and fair) généralement prévu par la législation américaine sur les valeurs mobilières. Néanmoins, la CVMO a brièvement mentionné la règle proposée par la SEC dans son dernier rapport.

Que de nouvelles règles soient mises en place ou non, la SEC est prête à prendre des mesures dans le cadre des mécanismes existants. Par exemple, en mars 2024, deux conseillers en placement ont été inculpés d’« IA-blanchiment » (AI Washing, c.-à-d. faire des déclarations trompeuses sur l’utilisation de l’IA). La division des examens de la SEC effectuerait même une exploration électronique pour obtenir de ces conseillers en placement des renseignements sur leurs modèles algorithmiques, leurs documents commerciaux liés à l’IA, leur formation à la conformité et leurs tiers fournisseurs.

Des universitaires ont également fait part de leur point de vue sur l’utilisation de l’IA par les conseillers en placement. Un article de 2020 du Harvard Law School Forum on Corporate Governance suggère que les obligations fiduciaires des conseillers en placement soulèvent des questions particulières dans le cadre de l’utilisation de l’IA. Par exemple, le devoir de loyauté d’un conseiller peut l’obliger à divulguer « [traduction] ses utilisations particulières de l’IA pour gérer les comptes de clients », et son devoir de diligence peut l’obliger à examiner périodiquement le rendement de l’IA et à surveiller la conformité des recommandations de l’IA avec les objectifs et préférences des clients.

Europe

L’Autorité européenne des marchés financiers, soit l’autorité de réglementation et de surveillance des marchés financiers de l’UE, a reconnu le fort potentiel des applications d’IA pour l’amélioration des stratégies d’investissement et du service à la clientèle, ainsi que les risques tels que « [traduction] les biais algorithmiques, les enjeux liés à la qualité des données et un (certain) manque de transparence ». Cela dit, ils ont estimé que les règles juridiques existantes suffisaient pour l’instant à traiter les questions relatives à l’IA. Par conséquent, les entreprises qui utilisent l’IA sont censées se conformer aux exigences existantes de la directive MiFID II, « [traduction] notamment en ce qui concerne les aspects organisationnels, la conduite des affaires et leur obligation réglementaire d’agir dans l’intérêt du client ».

De même, la Financial Conduct Authority du Royaume-Uni a publié une mise à jour sur l'IA, notant que « [traduction] de nombreux risques liés à l’IA ne sont pas nécessairement propres à l’IA elle-même et peuvent donc être atténués dans le cadre législatif et/ou réglementaire existant ».

Applicabilité de l’obligation d’inscription à titre de conseiller aux sociétés d’IA

À l’instar des autres outils logiciels qui ont la capacité de générer des conseils en placement, il est probable que certains types de logiciels d’IA, s’ils sont accessibles directement aux investisseurs, déclencheraient pour eux l’obligation d’inscription à titre de conseillers.

Le paragraphe 3 de l’article 25 de la Loi sur les valeurs mobilières (Ontario) (LVMO) et les dispositions analogues des autres lois en vigueur sur les valeurs mobilières d’autres provinces et territoires canadiens prévoient que doit être inscrite toute personne qui exerce ou se présente comme exerçant des activités commerciales qui consistent à fournir des conseils sur l’investissement dans des valeurs mobilières ou sur l’achat ou la vente de valeurs mobilières. Par conséquent, l’exploitant d’un outil d’IA qui fournit à des personnes des conseils sur l’investissement dans des valeurs mobilières ou sur l’achat ou la vente de valeurs mobilières devrait vraisemblablement s’inscrire à titre de conseiller au titre des lois sur les valeurs mobilières de chaque territoire ou province canadien où un outil d’IA est offert.

Bien que la dispense de « conseils généraux » prévue au paragraphe 34(1) de la LVMO et au paragraphe 8.25(2) du Règlement 31-103 prévoie que la prestation de conseils généraux qui ne visent pas à répondre aux besoins de la personne qui les reçoit ne déclenche pas l’obligation d’inscription, la plupart des outils d’AI générative sont conçus pour produire des réponses hautement personnalisées et adaptées en fonction des données spécifiques fournies par l’utilisateur.

En pratique, si un utilisateur en ligne peut ouvrir un programme d’IA, saisir ses renseignements et obtenir des conseils adaptés à ces renseignements, l’exploitant du logiciel d’IA devra probablement s’inscrire. De même, toute personne qui utilise ces outils d’IA pour fournir des conseils en placement doit également s’inscrire comme conseiller. Ce résultat serait conforme à la position historique des organismes de réglementation à l’égard des « conseils en ligne » (robo‑advisers) énoncée dans l’avis 31-342 du personnel des ACVM : « Il n’existe aucune dispense des conditions d’inscription habituelles pour les gestionnaires de portefeuille relativement aux conseils en ligne. Les obligations en matière d’inscription […] ne font mention d’aucune technologie particulière.»

Compte tenu du risque en matière de réglementation et de la responsabilité éventuelle qui peuvent découler de la prestation de conseils en placement, de nombreux services d’IA à caractère général (comme ChatGPT) sont programmés pour éviter la prestation de conseils en placement et inciter les utilisateurs à consulter un conseiller inscrit. Des outils tels que les agents conversationnels ou chatbots pourraient facilement dévier vers la prestation de conseils en placement particuliers s’ils ne sont pas soigneusement programmés. Cela étant dit, les sociétés d’IA peuvent vouloir s’assurer que leurs outils, en particulier les agents conversationnels ou chatbots, ne fournissent que de l’information d’ordre général qui n’est pas adaptée à un utilisateur en particulier.

Intégration des outils d’IA dans les plateformes de négociation autogérées

Au Canada, les plateformes de négociation autogérées (dites plateformes d’exécution d’ordres sans conseils ou order-execution-only platforms) sont exploitées par des courtiers en valeurs qui sont inscrits en vertu d’une législation en valeurs mobilières et qui sont membres de l’Organisme canadien de réglementation des investissements (OCRI). Les plateformes d’exécution d’ordres sans conseils sont dispensées de l’obligation de vérifier la convenance des opérations avec des clients, sous réserve de l’« interdiction de formuler des recommandations » prévue à l’article 3400 de la Règle 3400 de l’Organisme canadien de réglementation du commerce des valeurs mobilières (OCRCVM) et à la note d’orientation GN-3400-21-003 de l’OCRI.

L’OCRI définit de manière large une « recommandation » comme toute communication ou tout avis qui pourrait, selon le contexte ou les circonstances, raisonnablement être susceptible de l’inciter à prendre une décision de placement concernant un titre. L’OCRI fournit également des indications sur les types d’outils d’investissement que les plateformes d’exécution d’ordres sans conseils peuvent offrir tout en adhérant à l’interdiction de formuler des recommandations. Par exemple, les outils qui offrent des renseignements historiques ou factuels, les incitatifs tarifaires généraux (p. ex., les opérations sur fonds négociés en bourse (FNB) sans commission) ou les hyperliens vers des sites Internet de tiers sont moins susceptibles d’être considérés comme des « recommandations ». Inversement, les outils de négociation suggérant des opérations particulières, formulant des prévisions de prix ou facilitant l’achat de certains produits par rapport à d’autres constitueront une recommandation et ne peuvent être contournés par une simple mise en garde.

Peut-être plus important pour les outils d’IA, l’OCRI a fait remarquer que les « clavardoirs » (chat rooms) ne violeraient pas intrinsèquement l’interdiction de formuler des recommandations, mais qu’ils pourraient facilement donner lieu à une recommandation si la participation d’un représentant à une séance de clavardage a pour but (ou pour effet) « d’inciter une ou plusieurs personnes à prendre une décision de placement ». L’OCRI a également indiqué clairement qu’une recommandation pouvait être formulée par n’importe quoi, y compris par ordinateur (et donc par l’IA). Les courtiers offrant des comptes sans conseils doivent tenir compte de l’interdiction de formuler des recommandations lorsqu’ils examinent les types d’outils d’IA pouvant être intégrés à leurs plateformes.

Compte tenu des gains d’efficacité que les outils d’IA peuvent apporter au processus de placement, l’OCRI peut également envisager de revoir l’interdiction de formuler des recommandations en ce qui concerne l’IA, afin que les clients canadiens de plateformes d’exécution d’ordres sans conseils puissent profiter des avantages de ces nouveaux outils. En particulier, l’OCRI utilise une analyse « push vs pull », qui repose sur la distinction selon que les outils sont fournis activement ou mis à la disposition du client, pour déterminer si la recherche constitue une recommandation. Cette analyse indique que les utilisateurs de plateformes d’exécution d’ordres sans conseils doivent eux-mêmes effectuer les recherches, au lieu de bénéficier d’outils pouvant recommander certaines recherches sur la base d’activités de recherche ou de négociation antérieures. L’OCRI a fait remarquer que l’importance relative de cette distinction « dépend [de l’outil] et des faits et circonstances ». Dans le contexte de l’IA, il peut être judicieux d’éliminer cette distinction pour permettre à ces outils de fonctionner efficacement.

Les prochaines étapes

À l’heure actuelle, les sociétés inscrites et les sociétés d’IA canadiennes devraient appliquer les règles et les indications existantes pour déterminer l’utilisation appropriée de l’IA dans la prestation de conseils en placement. Le principe de neutralité technologique énoncé dans l’avis 31-342 du personnel des ACVM devrait être instructif lorsqu’il est question d’appliquer le critère fondé sur les activités commerciales pour le déclenchement de l’obligation d’inscription à titre de conseiller au logiciel d’IA. De même, les personnes inscrites peuvent tenir compte de leurs principales obligations à l’égard des clients en matière de gestion des conflits d’intérêts, de loyauté et de diligence lorsqu’elles établissent des pratiques de déclaration, de surveillance et de supervision liées à leurs services améliorés par l’IA.

Heureusement, compte tenu de l’enthousiasme suscité par l’IA – et de la reconnaissance de ses risques – par les ACVM, nous nous attendons à ce qu’il ne s’agisse que d’une question de temps avant que nous ayons des directives détaillées. Entre-temps, communiquez avec Lori Stein, Sean Sadler, ou un autre membre de notre groupe Réglementation des valeurs mobilières et produits financiers, si vous souhaitez discuter de ces questions plus en détail.

 

[1] Article 13.2 du Règlement 31-103 sur les obligations d’inscription, dispenses et obligations continues des personnes inscrites (Règlement 31-103).

[2] Conditions d’inscription de la Rule 31-505 de la CVMO.

Auteurs

Abonnez-vous

Recevez nos derniers billets en français

Inscrivez-vous pour recevoir les analyses de ce blogue.
Pour s’abonner au contenu en français, procédez à votre inscription à partir de cette page.

Veuillez entrer une adresse valide