Législation de l'UE sur l'intelligence artificielle et les services financiers

Législation de l’UE sur l’intelligence artificielle et les services financiers

L’intelligence artificielle (IA) est-elle actuellement réglementée dans le secteur des services financiers ? “Non” a tendance à être la réponse intuitive.

Mais un examen plus approfondi révèle des éléments de la réglementation financière existante qui s’appliquent implicitement ou explicitement à l’IA – par exemple, le traitement des décisions automatisées dans RGPDtrading algorithmique MiFID IIalgorithmes de contrôle dans RTS 6 et de nombreuses dispositions de diverses réglementations cloud.

Bouton S'abonner

Bien que certaines de ces lois soient très tournées vers l’avenir et à l’épreuve du temps – notamment GDPR et RTS 6 – elles ont toutes été rédigées avant la dernière explosion des capacités et de l’adoption de l’IA. En conséquence, ils sont ce que j’appelle “pré-IA”. En outre, la réglementation sur l’IA fait l’objet de débats depuis au moins plusieurs années, et divers organismes de réglementation et de l’industrie ont produit des livres blancs et des conseils de haute qualité, mais aucune réglementation officielle en tant que telle.

Mais tout cela a changé en avril 2021, lorsque la Commission européenne a publié son propre Loi sur l’intelligence artificielle (loi sur l’IA) proposition. Le texte actuel s’applique à toutes les industries, mais n’est pas contraignant en tant que projet, et sa formulation finale peut différer de la version 2021. Alors que la loi vise une structure horizontale et universelle, certaines industries et applications sont explicitement énoncées.

La loi utilise une approche “pyramide” basée sur les risques pour réglementer l’IA. Au sommet de la pyramide se trouvent les utilisations interdites de l’intelligence artificielle telles que la manipulation subliminale comme les deepfakes, l’exploitation d’individus et de groupes vulnérables, l’évaluation du crédit social, l’identification biométrique en temps réel dans les espaces publics (avec certaines exceptions à des fins d’application de la loi), etc. En dessous se trouvent les systèmes d’IA à haut risque qui affectent les droits fondamentaux, la sécurité et le bien-être, tels que l’aviation, les infrastructures critiques, l’application de la loi et les soins de santé. De plus, il existe plusieurs types d’applications d’IA sur lesquelles la Loi sur l’IA impose certaines exigences de transparence. Vient ensuite la catégorie non réglementée “tout le reste”, qui comprend par défaut des solutions d’IA plus courantes telles que les chatbots, les systèmes bancaires, les médias sociaux et la recherche sur le Web.

Bien que nous comprenions tous l’importance de réglementer l’IA dans des domaines qui sont fondamentaux pour nos vies, de telles réglementations pourraient difficilement être universelles. Heureusement, les régulateurs de Bruxelles ont inclus un fourre-tout, l’article 69, qui encourage les vendeurs et les utilisateurs de systèmes d’IA à faible risque à adhérer volontairement, sur une base proportionnée, aux mêmes normes que leurs homologues utilisant des systèmes à haut risque.

La responsabilité ne fait pas partie de la loi sur l’IA, mais la Commission européenne note que de futures initiatives traiteront de la responsabilité et compléteront cette loi.

Vignette publicitaire pour l'intelligence artificielle dans la gestion d'actifs

Loi sur l’intelligence artificielle et les services financiers

Le secteur des services financiers occupe une zone grise dans la liste des industries sensibles de la loi. Cela devrait être précisé dans la future proposition.

  • L’exposé des motifs décrit les services financiers comme un secteur “à fort impact” plutôt qu’un secteur “à haut risque” comme l’aviation ou la santé. Que ce soit juste une question de sémantique reste incertain.
  • Le financement ne figure pas parmi les régimes à haut risque des annexes II et III.
  • Les “établissements de crédit” ou banques sont mentionnés dans différentes sections.
  • La notation de crédit est répertoriée comme un cas d’utilisation à haut risque. Mais le texte explicatif place cela dans le contexte de l’accès aux services de base tels que le logement et l’électricité et des droits fondamentaux tels que la non-discrimination. Dans l’ensemble, cela a plus à voir avec la pratique interdite de la notation du crédit social qu’avec les services financiers en soi. Cependant, le projet de loi final devrait clarifier cela.

La position de la loi sur les services financiers laisse place à interprétation. Actuellement, les services financiers relèveraient par défaut de l’article 69. La loi AI mentionne spécifiquement la proportionnalité, ce qui renforce les arguments en faveur de l’application de l’article 69 aux services financiers.

Les principales fonctions des parties prenantes spécifiées dans la loi sont « fournisseur » ou vendeur et « utilisateur ». Cette terminologie est cohérente avec les lois douces sur l’IA publiées ces dernières années, qu’il s’agisse de lignes directrices ou de meilleures pratiques. “Opérateur” est une désignation courante dans le langage de l’IA, et la loi fournit sa propre définition, qui inclut les fournisseurs, les vendeurs et tous les autres acteurs de la chaîne d’approvisionnement de l’IA. Dans le monde réel, la chaîne d’approvisionnement de l’IA est bien sûr beaucoup plus complexe : les tiers sont des fournisseurs de systèmes d’IA pour les sociétés financières, et les sociétés financières sont des fournisseurs des mêmes systèmes pour leurs clients.

La Commission européenne estime le coût de la mise en conformité à la loi sur l’IA à 6 000-7 000 € pour les vendeurs, probablement une fois par système, et 5 000 à 8 000 € par an pour les utilisateurs. Bien sûr, compte tenu de la diversité de ces systèmes, un seul ensemble de chiffres pourrait difficilement s’appliquer à toutes les industries, de sorte que ces estimations ont une valeur limitée. En effet, ils peuvent fournir un point d’ancrage par rapport auquel comparer les coûts réels de la conformité entre les industries. Certains systèmes d’IA nécessiteront inévitablement une surveillance si stricte du fournisseur et de l’utilisateur que les coûts seront beaucoup plus élevés et entraîneront des dissonances inutiles.

Tuiles pour les équipes en forme de T

Administration et conformité

La loi sur l’IA introduit un cadre de gouvernance détaillé, complet et novateur : le comité européen sur l’IA proposé superviserait les autorités nationales individuelles. Chaque membre de l’UE peut soit désigner une autorité nationale existante pour superviser l’IA, soit, comme l’Espagne l’a récemment décidé, en créer une nouvelle. En tout cas, c’est une grosse entreprise. Les fournisseurs d’IA seront tenus de signaler les incidents à leur autorité nationale.

La loi énonce de nombreuses exigences de conformité qui s’appliquent aux services financiers, notamment :

  • Processus de gestion des risques en cours
  • Exigences en matière de données et de gestion des données
  • Documentation technique et tenue de registres
  • Transparence et information des utilisateurs
  • Savoir et compétence
  • Précision, robustesse et cybersécurité

En introduisant un régime détaillé et strict de sanctions en cas de non-conformité, la loi AI s’aligne sur le RGPD et MiFID II. Selon la gravité de l’infraction, la sanction peut atteindre 6 % du chiffre d’affaires annuel global de l’entreprise fautive. Pour une multinationale technologique ou financière, cela pourrait représenter des milliards de dollars américains. Cependant, les sanctions de la loi AI occupent en fait un terrain d’entente entre celles du RGPD et de la MiFID II, où les amendes s’élèvent respectivement à un maximum de 4 % et 10 %.

Vignettes du numéro actuel du Financial Analysts Journal

Quelle sera la prochaine ?

Tout comme le RGPD est devenu la référence en matière de réglementation sur la protection des données, la législation européenne sur l’IA est susceptible de devenir le modèle de réglementations similaires en matière d’IA dans le monde.

Sans précédents réglementaires sur lesquels s’appuyer, la loi sur l’IA souffre d’un certain “désavantage du premier arrivé”. Cependant, il a fait l’objet de nombreuses consultations et sa publication a suscité de vives discussions dans les milieux juridiques et financiers qui, espérons-le, éclaireront la version finale.

Un problème immédiat est la définition trop large de l’intelligence artificielle par la loi : celle proposée par la Commission européenne inclut des approches statistiques, une estimation bayésienne et éventuellement des calculs Excel. Comme l’a dit le cabinet d’avocats Clifford Chance, «Cette définition pourrait englober presque tous les logiciels d’entreprise, même si elle n’inclut aucune forme reconnaissable d’intelligence artificielle.

Un autre défi est le cadre réglementaire proposé de la loi. Un régulateur national unique devrait couvrir tous les secteurs. Cela pourrait créer un effet de fragmentation, avec un régulateur dédié supervisant tous les aspects de certaines industries, à l’exception des questions liées à l’IA, qui relèveraient d’un régulateur distinct mandaté par la loi sur l’IA. Une telle approche ne serait guère optimale.

En IA, une taille peut ne pas convenir à tous.

En outre, l’interprétation de la loi au niveau des secteurs individuels est presque aussi importante que le langage de la loi elle-même. Les régulateurs financiers existants et les régulateurs de l’IA nouvellement créés et désignés devraient fournir des conseils au secteur des services financiers sur la manière d’interpréter et de mettre en œuvre la loi. Ces interprétations doivent être cohérentes dans tous les États membres de l’UE.

Bien que la loi sur l’IA devienne une loi contraignante juridiquement contraignante si et quand elle est promulguée, à moins que l’article 69 ne soit substantiellement modifié, ses dispositions seront des lois non contraignantes ou des meilleures pratiques recommandées pour toutes les industries et applications, à l’exception de celles spécifiquement mentionnées. Cela semble être une approche intelligente et flexible.

Pionniers de l'IA dans la gestion des investissements

En publiant la loi sur l’IA, l’UE est allée audacieusement là où aucun autre organisme de réglementation n’est allé auparavant. Nous devons maintenant attendre – et espérons-le pas trop longtemps – pour voir quelles propositions réglementaires sont faites dans d’autres juridictions de haute technologie.

Recommanderont-ils aux industries individuelles d’adopter des réglementations sur l’assurance-emploi pour promouvoir les valeurs démocratiques ou renforcer le contrôle de l’État ? Certaines juridictions peuvent-elles opter pour peu ou pas de réglementation ? Les réglementations sur l’IA fusionneront-elles en un ensemble universel de règles mondiales, ou seront-elles « balkanisées » par région ou par industrie ? Seul le temps nous le dira. Mais je crois que la réglementation de l’IA sera un avantage net pour les services financiers : elle clarifiera le paysage réglementaire actuel et, espérons-le, aidera à apporter des solutions à certains des problèmes les plus urgents du secteur.

Si vous avez aimé cet article, n’oubliez pas de vous abonner Investisseur entreprenant.


Toutes les contributions sont l’opinion de l’auteur. En tant que tels, ils ne doivent pas être interprétés comme des conseils en investissement, et les opinions exprimées ne reflètent pas nécessairement celles du CFA Institute ou de l’employeur de l’auteur.

Crédit image : ©Getty Images / mixmagic


Formation professionnelle pour les membres du CFA Institute

Les membres du CFA Institute sont autorisés à déterminer et à déclarer de manière indépendante les crédits de formation professionnelle (PL) obtenus, y compris le contenu sur Investisseur entreprenant. Les membres peuvent facilement enregistrer des crédits en utilisant leur traqueur PL en ligne.

Wojtek Buczynski, CFA

Wojtek Buczynski, CFA, FRM, est un professionnel de la finance axé sur la stratégie, la réglementation et l’éthique des technologies émergentes (cloud et IA) dans le secteur des services financiers. Il est diplômé du programme de maîtrise en finance de la London Business School et détient la charte CFA depuis 2016. Il travaille actuellement en tant que professionnel de la finance à Londres et étudie en tant que doctorant à temps partiel à Cambridge, où il fait des recherches sur l’éthique et l’application de l’IA en finance. prestations de service. Vous pouvez lui envoyer un email [email protected]

Leave a Comment

Your email address will not be published.