Apprentissage automatique : expliquez-le ou échouez

Apprentissage automatique : expliquez-le ou échouez

« Si vous ne pouvez pas l’expliquer simplement, vous ne le comprenez pas.

Il en va de même pour l’apprentissage automatique complexe (ML).

Le ML mesure désormais les risques environnementaux, sociaux et de gouvernance (ESG), exécute les transactions et peut piloter la sélection des actions et la construction du portefeuille, mais les modèles les plus performants restent des boîtes noires.

L’expansion accélérée du BC dans le secteur de l’investissement crée des préoccupations entièrement nouvelles concernant la transparence réduite et la manière dont les décisions d’investissement sont expliquées. A dire vrai “Algorithmes ML inexplicables [ . . . ] exposer l’entreprise à des niveaux inacceptables de risques juridiques et réglementaires.

En clair, cela signifie que si vous ne pouvez pas expliquer vos décisions d’investissement, vous, votre entreprise et vos actionnaires avez de gros problèmes. Des explications – ou mieux encore des interprétations directes – sont donc indispensables.

Bouton S'abonner

Ce défi a été relevé par de grands esprits d’autres grandes industries qui ont déployé l’intelligence artificielle (IA) et l’apprentissage automatique. Cela change tout pour ceux de notre secteur qui préféreraient les informaticiens aux professionnels de l’investissement ou essaieraient d’introduire des applications ML naïves et non standard dans la prise de décision d’investissement.

Deux types de solutions d’apprentissage automatique sont actuellement proposées :

  1. L’IA interprétable utilise un ML moins complexe qui peut être directement lu et interprété.
  2. L’IA explicable (XAI) prend un ML complexe et tente de l’expliquer.

XAI pourrait être la solution du futur. Mais c’est l’avenir. Actuellement et comme on pouvait s’y attendre, sur la base de 20 ans d’investissement quantitatif et de recherche ML, je pense que l’interprétabilité est l’élément sur lequel vous devez vous concentrer pour exploiter la puissance de l’apprentissage automatique et de l’IA.

Laissez-moi vous expliquer pourquoi.

La deuxième révolution technique de la finance

Le ML constituera une partie importante de l’avenir de la gestion moderne des investissements. C’est le consensus général. Il promet de réduire le nombre de front-offices coûteux, de remplacer les modèles de facteurs hérités, de tirer parti de vastes pools de données en croissance et, en fin de compte, d’atteindre les objectifs des propriétaires d’actifs de manière plus ciblée et personnalisée.

Cependant, la lenteur de l’adoption de la technologie dans la gestion des investissements est une histoire ancienne, et le ML n’a pas fait exception. C’est-à-dire jusqu’à récemment.

La montée en puissance de l’ESG au cours des 18 derniers mois et la recherche de vastes ensembles de données nécessaires pour l’évaluer ont été les principaux moteurs de la transition vers le ML.

La demande pour ces nouvelles expertises et solutions a dépassé tout ce que j’ai vu au cours de la dernière décennie ou depuis la dernière révolution technologique majeure qui a frappé la finance au milieu des années 1990.

Le rythme de la course aux armements du ML est préoccupant. L’intérêt apparent des nouveaux experts est alarmant. Que cette révolution puisse être cooptée par des informaticiens plutôt que par des entreprises peut être la possibilité la plus inquiétante de toutes. L’explication des décisions d’investissement consistera toujours en de solides justifications commerciales.

Tuiles pour les équipes en forme de T

Simplicité explicable ? Ou une complexité explicable ?

L’intelligence artificielle interprétable, également appelée intelligence artificielle symbolique (SAI), ou “bonne vieille intelligence artificielle”, trouve ses racines dans les années 1960, mais est à nouveau à la pointe de la recherche en intelligence artificielle.

Les systèmes d’IA interprétables ont tendance à être basés sur des règles, presque comme des arbres de décision. Bien sûr, alors que les arbres de décision peuvent aider à comprendre ce qui s’est passé dans le passé, ils sont de terribles outils de prévision et se chevauchent généralement avec les données. Cependant, les systèmes d’IA interprétables disposent désormais de processus beaucoup plus puissants et sophistiqués pour apprendre les règles.

Ces règles doivent être appliquées aux données. Elles peuvent être directement recherchées, examinées et interprétées, tout comme les règles d’investissement de Benjamin Graham et David Dodd. Elles peuvent être simples, mais puissantes, et si l’apprentissage des règles a été bien fait, sans danger.

L’IA alternative et explicable, ou XAI, est complètement différente. XAI tente de trouver une explication au fonctionnement interne des modèles de boîte noire qui ne peut pas être directement interprété. Avec les boîtes noires, les entrées et les sorties peuvent être observées, mais les processus entre elles sont opaques et ne peuvent être que devinés.

C’est ce que XAI essaie généralement de faire : deviner et tester sa façon d’expliquer les processus de boîte noire. Il utilise des visualisations pour montrer comment différentes entrées peuvent affecter les résultats.

XAI en est encore à ses balbutiements et s’est avéré être une discipline exigeante. Ce sont deux très bonnes raisons de suspendre son jugement et de se laisser interpréter lorsqu’il s’agit d’applications d’apprentissage automatique.


Interpréter ou expliquer ?

Image montrant différentes applications de l'intelligence artificielle

L’une des applications les plus courantes de XAI en finance est SHAP (SHapley Additive exPlanations). SHAP trouve ses origines dans la théorie des jeux Shapely Values. et a été développé tout récemment par des chercheurs de l’Université de Washington.

L’image ci-dessous montre l’explication de SHAP du modèle de sélection de titres, qui est le résultat de quelques lignes de code Python. Mais c’est une explication qui a besoin de sa propre explication.

C’est une excellente idée et très utile pour développer des systèmes de ML, mais il faudrait qu’un PM courageux s’y fie pour expliquer une erreur commerciale au responsable de la conformité.


Un pour votre responsable de la conformité ? Utiliser les valeurs de Shapley pour expliquer un réseau de neurones

Remarque : il s’agit de l’explication de SHAP d’un modèle de forêt aléatoire conçu pour sélectionner des actions à alpha plus élevé dans un marché boursier émergent. Il utilise les flux de trésorerie disponibles passés, le bêta du marché, le rendement des capitaux propres et d’autres intrants. Le côté droit explique comment les entrées affectent la sortie.

Drones, armes nucléaires, diagnostics de cancer. . . et sélection de titres ?

Les chercheurs médicaux et l’industrie de la défense explorent la question de l’explication ou de l’interprétation depuis bien plus longtemps que le secteur financier. Ils ont mis au point de puissantes solutions spécifiques aux applications, mais n’ont pas encore atteint de conclusion générale.

La Defense Advanced Research Projects Agency (DARPA) des États-Unis a mené des recherches de pointe et a caractérisé l’interprétabilité comme un coût qui limite les performances des systèmes d’apprentissage automatique.

La figure ci-dessous illustre cette conclusion avec différentes approches de ML. Dans cette analyse, plus l’approche est interprétable, moins elle sera complète et donc précise. Ce serait certainement vrai si la complexité était couplée à la précision, mais le principe de parcimonie et certains chercheurs percutants dans ce domaine diffèrent. Ce qui suggère que le côté droit du diagramme peut mieux représenter la réalité.


L’interprétabilité réduit-elle vraiment la précision ?

Un graphique montrant les différences entre les applications d'IA interprétables et précises
Remarque : Cynthia Rudin déclare que la précision n’est pas liée à l’interprétabilité (à droite), comme le prétendent les partisans de XAI (à gauche).

Biais de complexité dans la C-Suite

« La fausse dichotomie entre une boîte noire précise et un modèle transparent pas si précis est allée trop loin. Lorsque des centaines de scientifiques et de dirigeants financiers de premier plan sont induits en erreur par cette dichotomie, imaginez comment le reste du monde pourrait être trompé.” – Cynthia Roudin

L’hypothèse intégrée au camp de l’explicabilité – que la complexité est garantie – peut être valable dans les applications où l’apprentissage en profondeur est essentiel, comme prédiction du repliement des protéines, par exemple. Mais cela peut ne pas être aussi crucial dans d’autres applications, notamment la sélection de titres.

Le bouleversement du défi de l’apprentissage automatique explicable de 2018 a prouvé que. C’était censé être un défi de boîte noire pour les réseaux de neurones, mais la chercheuse superstar en intelligence artificielle Cynthia Rudin et son équipe avaient d’autres idées. Ils ont conçu un modèle d’apprentissage automatique interprétable, c’est-à-dire plus simple. Comme il n’était pas basé sur un réseau de neurones, il ne nécessitait aucune explication. C’était déjà interprétable.

Le commentaire le plus remarquable de Rudin est peut-être que « faire confiance à un modèle de boîte noire signifie que vous faites confiance non seulement aux équations du modèle, mais également à toute la base de données à partir de laquelle il a été créé.

Son propos devrait être familier à ceux qui ont l’expérience de la finance comportementale. Rudin reconnaît un autre biais comportemental : la complexité. Nous avons tendance à trouver le complexe plus attrayant que le simple. Son approche, comme elle l’a expliqué dans une récente Webinaire WBS sur Interpretable vs. intelligence artificielle explicableest d’utiliser uniquement des modèles de boîte noire pour fournir une référence pour développer des modèles interprétables avec une précision similaire.

Les suites C qui dirigent la course aux armements de l’IA voudront peut-être s’arrêter et réfléchir avant de poursuivre leur quête totale de surcomplexité.

Pionniers de l'IA dans la gestion des investissements

Apprentissage automatique interprétable et auditable pour le stock picking

Alors que certains objectifs nécessitent de la complexité, d’autres en souffrent.

La sélection de titres en est un exemple. dans “Apprentissage automatique interprétable, transparent et auditable” David Tilles, Timothy Law et moi-même présentons l’IA interprétable comme alternative évolutive à l’investissement factoriel pour la sélection de titres dans la gestion des investissements en actions. Notre application apprend des règles d’investissement simples et interprétables en utilisant la puissance non linéaire d’une approche ML simple.

La nouveauté est qu’il est simple, interprétable, évolutif et pourrait – selon nous – réussir et surpasser de loin l’investissement factoriel. En effet, notre application fonctionne presque aussi bien que les approches de boîte noire beaucoup plus complexes que nous avons expérimentées au fil des ans.

La transparence de notre application signifie qu’elle est auditable et peut être communiquée et comprise par les parties intéressées qui peuvent ne pas avoir un diplôme supérieur en informatique. XAI n’a pas besoin de l’expliquer. Il est directement interprétable.

Nous avons été motivés pour publier cette recherche par notre conviction de longue date qu’une trop grande complexité n’est pas nécessaire pour la sélection de titres. En fait, une telle complexité nuit presque certainement à la sélection de titres.

L’interprétabilité est primordiale dans l’apprentissage automatique. L’alternative est une complexité si circulaire que toute explication nécessite explication pour explication à l’infini.

où est-ce que ça se termine

Un pour le peuple

C’est lequel alors? Expliquer ou interpréter ? Le débat fait rage. Des centaines de millions de dollars sont dépensés en recherche pour soutenir l’essor de l’apprentissage automatique dans les sociétés financières les plus progressistes.

Comme pour toute technologie de pointe, les faux départs, les explosions et le gaspillage de capital sont inévitables. Mais pour l’instant et dans un avenir prévisible, l’IA interprétable est la solution.

Considérez deux vérités : plus la question est complexe, plus le besoin d’explication est grand ; plus le sujet est facilement interprétable, moins il faut d’explications.

Vignette publicitaire pour l'intelligence artificielle dans la gestion d'actifs

À l’avenir, XAI sera mieux implanté et compris, et sera beaucoup plus puissant. Il en est encore à ses balbutiements et c’est trop demander à un gestionnaire d’investissement d’exposer son entreprise et ses actionnaires à des niveaux inacceptables de risques juridiques et réglementaires.

XAI à des fins générales ne fournit pas actuellement d’explication simple et comme on dit :

« Si vous ne pouvez pas l’expliquer simplement, vous ne le comprenez pas.

Si vous avez aimé cet article, n’oubliez pas de vous abonner Investisseur entreprenant.


Toutes les contributions sont l’opinion de l’auteur. En tant que tels, ils ne doivent pas être interprétés comme des conseils en investissement, et les opinions exprimées ne reflètent pas nécessairement celles du CFA Institute ou de l’employeur de l’auteur.

Crédit d’image : © Getty Images / MR.Cole_Photographer


Formation professionnelle pour les membres du CFA Institute

Les membres du CFA Institute sont autorisés à déterminer et à déclarer de manière indépendante les crédits de formation professionnelle (PL) obtenus, y compris le contenu sur Investisseur entreprenant. Les membres peuvent facilement enregistrer des crédits en utilisant leur traqueur PL en ligne.

Dan Philps, Ph.D., CFA

Dan Philps, PhD, CFA, est directeur chez Rothko Investment Strategies et chercheur en intelligence artificielle (IA). Il a 20 ans d’expérience dans l’investissement quantitatif. Avant Rothko, il était gestionnaire de portefeuille principal chez Mondrian Investment Partners. Avant 1998, Philps a travaillé dans un certain nombre de banques d’investissement, se spécialisant dans la conception et le développement de modèles commerciaux et de risques. Il est titulaire d’un doctorat en intelligence artificielle et en informatique de la City, University of London, d’un BSc (Hons) du King’s College de Londres, est titulaire de la charte CFA, membre de la CFA Society of the UK et chercheur honoraire à l’université. de Warwick.

Leave a Comment

Your email address will not be published.