Les prédictions sur les marchés financiers : science, art… ou imposture?

Chaque jour voit son lot de prédictions émises par des experts, gérants, journalistes financiers sur tous les sujets d’intérêt comme l’évolution du cours de Tesla, du prix de l’or, de la croissance américaine, de la parité USD-EUR, etc. Que valent ces opinions d’experts ? Y a-t-il un moyen d’améliorer ce type de prévision ? Ou tout cela n’est-il que du « bruit » sans importance ? Ces questions devraient préoccuper tout professionnel qui évolue dans le monde de la gestion. La bonne nouvelle est qu’il existe des réponses.

Comme chaque année, je profite des vacances estivales pour explorer un sujet qui m’intéresse tout particulièrement. Cet été, deux livres m’ont ainsi accompagné sur les plages : « Superforecasting – the Art and Science of Prediction » de Philip E. Tetlock, et « The Success Equation – Untangling Skill and Luck in Business, Sports and Investing » de Michael J. Mauboussin.

Sans prétendre vouloir faire un résumé de ces deux ouvrages, je voudrais partager ici les éléments qui m’ont paru les plus pertinents pour mon domaine d’activité : la gestion d’actifs ainsi que la sélection de gérants.

 

Le premier est trivial : pour évaluer la capacité prédictive d’un expert, il suffit de mesurer son pourcentage de succès. Simple à dire mais impossible à faire dans le domaine financier, pour deux raisons : d’une part, personne n’évalue systématiquement la justesse des prévisions émises par chaque expert, et d’autre part, ces prévisions sont le plus souvent très floues, sans véritable niveau ou horizon-temps précis qui permettrait d’évaluer le résultat de la prévision. De toute manière, ces opinions ne servent qu’à assouvir le besoin insatiable d’informations des investisseurs, et elles sont vite oubliées. Pour autant, l’exercice même d’émettre des prévisions n’est pas forcément une cause perdue.

Dans son livre, Tetlock explique comment il a participé à un programme de recherche scientifique financé par l’agence gouvernementale américaine IARPA[1] entre 2011 et 2015, dans lequel plus d’un million de prévisions ont été émises par les participants et ont été évaluées. Parmi les cinq groupes d’experts, celui dirigé par Tetlock a rapidement surclassé les autres (dont celui du MIT[2]), à tel point que seul son groupe a été retenu pour les deux dernières années du programme. Sa méthode de sélection d’experts a donc fait ses preuves. Les profils de ses « superforcasters » (ceux classés parmi les meilleurs 2% du groupe) sont étonnamment variés mais ils ont plusieurs points communs dans la manière d’effectuer leurs prévisions, qui leur permet d’obtenir des très bons pourcentages de réussite même s’ils ne connaissaient rien du sujet au départ ! Encore mieux, des personnes non-expertes ont été capables de battre des experts reconnus (y compris des analystes d’agences de renseignement qui disposaient d’informations non-publiques), et ce dans tous les domaines : l’économie, la politique et même les marchés financiers. Une approche méthodique se révèle donc bien supérieure au « savoir » en matière de prévision.

Parmi les facteurs de succès qu’il a identifiés, Tetlock relève la nécessité d’effectuer un « post-mortem » sur sa prévision. Si cette dernière a été correcte, il faut comprendre si le raisonnement qui sous-tend la prévision a été juste ou si l’événement s’est réalisé pour d’autres raisons ; si elle a été fausse, il faut analyser où le raisonnement a fait défaut et en tirer les conséquences pour les futures prévisions. Comme dans le sport, il est impossible de s’améliorer sans feed-back. Un autre facteur-clé est celui d’être capable d’ajuster sa prévision si nécessaire, notamment lorsqu’une nouvelle information vient changer la donne de départ. Toute la difficulté réside dans l’évaluation de l’importance de cette nouvelle information sur l’évolution de la variable prédite ou, en d’autres termes, d’être capable d’éliminer le « bruit » pour ne sélectionner que l’information utile. C’est d’ailleurs comme cela que fonctionnent les marchés financiers, ainsi que les marchés prédictifs basés sur des enchères[3] : toute nouvelle information pertinente se retrouve très rapidement intégrée dans le prix. Enfin, il a constaté que travailler en équipe augmente encore la capacité prédictive de ses « superforecasters ».

Tetlock démontre ainsi qu’il est possible d’effectuer des prévisions qui, en moyenne, se révèleront plus précises que des experts renommés ou les marchés prédictifs[4]. Outre le fait qu’il faille posséder certaines qualités innées comme la curiosité, l’ouverture d’esprit et la persévérance, beaucoup de travail et de temps sont nécessaires pour développer une telle compétence… le plus difficile étant d’apprendre à contrôler les nombreux biais comportementaux qui faussent constamment notre jugement.

 

Le second élément concerne le rôle de la chance dans la réalisation d’un résultat. Mauboussin place ainsi les activités humaines dans un continuum « chance – compétence » :

Le fait que les marchés financiers se retrouvent très à gauche sur ce graphe ne devrait surprendre personne. Il est dès lors impossible de prévoir leur évolution de manière systématique, et c’est un domaine où il est également très difficile d’améliorer son intuition (appelé « Système 1 »[5]) en raison de facteurs sous-jacents éminemment complexes et changeants. Contrairement aux échecs, où toute erreur majeure est immédiatement sanctionnée par la perte d’une pièce, voire la perte de la partie, il n’y pas de relation stable entre les causes et les effets sur les marchés financiers. Une même nouvelle peut provoquer une hausse ou une baisse du prix, en fonction du contexte (attentes intégrées dans ce prix avant l’annonce mais non observables, sentiment des investisseurs, etc.). C’est pourquoi les modèles basés sur l’intelligence artificielle, qui recherchent des liens de causalité (« patterns »), ne peuvent donner des résultats satisfaisants dans ce domaine.

Si les marchés financiers sont hautement aléatoires, doit-on en conclure qu’il est impossible de battre durablement les indices en gestion active, un raccourci que l’on entend souvent parmi les promoteurs de la gestion passive ? Si la majorité des gérants actifs doivent sous-performer après avoir tenu compte des frais de gestion[6], comme l’a démontré William Sharpe[7], il n’en reste pas moins qu’il existe des gérants qui réussissent à battre leur indice de référence, et ce de manière répétée. Ici se pose donc la question de l’évaluation de la valeur ajoutée d’un gérant de fonds. Ou plus précisément, comment distinguer, dans ses performances, ce qui provient de ses compétences (et qui est donc répétable), et ce qui n’est que le résultat de la chance (et donc aléatoire) ?

La réponse scientifique est bien entendu que plus l’activité a une part aléatoire importante, plus il faut d’observations pour discriminer la compétence de la chance. En termes de gestion de fonds, on demandera donc un « track record » le plus long possible, avec toutes les difficultés pratiques que cela implique[8]. Même s’il passe plus de temps à analyser les sports que la finance, Mauboussin partage les résultats d’une étude[9] sur 5’593 fonds actifs américains « large caps » sur la période 1962-2008. Les auteurs comparent le nombre de gérants qui ont surperformé l’indice S&P 500 sur plusieurs années de suite (de 5 à 15 ans) avec le nombre de gérants qui auraient dû battre l’indice sur ces mêmes durées par le seul fruit du hasard (« null model »). Leurs résultats montrent qu’il y a beaucoup plus de gérants qui surperforment que ce que le hasard prédit, et donc qu’il y a bien une part de compétence dans leurs résultats. Il existe donc une persistance de la surperformance chez ces gérants, qui peut durer de nombreuses années. La difficulté est bien entendu de les identifier suffisamment tôt…

 

Quelles conclusions pratiques peut-on en tirer ? J’en propose deux :

 

  • Nous sommes programmés pour rechercher des causes à tous les effets que nous observons. Notre besoin de « narratif » submerge notre raisonnement rationnel, et c’est pourquoi il ne manque jamais d’experts pour nous expliquer ex post pourquoi un tel événement s’est produit… et l’on ignore totalement le fait qu’ex ante, beaucoup de scénarios alternatifs étaient également possibles, mais le fait qu’ils ne se soient finalement pas réalisés ne signifie pas qu’ils étaient pour autant improbables. Reconnaître que le hasard joue un rôle bien plus important que celui qu’on lui prête permet de mieux comprendre la difficulté, voire dans de nombreux cas la futilité, d’effectuer des prédictions. Les innombrables prévisions qui inondent les médias financiers sont donc sans intérêt – même si, par le seul fait du hasard, certaines vont effectivement se réaliser. Mieux vaut les ignorer et consacrer son temps à des lectures plus enrichissantes[10]!

 

  • Sélectionner un gérant actif nécessite de fortes convictions sur sa capacité à générer de la performance. Un long « track record » peut permettre de se rassurer sur ce point, mais l’exercice est plus compliqué qu’il n’y paraît (cf. note 8). La surperformance constatée n’est-elle due qu’au hasard, et dans ce cas, l’inévitable « retour à la moyenne » nous promet des performances futures décevantes, ou alors a-t-on détecté un vrai talent dont les performances sont – partiellement en tout cas – répétables ? Une analyse quantitative et qualitative approfondie, permettant de réconcilier le processus d’investissement avec la performance réalisée, est la seule manière de s’en assurer. Le sujet est vaste, et il fera l’objet d’une autre publication.

 

N’hésitez pas à me faire part de vos commentaires. Bonnes lectures !

 

[1] Intelligence Advanced Research Projects Activity (www.iarpa.gov).

[2] Massachusetts Institute of Technology.

[3] Comme par exemple Predictit (www.predictit.org).

[4] Le groupe ”The Good Judgment Project“ de Tetlock offre maintenant ses services de prévision. Plus d’informations sur www.goodjudgement.com.

[5] Le « Système 2 » est celui de la réflexion. L’humain étant paresseux de nature, nous utilisons de préférence le Système 1, qui permet de prendre des décisions rapides et basées sur l’intuition. La finance comportementale met en évidence les innombrables failles du Système 1.

[6] Entre 1962 et 2008, en moyenne seuls 38% des gérants en actions « large caps » américaines ont surperformé l’indice S&P 500 sur une année calendaire.

[7] « The Arithmetic of Active Management », William F. Sharpe, The Financial Analysts’ Journal Vol. 47, No 1, January/February 1991.

[8] Gérant individuel vs. équipe de gestion, changement de gérant, problème de la « portabilité » du track record du gérant, changements de stratégie, etc.

[9] « Differentating Skill and Luck in Financial Markets with Streaks », Andrew Mauboussin and Steve Arbesman, SSRN working paper, February 3, 2011.

[10] Pour parfaire la trilogie sur le sujet, je recommande de lire « Fooled by Randomness: the Hidden Role of Chance in Markets and in Life » de Nassim N. Taleb.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

You may use these HTML tags and attributes:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>