L’avenir sombre de la prévoyance en Suisse

Swisscanto vient de publier son étude annuelle sur les caisses de pensions suisses[1] et le constat n’est pas réjouissant. Les tendances négatives de la prévoyance professionnelle se poursuivent depuis désormais près de dix ans, selon Heini Dändliker de la ZKB.

En raison de la baisse continue des taux techniques et de l’augmentation de la longévité, les taux de conversion ne cessent de baisser :

Mais comme le montre cette étude, le taux de conversion minimal pour les avoirs obligatoires, qui reste fixé à 6.8% par la loi depuis 2006, est toujours trop haut[2]. Quelles en sont les conséquences ? Une redistribution des assurés actifs envers les retraités que la CHS-PP, l’organe de régulation de la prévoyance professionnelle, estime à près de 60 milliards sur les dix dernières années ! En d’autres termes, les caisses de pensions puisent dans les capitaux de prévoyance des actifs pour servir des retraites trop élevées.

Si elles n’ont pas le choix pour la partie obligatoire, les caisses de pension cherchent à rétablir l’équilibre en imposant des taux de conversion beaucoup plus bas pour la partie sur-obligatoire, et c’est ce qui explique pourquoi le taux de conversion combiné (qui inclut la partie obligatoire et sur-obligatoire) moyen se retrouve aujourd’hui à 5.63%. Les participants à l’enquête de Swisscanto anticipent d’ailleurs une baisse à 5.24% pour 2024. A ce rythme, les assurés qui sont à dix ans de la retraite doivent s’attendre à un taux de conversion inférieur à 5%…

En attendant une hypothétique réforme de la prévoyance, les caisses de pension doivent trouver des solutions pour rétablir l’équilibre, car compter sur la contribution du « tiers cotisant[3] » n’est pas une stratégie, surtout dans un environnement de taux négatifs voué à perdurer. Voici quelques pistes déjà suivies ou à venir :

  • Augmentation des cotisations de l’employé et/ou de l’employeur
  • Possibilité pour les assurés de choisir parmi différents plans de prévoyance
  • Prolongation de la durée de cotisation (avancement de l’âge du début de cotisation, report volontaire de l’entrée en retraite)
  • Facilitation du choix du capital plutôt que la rente à la retraite
  • Apports de l’employeur à la caisse de pension
  • Utilisation des réserves de la caisse de pension

Le fait que les suissesses et les suisses vont devoir cotiser plus, que ce soit volontairement (épargne personnelle, compte 3A, rachats dans le 2ème pilier) ou non, afin de s’assurer une retraite acceptable, est désormais une évidence. L’ignorer ou espérer une réforme miraculeuse de notre système de prévoyance (ou, plus cyniquement, compter sur les prestations complémentaires) n’est pas non plus une stratégie.

[1] Disponible ici : https://www.swisscanto.com/ch/fr/is/prevoyance/etude-caisses-de-pension.html

[2] La proposition du Parlement de l’abaisser à 6.4% a été massivement rejetée en votation populaire en 2010.

[3] Les marchés financiers, qui ont bien aidé les caisses de pension en 2019 avec une performance moyenne de 10.85%.

Les prédictions sur les marchés financiers : science, art… ou imposture?

Chaque jour voit son lot de prédictions émises par des experts, gérants, journalistes financiers sur tous les sujets d’intérêt comme l’évolution du cours de Tesla, du prix de l’or, de la croissance américaine, de la parité USD-EUR, etc. Que valent ces opinions d’experts ? Y a-t-il un moyen d’améliorer ce type de prévision ? Ou tout cela n’est-il que du « bruit » sans importance ? Ces questions devraient préoccuper tout professionnel qui évolue dans le monde de la gestion. La bonne nouvelle est qu’il existe des réponses.

Comme chaque année, je profite des vacances estivales pour explorer un sujet qui m’intéresse tout particulièrement. Cet été, deux livres m’ont ainsi accompagné sur les plages : « Superforecasting – the Art and Science of Prediction » de Philip E. Tetlock, et « The Success Equation – Untangling Skill and Luck in Business, Sports and Investing » de Michael J. Mauboussin.

Sans prétendre vouloir faire un résumé de ces deux ouvrages, je voudrais partager ici les éléments qui m’ont paru les plus pertinents pour mon domaine d’activité : la gestion d’actifs ainsi que la sélection de gérants.

 

Le premier est trivial : pour évaluer la capacité prédictive d’un expert, il suffit de mesurer son pourcentage de succès. Simple à dire mais impossible à faire dans le domaine financier, pour deux raisons : d’une part, personne n’évalue systématiquement la justesse des prévisions émises par chaque expert, et d’autre part, ces prévisions sont le plus souvent très floues, sans véritable niveau ou horizon-temps précis qui permettrait d’évaluer le résultat de la prévision. De toute manière, ces opinions ne servent qu’à assouvir le besoin insatiable d’informations des investisseurs, et elles sont vite oubliées. Pour autant, l’exercice même d’émettre des prévisions n’est pas forcément une cause perdue.

Dans son livre, Tetlock explique comment il a participé à un programme de recherche scientifique financé par l’agence gouvernementale américaine IARPA[1] entre 2011 et 2015, dans lequel plus d’un million de prévisions ont été émises par les participants et ont été évaluées. Parmi les cinq groupes d’experts, celui dirigé par Tetlock a rapidement surclassé les autres (dont celui du MIT[2]), à tel point que seul son groupe a été retenu pour les deux dernières années du programme. Sa méthode de sélection d’experts a donc fait ses preuves. Les profils de ses « superforcasters » (ceux classés parmi les meilleurs 2% du groupe) sont étonnamment variés mais ils ont plusieurs points communs dans la manière d’effectuer leurs prévisions, qui leur permet d’obtenir des très bons pourcentages de réussite même s’ils ne connaissaient rien du sujet au départ ! Encore mieux, des personnes non-expertes ont été capables de battre des experts reconnus (y compris des analystes d’agences de renseignement qui disposaient d’informations non-publiques), et ce dans tous les domaines : l’économie, la politique et même les marchés financiers. Une approche méthodique se révèle donc bien supérieure au « savoir » en matière de prévision.

Parmi les facteurs de succès qu’il a identifiés, Tetlock relève la nécessité d’effectuer un « post-mortem » sur sa prévision. Si cette dernière a été correcte, il faut comprendre si le raisonnement qui sous-tend la prévision a été juste ou si l’événement s’est réalisé pour d’autres raisons ; si elle a été fausse, il faut analyser où le raisonnement a fait défaut et en tirer les conséquences pour les futures prévisions. Comme dans le sport, il est impossible de s’améliorer sans feed-back. Un autre facteur-clé est celui d’être capable d’ajuster sa prévision si nécessaire, notamment lorsqu’une nouvelle information vient changer la donne de départ. Toute la difficulté réside dans l’évaluation de l’importance de cette nouvelle information sur l’évolution de la variable prédite ou, en d’autres termes, d’être capable d’éliminer le « bruit » pour ne sélectionner que l’information utile. C’est d’ailleurs comme cela que fonctionnent les marchés financiers, ainsi que les marchés prédictifs basés sur des enchères[3] : toute nouvelle information pertinente se retrouve très rapidement intégrée dans le prix. Enfin, il a constaté que travailler en équipe augmente encore la capacité prédictive de ses « superforecasters ».

Tetlock démontre ainsi qu’il est possible d’effectuer des prévisions qui, en moyenne, se révèleront plus précises que des experts renommés ou les marchés prédictifs[4]. Outre le fait qu’il faille posséder certaines qualités innées comme la curiosité, l’ouverture d’esprit et la persévérance, beaucoup de travail et de temps sont nécessaires pour développer une telle compétence… le plus difficile étant d’apprendre à contrôler les nombreux biais comportementaux qui faussent constamment notre jugement.

 

Le second élément concerne le rôle de la chance dans la réalisation d’un résultat. Mauboussin place ainsi les activités humaines dans un continuum « chance – compétence » :

Le fait que les marchés financiers se retrouvent très à gauche sur ce graphe ne devrait surprendre personne. Il est dès lors impossible de prévoir leur évolution de manière systématique, et c’est un domaine où il est également très difficile d’améliorer son intuition (appelé « Système 1 »[5]) en raison de facteurs sous-jacents éminemment complexes et changeants. Contrairement aux échecs, où toute erreur majeure est immédiatement sanctionnée par la perte d’une pièce, voire la perte de la partie, il n’y pas de relation stable entre les causes et les effets sur les marchés financiers. Une même nouvelle peut provoquer une hausse ou une baisse du prix, en fonction du contexte (attentes intégrées dans ce prix avant l’annonce mais non observables, sentiment des investisseurs, etc.). C’est pourquoi les modèles basés sur l’intelligence artificielle, qui recherchent des liens de causalité (« patterns »), ne peuvent donner des résultats satisfaisants dans ce domaine.

Si les marchés financiers sont hautement aléatoires, doit-on en conclure qu’il est impossible de battre durablement les indices en gestion active, un raccourci que l’on entend souvent parmi les promoteurs de la gestion passive ? Si la majorité des gérants actifs doivent sous-performer après avoir tenu compte des frais de gestion[6], comme l’a démontré William Sharpe[7], il n’en reste pas moins qu’il existe des gérants qui réussissent à battre leur indice de référence, et ce de manière répétée. Ici se pose donc la question de l’évaluation de la valeur ajoutée d’un gérant de fonds. Ou plus précisément, comment distinguer, dans ses performances, ce qui provient de ses compétences (et qui est donc répétable), et ce qui n’est que le résultat de la chance (et donc aléatoire) ?

La réponse scientifique est bien entendu que plus l’activité a une part aléatoire importante, plus il faut d’observations pour discriminer la compétence de la chance. En termes de gestion de fonds, on demandera donc un « track record » le plus long possible, avec toutes les difficultés pratiques que cela implique[8]. Même s’il passe plus de temps à analyser les sports que la finance, Mauboussin partage les résultats d’une étude[9] sur 5’593 fonds actifs américains « large caps » sur la période 1962-2008. Les auteurs comparent le nombre de gérants qui ont surperformé l’indice S&P 500 sur plusieurs années de suite (de 5 à 15 ans) avec le nombre de gérants qui auraient dû battre l’indice sur ces mêmes durées par le seul fruit du hasard (« null model »). Leurs résultats montrent qu’il y a beaucoup plus de gérants qui surperforment que ce que le hasard prédit, et donc qu’il y a bien une part de compétence dans leurs résultats. Il existe donc une persistance de la surperformance chez ces gérants, qui peut durer de nombreuses années. La difficulté est bien entendu de les identifier suffisamment tôt…

 

Quelles conclusions pratiques peut-on en tirer ? J’en propose deux :

 

  • Nous sommes programmés pour rechercher des causes à tous les effets que nous observons. Notre besoin de « narratif » submerge notre raisonnement rationnel, et c’est pourquoi il ne manque jamais d’experts pour nous expliquer ex post pourquoi un tel événement s’est produit… et l’on ignore totalement le fait qu’ex ante, beaucoup de scénarios alternatifs étaient également possibles, mais le fait qu’ils ne se soient finalement pas réalisés ne signifie pas qu’ils étaient pour autant improbables. Reconnaître que le hasard joue un rôle bien plus important que celui qu’on lui prête permet de mieux comprendre la difficulté, voire dans de nombreux cas la futilité, d’effectuer des prédictions. Les innombrables prévisions qui inondent les médias financiers sont donc sans intérêt – même si, par le seul fait du hasard, certaines vont effectivement se réaliser. Mieux vaut les ignorer et consacrer son temps à des lectures plus enrichissantes[10]!

 

  • Sélectionner un gérant actif nécessite de fortes convictions sur sa capacité à générer de la performance. Un long « track record » peut permettre de se rassurer sur ce point, mais l’exercice est plus compliqué qu’il n’y paraît (cf. note 8). La surperformance constatée n’est-elle due qu’au hasard, et dans ce cas, l’inévitable « retour à la moyenne » nous promet des performances futures décevantes, ou alors a-t-on détecté un vrai talent dont les performances sont – partiellement en tout cas – répétables ? Une analyse quantitative et qualitative approfondie, permettant de réconcilier le processus d’investissement avec la performance réalisée, est la seule manière de s’en assurer. Le sujet est vaste, et il fera l’objet d’une autre publication.

 

N’hésitez pas à me faire part de vos commentaires. Bonnes lectures !

 

[1] Intelligence Advanced Research Projects Activity (www.iarpa.gov).

[2] Massachusetts Institute of Technology.

[3] Comme par exemple Predictit (www.predictit.org).

[4] Le groupe ”The Good Judgment Project“ de Tetlock offre maintenant ses services de prévision. Plus d’informations sur www.goodjudgement.com.

[5] Le « Système 2 » est celui de la réflexion. L’humain étant paresseux de nature, nous utilisons de préférence le Système 1, qui permet de prendre des décisions rapides et basées sur l’intuition. La finance comportementale met en évidence les innombrables failles du Système 1.

[6] Entre 1962 et 2008, en moyenne seuls 38% des gérants en actions « large caps » américaines ont surperformé l’indice S&P 500 sur une année calendaire.

[7] « The Arithmetic of Active Management », William F. Sharpe, The Financial Analysts’ Journal Vol. 47, No 1, January/February 1991.

[8] Gérant individuel vs. équipe de gestion, changement de gérant, problème de la « portabilité » du track record du gérant, changements de stratégie, etc.

[9] « Differentating Skill and Luck in Financial Markets with Streaks », Andrew Mauboussin and Steve Arbesman, SSRN working paper, February 3, 2011.

[10] Pour parfaire la trilogie sur le sujet, je recommande de lire « Fooled by Randomness: the Hidden Role of Chance in Markets and in Life » de Nassim N. Taleb.