De Markowitz à Monte Carlo Les problèmes de la Mise en œuvre de la Théorie du portefeuille
Agenda Part 1: Le paradoxe de Markowitz Part 2 : Les simulations Part 3 : Le resampling
Le paradoxe de Markowitz Les difficultés de la théorie du portefeuille
La théorie du portefeuille Une théorie précise, élégante
La théorie du portefeuille Aux résultats essentiels pour l’industrie : Gestion indicielle Styles d’indices Méthodes d’évaluation des performances …
La théorie du portefeuille Dont la mise en œuvre a toujours rencontré beaucoup de difficultés.
Leçons des optimisations sur données historiques : les portefeuilles sont très concentrés; les allocations sont très sensibles aux prévisions.
Un exemple Les données utilisées : Indices MSCI en actions Avec une périodicité mensuelle De janvier 1988 à juillet 2007 Les pays : USA, UK, Japon, France, Allemagne, Italie, Espagne, Hong-Kong, pays émergents hors Asie, pays émergents d’Asie
L’optimisation dans la pratique
Un exemple Les paramètres de l’optimisation pour un niveau d’aversion au risque = 5 Une absence de vente à découvert
L’optimisation dans la pratique Un portefeuille optimal concentré
Un exemple Avec des portefeuilles longs, Positions sur 25 à 33% des titres Des portefeuilles peu diversifiés Où la sélection doit être TRES judicieuse
L’impact des VADE L’impact des ventes à découvert
Un exemple Avec des portefeuilles long/short, Des positions sur tous les titres Avec des effets de levier Des risques considérables
L’impact de la VADE Un effet important sur la performance ex ante
L’impact des VAD
Les leçons de l’optimisation des portefeuilles Avec VADE ou sans VADE, Des portefeuilles risqués pour des gérants institutionnels
L’impact des erreurs d’estimation Une pratique courante et intuitive : Pour définir les inputs nécessaires des optimisateurs (rendements espérés, covariances), Recours aux données historiques
La sensibilité à l’échantillonnage Les données historiques : uniquement un échantillon de la « population » Le problème de l’inférence des vraies valeurs à partir de l’échantillon Question : peut-on avoir confiance dans les données historiques
Contre-exemple par le resampling Le comme si : Les statistiques (moyennes, covariances) sont les paramètres définissant la « vraie » loi des rendements Resimulation de 1000 échantillons sur une durée de 20 ans (plus précisément 235 mois) Remarque : 20 ans une durée difficile à étendre
Les résultats : les rendements moyens
Les résultats : les volatilités
Résultats sur les rendements La lenteur de la convergence des estimations même dans le cas iid normal!
Résultats sur les rendements Conséquence au niveau des portefeuilles : l’éparpillement des performances de l’optimisation
La distribution des statistiques des portefeuilles optimaux
Le graphique le plus « informatif »
Les rendements moyens
Les volatilités
La VAR paramétrique à 5%
Le ratio de Sharpe
La sensibilité à l’échantillonnage Si on relâche les contraintes de financement, les performances sont pires encore!
Le paradoxe de Markowitz Empiriquement il arrive fréquemment que le portefeuille equipondéré fasse mieux même sur 10 ans et plus que les portefeuilles optimisés!!! « Optimisation du portefeuille ou maximisation des erreurs »
Le paradoxe de Markowitz Explications Mathématiquement : la linéarité des cpo le portefeuille optimal est alors très sensible à des modifications des paramètres …
Le paradoxe de Markowitz Sans prise en compte du risque d’erreurs d’estimation, l’optimisation conduit alors à parier excessivement sur des outliers qui ne sont que des mirages D’où « l’optimisation à la Markowitz = la maximisation des erreurs »
Que faire? 4 pistes Ne plus optimiser « Torturer » les modèles Recourir à la simulation Utiliser d’autres informations
Recherche de Barra sur le screening : Ne plus optimiser Screening Critères de sélection Tri Sélection Recherche de Barra sur le screening : performance inférieure à l’optimisation (« sophistiquée »)
« Torturer les modèles » Introduire des contraintes de financement L’impact positif de l’interdiction des VAD Et d’autres contraintes quantivatives L’explication : la pénalisation des rendements extrêmes
Utiliser la simulations des rendements pour Le resampling Utiliser la simulations des rendements pour Évaluer ex-ante la distribution des performances Construire des portefeuilles alternatifs
Le resampling Resampling À la Jorion A la Michaud
Les méthodes de Simulation
Simulation d’une loi normale univariée multivariée
prob F rend
Loi normale multivariée Le problème supplémentaire La corrélation des variables Exemple : N titres dont on simule les rendements sur T périodes
Loi normale multivariée Les inputs Le vecteur des N rendements espérés Le vecteur des N volatilités La matrice des NxN corrélations
Loi normale multivariée La démarche (1) Simulations de N séries indépendantes de variables aléatoires (v.a.) centrées réduites suivant la loi normale (2) La corrélation avec la matrice de Cholesky (3) L’ajustement des moments
La technique du resampling Jorion (1992, Financial Analyst Journal) “Portfolio Optimization in Practice”. Richard Michaud (1998) R. Michaud a aussi déposé un brevet pour cette méthode U.S. Patent #6,003,018 by Michaud et al., December 19, 1999. Ibbotson Associates utilise aussi une technique de resampling notamment dans leur logiciel EnCorr
Le resampling Une technique Monte Carlo pour estimer les inputs de l’optimisation moyenne variance et éventuellement la frontière. … conduisant à des portefeuilles diversifiés. une technique brevetée par Richard Michaud depuis 1999.
La procédure Estimation du rendement, des écart-types et des corrélations. Nouvelles simulations calibrées sur les statistiques précédentes conduisant à de nouvelles estimations. Estimations des portefeuilles efficients correspondants à ces nouvelles estimations et pour différents niveaux de volatilité.
La procédure (suite) Répétition de 2 et 3 (>1000 simulations) Calcul de l’allocation moyenne ainsi obtenu et estimation du rendement moyen pour chaque niveau de volatilité. Détermination de la « frontière rééchantillonnée » à l’aide du portefeuille moyen et des statistiques initiales.
Historique 1 « vrai » historique Historique 2 Historique N
La distribution des statistiques des portefeuilles optimaux
Le graphique le plus « informatif »
Les rendements moyens
Les volatilités
La VAR paramétrique à 5%
Le ratio de Sharpe
Remarque Les portefeuilles sont optimisés sur les données simulées, Mais évalués avec les moments de l’historique initial (considérés comme les vrais moments).
Les efficient resampled portfolios L’efficient resampled portfolio = moyenne des portefeuilles simulés correspondant soit au même niveau de volatilité exigé, soit au même niveau d’aversion Avantage : par construction, un portefeuille beaucoup plus diversifié Et donc susceptible de limiter des paris intempestifs
Exemple Données de 1993 à 2007
La zone d’acceptation des portefeuilles Les portefeuilles appartenant à la même classe (même volatilité recherché ou même aversion) sont ensuite classés. Pour un seuil , on détermine la distance minimale pour laquelle à ce seuil le portefeuille p est statistiquement différent du portefeuille le plus efficient.
La zone d’acceptation des portefeuilles Avantage : Une approche statistique Aboutissant souvent à minimiser les rebalancements de portefeuille et donc les coûts de transaction. Limite : Test assez faible sur de nombreuses données.
Critique du resampling Critiques de Scherer (2002): les portefeuilles obtenus subissent les erreurs d’estimation initiales. L’absence de théorie – pourquoi choisir les « portefeuilles rééchantillonnées ». la frontière obtenue peut comporter des parties croissantes.
Une surestimation de la méthode Aversion de 5 procédure de double simulation (100 x 100) Simulation de 100 historiques observés par le gérant Et pour chaque historique observé, le gérant simule 100 historiques pour détermine l’efficient resampled portfolio…
Une surestimation de la méthode
Une surestimation de la méthode
Une surestimation de la méthode
Une surestimation de la méthode
Le resampling peut conduire à de fortes variations au cours du temps.