Réconcilier MPT et Démons

Hello,

Je cherche à réconcilier le cadre théorique de la Théorie Moderne du Portefeuille (MPT) et ses dérivés (CAPM puis décomposition en facteurs de rendements type Fama)

avec les effets plutôt associés aux effets de rééquilibrage de portefeuille et de volatilité (volatility drag, démon de shannon).

Je comprends les deux approches isolément, mais j’ai du mal à les reconnecter en une approche cohérente (qui notamment me donnerait : le nb de classes d’actif optimales, la pondération cible, ainsi que la fréquence de rééquilibrage cible)

Toutes explications ou suggestions de lectures bienvenues

Merci !

1 « J'aime »

Salut :blush:

Je ne suis pas certain de bien comprendre toute l’étendue de ta question, et je ne pourrais pas y répondre entièrement.

Cependant, il existe de nombreux travaux qui intègrent les coûts de transaction et les impôts dans des modèles inspirés de Merton ou Markowitz. L’intuition est relativement simple : un modèle théorique nous donne d’abord l’allocation cible optimale, puis on intègre les frais supplémentaires, ce qui définit des « régions » où il est optimal de laisser le portefeuille dériver.

Un article qui décrit la forme de ces régions est disponible ici : https://escholarship.org/content/qt0fw6k0hm/qt0fw6k0hm.pdf.

En revanche, bonne chance pour calculer explicitement ces régions ! Pour un actif risqué, tu trouveras une réponse dans la section 5 (page 15), ainsi que des exemples quelques pages plus loin. C’est très technique et je ne saurais absolument pas les calculer sur des données observées. Si tu arrives à remonter à des papiers plus récents et plus accessibles qui citent celui là ce serait avec grand plaisir d’en discuter :slight_smile:

Tu pensais à la question des frictions, ou plutôt à la question de définir le rythme de rééquilibrage optimal pour réduire au mieux le volatility drag (ou collecter du bonus de rééquilibrage / invoquer le démon de Shannon, c’est juste des variantes de terminologie après tout) @Metagabbro ?

La question m’a l’air aussi hyper complexe. Il y a plein de paramètres :

  • combien d’actifs avec des corrélations raisonnablement faibles ?
  • sont-il assez volatils, ou avec assez d’espérance de rendement pour envisager de les leverager ?
  • quelle est la fiabilité des relations de convexité constatées ? (ex : lorsque les actions se font démonter durablement, les managed futures ont tendance à bien marcher, mais c’est vrai aussi lorsque les actions font un bon run)
  • quel est le coût des frictions (trading et fiscalité) ?
  • a-t-on des enjeux logistiques pour accéder à ces primes de risque (fonds multi-stratégies, ou plusieurs fonds spécialisés par prime ? Quel trade-off sur le nombre de gérants ? Disponibilité en UCITS)
  • le caractère plus ou moins durable des tendances sur chaque prime de risque (qui influe sur le rythme de rééquilibrage optimal : on ne veut pas rattraper les couteaux avant qu’ils ne soient au sol)

C’est un problème de maboul. D’autant plus qu’il faut raisonner a priori, pas en torturant la data à coup de backtest naïf.

A bout d’un moment, les incertitudes accumulées sur tous tes estimateurs tendent à me faire penser que tu n’as pas de moyen de déterminer ça avec une robustesse raisonnable… Et que tu te rabats sur de l’équi-pondération de primes de risque « raisonnables » avec un levier « pas trop débile » estimé à coup de stress tests « conservateurs ». :sweat_smile:

Il y a du taf’ pour construire un processus robuste sur le sujet. Mais j’aimerais bien trouver des guidelines cohérentes là-dessus pour les investisseurs retail.

Ma question porte en effet sur les rééquilibrages et comment le problème d’optimisation que ça pose interfère (ou pas) avec le pb d’optimisation MPT.

Je vais essayer d’être plus précis :

Déjà dans un premier temps pour simplifier ignorons les questions de taxes et de coûts de transaction et les considérations pratiques '(ai-je accès ou non aux bons supports).

Faisons aussi l’hypothèse que les Espérances/Variances/Covariances sont stables dans le temps

Voici ce que je comprends

MPT

  • Pb d’optimisation monopériode.
  • Etant donné un ensemble d’actifs, leurs espérances et matrices de variance / covariance, on peut dessiner la frontière efficiente qui maximise le risque/rendement
  • Si a par dessus ça un coût du risque, on obtient le portefeuille tangent etc etc
  • Retenons que pour un niveau de rendement cible donné on trouve des pondérations d’actifs minimisant le risque

On a donc là un modèle monopériode, avec une espérance du rendement qui correspond qqpart à une vision moyenne arithmétique presque par définition. Si on crée ce portefeuille avec rééquilibrage d’une période à l’autre pour revenir sur les pondérations optimales pour rester sur le rendement cible (pour rappel dans mon monde simplifié les espérances et covariances sont constantes dans le temps), on aura bien dans la durée une moyenne arithmétique correspondant à celle prise dans les hypothèses MPT, en revanche le rendement composé ne sera pas égal à cause du drain de volatilité

Ce drain de volatilité est, wait for it, une fonction de la volatilité (on peut prendre R_g = R_a - \sigma^2 * 1/2 qui est l’approximation à l’ordre 1).

J’en arrive là où j’ai du mal à faire le pont :

  • Etape 1 : étant donné un R_a cible on a déterminé des pondération minimisant \sigma
  • Etape 2 : mais est ce qu’on ne peut pas rendre compte ex post que ce n’est pas optimal d’un point de vue rendement composé R_g et vouloir revoir les pondérations initiales en fonction ? C’est à dire qu’on trouverait un autre portefeuille cible (donc pas sur la frontière efficiente MPT) avec un R_g supérieur au précédent, mais un \sigma inférieur, le battant donc sur les deux dimensions dans une vision composée
  • Où a l’inverse est ce que ces deux objectifs ne sont jamais incompatibles et donc tout ça se résoud en un même et unique pb d’optimisation

A la relecture, je ne sais pas si je suis si clair que ça… :slight_smile: (et je n’ai pas abordé la question de la fréquence de rééquilibrage, mais j’y reviendrai)

L’optimisation Mean Variance ou la frontière efficiente, c’est la même chose, à un facteur près, gamma. Graphiquement, c’est la pente de la tangente que tu prends pour sélectionner ton portefeuille.

Ca revient à déterminer le portefeuille qui a le plus haut rendement ajusté du risque, qui s’exprime en forme fermée par RaR = µ - 0.5 x gamma x sigma^2. Pour gamma = 1, ça revient à maximiser approximativement le rendement composé sur ta période de référence (celle sur laquelle tu as estimé µ et sigma), en l’absence de rééquilibrage.

Si tu penses que tes actifs ont des rendements normaux et que les corrélations sont stables, passer à une période plus courte (mensuelle au lieu d’annuelle, par exemple), tu te retrouves à optimiser un ensemble d’actifs où µ’ = µ/12 et sigma’=sigma/sqrt(12), donc à optimiser RaR’ = µ/12 - 0,5gamasigma^2/12, donc la même chose qu’annuellement.

Ex ante, tu as toujours la même allocation quelle que soit la période que tu regardes. Si tes hypothèses sur la distribution des rendements de tous tes actifs sont stables, normales et que tu n’as pas de coûts de transation, alors il faudrait a priori rééquilibrer en continu, de manière à toujours cibler l’optimum pour la période suivante : l’objectif d’allocation est le même à 1 jour ou à 1 an.

Dans la pratique, les rendements ne sont ni normaux, ni indépendants et ça coûte du blé de rééquilibrer. Si tu penses qu’il existe une autocorrélation des rendements à quelques semaines/mois (= les marchés vont continuer à avoir des tendances), tu n’as pas envie de rééquilibrer trop vite, par exemple. Bref, j’ai l’impression qu’il n’y a pas de solution « simple » et tu dois empiler une sacrée génoise d’hypothèses pour décider. :sweat_smile:

Empiriquement, les stratégies les moins actives peuvent se satisfaire d’une rééquilibrage très irrégulier (1 fois par an ou tous les 2 ans), tandis que les stratégies à levier significatif appellent un monitoring au moins trimestriel ou selon des bandes de tolérance.

Pour le moment, je fais du mensuel le temps de me faire une religion. Comme j’investis à levier avec pas mal de marge pour l’augmenter et que je n’ai pas encore très lourd de plus-values latentes en CTO, ça me donne du temps pour bien creuser encore la chose.

Rââh, tu nous as mis la tête à l’envers avec @Guillaume, @Metagabbro !

Une variation du portefeuille sur une période qui t’écarte de l’optimum n’augmente pas forcément la variance, donc le drag n’est pas forcément impacté à la hausse. :sweat_smile:

Mais est-ce que c’est un impact qui a la moindre importance dans un monde où les estimateurs sont forcément un peu moisis : probablement pas.

Je raisonne sans le gamma (qui d’ailleurs n’est pas dans le papier original de markowitz, je crois qu’il l’a introduit par la suite). Contexte où on optimise un rendement, pas une utilité. Pour faire simple

En te lisant j’en conclus qu’on optimise la mm fonction objectif, que ce soit dans le pb MPT ou quand on regarde le drain de volatilité donc c’est la mm solution.

Dit autrement : en me baladant sur la frontère efficiente, je suis sûr d’avoir un portefeuille efficient aussi du pdv du drain de volatilité ?

On a pris un peu de temps @Metagabbro, pour te répondre, mais grâce à ta question, on peut écrire de superbes équations sur le forum !
J’ai du mal à réfléchir sans poser les équations, ce langage peut faire peur, mais au fond, le sens est beaucoup plus clair, et parfois précis que le langage naturel. Bref, je m’égare.

Avant de rentrer dans le détail, je vais tenter un TLDR :

En finance, on cherche souvent à optimiser un portefeuille en maximisant le rendement tout en minimisant le risque. Mais selon qu’on utilise des rendements arithmétiques ou géométriques, les solutions peuvent sembler différentes. Je vais montrer qu’en réalité, sous certaines hypothèses, très réalistes, ces deux approches mènent à des résultats très proches.

Maintenant je repars de ton précédent poste et je vais essayer de rentrer dans le détail et justifier d’où vient cette affirmation.

Citation
Etape 1 : étant donné un R_a cible on a déterminé des pondération minimisant \sigma

On peut écrire le problème comme suit :

On modélise avec l’espérance arithmétique \mu=\mathbb{E}[r] et la matrice de covariance \Sigma=\mathrm{Var}(r). La frontière efficiente (forme contrainte) est alors dans ce cas:

\min_{w}\ w^\top \Sigma w \quad\text{s.c.}\quad \mathbf{1}^\top w=1,\quad w^\top\mu=m.

Formulation équivalente en utilité quadratique (paramétrique) :

\max_{w}\ U_\gamma(w)=w^\top\mu-\tfrac{\gamma}{2}\,w^\top\Sigma w \quad\text{s.c.}\quad \mathbf{1}^\top w=1.

En faisant varier m (ou \gamma), on parcourt la même famille de portefeuilles efficients. Pour répondre à tes questions suivantes, comparons cela au cas géométrique

Cas géométrique

Si R_p=w^\top r est le rendement simple d’une période, le taux de croissance composé de long terme (sous i.i.d. et rééquilibrage) est

g(w)=\mathbb{E}\big[\log(1+w^\top r)\big].

Maximiser \mathbb{E}[\log(1+w^\top r)] correspond à une utilité logarithmique, c’est-à-dire une utilité à aversion relative au risque constante (CRRA) de paramètre 1, on peut aussi l’approcher par un développement limité.
Pour rendements et volatilités petits à l’échelle de la période, on utilise \log(1+x)\approx x-\tfrac12 x^2. En posant X=w^\top r :

g(w)=\mathbb{E}[\log(1+X)] \approx \mathbb{E}[X]-\tfrac12\,\mathbb{E}[X^2] = w^\top\mu-\tfrac12\big(w^\top\Sigma w + (w^\top\mu)^2\big).

À l’horizon mensuel, (w^\top\mu)^2 est souvent négligeable, d’où l’approximation usuelle

g(w)\approx w^\top\mu-\tfrac12\,w^\top\Sigma w,

qui coïncide avec une utilité quadratique de type moyenne–variance que l’on a décrit dans le cas des rendements arithmétiques,

\max_{w}\ w^\top\mu-\tfrac{1}{2}\,w^\top\Sigma w \quad\text{avec}\quad \mathbf{1}^\top w=1.

On retombe donc exactement sur le même portefeuille (à un DL près) que celui dans le cas où l’on considère un rendement arithmétique avec utilité quadratique de paramètre \gamma = 1.

Citation
Etape 2 : mais est ce qu’on ne peut pas rendre compte ex post que ce n’est pas optimal d’un point de vue rendement composé R_g et vouloir revoir les pondérations initiales en fonction ? C’est à dire qu’on trouverait un autre portefeuille cible (donc pas sur la frontière efficiente MPT) avec un R_g supérieur au précédent, mais un \sigma inférieur, le battant donc sur les deux dimensions dans une vision composée
Où a l’inverse est ce que ces deux objectifs ne sont jamais incompatibles et donc tout ça se résoud en un même et unique pb d’optimisation

Ta question suggère qu’on pourrait trouver un portefeuille avec un meilleur rendement composé ET une volatilité plus faible. En réalité, les deux formulations (arithmétique et géométrique) mènent à des solutions très proches, donc il n’y a pas d’arbitrage possible : le portefeuille optimal reste le même (à une approximation près).

4 « J'aime »

Bon je retourne lire pif gadget.

6 « J'aime »

Merci d’avoir pris le temps
J’en étais arrivé à la même conclusion en échangeant avec vous hier (d’ailleurs il faut que je trouve comment faire pour écrire des équations proprement comme tu le fais).
L’ajout du paramètre \gamma n’est pas dans ma question initiale mais ta réponse prouve que mm si on l’introduit la réponse reste la mm.

On peut donc dire qu’optimiser le modèle MPT de période en période (via les rééquilibrages) apporte un bénéfice supplémentaire dans une approche multipériode qui est de minimiser le drain de volatilité sur les rendements composés.

C’est qqc que je n’avais jamais réalisé, et d’ailleurs ça me fait changer de perspective :

  • Avant je me disais “le modèle de Markowitz, c’est très élégant, mais au fond on s’en fout un peu car la volatilité est une mesure très subjective et a minima partielle du risque”
  • Là on dit qqc d’autre, une sorte de cerise sur le gateau / side benefit qui vient apporter un bénéfice de diversification : en plus d’une minimisation des secousses du portefeuille (\sigma) on obtient un sucroit de rendement composé sur le long terme
1 « J'aime »

J’en viens au second sujet qui est celui de la fréquence des rééquilibrages.

Là ce que j’ai pu lire laisse à penser qu’il n’y a pas de réponse mathématique élégante. J’ai l’impression que des chercheurs ont fait des backtests dans tous les sens pour essayer d’évaluer ce qui marche le mieux empiriquement, avec comme le souligne Vincent dans d’autres posts deux effets contraires (value et momentum) qui peuvent intervenir selon l’humeur du marché et des sous-jacents.

Preneur si j’ai raté qqc et qu’il existe en fait une façon d’optimiser cela

D’ailleurs, dans un livre (je ne me souviens plus lequel), l’auteur recommandait de faire un rééquilibrage par quart de son portefeuille tous les trimestres pour essayer de lisser un peu ces effets de market timing (une sorte de DCA du rééquilibrage si l’on veut).

Je ne sais pas si c’est issu d’un livre, mais je me rappelle avoir lu Vincent expliquer que sa méthode de rééquilibrage se fait par 1/12e tous les mois, pour des questions de lissage en effet!

1 « J'aime »

Pas de pif gadget pour moi, mais j’en suis pas loin !
Histoire de valider que j’ai bien compris un point parmi ces hiéroglyphe equations :

Pour rendements et volatilités petits à l’échelle de la période

Cette condition me semble là pour que le développement limité de \log(1+x) ne soit pas idiot. Il faut donc que x soit petit. Très petit.
Donc il faut que \mu + 3\sigma \ll 1 (Sous hypothese de normalité des rendements)

Donc en pratique, pour que les deux approches mènent à des résultats proches, il suffit de réduire la période pour les portefeuilles trop volatils. J’ai tout bon ? (Sous hypothese d’iid des rendements)

Par « trop volatil », j’entends (en admettant que \mu \ll \sigma ) quelque chose comme \sigma > 5\% (quand je dis \mu ou \sigma c’est toujours « sur la periode ») ?

Je suppute qu’il s’agit de Corey Hoffstein. Il y a de belles choses dans son blog Flirting With Models. Il propose notamment le modèle de rééquilibrage par tranches, dans le contexte d’une allocation stratégique.

Sachant que pour le commun des mortels, le rééquilibrage se fait souvent par les apports ou les retraits. Lorsqu’on investit avec levier, le rééquilibrage se fait aussi lorsqu’on augmente la dette.

En pratique, je m’en sors à généralement en procédant par ajout de dette (quand le portefeuille grossit) ou par retraits. Je n’ai donc pas trop eu besoin de procéder par tranches sur mon allocation CTO…

1 « J'aime »

« Donc en pratique, pour que les deux approches mènent à des résultats proches, il suffit de réduire la période pour les portefeuilles trop volatils. J’ai tout bon ? »

Oui, c’est exactement ça ! L’approximation \log(1+X) \approx X - \frac{1}{2}X^2 repose sur l’idée que (w^\top\mu)^2 est négligeable, c’est à dire que la carré du rendement espéré du portefeuille soit négligeable face au reste de l’équation (rendement et volatilité). Or, si on exprime les rendements en taux annuels (ex. : 5% ou 15%), alors :

  • Pour R = 5\% : (0.05)^2 = 0.0025 .
  • Pour R = 15\% : (0.15)^2 = 0.0225 .

Ces valeurs sont effectivement très petites par rapport aux autres termes de l’équation, donc l’hypothèse tient bien en pratique, et même pour des portefeuilles très très … Optimistes !

(d’ailleurs il faut que je trouve comment faire pour écrire des équations proprement comme tu le fais)

Il suffit de mettre du code « latex » entre deux signes dollars, pour ton exemple de \sigma, cela me donne : \sigma.

2 « J'aime »