Méthodes de contrôle stochastique appliquées à la construction de portefeuille, au contrôle avec retard et à la résolution d'EDPs
Stochastic control methods applied to portfolio construction, control with delay and PDE solving
par William LEFEBVRE sous la direction de Huyên PHAM
Thèse de doctorat en Mathématiques appliquées
ED 386 Sciences Mathematiques de Paris Centre

Soutenue le vendredi 09 décembre 2022 à Université Paris Cité

Sujets
  • Apprentissage profond
  • Gestion de portefeuille
  • Riccati, Équation de
  • Théorie moderne du portefeuille

Les thèses de doctorat soutenues à Université Paris Cité sont déposées au format électronique

Consultation de la thèse sur d’autres sites :

TEL (Version intégrale de la thèse (pdf))
Theses.fr (Version intégrale de la thèse (pdf))

Description en anglais
Description en français
Mots clés
Problème de portefeuille moyenne-Variance en temps continu, Allocation robuste, Paramètres mal spécifiés, Contrôle stochastique linéaire quadratique, EDP de Riccati, Portefeuille de Markowitz, EDP non linéaires, Apprentissage profond, Apprentissage différentiel, Valorisation d'option avec impact sur le marché
Resumé
La présente thèse porte sur les méthodes de contrôle stochastique appliquées à la résolution de problèmes survenant dans le domaine de la finance quantitative, tels que la sélection de portefeuille et la résolution d'EDP non linéaires associées à la construction de stratégies d'investissement et à l'évaluation de produits dérivés. Elle est divisée en trois parties. Dans la première partie, nous résolvons un problème de sélection de portefeuille de type moyenne-variance où le portefeuille est pénalisé par une distance entre la richesse investie dans chacun de ses actifs et la composition d'un portefeuille de référence à poids fixe. Les formules analytiques du contrôle optimal et de la fonction valeur sont obtenues et un analogue de la formule de frontière efficiente est obtenu dans la limite où la pénalisation tend vers zéro. La robustesse de cette allocation est testée sur des prix de marché simulés dans le cas où les paramètres de diffusion sont mal spécifiés. La deuxième partie traite du contrôle d'équations différentielles stochastiques avec retard. Nous résolvons un problème de contrôle stochastique linéaire quadratique simple où le contrôle apparaît à la fois dans la partie "drift" et dans la partie diffusion de l'EDS de l'état et est affecté par un retard. Les expressions analytiques du contrôle optimal et de la fonction valeur sont obtenues en termes de solution d'un système d'EDP de Riccati couplées pour lesquelles l'existence et l'unicité d'une solution sont prouvées, à condition qu'une hypothèse, combinant l'horizon temporel, le retard, le "drift" et la volatilité de l'EDS de l'état, soit satisfaite. Une méthode d'apprentissage profond est utilisée pour résoudre le système d'EDP de Riccati dans le contexte de la sélection de portefeuille de Markovitz avec délai d'exécution. Dans la troisième partie, trois méthodes basées sur l'apprentissage profond sont définies afin de résoudre des EDP entièrement non linéaires avec un hamiltonien convexe. Ces méthodes utilisent la représentation stochastique de l'EDP, dont le contrôle optimal est approximé numériquement, afin d'obtenir trois estimateurs différents de la solution de l'EDP basés sur les versions régressive ou trajectorielle de la représentation martingale et de sa dérivée. La solution et ses dérivées sont ensuite calculées simultanément. Nous exploitons ensuite nos méthodes pour concevoir des algorithmes permettant de résoudre des familles d'EDP avec une condition terminale paramétrique au moyen de réseaux de neurones DeepOnet.