کد مقاله | کد نشریه | سال انتشار | مقاله انگلیسی | نسخه تمام متن |
---|---|---|---|---|
4669858 | 1346366 | 2014 | 7 صفحه PDF | دانلود رایگان |
For mean-field type control problems, stochastic dynamic programming requires adaptation. We propose to reformulate the problem as a distributed control problem by assuming that the PDF ρ of the stochastic process exists. Then we show that Bellman's principle applies to the dynamic programming value function V(τ,ρτ)V(τ,ρτ), where the dependency on ρτρτ is functional as in P.-L. Lions' analysis of mean-field games (2007) [10]. We derive HJB equations and apply them to two examples, a portfolio optimization and a systemic risk model.
RésuméPour les problèmes de contrôle stochastique à champs moyen, la programmation dynamique ne s'applique pas sans adaptation ; mais si l'on reformule le problème avec l'équation de Fokker–Planck, on peut le faire en utilisant une fonctionnelle valeur {τ,ρτ(⋅)}→V(τ,ρτ){τ,ρτ(⋅)}→V(τ,ρτ) comme dans l'analyse des problèmes de jeux à champs moyen par P.-L. Lions (2007) [10]. Les résultats sont appliqués à un problème d'optimisation de portefeuille et à un problème de risque systémique.
Journal: Comptes Rendus Mathematique - Volume 352, Issue 9, September 2014, Pages 707–713