Comme nous l’avons vu au chapitre précédent, la méthode de la programmation dynamique est un outil puissant pour étudier les problèmes de contr⊚le stochastique, via l’équation d’Hamilton-Jacobi-Bellman. Cependant, dans son approche classique, cette méthode suppose a priori que la fonction valeur soit régulière, ce qui n’est pas nécessairement le cas m≖me pour des cas très simples.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Rights and permissions
Copyright information
© 2007 Springer-Verlag Berlin Heidelberg
About this chapter
Cite this chapter
(2007). Approche des équations de Bellman par les solutions de viscosité. In: Optimisation et contrôle stochastique appliqués à la finance. Mathématiques & Applications, vol 61. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-540-73737-7_4
Download citation
DOI: https://doi.org/10.1007/978-3-540-73737-7_4
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-540-73736-0
Online ISBN: 978-3-540-73737-7
eBook Packages: Mathematics and StatisticsMathematics and Statistics (R0)