Zusammenfassung
Es sollen nun Modelle studiert werden, bei denen man die Übergangswahrscheinlichkeiten steuern kann. Befindet sich das System im Zustand i , so liegt eine Familie van Ü-W. {(pij(a) , j ε S ) , a ε A(i)} vor. Dabei wird der Parameter a als Aktion interpretiert. Erst nach der Auswahl einer Aktion sind die Ü-W. festgelegt. Das Ergreifen einer Aktion a im Zustand i wird dabei durch sins Funktion r(i,a) bewertet. Ziel ist es, die Auswahl der Aktionen so vorzunehmen, daß ein gewisses Zielfunktional, das als erwarteter Gesamtgewinn interpretiert werden kann, maximiert wird. Das zugrundeliegende sogenannte Markoffsche Entscheidungsmodell ist durch ein Tupel M = (S,A,p,r,u,β) gegeben, wobei die einzelnen Größen die folgende Bedeutung haben.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 1990 B. G. Teubner, Stuttgart
About this chapter
Cite this chapter
Schäl, M. (1990). Stochastische dynamische Optimierung. In: Markoffsche Entscheidungsprozesse. Teubner Skripten zur Mathematischen Stochastik. Vieweg+Teubner Verlag, Wiesbaden. https://doi.org/10.1007/978-3-322-82976-4_3
Download citation
DOI: https://doi.org/10.1007/978-3-322-82976-4_3
Publisher Name: Vieweg+Teubner Verlag, Wiesbaden
Print ISBN: 978-3-519-02732-4
Online ISBN: 978-3-322-82976-4
eBook Packages: Springer Book Archive