Summary
Separable Markovian decision problems have the property that for certain pairs (i, a) of a statei and an actiona: (i) the immediate reward is the sum of terms due to the current state and action (ria=Si+ta), (ii) the transition probability depends only on the action and not on the state from which the transition occurs. The separable model was studied already in the late sixties. For the discounted case and the unichain undiscounted case a reduced LP formulation was given, which involves a substantially smaller number of variables than in the LP formulation of a general Markov decision problem. It was unknown whether such an efficient formulation was also possible in the multichain case. This paper solves this problem: such an efficient formulation can be obtained. Some applications of separable models are also presented.
Zusammenfassung
Separabele Markoffsche Entscheidungsprobleme haben die Eigenschaft, daß für gewisse Paare (i, a) von Zuständeni und zugehörigen Aktionena gilt: (i) die unmittelbare Auszahlung ist die Summe zweier Terme, von denen der eine nur vom Zustand und der andere nur von der Aktion abhängt (ria=si+ta), (ii) die Übergangswahrscheinlichkeiten hängen nur von der Aktion ab und nicht vom Zustand, in dem diese Aktion gewählt wurde. Dieses Modell wurde schon gegen Ende der Sechziger Jahre untersucht. Es wurde bewiesen, daß diskontierte Probleme und undiskontierte Probleme mit nur einer rekurrenten Klasse als lineare Programme mit weniger Variablen als im allgemeinen Modell formuliert werden können. Es war bisher unbekannt, ob auch für undiskontierte Modelle mit mehreren rekurrenten Klassen eine Formulierung mit weniger Variablen existiert. Dieses Problem wird in der vorliegenden Arbeit gelöst: eine solche Formulierung ist möglich. Abschließend werden einige Anwendungen von separablen Modellen angegeben.
Similar content being viewed by others
References
DeGhellinck GT (1960) Les problèmes de décision sequentielles. Cah Cent Etud Rech Oper 2:161–179
DeGhellinck GT, Eppen GD (1967) Linear programming solutions for separable Markovian decision problems. Manag Sci 13:371–394
Denardo EV (1967) Separable Markovian decision problems. Manag Sci 14:451–462
D'Epenoux F (1960) Sur un problème de production et de stockage dans l'aléatoire. Rev Fr Rech Oper 14:3–16
Derman C (1970) Finite state Markovian decision processes. Academic Press, New York
Doob JL (1953) Stochastic processes. Wiley, New York
Hordijk A, Kallenberg LCM (1979) Linear programming and Markov decision chains. Manag Sci 25:352–362
Howard RA (1960) Dynamic programming and Markov processes. MIT Press, Cambridge
Kallenberg LCM (1983) Linear programming and finite Markovian control problems. Mathematical Centre Tract # 148, Mathematical Centre, Amsterdam
Kemeny JG, Snell JL (1960) Finite Markov chains. Van Nostrand, Princeton
Manne AS (1960) Linear programming and sequential decisions. Manag Sci 6:259–267
Parthasarathy T, Tijs SH and Vrieze OJ (1984) Stochastic games with state independent transitions and separable rewards. In: Hammer G, Pallaschke D (eds) Selected topics in operations research and mathematical economics (Lect Notes Econ, vol 226) Springer, Berlin Heidelberg New York, pp 262–271
Sobel MJ (1981) Myopic solutions of Markov decision processes and stochastic games. Oper Res 29:995–1009
Author information
Authors and Affiliations
Rights and permissions
About this article
Cite this article
Kallenberg, L.C.M. Separable Markovian decision problems. OR Spektrum 14, 43–52 (1992). https://doi.org/10.1007/BF01783501
Received:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/BF01783501