Advertisement

Event-History-Analysis

  • Sebastian JäckleEmail author
Living reference work entry
Part of the Springer Reference Sozialwissenschaften book series (SRS)

Zusammenfassung

Dieses Kapitel führt in die Klasse der Event-History-Verfahren ein, die allgemein zur Analyse von Transitionsprozessen verwendet werden. Es werden die Grundlagen dieser Methode erläutert und zentrale Begriffe wie Hazard-Rate, Risk-Set oder Zensierung besprochen. Zudem werden verschiedene Arten von Event-History-Analysen unterschieden und insbesondere die drei Hauptverfahren, die nicht-parametrischen, die parametrischen sowie das semi-parametrische Cox-Modell ausführlich behandelt und deren jeweilige Vor- und Nachteile diskutiert. Des Weiteren bietet das Kapitel einen Einblick in Erweiterungen der klassischen Event-History-Verfahren wie die Analyse von Repeated Events oder Competing Risks.

Schlüsselwörter

Event-History Survival-Analysis Kaplan-Meier Cox-Modell Transitionsanalyse Hazard Ereignisanalyse Überlebenszeitanalyse 

1 Einleitung

Die Event-History-Analyse (EHA)1 als Methode, mit welcher sich Transitionen eines Untersuchungsobjekts von einem Zustand in einen anderen untersuchen lassen, hat sich mittlerweile einen festen Platz im Werkzeugkoffer empirisch arbeitender Politikwissenschaftler gesichert. Ihr Name rührt daher, dass Zustandswechsel als Ereignisse bezeichnet werden, und zudem die Dauer, die ein Objekt in einem bestimmten Zustand verweilt, bis es ein solches Event erfährt – d. h. die Geschichte des Objekts – im Fokus der Untersuchung steht. Die EHA beantwortet dabei eine doppelte Fragestellung: einerseits ob ein Ereignis überhaupt eintritt (und wenn ja, wie lange es dauert bis es dazu kommt) und andererseits welche Faktoren den Eintritt des Ereignisses beschleunigen oder verzögern.

Nach ihrer Entwicklung primär für medizinische und werkstofftechnische Fragestellungen wird die EHA seit den 1980er-Jahren auch in den Sozialwissenschaften – dort v. a. in der Soziologie angewandt.2 In der Politikwissenschaft finden sich erste Arbeiten in den 1990er-Jahren. Einen groben Überblick der Entwicklung liefert Abb. 1. Dort ist der Prozentsatz der jährlich in SSCI-gelisteten, politikwissenschaftlichen Journals erschienen Artikel dargestellt, in denen eines der Stichworte Survival Analysis, Event History, Hazard Rate, Cox Model, Weibull Model, Proportional Hazard oder Duration Analysis (oder deren Wortstämme) vorkamen.3
Abb. 1

Anteil politikwissenschaftlicher Artikel, die EHA verwenden

Inhaltlich wird eine breite Palette an Themen mit EHA bearbeitet. Darunter finden sich Studien aus der Friedens- und Konfliktforschung, welche beispielsweise die Faktoren für langanhaltende Friedensepisoden in Post-Bürgerkriegsländern untersuchen (Caplan und Hoeffler 2017; Hartzell und Hoddie 2003), die Dauer zwischenstaatlicher Kriege (Bennett und Stam III 1996) oder die Langlebigkeit terroristischer Gruppen (Phillips 2015). Ebenfalls häufig sind Arbeiten zur Amtsdauer politischer Führungspersonen (Bueno de Mesquita und Siverson 1995; Bienen und van de Walle 1991; Horiuchi et al. 2015; Gandhi und Przeworski 2007), welche eng verbunden sind mit Fragen des Regime-Change und der Demokratisierung (Gasiorowski 1995; Wright 2009). Mit Event-History-Verfahren wurden zudem die Dauer von Regierungen (Warwick 1994; King et al. 1990; Jäckle 2011; Diermeier und Stevenson 1999; Saalfeld 2008) und einzelnen Ministern (Berlinski et al. 2007; Dowding und Dumont 2009; Jäckle 2013; Huber und Martinez-Gallardo 2008) aus einer Comparative Politics Perspektive heraus analysiert.4 Generell hat sich die EHA in der politischen Eliten- und Leadership-Forschung zu einem der am häufigsten verwendeten statistischen Verfahren entwickelt (Jäckle und Kerby 2018). Übertragen auf die legislative Arena lässt sich mit EHA unter anderem die Frage beantworten, wie sich der Gesetzgebungsprozess effektiver und schneller gestalten ließe (Golub 2008; König 2008; Bräuninger et al. 2017). Auch in der Policy-Forschung wurden Event-History-Ansätze bereits fruchtbar eingesetzt, beispielsweise zur Untersuchung von Diffusionsdynamiken bei state lotteries in den USA (Berry und Berry 1990; Baybeck et al. 2011) oder der Krankenhausfinanzierung in OECD-Ländern (Gilardi et al. 2009). Schließlich bieten sich EHA auch für den transnationalen Vergleich der Einführungszeitpunkte bestimmter gesetzlicher Regelungen an, wie Geschlechterquoten bei Wahlen (Hughes et al. 2015) oder gleichgeschlechtlicher Partnerschaftsmodelle (Hildebrandt et al. 2017). Generell lässt sich damit sagen, dass sobald politische oder soziale Prozesse, die zu einem bestimmten Outcome führen, als solche im Fokus des Forschungsinteresses stehen – und nicht nur das Outcome an sich – Event-History-Analysen ein geeignetes Auswertungsverfahren darstellen.

Bevor im dritten bis fünften Abschnitt dieses Kapitels mit den nichtparametrischen, den parametrischen und dem semiparametrischen Cox-Modell die drei großen Typen von Event-History-Verfahren präsentiert werden, sollen zunächst wichtige Begrifflichkeiten der EHA geklärt, die statistischen Grundlagen dieser Methode besprochen, mit Zensierungen eine zentrale Problematik erläutert und ein Überblick der verschiedenen Formen von EHA-Verfahren präsentiert werden. Der sechste Abschnitt zeigt Weiterentwicklungen der Event-History-Basismodelle, bevor das Kapitel mit einem kurzen Fazit schließt.

2 Grundlagen der Event-History-Analyse

Die EHA untersucht Transitionsprozesse. Um eine sinnvolle Analyse leisten zu können müssen laut Coleman (1981, S. 6–7) hierfür drei Bedingungen erfüllt sein. Erstens muss sich jedes Untersuchungsobjekt auf eine bestimmte Anzahl an möglichen Endzuständen zubewegen, zweitens sollten diese Zustandswechselereignisse generell zu jedem Zeitpunkt eintreten können und drittens wird davon ausgegangen, dass bestimmte Faktoren existieren, die das Eintreten der Ereignisse beeinflussen können. Diese Faktoren können dabei sowohl zeitlich konstant wie auch über die Zeit variabel sein.

2.1 Zentrale Begrifflichkeiten der EHA

Unter einem Ereignis oder Event versteht man in der EHA generell den Wechsel von einem Zustand in einen anderen. Dies kann beispielsweise bedeuten, dass in einer Untersuchung zu Regierungsbeständigkeit, wie in der von Paul Warwick (1994), das Ende einer Regierung als Event gezählt wird. Oftmals, wie auch in diesem Beispiel, ist es hierbei zunächst wichtig, klar zu definieren, was als so große Veränderung im Untersuchungsobjekt zu betrachten ist, dass man von einem wirklichen Event sprechen kann (für einen Überblick dieser Definitionsprobleme in der Forschung zu Regierungsbeständigkeit siehe Laver 2003, S. 25–27). Neben dem rein dichotom zu kodierenden Eintreten eines Ereignisses interessiert darüber hinaus, wie lange das Untersuchungsobjekt im ersten Zustand war, bis es in den zweiten Zustand überwechselt. In der wissenschaftlichen Diskussion haben sich hierfür die Begriffe der Verweildauer oder auch Überlebenszeit eingebürgert – im konkreten Beispiel wäre dies die Regierungsdauer. Oftmals können bestimmte Ereignisse nur eintreten, sofern sich das Untersuchungsobjekt bereits in einem bestimmten Ausgangszustand befindet. Beispielsweise kann ein Friedensvertrag zwischen zwei Staaten nur dann sinnvollerweise geschlossen werden, wenn diese sich zuvor im Krieg miteinander befunden haben. Länder, die sich nicht im Kriegszustand befinden, sind demzufolge auch nicht in der Menge an Untersuchungsobjekten enthalten, welche dem Risiko unterliegen, einen Friedensvertrag miteinander zu unterzeichnen. Sie gehören damit nicht zum sogenannten Risk Set. Entsprechend dieser Unterscheidung zwischen Risikoperioden und Perioden, während derer ein Objekt nicht dem Risiko eines Zustandswechsels unterliegt, kann die EHA nach Yamaguchi auch auf zwei Arten definiert werden: Erstens „as the analysis of the duration for the nonoccurrence of an event during the risk period“ oder zweitens „as the analysis of rates of the occurrence of the event during the risk period“ (1991, S. 3 [Hervorhebungen im Original]). Für diese Raten, welche einem spezifischen Zeitpunkt t zugeordnet sein müssen, hat sich, vornehmlich in der Soziologie, der Begriff der Transitionsrate durchgesetzt, wohingegen in der Medizin und Epidemiologie sowie auch der englischsprachigen Methodenliteratur meist von Hazard-Raten gesprochen wird. In der Politikwissenschaft findet sich zumeist ebenfalls letztere Begrifflichkeit. Der folgende Abschnitt erläutert die Hazard-Rate und weitere statistische Grundlagen der EHA genauer.

2.2 Statistische Grundlagen der EHA

Zwei Funktionen sind für eine jede EHA elementar: Erstens die Wahrscheinlichkeitsdichtefunktion f(t), welche die nicht bedingte und unmittelbare Wahrscheinlichkeit beschreibt, dass ein Ereignis während des infinitesimal kurzen Intervalls, das durch die Zeitpunkte t und t + Δt begrenzt ist, stattfinden wird:
$$ f(t)=\underset{\Delta t\to 0}{\lim}\frac{\Pr \left(t\le T\le t+\Delta t\right)}{\Delta t}. $$
Dabei ist T eine kontinuierliche, nicht negative Zufallsvariable, welche die Zeitspanne angibt, nach der das Ereignis stattgefunden hat, t ist eine konkrete Realisation dieser Variable. Mit der Wahrscheinlichkeitsdichtefunktion geht die Verteilungsfunktion F(t) einher, welche angibt, bei wie vielen Fällen, kumuliert über die Zeit betrachtet, ein Ereignis relativ zu allen Fällen eingetreten ist:
$$ F(t)=\Pr \left(T\le t\right)=\underset{0}{\overset{t}{\int }}f(u)d(u). $$
Die zweite relevante Funktion ist die Überlebensfunktion S(t), welche als Spiegelbild der Verteilungsfunktion F(t) zu sehen ist. Sie gibt die Wahrscheinlichkeit an, dass ein Ereignis bis zum Zeitpunkt t noch nicht eingetreten ist:
$$ S(t)=1-F(t)=1-\Pr \left(T\le t\right)=\Pr \left(T\ge t\right)=\underset{t}{\overset{\infty }{\int }}f(u)d(u). $$
Die Überlebensfunktion fällt monoton ab. Sie hat ihr Maximum von Eins bei t = 0 und nimmt für t→∞ ihr Minimum von Null an: Zu Beginn der Beobachtung sind noch alle Untersuchungseinheiten im Risk Set, mit fortschreitender Zeit erfahren kumulativ betrachtet immer mehr Einheiten ein Event und scheiden so aus dem Sample aus. Die Kombination dieser beiden Funktionen stellt das zentrale Konzept in der EHA dar und wird als Hazard-Rate λ(t) bezeichnet (Yamaguchi 1991, S. 9–10):
$$ \lambda (t)=f(t)/S(t). $$
Die Hazard-Rate gibt das unmittelbare Risiko an, dass ein Ereignis im infinitesimal kleinen Zeitraum Δt stattfindet, unter der Bedingung, dass es bis zum Startpunkt dieses Zeitraums bei t noch nicht stattgefunden hat:
$$ \lambda (t)=\underset{\Delta t\to 0}{\lim}\frac{\Pr \left(t\le T<t+\Delta t\left|T\ge t\right.\right)}{\Delta t} $$

Die Überlebensfunktion gibt also an, wie viele der Untersuchungsobjekte nach einer bestimmten Zeitspanne noch nicht vom Ursprungszustand in einen anderen übergegangen sind, wohingegen die Hazard-Rate das konkrete Risiko bemisst, dass ein Untersuchungsobjekt zu einem Zeitpunkt X (bzw. formal sauber ausgedrückt: während eines sehr kurzen Intervalls beginnend mit t = X) ein Transitionsereignis erfährt, unter der Bedingung, dass es bis dahin noch kein solches erfahren hat.

Einen Eindruck, wie die Event-History-Funktionen zusammenhängen liefert Abb. 2, am Beispiel des weiter unten noch genauer beschriebenen einfachsten parametrischen Modells – des exponentiellen Modells – bei dem die Hazard-Rate über die Zeit konstant ist. Grundsätzlich gilt, je höher die Hazard-Rate, desto schneller fallen Untersuchungseinheiten aufgrund von Events aus dem Risk Set heraus.
Abb. 2

Wahrscheinlichkeitsdichte-, Verteilungs-, Überlebens- und entsprechende Hazardfunktionen für vier exponentielle Modelle

2.3 Die Datenstruktur für EHA und das Konzept der Zensierungen

EHA bauen immer darauf auf, dass die Dauer beobachtet werden kann, die ein Untersuchungsobjekt in einem bestimmten Zustand verweilt. Sobald diese Beobachtung jedoch aus unterschiedlichen Gründen nur unvollständige Informationen zulässt, spricht man von Zensierung. Da das Zensieren einen zentralen Aspekt einer jeden EHA darstellt und es v. a. für das grundlegende Verständnis der bearbeitbaren Datenstruktur elementar ist, sollen hier die verschiedenen Arten der Zensierung kurz präsentiert werden. Abb. 3 gibt einen Überblick.
Abb. 3

Arten von Zensierungen. Anmerkung: Dargestellt sind die sechs Untersuchungsobjekte A, B, C, D, E und F. Ein Stern am rechten Ende der Linie, welche die Risikoperiode repräsentiert, indiziert ein Ereignis von Interesse für den Forscher. Der durchgestrichene Kreis stellt ein anderes, nicht interessierendes Endereignis dar. Eigene Darstellung nach Yamaguchi (1991, S. 4)

Fall A repräsentiert aus Forscherperspektive den Idealzustand: Sowohl der Anfangspunkt wie auch die Zustandsänderung durch das Ereignis liegen innerhalb der Observationsperiode [T0; T1]. Die vollständige Information über den Transitionsprozess kann damit in das Modell einfließen. Die vorliegenden Ereignisdaten für B und D beinhalten hingegen nur partielle Informationen. Bei B liegt ein Fall von Rechtszensierung vor, da zwar der Startpunkt beobachtet werden kann, das Ereignis aber erst nach Ablauf des Untersuchungszeitraums eintritt – der Forscher also ausschließlich weiß, dass bis zum Ende der Observationsperiode noch kein Ereignis eingetreten ist. Von einer Linkszensierung spricht man dagegen in einem Fall wie D, wenn ein Ereignis für einen Fall beobachtet werden kann, dessen Event History bereits vor Beginn des Beobachtungszeitraums anfängt. Während Linkszensierungen oftmals dadurch umgangen werden können, dass man die Observationsperiode für sämtliche betrachteten Objekte erst mit deren Eintritt in das Risk Set beginnen lässt,5 lassen sich rechtszensierte Daten schwieriger umgehen. Eine Option bestünde darin, von vornherein ausschließlich Fälle zu betrachten, bei denen die zu untersuchende Transition bereits stattgefunden hat. Dies würde allerdings oftmals eine Reduzierung der auswertbaren Datenbasis mit sich bringen, fielen doch die Informationen darüber, dass ein Objekt bis zum Ende der Observationsperiode noch kein Ereignis erfahren hat, unter den Tisch. Zudem könnte sich durch die Fallauswahl anhand der abhängigen Variable ein selection bias einstellen. Glücklicherweise bietet die EHA eine gute Alternative zu diesem Ansatz, da es mit ihr auch möglich ist, Fälle auszuwerten, für die nur partielle Informationen zum Ereignisprozess verfügbar sind. Die grundlegende Strategie hierzu ist simpel: Bei zensierten Fällen wird der nicht observierte Teil der Verweildauer (Δt) über die Verweildauer der komplett observierten Fälle abgeschätzt – an dieser Stelle zeigt sich allerdings auch bereits, dass ein hoher Anteil an zensierten Beobachtungen durchaus problematisch für die Schätzung sein kann.

Die Logik des Zensierens kann zudem auf Fälle angewendet werden, deren komplette Ereignisgeschichte zwar festgestellt werden kann, bei denen aber das Endereignis nicht dem interessierenden Ereignis entspricht (Fall F in Abb. 3). Analog zur Rechtszensierung sollte auch hier die observierte Verweildauer nicht mit der des Falls A gleichgesetzt werden. Am Beispiel der Forschung zur Regierungsbeständigkeit lässt sich dieser Fall illustrieren. So kann hier zwischen politisch begründeten und nicht politisch bedingten, d. h. technischen Regierungsbeendigungen unterschieden werden. Beispiele für erstere wären durch politischen Druck oder Skandale ausgelöste Rücktritte des Regierungschefs oder das Austreten eines Koalitionspartners, während der Tod des Regierungschefs oder turnusmäßige Neuwahlen Beispiele für technische Endereignisse wären (Jäckle 2011, S. 42–48). Eine Regierung, die innerhalb des Untersuchungszeitraums aufgrund eines politischen Endereignisses beendet wird stellt eine reguläre Beobachtung dar, deren Regierungsdauer damit auch komplett in die EHA einfließt (Fall A). Regierungen, die am Ende des Untersuchungszeitraums noch im Amt sind werden hingegen rechtszensiert (Fall B). Aber auch eine Regierung, die aufgrund eines technischen Endereignisses beendet wird, könnte als rechtszensiert behandelt werden, sofern man davon ausgeht, dass diese, wäre sie nicht durch das technische Ende (z. B. den Tod des Regierungschefs) beendet worden, noch eine gewisse zusätzliche Zeit (Δt) an der Macht geblieben wäre, bis sie dann aufgrund eines eigentlich interessierenden politisch bedingten Endereignisses das Risk Set hätte verlassen müssen. Allgemein bedeutet dies, dass es wichtig ist, bei EHA bereits konzeptionell klar zwischen den eigentlich interessierenden Endereignissen und sonstigen Endereignissen zu unterscheiden. Fragen der Rechtszensierung sind entsprechend keine rein technischen Probleme, sondern sollten stets theoretisch begründet werden.

Die beiden verbliebenen Observationen aus Abb. 3 stellen Fälle dar, von denen weder der Anfangszeitpunkt der Risikoperiode noch der Eintrittszeitpunkt des Ereignisses bekannt sind, da das Event entweder vor Beginn der Observationsperiode liegt (Fall E) oder die Risikoperiode erst nach Ablauf des Untersuchungszeitraums beginnt (Fall C). In solchen Fällen spricht man von Trunkierungen. Ein trunkierter Fall unterscheidet sich dadurch von einer Zensierung, dass seine Ereignisgeschichte nicht nur teilweise nicht beobachtbar ist, sondern es möglicherweise gar nicht bekannt ist, dass dieser Fall als solcher überhaupt existiert.6 Aus statistischer Perspektive ist mit Trunkierungen anders umzugehen als mit Zensierungen. Dies liegt an der grundlegend verschiedenen Logik der beiden Phänomene: „Whereas censoring is a model of missing observations […], truncation is a model of selection bias […]. Therefore, estimation using truncated data is naturally based on methods for selection bias models“ (Mandel 2007, S. 322).7 Das für EHA relevantere Konzept sind gleichwohl Zensierungen.

Diese sind zwar aufgrund der unvollständigen Informationen, die sie über den Ereignisprozess zur Verfügung stellen, allgemein ein Problem für die Modellspezifikation, EHA sind aber im Vergleich zu klassischen Regressionsansätzen deutlich besser in der Lage, hiermit umzugehen. Letztere weisen nur sehr eingeschränkte Möglichkeiten zur Behandlung von zensierten Fällen auf – etwa den kompletten Ausschluss dieser Fälle aus der Analyse oder das Festlegen einer arbiträren Zeitspanne, die eine jede zensierte Observation noch gelebt hätte, wäre sie nicht zensiert worden. Solche Herangehensweisen würden unweigerlich zu einem nicht unerheblichen Bias führen (Yamaguchi 1991, S. 8). Wichtig für die statistische Analyse ist indes, dass die Gründe für Zensierungen oder Trunkierungen unabhängig vom interessierenden Endereignis sind.

2.4 Arten von EHA-Modellen

Die EHA ist keine einzelne einheitliche Methode, vielmehr handelt es sich um ein ganzes Bündel unterschiedlicher Verfahren, denen allesamt gemeinsam ist, dass sie die Dauer bis zu einem Ereignis modellieren. Abb. 4 zeigt die zur Verfügung stehenden Verfahren im Überblick und auch wonach sich diese unterscheiden lassen. Die grundlegende Unterscheidung kann bezüglich der abhängigen Variable angeführt werden: Die Anzahl der möglichen Zustände, in die das Untersuchungsobjekt übergehen kann ist entweder genau abzählbar oder, wie bei kontinuierlich-quantitativen abhängigen Variablen der Fall, stetig und damit nicht näher bestimmbar. In der Regel befasst man sich in der Politikwissenschaft mit einer diskreten Anzahl an möglichen Endzuständen – so wird in der Forschung zur Regierungsbeständigkeit ein Regierungsende als Event gewertet. Diese können dann, je nach Fragestellung, noch weiter in eine abzählbare Anzahl an Ausprägungen differenziert werden (z. B. vorgezogene Neuwahl, Tod des Premiers).8
Abb. 4

Typen von Event-History-Modellen. Eigene Darstellung nach Vermunt (1997); Yamaguchi (1991) sowie Reimer und Barrot (2009)

Modelle, die eine diskrete Anzahl an Zuständen modellieren, lassen sich weiter entsprechend der folgenden drei Kriterien differenzieren (Vermunt 1996, S. 3–4):

Zum ersten lassen sie sich zunächst danach unterscheiden, ob die Zustandswechsel nur zu bestimmten Zeitpunkten stattfinden (zeitdiskrete Modelle) oder jederzeit eintreten können (zeitkontinuierliche Modelle). Da es sich bei vielen in der Politikwissenschaft anzutreffenden Prozessen genuin um kontinuierliche Prozesse handelt (so können z. B. Kriege nicht nur zu festen, turnusmäßigen Zeitpunkten ausbrechen, sondern genau wie das Scheitern von Regierungen letztlich zu jedem Zeitpunkt stattfinden), bietet es sich an, diese auch über ein zeitkontinuierliches, d. h. stetiges Modell zu schätzen.9 Der Fokus dieses Kapitels liegt entsprechend auf diesen zeitkontinuierlichen Modellen. Daneben gibt es aber durchaus Gelegenheiten bei denen zeitdiskrete Modelle ihre Berechtigung haben. Beispielsweise kann, aufgrund der Verfassung, in den USA immer nur alle vier Jahre im Januar ein Parteiwechsel im Präsidentenamt stattfinden. Ein kontinuierliches Zeitmodell wäre hier also unangebracht (Allison 1982, S. 63). Die grundlegenden Funktionen für diskrete Zeit-Modelle unterscheiden sich von den weiter oben beschriebenen Funktionen für kontinuierliche Zeit-Modelle letztlich nur insofern, als T bei diesen keine stetige, sondern eine diskrete Zufallsvariable ist, weshalb der „Umweg“ über \( \underset{\Delta t\to 0}{\lim } \) unnötig ist. Zeitdiskrete Modelle erfordern allerdings eine aktive Modellierung der zeitlichen Abhängigkeit, die zumeist über das Schätzen geglätteter Funktionen anhand von Splines (= Polynomzug) oder Lowess (locally weighted scatterplot smoothing) erreicht wird (vgl. Box-Steffensmeier und Woo 2011, S. 5; Beck et al. 1998; Gray 1992). Beide Verfahren erzeugen aus den empirischen Überlebenszeiten unter Vorgabe vergleichsweise weniger Vorannahmen (bei Splines sind dies die Zahl und Lage der Knoten, bei Lowess die Bandbreite) geglättete Überlebenskurven bzw. Baseline-Hazard-Funktionen (Box-Steffensmeier und Jones 2004, S. 76–77). Generell ist das Einbinden des Faktors „Zeit“ in zeitdiskrete Modelle jedoch nicht ganz einfach, was letztlich ihre Anwendbarkeit in der Politikwissenschaft unterminiert (Bennett 1999, S. 259).10 Genauere Beschreibungen zeitdiskreter Modelle, die zumeist in Form von Logit- oder Probit-Analysen geschätzt werden, finden sich bei Box-Steffensmeier und Jones (2004, S. 69–83) und Yamaguchi (1991, S. 15–45).

Ein zweites Differenzierungsmerkmal ist die mögliche Anzahl von Zustandswechseln. So kann bei Single Event Modellen ein Untersuchungsobjekt nur einmal einen einzigen Zustandswechsel erfahren. Beispielsweise kann eine Regierung nur einmal scheitern und hierdurch beendet werden. Selbst wenn zu einem späteren Zeitpunkt eine personell identische Regierung an die Macht käme, würde es sich doch um eine andere als die zuvor gescheiterte handeln. Bei Repeated oder Recurrent Event Modellen, andererseits, verbleibt ein Objekt nach dem Eintreten eines Ereignisses im Untersuchungs-Sample und unterliegt damit weiterhin dem Risiko, erneut ein Event zu erfahren. So hat man es beispielsweise in medizinischen Studien mit Repeated Events zu tun, wenn sich eine Person mehrfach im Laufe ihres Lebens mit einer Krankheit wie Malaria anstecken kann (Sagara et al. 2014). Ein politikwissenschaftliches Pendant hierzu findet sich in der Konfliktursachenforschung, bei der Staatenpaare durchaus mehrfach in ihrer Geschichte zwischenstaatliche Konflikte austragen können. Repeated Event Modelle gehen dabei davon aus, dass das Eintreten eines weiteren Ereignisses nicht unabhängig vom Eintreten eines früheren Ereignisses zu sehen ist (Box-Steffensmeier und Woo 2011, S. 6). So lässt sich plausibel annehmen, dass zwei Staaten, die bereits eine lange gemeinsame kriegerische Historie aufweisen obgleich sie aktuell miteinander in Frieden leben, ein höheres Risiko haben erneut einen Krieg miteinander anzufangen als zwei Staaten, die noch nie zuvor, oder im Vergleich zum ersten Staatenpaar vor deutlich längerer Zeit gegeneinander Krieg geführt haben. Wie mit solcher zeitlicher Abhängigkeit, die in Form von serieller Korrelation auftritt und hierdurch die Schätzung beeinflusst in Event-History-Modellen umgegangen werden kann wird in Abschn. 6 dieses Kapitels näher beleuchtet. In vielen politikwissenschaftlichen Anwendungsfällen dürfte jedoch die Modellierung von Single Events ausreichend sein, weshalb im Folgenden zunächst vor allem auf diese einfacher zu schätzenden Verfahren eingegangen werden soll.

Ein drittes Unterscheidungskriterium für Survival-Ansätze bildet die Trichotomie nicht-parametrischer, semi-parametrischer und parametrischer Modelle (Reimer und Barrot 2009, S. 333). Während erstere keinerlei Annahmen über die funktionale Verteilung der Eintrittszeitpunkte der Ereignisse machen, ist diese Verteilungsfunktion bei den parametrischen Modellen genau spezifiziert (beispielsweise in Form einer exponentiellen oder Weibull-Verteilung). Als semi-parametrisch wird das Cox-Modell bezeichnet, welches zwar grundlegend von einer zeitlichen Abhängigkeit des Eintretens der Ereignisse und damit einer vorhandenen funktionalen Verteilung ausgeht, die genaue funktionale Form jedoch nicht wie bei den parametrischen Modellen a priori festlegt (Yamaguchi 1991, S. 101–102). Konkrete Ausgestaltungen dieser drei Modelltypen werden nun näher erläutert.

3 Nichtparametrische Verfahren

3.1 Die Sterbetafel

Um einen ersten Überblick über Transitionsprozesse zu erlangen, eignen sich insbesondere nicht-parametrische Verfahren wie die Sterbetafelmethode, die für gruppierte, d. h. zeitdiskrete Überlebensdauern angewendet wird, oder der von Kaplan und Meier (1958) entwickelte Produkt-Limit-Schätzer, der für exakte, d. h. zeitkontinuierliche Zeiten konzipiert ist. Bei der Sterbetafel, die im Englischen positiver konnotiert als Life Table firmiert, wird der Untersuchungszeitraum in kleinere Intervalle eingeteilt, für die dann jeweils die empirische Überlebensrate berechnet wird (Elandt-Johnson und Johnson 1980, S. 83–93; Lawless 1982, S. 52–68).11 Eine grafische Darstellung ist dabei in der Regel einer tabellarischen vorzuziehen, auch weil auf diese Weise die Überlebensfunktionen mehrerer Gruppen direkt miteinander verglichen werden können. Abb. 5 zeigt dies am Beispiel der Amtsdauern von deutschen Landesministern (Jäckle 2013). Die Funktion gibt an, wie viel Prozent der Minister nach 30, 60, 90, usw. Tagen noch im Amt sind. Die empirische Überlebenskurve für ostdeutsche Minister liegt dabei deutlich unterhalb der für ihre Kollegen aus dem Westen. So sind nach 2000 Tagen noch etwa 65 % der westdeutschen Minister im Amt, während es in den ostdeutschen Bundesländern nur ca. 45 % sind.
Abb. 5

Aus Sterbetafel entnommene empirische Überlebensfunktion deutscher Landesminister

3.2 Der Kaplan-Meier-Schätzer

Der Kaplan-Meier-Schätzer hingegen berechnet zu jedem Zeitpunkt, an dem ein Objekt empirisch ein Event erfährt, die Risikomenge, d. h. diejenige Anzahl an Objekten, welche noch dem Risiko unterliegen, dass ihnen ein Ereignis wiederfahren kann. So lässt sich für jeden Zeitpunkt, an dem ein Ereignis stattfindet, angeben, wie groß die Überlebensrate ist. Der Kaplan-Meier-Schätzer ist dadurch, dass er zu den Zeitpunkten der realen Ereignisse bestimmt wird, unabhängig von einer a priori vorzugebenden Intervalleinteilung wie bei der Sterbetafel. Er berechnet sich einfach als die Anzahl der Fälle, die zum Zeitpunkt t noch kein Event erfahren haben, geteilt durch die Gesamtzahl aller Fälle im Risk Set zu Beginn der Observationsperiode. Diese Berechnungsart stimmt jedoch nur, sofern keine zensierten Fälle vorliegen. Im Fall von Zensierungen werden die chronologisch geordneten bedingten Überlebenswahrscheinlichkeiten bis zum interessierenden Zeitpunkt miteinander multipliziert (daher auch der Name Produkt-Limit-Schätzer).12 Tab. 1 gibt ein Minimalbeispiel, welches in Abb. 6 zusätzlich grafisch aufbereitet wurde. Während in Gruppe B alle Fälle ein interessierendes Endereignis erfahren, gibt es in Gruppe A jeweils fünf Events und Zensierungen. Der Kaplan-Meier-Schätzer ändert sich ausschließlich wenn Ereignisse vorliegen. Ansonsten bleibt er beim vorherigen Wert (vgl. Zeitpunkte t = 1 und t = 4 in Gruppe A). Zensierungen wirken sich also nicht direkt auf die Höhe des Kaplan-Meier-Schätzers zum Zeitpunkt der Zensierung aus, allerdings verkleinern sie das Risk Set und damit den Wert des Nenners im letzten Produktterm der folgenden Zeile.
Tab. 1

Minimalbeispiel Kaplan-Meier-Schätzer

Gruppe

t

Risk Set

Events

Zensierungen

KM-Schätzer

A

0

10

0

0

1

1

10

0

0

1

2

10

2

0

\( 1\times \frac{8}{10}=0,8 \)

3

8

1

1

\( 1\times \frac{8}{10}\times \frac{7}{8}=0,7 \)

4

6

0

1

\( 1\times \frac{8}{10}\times \frac{7}{8}=0,7 \)

5

5

1

2

\( 1\times \frac{8}{10}\times \frac{7}{8}\times \frac{4}{5}=0,56 \)

6

2

1

1

\( 1\times \frac{8}{10}\times \frac{7}{8}\times \frac{5}{6}\times \frac{1}{2}=0,28 \)

7

0

0

0

0,28

B

0

10

0

0

1

1

10

3

0

\( 1\times \frac{7}{10}=0,7 \)

2

7

5

0

\( 1\times \frac{7}{10}\times \frac{2}{7}=0,2 \)

3

2

1

0

\( 1\times \frac{7}{10}\times \frac{2}{7}\times \frac{1}{2}=0,1 \)

4

1

1

0

\( 1\times \frac{7}{10}\times \frac{2}{7}\times \frac{1}{2}\times \frac{0}{1}=0 \)

5

0

0

0

0

Abb. 6

Minimalbeispiel Kaplan-Meier-Schätzer

Aufgrund der indirekten Beeinflussung der Überlebensfunktion durch zensierte Fälle sollten Zensierungen stets angegeben, bzw. in den Kurven abgetragen werden. Erst durch die Angabe ob, und wenn ja, zu welchen Zeitpunkten wie viele Fälle zensiert werden, lassen sich die Kurven sinnvoll interpretieren. Abb. 7 zeigt dieses Problem: Hier liegen 50 Observationen vor, von denen zehn ein Event of Interest erfahren; eine Observation nach einer Zeiteinheit, eine nach zwei, bis hin zu einer nach zehn Zeiteinheiten. 40 weitere Fälle fallen nach fünf Zeiteinheiten aufgrund eines nicht interessierenden Endereignisses aus dem Datensatz. Die resultierende Kaplan-Meier-Kurve sieht entsprechend unterschiedlich aus, je nachdem, wie mit diesen 40 Fällen verfahren wird: komplett aus Analyse nehmen, als reguläre Endereignisse werten oder zensieren. Hier zeigt sich auch deutlich, wie wichtig es für die Interpretation einer Kaplan-Meier-Kurve ist zu wissen, ob und zu welchen Zeitpunkten Fälle zensiert wurden. Würde im rechten Plot die Zahl 40 nicht die Zensierungen indizieren, würde man fälschlicherweise bei diesem Beispiel wohl zunächst von einer nur geringen Wahrscheinlichkeit ausgehen, dass ein Ereignis eintritt und ab Zeiteinheit sechs annehmen, dass deutlich mehr Observationen ein Endereignis erfahren als zuvor.
Abb. 7

Auswirkung unterschiedlicher Behandlung zensierter Fälle auf Kaplan-Meier-Überlebensfunktionen

Kaplan-Meier-Schätzungen eignen sich wie auch Sterbetafeln gut dazu, Subgruppen bezogen auf ihre Überlebenswahrscheinlichkeit zu vergleichen. Ob signifikante Unterschiede zwischen zwei (oder auch mehreren) Gruppen vorliegen, kann einerseits direkt aus mit Konfidenzintervallen versehenen Kurven abgelesen oder über verschiedene statistische Tests wie den Log-Rank-Test geprüft werden.13 Gut funktionieren solche Gruppenvergleiche allerdings nur bei ausreichend vielen Observationen pro Gruppe und einer insgesamt begrenzten Gruppenanzahl, da sich die Plots sonst zu stark überlagern, was ihre Interpretierbarkeit einschränkt. Über die bloße Inspektion der Kurven lässt sich zudem die genaue Höhe des Einflusses einer Variable nicht ausmachen. Darüber hinaus sind komplexere multiple Modelle, die auf Drittvariablen kontrollieren, über Kaplan-Meier-Schätzer bzw. Sterbetafeln so gut wie gar nicht erfassbar.

4 Parametrische Verfahren

Im Gegensatz zu nicht-parametrischen Verfahren wird in parametrischen Modellen davon ausgegangen, dass die Überlebenszeit einer bekannten Verteilungsfunktion folgt. Alle Aspekte des Modells, mit Ausnahme der zu schätzenden Parameter, sind in ihnen komplett spezifiziert. Eine vollkommen parametrisierte Hazard-Funktion verfolgt damit nach Hosmer, Lemeshow und May (2008, S. 68) zwei Ziele: (1) Sie beschreibt stets die grundlegende Verteilung der Überlebenszeit (= Fehlerkomponente), und (2) sie gibt an, wie sich diese Verteilung als eine Funktion bestimmter Kovariablen verändert (= systematische Komponente). Parametrische Modelle ergeben demzufolge vor allem dann Sinn, wenn a priori, theoretisch fundiert, von einer bestimmten Form der zeitlichen Abhängigkeit ausgegangen werden kann. Diese funktionale Form findet ihren Ausdruck in der Modellgleichung. Liegt hierbei eine falsche Parametrisierung vor, können sowohl die geschätzten Überlebenszeiten als auch die Parameterschätzer der Kovariablen fehlerhaft sein (2004, S. 21–22).

4.1 Typen parametrischer Verfahren

Parametrische Modelle lassen sich auf Basis unterschiedlicher Funktionen schätzen (z. B. exponentiell, Weibull, Log-Logistisch). Die einfachste ist sicherlich die exponentielle Funktion. Bei dieser geht man davon aus, dass das Eintreten der Ereignisse einem rein stochastischen Zufallsprozess folgt oder anders ausgedrückt einer konstanten Hazard-Rate λ unterliegt. Ohne die Inklusion weiterer, das Eintreten der Events determinierender Variablen folgt daraus, dass sich die Überlebensfunktion einfach als S(t) = eλt schreiben lässt. Die Funktionsverläufe des exponentiellen Modells waren bereits in Abb. 1 dargestellt. In der Regel wird eine ausschließlich zeitliche Abhängigkeit politikwissenschaftlichen Fragestellungen jedoch nicht gerecht, weshalb parametrische Modelle zumeist davon ausgehen, dass neben der, durch eine Baseline Hazard β0 ausgedrückten, zeitlichen Abhängigkeit auch weitere Variablen Einfluss auf die Überlebenswahrscheinlichkeit ausüben. Für das einfache exponentielle Modell schreibt sich die Hazard-Rate dann entsprechend als \( \lambda ={e}^{\left(-{\beta}_0\right)}{e}^{\beta \prime x} \). Über Maximum-Likelihood-Schätzung lassen sich in einem solchen Modell die β-Koeffizienten bestimmen, welche die Einflüsse der unabhängigen Variablen auf die Hazard-Rate angeben.

Prägend für die Entwicklung der EHA innerhalb der Politikwissenschaft war an dieser Stelle unter anderem eine Debatte Ende der 1980er-Jahre, darüber wie Regierungsbeständigkeit untersucht werden sollte (Strom et al. 1988). Während Verfechter der sogenannten Attributsansätze Rational Choice und spieltheoretische Überlegungen zur Erklärung in Anschlag brachten, argumentierten Browne et al. (1984), dass das Scheitern von Regierungen einzig und allein am Auftreten kritischer Ereignisse hinge, die sich nicht über Rational Choice Ansätze, sondern ausschließlich über stochastische Modelle vorhersagen ließen. Ihr Modell war entsprechend ein rein exponentielles. Aufgelöst wurden diese Differenzen durch ein von Gary King und Kollegen (1990) vorgeschlagenes „Unified Statistical Model“, welches eine exponentielle Verteilung der Regierungsdauern annimmt (= konstante Baseline-Hazard), die aber durch Kovariate beeinflussbar ist. Fast alle politikwissenschaftlichen Anwendungen von EHA bauen heute auf dieser Logik auf, auch wenn dabei die Restriktion einer konstanten Baseline Hazard-Rate, wie sie das exponentielle Modell beinhaltet, oftmals aufgegeben wird.

Flexibler als das exponentielle Modell in seinem Funktionsverlauf ist das Weibull-Modell. Dieses zeichnet sich dadurch aus, dass seine Baseline Hazard-Rate monoton steigen, fallen oder auch konstant bleiben kann. Für letzteren Fall reduziert es sich auf das bekannte exponentielle Modell. Allgemein bestimmt sich die Form der Weibull-Funktion über den von Kovariablen unabhängigen Parameter a. Neben Exponentiellen und Weibull-Modellen gibt es noch eine Reihe weiterer Optionen für parametrische Modelle: Das Gompertz-Modell nimmt ebenfalls eine monoton steigende, sinkende oder konstante Baseline Hazard-Rate an. In log-logistischen und log-normalen Modellen hingegen kann diese auch als glockenförmige Funktion geschätzt werden. Abb. 8 zeigt mögliche Funktionsverläufe für Weibull-, Gompertz- und log-logistische Modelle.
Abb. 8

Hazard-Raten für Weibull-, Gompertz- und log-logistisches Modell bei unterschiedlichen Form-Parametern a; b = 1

Mit drei veränderbaren Parametern bietet das generalisierte Gamma-Modell die größte Flexibilität – mit ihm sind zusätzlich auch u-förmige Baseline Hazards schätzbar – zudem kann es, da seine Formel andere parametrische Modelle wie das exponentielle, das Weibull- und das log-normale Modell einschließt, auch verwendet werden um zu testen, welches dieser sparsameren Modelle am besten den Ereignisprozess beschreibt (Windzio 2013, S. 180).

Weibull-Modelle (wie auch exponentielle Modelle) können auf zwei unterschiedliche Arten der Parametrisierung geschätzt werden: Entweder als Proportional Hazard (PH) Modell oder als Accelerated Failure Time (AFT) Modell.14 Der grundlegende Unterschied zwischen den beiden ist, dass bei PH ein multiplikativer Effekt der Kovariablen in Bezug auf die Hazard-Rate, bei AFT hingegen ein multiplikativer Effekt in Bezug auf die Überlebenszeit angenommen wird (Kleinbaum und Klein 2012, S. 298). Entsprechend sind auch die Koeffizienten der beiden Modelltypen unterschiedlich zu interpretieren. Während ein positiver Koeffizient bei der PH-Parametrisierung eine steigende Hazard-Rate und damit eine sinkende Überlebenszeit indiziert, bedeutet ein positiver Koeffizient in einem AFT-Modell eine Verlangsamung des Transitionsprozesses und damit eine längere geschätzte Überlebenszeit bis zum Eintritt des Events. Beide Modellarten haben ihre jeweiligen Vorzüge. So lässt sich der Effekt von Kovariaten in AFT-Modellen einfach absolut in der jeweiligen Zeitmesseinheit (z. B. Jahren) angeben, wohingegen bei PH-Modellen nur eine relative Angabe des Effekts (im Sinne von Hazard-Ratios) möglich ist. In der politikwissenschaftlichen Forschung findet sich trotzdem häufiger die PH-Parametrisierung, da diese besser in der Lage ist, das Risiko des Eintretens eines Events zu modellieren, was oftmals von größerem Interesse ist, als über ein AFT-Modell abschätzen zu können wie stark sich die Überlebenszeit bei Vorliegen bestimmter Kovariate ausdehnt bzw. zusammenschrumpft. Wird eine PH-Parametrisierung gewählt, muss allerdings auch die sogenannte Proportional-Hazards-Annahme zutreffen, d. h. Effekte einer Kovariable dürfen sich über die Analysezeit nicht verändern. Wäre dies doch der Fall, wenn z. B. eine Variable X den Transitionsprozess nur bis zu einem Zeitpunkt t beeinflusst und danach keinen Einfluss mehr hätte, würde ein PH-Modell einen zu geringen Einfluss von X vor t und einen zu großen Einfluss nach t schätzen. Zudem würden Standardfehler falsch geschätzt und Signifikanztests verlören an Teststärke (Mills 2011, S. 152). Für parametrische Verfahren wie das Weibull-Modell gibt es hier zwar Optionen die PH-Annahme zu testen (s. Kleinbaum und Klein 2012, S. 305; Box-Steffensmeier und Zorn 2001, S. 986), besser funktioniert dies allerdings für das semiparametrische Cox-Modell (s. u.).

4.2 Probleme parametrischer Verfahren

Das generelle Problem parametrischer Modelle besteht darin, dass die funktionale Form der Baseline Hazard in ihnen a priori vorgegeben werden muss. Diese zu bestimmen ist jedoch zumeist weder theoretisch15 noch empirisch aus der die Kovariableneinflüsse beinhaltenden Gesamt-Hazard-Rate einfach möglich. Zudem ist es möglich, dass eine empirisch feststellbare zeitliche Abhängigkeit gar nicht genuin zeitlicher Natur, sondern die Konsequenz nicht observierter Heterogenität in den Daten und damit ein Proxy für nicht gemessene weitere Hintergrundvariablen ist (Blossfeld et al. 2007, S. 184; Jäckle 2015, S. 179). Hat man es beispielsweise mit Untersuchungseinheiten zu tun, die sich aus zwei Gruppen zusammensetzen, von denen die eine Gruppe einen hohen, die andere einen niedrigen Hazard aufweist, dann würde ein Modell, das nicht zwischen diesen beiden Gruppen unterscheidet zwangsläufig eine negative Abhängigkeit von der verstrichenen Zeit ergeben. Dieses Phänomen, das auch als spurious duration dependence (Elbers und Ridder 1982) bekannt ist, liegt daran, dass die Individuen der ersten Gruppe bereits vergleichsweise frühzeitig aus dem Risk Set ausscheiden und sich dieses mit verstreichender Zeit immer mehr aus denjenigen mit dem niedrigen Hazard zusammensetzt (Vermunt 1997, S. 189). Box-Steffensmeier und Jones (2004, S. 22) plädieren sogar dafür, die rein zeitliche Abhängigkeit in EHA größtenteils als solche statistische Störungen zu interpretieren, für die es sehr schwierig sein dürfte eine korrekte funktionale Form zu finden, auf der ein parametrisches Modell zu basieren hätte. Noch expliziter formuliert Golub (2008, S. 543): „in nearly all situations researchers should fit a Cox model rather than a parametric model in order to avoid unreliable estimates. […] Parametric models should always be treated with caution since they are inherently prone to bias“.

4.3 Politikwissenschaftliche Anwendungsbeispiele parametrischer Modelle

Trotz der angesprochenen Probleme finden sich durchaus politikwissenschaftliche Anwendungsbeispiele für parametrische Modelle. So werden vor allem in der Friedens- und Konfliktforschung Weibull- und zum Teil log-logistische Modelle verwendet (Bennett und Stam III 1998; Werner 1999; Chiba et al. 2015). Ebenfalls mit Hilfe eines Weibull-Modells haben Bueno de Mesquita und Siverson (1995) untersucht, welche Faktoren die Amtsdauer von politischen Anführern bedingen, nachdem in deren Land ein Krieg ausgebrochen ist. Das Gompertz-Modell wird hingegen selten genutzt. Eine Ausnahme stellt eine Studie von Strang (1991) dar, in der es verwendet wird um Dekolonisierungsverläufe zu analysieren.

5 Das Cox-Modell

Im Gegensatz zu parametrischen Modellen nimmt das Cox-Modell zwar eine grundlegende zeitliche Abhängigkeit an – und den Faktor Zeit damit im Gegensatz zu klassischen Regressionsverfahren in die Schätzung auf – die Form der zeitlichen Abhängigkeit muss jedoch nicht a priori genau spezifiziert werden. Die β-Koeffizienten lassen sich mittels der von Cox (1975) entwickelten Partial-Likelihood-Methode unter Annahme proportionaler Hazards schätzen auch ohne die genaue Form der Baseline Hazard zu kennen. Ein elementarer Unterschied zu den für parametrische Modelle verwendeten Maximum-Likelihood-Schätzungen liegt darin, dass die Partial-Likelihood nicht die exakten Überlebensdauern verwendet, sondern nur deren geordnete Reihenfolge. Aus der Rangfolge der aufsteigend geordneten Überlebenszeiten ergibt sich die Partial-Likelihood-Funktion, über deren Maximierung sich die multiplikativ auf die Hazard-Rate einwirkenden Variableneffekte schätzen lassen. Der Rückgriff auf die reine, nach Überlebenszeit geordnete Rangfolge der Events bringt allerdings zwei Probleme mit sich. Erstens bedeutet er einen Informationsverlust verglichen mit den genauen Überlebensdauern.16 Dieser dürfte jedoch nur bei sehr kleinen Samples ins Gewicht fallen (Coleman 1981, S. 178). Zweitens stellen Fälle ein Problem dar, die nach derselben Überlebensdauer ein Ereignis erfahren,17 da aus diesen die, für das Cox-Modell benötigte, eindeutige Rangfolge nicht gebildet werden kann. Je ungenauer die Überlebenszeit gemessen wird, desto größer ist potentiell das Problem dieser sogenannten Tied Events. Zwar gibt es eine Reihe unterschiedlicher Verfahren mithilfe derer die Partial-Likelihood-Funktion sich auch bei Vorliegen von zeitlichen Bindungen approximieren lässt (z. B. die Breslow-, Efron-, oder Exact-Marginal-Likelihood-Methoden), bei sehr vielen Ties gelangen diese allerdings auch an ihre Grenzen, wodurch die Schätzung sehr ungenau wird (Therneau und Grambsch 2000, S. 48–53; Box-Steffensmeier und Jones 2004, S. 54–59). In einem solchen Fall böte es sich an auf zeitdiskrete Modelle umzusteigen.

Die Ergebnisse eines Cox-Modells werden zumeist nicht in Form der eher schlecht interpretierbaren Partial-Likelihood-Koeffizienten berichtet, sondern als Hazard-Ratios. Deren Interpretation ist simpel: Eine Hazard-Ratio von 0,7 (1,6) bedeutet, dass eine Erhöhung der entsprechenden Variable um eine Einheit ceteris paribus eine Reduzierung (Erhöhung) der Hazard-Rate um 30 % (60 %) bewirkt. Cox-Modelle sind zudem bestens geeignet um den Einfluss von Variablen zu testen, die sich während der Überlebenszeit des Falles verändern (Time Varying Covariates), hierzu muss einzig der Datensatz in eine Panel-Struktur überführt werden (Wenzelburger et al. 2014, S. 207–208).

Der große Vorteil des Cox-Modells, die grundlegende funktionale Form der Zeitabhängigkeit nicht a priori angeben zu müssen – und dabei potentiell Fehler zu begehen, die die Schätzer in parametrischen Modellen stark verzerren könnten – bringt allerdings auch mit sich, dass die Baseline Hazard-Rate nicht direkt modelliert werden kann. Es ist jedoch möglich sie im Anschluss an die Modellschätzung zumindest approximativ zu bestimmen, wobei insbesondere der verwendeten Glättungsmethode Beachtung geschenkt werden sollte, da diese die resultierende Baseline Hazard-Rate stark beeinflussen kann (Box-Steffensmeier und Jones 2004, S. 64–65; Kalbfleisch und Prentice 2002, S. 114–118).

5.1 Die Annahme proportionaler Hazards und der Model-Fit in Cox-Modellen

Wie das Weibull-Modell gehört auch das Cox-Modell zur Klasse der Proportional-Hazards-Verfahren, deren zentrale Annahme besagt, dass der Effekt der Kovariablen sich über die Analysezeit nicht ändern darf. Da sowohl Effekte wie auch Konfidenzintervalle stark verfälscht sein können, wenn die Proportionalitätsannahme nicht zutrifft, gilt es sie in Cox-Modellen stets zu testen. Hierfür stehen mehrere grafische Verfahren (Log-Log-Plots, Kaplan-Meier vs. Cox-Plots und Plots der skalierten Schoenfeld-Residuen) sowie mit dem Grambsch-Therneau-Test ein Chi-Quadrat-basiertes Testverfahren zur Verfügung, das die Proportionalitätsannahme sowohl für jede einzelne unabhängige Variable als auch global für das gesamte Modell überprüft (Wenzelburger et al. 2014, S. 192–196). Es gibt mehrere Varianten auf nichtproportionale Hazards zu reagieren. Entweder können stratifizierte Cox-Modelle berechnet werden, was bedeutet die als Ursache identifizierte unabhängige Variable nicht als Kovariate, sondern als Schichtungsebene in das Modell zu inkludieren.18 Auch wenn dieses Verfahren sehr effektiv das Problem nichtproportionaler Hazards beseitigt, so wird es doch nicht empfohlen, wenn die Nichtproportionalität die hauptsächlich interessierenden Variablen betrifft, da es nicht möglich ist den Effekt einer Variable zu schätzen, wenn diese als Stratifizierungsfaktor verwendet wird (Mills 2011, S. 157). Eine bessere Option ist es zumeist die Nichtproportionalität aktiv durch Interaktionsterme zwischen der oder den, die Probleme verursachenden, Kovariable(n) und einer bestimmten Funktion der Zeit zu modellieren (Box-Steffensmeier und Jones 2004, S. 136–137).

Ein gewisses Problem stellt die Überprüfung des Model-Fit in Cox-Modellen dar. Ein absolutes Gütemaß, wie das R2 aus OLS-Regressionen gibt es nicht. Alternativen bieten relative Maße, die verschiedene Modelle miteinander vergleichen, wie der Likelihood-Ratio-Test oder das Akaike Information Criterion (AIC). Diese eignen sich allerdings primär zur Auswahl, welche Modellklasse und Modellspezifikation am geeignetsten ist,19 inhaltlich lassen sie sich hingegen nicht gut interpretieren (Mills 2011, S. 146–149). Daneben kann, das auf Paarvergleichen zwischen allen Fällen basierende, Harrel’s C als Gütemaß interpretiert werden (Harrell et al. 1982). Es gibt letztlich den Prozentsatz derjenigen Fälle an, für die, verglichen mit dem jeweils anderen Fall des Paares, das Cox-Modell eine längere Überlebenszeit vorhersagt und bei denen diese Vorhersage de facto auch eintritt.20 Eine grafische Option den Modell-Fit zu testen bieten Cox-Snell-Residuen (Cox und Joyce Snell 1968; Cleves et al. 2010, S. 219–222). Wie bei anderen Regressionsverfahren gilt es auch beim Cox-Modell auf Spezifika zu kontrollieren, welche die Ergebnisse verzerren könnten. Einen Überblick dieser für das Cox-Modell spezifischen residuendiagnostischen Verfahren bieten Box-Steffensmeier und Jones (2004, S. 119–123) sowie Mills (2011, S. 141–163). Eine beispielhafte Anwendung auf das Thema Regierungsbeständigkeit findet sich bei Jäckle (2011, S. 324–335).

5.2 Politikwissenschaftliche Anwendungsbeispiele von Cox-Modellen

Aufgrund seiner Flexibilität und der vergleichsweise wenigen notwendigen Vorannahmen (v. a. im Vergleich zu vollständig parametrisierten Modellen) ist das semi-parametrische Cox-Modell mit Abstand die am häufigsten verwendete Event-History-Methode in der politikwissenschaftlichen Forschung. So untersucht Fleischer (2016) mittels Cox-Modellen welche Faktoren die Dienstzeit von beamteten Staatssekretären in Deutschland bedingen. Sie kommt dabei zu dem Ergebnis, dass die Parteizugehörigkeit zwar relevant ist, interessanterweise aber verläuft der Effekt entgegen den Erwartungen der Delegation-Literatur: Staatssekretäre, die der Partei des Ministers angehören weisen ein höheres Risiko auf entlassen zu werden als diejenigen, die einer Partei eines Koalitionspartners angehören. Noch stärker als dieser Parteieneffekt wirkt sich allerdings die Erfahrung in der Verwaltung auf hoher Ebene aus. Für Staatssekretäre, die diese aufweisen, ist der Hazard entlassen zu werden deutlich niedriger (Fleischer 2016, S. 446–447). Eine andere aktuelle Arbeit, in der das Cox-Modell zur Anwendung gelangt, untersucht inwiefern kriegerische Auseinandersetzungen das Auftreten von Staatsstreichen bedingen (Piplani und Talmadge 2016). Da einzelne Länder in ihrer Geschichte bereits mehrfach von einem Staatsstreich betroffen waren, wird ein Repeated Events Modell geschätzt. Es zeigt sich, dass lang-andauernde, zwischenstaatliche Kriege in der Tat politische Anführer vor einem Staatsstreich schützen, während sich dieser Effekt bei kurzen Kriegsperioden nicht einstellt. Bürgerkriege hingegen erhöhen das Risiko eines Coup d’État.

6 Erweiterungen der Event-History-Analyse

Die bislang präsentierten grundlegenden Event-History-Verfahren haben in den letzten Jahren deutliche Weiterentwicklungen erfahren. Auf einige dieser Innovationen soll hier kurz eingegangen werden. Zunächst finden sich vermehrt Studien, die Repeated Events modellieren und dabei dem Problem gegenüberstehen, dass die einzelnen aufeinanderfolgenden Ereignisse eben nicht, wie von klassischen Single Event Modellen angenommen, als voneinander unabhängig zu betrachten sind. Neben einem Rückgriff auf die weiter oben bereits angesprochene Option zeitdiskreter TSCS (time series cross section)-Logit-Modelle, in denen das Problem der seriellen Korrelation über geclusterte robuste Standardfehler oder die von Beck et al. (1998) vorgeschlagene Inklusion von Zeit-Dummies oder Splines angegangen werden kann, werden für zeitkontinuierliche Modelle zwei Vorgehensweisen vorgeschlagen: entweder die Varianz nach der eigentlichen Schätzung auf die real vorhandene Korrelation zwischen den Repeated Events hin zu korrigieren (Box-Steffensmeier und Jones 2004, S. 158–162) oder über Shared-Frailty-Modelle21 diese Korrelationen aktiv über die Inklusion eines Random Effects zu modellieren. Shared-Frailty-Modelle sind damit letztlich nichts anderes als Mehrebenen-Random-Effects-Modelle (Box-Steffensmeier und Jones 2004, S. 162–166; Mills 2011, S. 164–168). Die Frailties werden hierbei zumeist als gammaverteilt angenommen (Hosmer et al. 2008, S. 297). Für den Fall, dass neben zeitlicher Abhängigkeit auch von räumlicher Abhängigkeit auszugehen ist, hat Darmofal ein Bayesianisches räumliches Survival-Modell entwickelt, mit Hilfe dessen er beispielhaft untersucht wann Abgeordnete des Repräsentantenhauses öffentlich Position zur NAFTA bezogen, bevor am 17.11.1993 über den dazugehörigen Vertrag abgestimmt wurde. Er kann zeigen, dass sein Spatial-Shared-Frailty-Modell (gleich ob in der Cox- oder Weibull-Modellierung), bei dem er davon ausgeht, dass Repräsentanten aus angrenzenden Bundesstaaten zeitlich dicht gedrängt ihre Positionen bekanntgeben, das Timing dieser Positionsmeldungen in der Tat besser erklären kann als reine, nur die zeitliche Autokorrelation modellierende Shared-Frailty-Modelle (Darmofal 2009).

Wenn weniger die Frage des Auftretens einzelner Ereignisse relevant ist, sondern vielmehr die Frage, wie viele Ereignisse eine Untersuchungseinheit erfahren wird, bietet sich mit den Zähldatenverfahren (Counting Process Data) eine eng mit der EHA verwandte Modellgruppe an (Windzio 2013, S. 193–207). Eine weitere Ausdifferenzierung klassischer Event-History-Modelle fokussiert auf das Endereignis. In vielen Fällen ergibt es Sinn, nicht nur zwischen Ereignis und Nicht-Ereignis zu unterscheiden, sondern auch verschiedene Typen von Endereignissen voneinander abzugrenzen. So kann eine Regierung während der laufenden Legislaturperiode ersetzt werden (Replacements) oder durch vorgezogene Neuwahlen zu ihrem Ende gelangen. Bestimmte Faktoren wie z. B. eine hohe parlamentarische Fragmentierung mögen jetzt die Wahrscheinlichkeit für Ersetzungen erhöhen, die von Neuwahlen aber verringern (Jäckle 2011, S. 295). Würden beide Events undifferenziert als Endereignis „Regierungsende“ gewertet, wäre es jedoch nicht möglich diese unterschiedlichen Effekte einer Variable auf die jeweiligen Endereignistypen zu schätzen. Competing-Risks-Ansätze können dies hingegen leisten, sofern die Endereignisse sich gegenseitig ausschließen. Das verbreitetste Competing-Risks-Verfahren berechnet dabei getrennte Modelle für jedes der konkurrierenden Endereignisse, wobei jeweils die Überlebenszeiten der Fälle, welche nicht dem Event of Interest entsprechen, zensiert werden (Box-Steffensmeier und Jones 2004, S. 168–169). Die Annahme dahinter ist dieselbe wie bei der regulären Zensierung. Übertragen auf das Beispiel würde man entsprechend davon ausgehen, dass eine Regierung, die aufgrund vorgezogener Neuwahlen zu ihrem Ende kam, noch eine gewisse Zeit länger im Amt hätte bleiben können, bis sie dann irgendwann einer Ersetzung zum Opfer gefallen wäre. Weitere Optionen, Competing Risks zu schätzen sowie die nochmals komplizierteren Multi-State-Models, in denen ein Objekt verschiedene Endereignisse mehrfach hintereinander erfahren kann, beschreibt Mills (2011, S. 193–212).

7 Fazit

Dieses Kapitel hat gezeigt, dass die unterschiedlichen unter dem Begriff Event-History-Analysis zusammengefassten Verfahren für eine Vielzahl inhaltlicher Fragestellungen in der Politikwissenschaft eingesetzt werden können. Von der Konfliktforschung bis zur Policy-Analyse genauso wie von der politischen Elitenforschung bis zu Demokratisierungsstudien sind EHA immer dann ein geeignetes Mittel, wenn neben einem bestimmten Outcome auch der Prozess zu diesem im Zentrum des Forschungsinteresses stehen soll.

8 Kommentierte Literaturhinweise

Als Einstieg in die EHA eignen sich die Lehrbücher von Box-Steffensmeier und Jones (2004) und Yamaguchi (1991), da sie einerseits sämtliche zentralen Konzepte der Survival-Analyse erläutern und andererseits auf eine unnötig komplexe Formalisierung verzichten und stattdessen gut nachvollziehbare Beispiele aus der Soziologie und Politikwissenschaft zur Erklärung heranziehen. Ein aktueller Überblick der EHA aus Sicht der politischen Elitenforschung findet sich zudem bei Jäckle und Kerby (2018). Für Anwender eignen sich insbesondere die Bücher von Mills (2011), die das Vorgehen bei Survival-Analysen mit R erläutert sowie für Stata-Nutzer Blossfeld et al. (2007); Cleves et al. (2010) und die EHA-Kapitel in Wenzelburger et al. (2014, S. 161–209) und Rabe-Hesketh und Skrondal (2012, S. 741–869), wobei letzteres v. a. für den Spezialfall von Mehrebenen-Survivalanalysen hilfreich ist. Darüber hinaus liefert Jäckle (2015) neben einer grundlegenden Einführung in die verschiedenen Event-History-Verfahren einen konkreten Katalog an Dos and Don’ts für das weitverbreitete Cox-Modell. Wer tiefer in die Statistik hinter der EHA einsteigen will, dem seien die Klassiker von Lawless (1982), Kalbfleisch und Prentice (2002) sowie Therneau und Grambsch (2000) ans Herz gelegt. In diesen finden sich auch ausführliche Diskussionen von weiterführenden Themen wie Residuendiagnostik in Survival-Modellen oder Competing Risks und Frailty Modellen, die in diesem Kapitel nur gestreift werden konnten. Für die Lektüre sind hier allerdings durchaus fortgeschrittene Statistikkenntnisse erforderlich.

Fußnoten

  1. 1.

    Synonym zur Event-History-Analyse werden häufig auch die Begriffe Survival-Analyse, Transitionsanalyse sowie Überlebenszeitanalyse verwendet.

  2. 2.

    Während Survival-Analysen in der Medizin beispielsweise eingesetzt werden um zu testen, ob eine bestimmte Behandlungsmethode den Zeitraum bis zum Tod verlängern kann (Ziegler et al. 2004), fokussieren soziologische Analysen, die diese Methode nutzen vor allem auf Transitionsprozesse im Lebenslauf, beispielsweise bei der Analyse von Heirats-, Scheidungs-, oder Fertilitätsmustern (z. B. Agadjanian und Makarova 2003) oder bei Übergängen auf dem Arbeitsmarkt (z. B. Carroll und Mayer 1986). Daneben finden sich strukturell ähnlich gelagerte Fragestellungen auch in der Werkstofftechnik und den Ingenieurswissenschaften, wenn im Rahmen des Reliability Engineering die Haltbarkeit von technischen Komponenten mittels sogenannter Failure Time Models getestet wird. Auch das Erkenntnisinteresse von Sir David Cox, der das weiter unten noch ausführlicher beschriebene semi-parametrische Proportional-Hazards-Modell entwickelte, lag ursprünglich in der Untersuchung der Stärke und Zuverlässigkeit von Materialien begründet. In den 1940er-Jahren versuchte er über statistische Verfahren diejenigen Faktoren herauszufinden, die für Webfehler in den für Kriegsuniformen hergestellten Stoffen verantwortlich waren und dadurch die Qualität dieser Uniformen zu verbessern. Erst später erkannten er und andere die vielfältigen Möglichkeiten, die seine Methode bietet (Schönherr 2007). Eine Auflistung weiterer Anwendungsgebiete der EHA von Konsumentenverhalten über psychologische Lernexperimente bis hin zu Migrationsstudien findet sich bei Blossfeld et al. (2014, S. 15–17).

  3. 3.

    Insgesamt waren dies 501 Artikel (Suchzeitraum 1956–2017). Gesucht wurde über Web of Science am 31.03.2018, ausschließlich in den SSCI-Kategorien Government & Law, International Relations und Public Administration.

  4. 4.

    An dieser Schnittstelle zwischen der politischen Elitenforschung und der eher soziologischen Lebensverlaufsforschung bietet es sich teilweise auch an den Rahmen der Event-History-Analyse zu verlassen und zu Sequenzanalysen überzugehen, gerade wenn nicht die Erklärung des Timings einzelner Ereignisse im Karriereverlauf, sondern die gesamte Karriere aus einer holistischen Perspektive im Fokus steht.

  5. 5.

    So lässt man die Observationsperiode zur Analyse von Koalitionsverhandlungen stets mit dem Ende der vorangegangenen Regierung beginnen (vgl. Ecker und Meyer 2015). Ab diesem Zeitpunkt läuft gewissermaßen dann die Stoppuhr bis zu dem Zeitpunkt, an dem die Koalitionsverhandlungen durch die Wahl einer neuen Regierung offiziell beendet sind. Die so gemessene Zeit fließt als abhängige Variable in die EHA ein.

  6. 6.

    Wüsste man beispielsweise nur von der Existenz von Fällen, die bereits eine gewisse Altersgrenze überschritten haben, würde dies über Trunkierungen erfasst. Aus Gründen des Datenschutzes stehen beispielsweise oftmals nur Daten von Volljährigen zur Verfügung. Personen unter 18 würden damit trunkiert.

  7. 7.

    Eine umfangreiche Diskussion der beiden Konzepte Zensierung und Trunkierung findet sich bei Klein und Moeschberger (2003, S. 63–90).

  8. 8.

    Beispiele, für (soziologische) Analysen, die eine stetige Anzahl an Zuständen modellieren, liefern Tuma und Hannan (1984, S. 331–527) sowie Allison (1990).

  9. 9.

    Diskrete Modelle erfordern zudem eine von stetigen Modellen verschiedene Datensatzstruktur. Jedes Zeitintervall, in das die Verweildauer eingeteilt wird, stellt bei diesen einen Fall dar, bei dem dichotom angegeben wird, ob das Ereignis bereits eingetreten ist (1) oder das Objekt weiterhin im Risk Set verbleibt (0). Eine kleinteilige zeitliche Messeinteilung lässt den Datensatz damit immens anwachsen, was die Analyse in Statistikprogrammen zumindest verlangsamen kann. Zeitdiskrete Modelle böten sich aus dieser Perspektive eher an, sofern die Zustandswechsel per se auf einer gröberen Zeitskala gemessen werden (Box-Steffensmeier und Jones 2004, S. 83). Daneben stellt sich die Frage, inwiefern, wenn man schon davon ausgeht, dass der untersuchte Prozess empirisch betrachtet ein kontinuierlicher ist, es eventuell adäquat wäre, ihn über ein diskretes Modell zu approximieren. Dies wäre laut Yamaguchi nur sinnvoll, wenn die bedingte Wahrscheinlichkeit, ein Ereignis an einem diskreten Zeitpunkt zu beobachten, vergleichsweise klein ist – i. d. R. sollte sie unter 0,1 liegen (Yamaguchi 1991, S. 17 und 42). Abgesehen von dem generellen Vorteil, dass zeitdiskrete Modelle von Sozialwissenschaftlern zumeist gut verstanden werden, spricht laut Box-Steffenmeier und Jones nur wenig für diese Modellierungsstrategie und gegen das kontinuierliche Cox-Modell (Box-Steffensmeier und Jones 2004, S. 87).

  10. 10.

    Weitere Argumente, weshalb einfache Logit-Modelle nur sehr bedingt für die Analyse von Ereignisdaten geeignet sind liefern Vermunt (1996, S. 90–92) und Yamaguchi (1991, S. 9).

  11. 11.

    Die Ergebnisse sind damit immer auch von der letztlich arbiträr zu bestimmenden Anzahl und Länge der Intervalle abhängig. Zudem ist eine relativ große Anzahl an Fällen nötig um reliable Ergebnisse zu erzielen.

  12. 12.

    Genauer zur Berechnung vgl. (Elandt-Johnson und Johnson 1980, S. 172–174; Kalbfleisch und Prentice 2002, S. 10–16; Windzio 2013, S. 97; Kleinbaum und Klein 2012, S. 61–65).

  13. 13.

    Der Log-Rank-Test ist dabei sensitiver bei kurzen Überlebensdauern, wohingegen beispielsweise der Wilcoxon-Breslow-Gehan-Test im Bereich der längeren Überlebensdauern sensitiver reagiert. Genauer zu diesen und anderen Testverfahren, um Kaplan-Meier-Kurven zu vergleichen vgl. Cleves (2010, S. 123–126) sowie Kleinbaum und Klein (2012, S. 67–78).

  14. 14.

    Log-logistische, log-normale und generalisierte Gamma-Modelle lassen sich ausschließlich über eine AFT-, das Gompertz-Modell nur über eine PH-Parametrisierung schätzen (Mills 2011, S. 118).

  15. 15.

    Ein Beispiel für eine theoriegeleitete Wahl eines parametrischen Modells liefert Diekmann (1989) für die Untersuchung von Eheschließungen. Hier könne man davon ausgehen, dass eine genuine Altersabhängigkeit vorläge: mit steigendem Alter treten immer mehr Personen in die Ehe ein, was den Druck auf die verbliebenen Unverheirateten ebenfalls zu heiraten erhöht. Andererseits nimmt jedoch die soziale Attraktivität sowie die Wahrscheinlichkeit, Unverheiratete und damit potentielle Ehepartner zu finden, mit der Zeit ab. Die sich daraus ergebende glockenförmige Transitionsrate ließe sich mit einem log-logistischen Modell am besten schätzen.

  16. 16.

    Angenommen man hat 4 Überlebensdauern T1 = 10 Tage, T2 = 500 Tage, T3 = 510 Tage und T4 = 520 Tage. Das Cox-Modell würde ausschließlich die geordnete Reihenfolge T1 < T2 < T3 < T4 verwenden und nicht die Information, dass T1 deutlich kürzer ist als die anderen drei Überlebenszeiten.

  17. 17.

    Dies können entweder Fälle sein, die wirklich nach exakt derselben Dauer ein Event of Interest erfahren, was v. a. dann der Fall sein dürfte, wenn die Ereignisse nur zu diskreten Zeitpunkten stattfinden können (z. B. kann ein Sportler nur alle vier Jahre bei den Olympischen Spielen eine Medaille gewinnen, nicht aber in der Zeit dazwischen). Daneben kann aber auch eine zu ungenaue zeitliche Messung der Überlebenszeit dazu führen, dass Ereignisse, die an und für sich einem stetigen Transitionsprozess entstammen nur als Tied Events wahrgenommen werden können (Therneau und Grambsch 2000, S. 31–33).

  18. 18.

    Stratifizierte Modelle nehmen an, dass die unabhängigen Variablen in unterschiedlichen Gruppen denselben Effekt auf die Hazard-Rate ausüben, sich die zugrundeliegende Baseline Hazard aber zwischen den Gruppen unterscheiden kann (Wenzelburger et al. 2014, S. 190–191).

  19. 19.

    Auch unterschiedliche parametrische Modelle können mit diesen Tests verglichen werden um so dasjenige am besten auf die Daten passende Modell zu identifizieren.

  20. 20.

    Harrell’s C wie auch das von der Logik ähnliche Somer’s D sind nicht geeignet sofern sich über die Zeit verändernde Kovariate im Modell befinden (Newson 2010, S. 347).

  21. 21.

    Frailty bedeutet im statistischen Sinne nichts anderes, als dass nicht-observierte individuelle Heterogenität in den Daten vorliegt (Aalen 1994). Bei einem Shared-Frailty-Modell wird entsprechend angenommen, dass innerhalb einzelner Gruppen die Observationen dieselbe Frailty aufweisen und somit miteinander korreliert sind. Insbesondere bei bei Repeated Events, bei denen ein einzelner Fall mehrere Ereignisse im Zeitverlauf erfahren kann, ist diese Annahme oftmals plausibel. Hier würden dann ein Event-History-Modell mit fallspezifischen Frailties geschätzt (Cleves et al. 2010, S. 326).

Literatur

  1. Aalen, Odd Olai. 1994. Effects of frailty in survival analysis. Statistical Methods in Medical Research 3(3): 227–243.  https://doi.org/10.1177/096228029400300303.CrossRefGoogle Scholar
  2. Agadjanian, Victor, und Ekaterina Makarova. 2003. From Soviet modernization to post-Soviet transformation: Understanding marriage and fertility dynamics in Uzbekistan. Development and Change 34(3): 447–473.CrossRefGoogle Scholar
  3. Allison, Paul D. 1982. Discrete-time methods for the analysis of event histories. Sociological Methodology 13:61–98.  https://doi.org/10.2307/270718.CrossRefGoogle Scholar
  4. Allison, Paul D. 1990. Change scores as dependent variables in regression analysis. Sociological Methodology 20:93–114.CrossRefGoogle Scholar
  5. Baybeck, Brady, William D. Berry, und David A. Siegel. 2011. A strategic theory of policy diffusion via intergovernmental competition. The Journal of Politics 73(1): 232–247.  https://doi.org/10.1017/S0022381610000988.CrossRefGoogle Scholar
  6. Beck, Nathaniel, Jonathan N. Katz, und Richard Tucker. 1998. Taking time seriously: Time-series-cross-section analysis with a binary dependent variable. American Journal of Political Science 42(4): 1260–1288.CrossRefGoogle Scholar
  7. Bennett, D. Scott. 1999. Parametric models, duration dependence, and time-varying data revisited. American Journal of Political Science 43(1): 256–270.CrossRefGoogle Scholar
  8. Bennett, D. Scott, und Allan C. Stam III. 1996. The duration of interstate wars. 1816–1985. The American Political Science Review 90(2): 239–257.CrossRefGoogle Scholar
  9. Bennett, D. Scott, und Allan C. Stam III. 1998. The declining advantages of democracy. A combined model of war outcomes and duration. Journal of Conflict Resolution 42(3): 344–366.  https://doi.org/10.1177/0022002798042003007.CrossRefGoogle Scholar
  10. Berlinski, Samuel, Torun Dewan, und Keith Dowding. 2007. The length of ministerial tenure in the United Kingdom, 1945–97. British Journal of Political Science 37(2): 245–262.  https://doi.org/10.1017/S0007123407000129.CrossRefGoogle Scholar
  11. Berry, Frances Stokes, und William D. Berry. 1990. State lottery adoptions as policy innovations: An event history analysis. The American Political Science Review 84(2): 395.  https://doi.org/10.2307/1963526.CrossRefGoogle Scholar
  12. Bienen, Henry, und Nicolas van de Walle. 1991. Of time and power. Leadership duration in the modern world. Stanford: Stanford University Press.Google Scholar
  13. Blossfeld, Hans-Peter, Katrin Golsch, und Götz Rohwer. 2007. Event history analysis with stata. Mahwah: Lawrence Erlbaum Associates.Google Scholar
  14. Blossfeld, Hans-Peter, Alfred Hamerle, und Karl Ulrich Mayer. 2014. Event history analysis: Statistical theory and application in the social sciences. New York: Taylor & Francis.CrossRefGoogle Scholar
  15. Box-Steffensmeier, Janet M., und Bradford S. Jones. 2004. Event history modeling: A guide for social scientists. Cambridge, UK: Cambridge University Press.CrossRefGoogle Scholar
  16. Box-Steffensmeier, Janet M, und Byungwon Woo. 2011. Event history analysis. International encyclopedia of political science, 2455 Teller Road, Thousand Oaks California 91320 United States: Sage. http://sk.sagepub.com/Reference/intlpoliticalscience/n202.xml. Zugegriffen am 27.06.2017.
  17. Box-Steffensmeier, Janet M., und Christopher J. W. Zorn. 2001. Duration models and proportional hazards in political science. American Journal of Political Science 45(4): 972.CrossRefGoogle Scholar
  18. Bräuninger, Thomas, Marc Debus, und Fabian Wüst. 2017. Governments, parliaments and legislative activity. Political Science Research and Methods 5(3): 529–554.  https://doi.org/10.1017/psrm.2015.29.CrossRefGoogle Scholar
  19. Browne, Eric C., John P. Frendreis, und Dennis W. Gleiber. 1984. An „Events“ approach to the problem of cabinet stability. Comparative Political Studies 17(2): 167.CrossRefGoogle Scholar
  20. Bueno de Mesquita, Bruce, und Randolph M. Siverson. 1995. War and the survival of political leaders. A comparative study of regime types and political accountability. The American Political Science Review 89(4): 841–855.CrossRefGoogle Scholar
  21. Caplan, Richard, und Anke Hoeffler. 2017. Why peace endures: An analysis of post-conflict stabilisation. European Journal of International Security 2(2): 133–152.  https://doi.org/10.1017/eis.2017.2.CrossRefGoogle Scholar
  22. Carroll, Glenn R., und Karl Ulrich Mayer. 1986. Job-shift patterns in the federal republic of Germany: The effects of social class, industrial sector, and organizational size. American Sociological Review 51(3): 323–341.  https://doi.org/10.2307/2095305.CrossRefGoogle Scholar
  23. Chiba, Daina, Nils W. Metternich, und Michael D. Ward. 2015. Every story has a beginning, middle, and an end (but not always in that order): Predicting duration dynamics in a unified framework. Political Science Research and Methods 3(3): 515–541.  https://doi.org/10.1017/psrm.2014.46.CrossRefGoogle Scholar
  24. Cleves, Mario Alberto, Roberto G. Gutierrez, William Gould, und Yulia V. Marchenko. 2010. An introduction to survival analysis using Stata. College Station: Tex.Google Scholar
  25. Coleman, James Samuel. 1981. Longitudinal data analysis. New York: Basic Books.Google Scholar
  26. Cox, David R. 1975. Partial likelihood. Biometrika 62(2): 269–276.CrossRefGoogle Scholar
  27. Cox, David R., und E. Joyce Snell. 1968. A general definition of residuals. Journal of the Royal Statistical Society. Series B (Methodological) 30(2): 248–275.Google Scholar
  28. Darmofal, David. 2009. Bayesian spatial survival models for political event processes. American Journal of Political Science 53(1): 241–257.  https://doi.org/10.1111/j.1540-5907.2008.00368.x.CrossRefGoogle Scholar
  29. Diekmann, Andreas. 1989. Diffusion and survival models for the process of entry into marriage. Journal of Mathematical Sociology 14(1): 31–41.CrossRefGoogle Scholar
  30. Diermeier, Daniel, und Randolph T. Stevenson. 1999. Cabinet survival and competing risks. American Journal of Political Science 43(4): 1051–1068.CrossRefGoogle Scholar
  31. Dowding, Keith M., und Patrick Dumont, Hrsg. 2009. The selection of ministers in Europe: Hiring and firing. London/New York: Routledge.Google Scholar
  32. Ecker, Alejandro, und Thomas M. Meyer. 2015. The duration of government formation processes in Europe. Research & Politics 2(4): 1–9.  https://doi.org/10.1177/2053168015622796.CrossRefGoogle Scholar
  33. Elandt-Johnson, Regina C., und Norman L. Johnson. 1980. Survival models and data analysis. New York: Wiley.Google Scholar
  34. Elbers, Chris, und Geert Ridder. 1982. True and spurious duration dependence. The identifiability of the proportional hazard model. Review of Economic Studies 49:403–409.CrossRefGoogle Scholar
  35. Fleischer, Julia. 2016. Partisan and professional control: Predictors of bureaucratic tenure in Germany. Acta Politica 51(4): 433–450.  https://doi.org/10.1057/s41269-016-0006-0.CrossRefGoogle Scholar
  36. Gandhi, Jennifer, und Adam Przeworski. 2007. Authoritarian institutions and the survival of autocrats. Comparative Political Studies 40(11): 1279–1301.  https://doi.org/10.1177/0010414007305817.CrossRefGoogle Scholar
  37. Gasiorowski, Mark J. 1995. Economic crisis and political regime change: An event history analysis. American Political Science Review 89(4): 882–897.  https://doi.org/10.2307/2082515.CrossRefGoogle Scholar
  38. Gilardi, Fabrizio, Katharina Füglister, und Stéphane Luyet. 2009. Learning from others: The diffusion of hospital financing reforms in OECD Countries. Comparative Political Studies 42(4): 549–573.  https://doi.org/10.1177/0010414008327428.CrossRefGoogle Scholar
  39. Golub, Jonathan. 2008. The study of decision-making speed in the European Union. Data, theory and methods. European Union Politics 9(1): 167–179.CrossRefGoogle Scholar
  40. Gray, Robert J. 1992. Flexible methods for analyzing survival data using splines, with applications to breast cancer prognosis. Journal of the American Statistical Association 87(420): 942.  https://doi.org/10.2307/2290630.CrossRefGoogle Scholar
  41. Harrell, Frank E., Jr., Robert M. Califf, David B. Pryor, Kerry L. Lee, et al. 1982. Evaluating the yield of medical tests. Journal of the American Medical Association 247(18): 2543–2546.  https://doi.org/10.1001/jama.1982.03320430047030.CrossRefGoogle Scholar
  42. Hartzell, Caroline, und Matthew Hoddie. 2003. Institutionalizing peace: Power sharing and post-civil war conflict management. American Journal of Political Science 47(2): 318–332.  https://doi.org/10.1111/1540-5907.00022.CrossRefGoogle Scholar
  43. Hildebrandt, Achim, Eva-Maria Trüdinger, und Sebastian Jäckle. 2017. Sooner or later: The influence of public opinion and religiosity on the enactment of laws recognizing same-sex unions. Journal of European Public Policy 24(8): 1191–1210.  https://doi.org/10.1080/13501763.2016.1228693.CrossRefGoogle Scholar
  44. Horiuchi, Yusaku, Matthew Laing, und Paul’t Hart. 2015. Hard acts to follow: Predecessor effects on party leader survival. Party Politics 21(3): 357–366.  https://doi.org/10.1177/1354068812472577.CrossRefGoogle Scholar
  45. Hosmer, David W., Stanley Lemeshow, und Susanne May. 2008. Applied survival analysis. Hoboken: Wiley.CrossRefGoogle Scholar
  46. Huber, John D., und Cecilia Martinez-Gallardo. 2008. Replacing cabinet ministers: Patterns of ministerial stability in parliamentary democracies. American Political Science Review 102(2).  https://doi.org/10.1017/S000305540808012X.CrossRefGoogle Scholar
  47. Hughes, Melanie M., Mona Lena Krook, und Pamela Paxton. 2015. Transnational women’s activism and the global diffusion of gender quotas. International Studies Quarterly 59(2): 357–372.  https://doi.org/10.1111/isqu.12190.CrossRefGoogle Scholar
  48. Jäckle, Sebastian. 2011. Determinanten der Regierungsbeständigkeit in parlamentarischen Systemen. Berlin: LIT.Google Scholar
  49. Jäckle, Sebastian. 2013. Ministerial turnover in the German Länder (1991–2010). Zeitschrift für Vergleichende Politikwissenschaft 7(1): 27–48.  https://doi.org/10.1007/s12286-013-0144-y.CrossRefGoogle Scholar
  50. Jäckle, Sebastian. 2015. Event-history-analyse. In Methodologie, Methoden, Forschungsdesign, 163–189. Wiesbaden: Springer Fachmedien Wiesbaden.Google Scholar
  51. Jäckle, Sebastian, und Matthew Kerby. 2018. Temporal methods in political elite studies. In The Palgrave handbook of political elites, Hrsg. Heinrich Best und John Higley, 115–133. London: Palgrave Macmillan UK. http://link.springer.com/10.1057/978-1-137-51904-7_10. Zugegriffen am 31.03.2018.Google Scholar
  52. Kalbfleisch, John D., und Ross L. Prentice. 2002. The statistical analysis of failure time data. Hoboken: Wiley-Interscience.CrossRefGoogle Scholar
  53. Kaplan, Edward L., und Paul Meier. 1958. Nonparametric estimation from incomplete observations. Journal of the American Statistical Association 53(282): 457–481.CrossRefGoogle Scholar
  54. King, Gary, James E. Alt, Nancy E. Burns, und Michael Laver. 1990. A unified model of cabinet dissolution in parliamentary democracies. American Journal of Political Science 34(3): 846–871.CrossRefGoogle Scholar
  55. Kleinbaum, David G., und Mitchel Klein. 2012. Survival analysis: A self-learning text, 3. Aufl. New York: Springer.CrossRefGoogle Scholar
  56. Klein, John P., und Melvin L. Moeschberger. 2003. Survival analysis: techniques for censored and truncated data. 2nd ed. Statistics for biology and health. New York: Springer.Google Scholar
  57. König, Thomas. 2008. Analysing the process of EU legislative decision-making: To make a long story short. European Union Politics 9(1): 145–165.  https://doi.org/10.1177/1465116507085960.CrossRefGoogle Scholar
  58. Laver, Michael. 2003. Government termination. Annual Review of Political Science 6(1): 23–40.CrossRefGoogle Scholar
  59. Lawless, Jerald F. 1982. Statistical models and methods for lifetime data. New York: Wiley.Google Scholar
  60. Mandel, Micha. 2007. Censoring and truncation. Highlighting the differences. The American Statistician 61:321–324.CrossRefGoogle Scholar
  61. Mills, Melinda. 2011. Introducing survival and event history analysis. Los Angeles: Sage.CrossRefGoogle Scholar
  62. Newson, Roger B. 2010. Comparing the predictive powers of survival models using Harrell’s C or Somers’ D. Stata Journal 10(3): 339–358.Google Scholar
  63. Phillips, Brian J. 2015. Enemies with benefits? Violent rivalry and terrorist group longevity. Journal of Peace Research 52(1): 62–75.  https://doi.org/10.1177/0022343314550538.CrossRefGoogle Scholar
  64. Piplani, Varun, und Caitlin Talmadge. 2016. When war helps civil–military relations: Prolonged interstate conflict and the reduced risk of coups. Journal of Conflict Resolution 60(8): 1368–1394.  https://doi.org/10.1177/0022002714567950.CrossRefGoogle Scholar
  65. Rabe-Hesketh, Sophia, und Anders Skrondal. 2012. Multilevel and longitudinal modeling using stata – Volume 2: Categorical responses, counts, and survival. College Station: Stata Press.Google Scholar
  66. Reimer, Kerstin, und Christian Barrot. 2009. Hazard-Raten-Modelle. In Methodik der empirischen Forschung, Hrsg. Sönke Albers, Daniel Klapper, Udo Konradt, Achim Walter, et al., 331–348. Wiesbaden: Gabler.CrossRefGoogle Scholar
  67. Saalfeld, Thomas. 2008. Institutions, chance, and choices. The dynamics of cabinet survival. In Cabinets and coalition bargaining. The democractic life cycle in Western Europe, Hrsg. Kaare Strom, Wolfgang C. Müller und Torbjörn Bergman, 327–368. Oxford: Oxford University Press.Google Scholar
  68. Sagara, Issaka, Roch Giorgi, Ogobara K. Doumbo, Renaud Piarroux, et al. 2014. Modelling recurrent events: Comparison of statistical models with continuous and discontinuous risk intervals on recurrent malaria episodes data. Malaria Journal 13:293–293.  https://doi.org/10.1186/1475-2875-13-293.CrossRefGoogle Scholar
  69. Schönherr, Maximilian. 2007. Der Zufall des Sir David Cox – Ein Porträt des Meisters der Stochastik und seiner Wissenschaft (Rundfunkinterview mit Sir David Cox), Südwestrundfunk SWR2: Sendung: Montag, 8.30 Uhr. http://www.swr.de/swr2/programm/sendungen/wissen/-/id=660374/nid=660374/did=1855836/qzu6tv/index.html. Zugegriffen am 15.01.2007.
  70. Strang, David. 1991. Global patterns of decolonization. 1500–1987. International Studies Quarterly 35(4): 429–454.CrossRefGoogle Scholar
  71. Strom, Kaare, Eric C. Browne, John P. Frendreis, und Dennis W. Gleiber. 1988. Contending models of cabinet stability. The American Political Science Review 82(3): 923–941.CrossRefGoogle Scholar
  72. Therneau, Terry M., und Patricia M. Grambsch. 2000. Modeling survival data. Extending the Cox model. New York: Springer.CrossRefGoogle Scholar
  73. Tuma, Nancy B., und Michael T. Hannan. 1984. Social dynamics. Models and methods. Orlando: Academic.Google Scholar
  74. Vermunt, Jeroen K. 1996. Log linear event history analysis. Tilburg: Tilburg University Press.Google Scholar
  75. Vermunt, Jeroen K. 1997. Log-linear models for event histories. Thousand Oaks: Sage.Google Scholar
  76. Warwick, Paul V. 1994. Government survival in parliamentary democracies. Cambridge: Cambridge University Press.Google Scholar
  77. Wenzelburger, Georg, Sebastian Jäckle, und Pascal König. 2014. Weiterführende statistische Methoden für Politikwissenschaftler: Eine anwendungsbezogene Einführung mit Stata. Berlin: De Gruyter Oldenbourg.Google Scholar
  78. Werner, Suzanne. 1999. The precarious nature of peace. Resolving the issues, enforcing the settlement, and renegotiating. American Journal of Political Science 43(3): 912–934.CrossRefGoogle Scholar
  79. Windzio, Michael. 2013. Regressionsmodelle für Zustände und Ereignisse: eine Einführung. Wiesbaden: Springer VS.CrossRefGoogle Scholar
  80. Wright, Joseph. 2009. How foreign aid can foster democratization in authoritarian regimes. American Journal of Political Science 53(3): 552–571.  https://doi.org/10.1111/j.1540-5907.2009.00386.x.CrossRefGoogle Scholar
  81. Yamaguchi, Kazuo. 1991. Event history analysis. Newbury Park: Sage.Google Scholar
  82. Ziegler, Andreas, Stefan Lange, und Ralf Bender. 2004. Überlebenszeitanalyse. Die Cox-Regression. Deutsche Medizinische Wochenschau 129:1–3.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018

Authors and Affiliations

  1. 1.Universität FreiburgFreiburgDeutschland

Personalised recommendations