Advertisement

Modellvalidierung mit Hilfe von Quantil-Quantil-Plots unter Solvency II

  • Dietmar PfeiferEmail author
Open Access
Original Article
  • 41 Downloads

Zusammenfassung

Nach etlichen Jahren Vorarbeit ist das Projekt Solvency II Anfang 2016 in den Ländern der Europäischen Union legislativ umgesetzt worden. Damit verbunden sind einige wesentliche Änderungen der jeweiligen nationalen Versicherungsaufsichtsgesetze. Ein neuer Aspekt hierbei ist die Vorschrift, potenzielle Abweichungen des Risikoprofils des Unternehmens von den Annahmen, die der Standardformel zur Berechnung des Solvency Capital Requirements (SCR) zugrunde liegen, zu analysieren und zu beurteilen. Für das Prämien- und Reserve-Risiko bzw. die zugehörigen Schaden-Kosten-Quoten wird dabei stillschweigend eine Lognormalverteilung unterstellt. In dieser Arbeit wird ein einfaches, aber dennoch mathematisch korrektes Verfahren auf der Basis von Quantil-Quantil-Plots vorgestellt, mit dem eine solche Analyse durchgeführt werden kann.

Model validation on the basis of quantile-quantile-plots under Solvency II

Abstract

After several years of development, the Solvency II-project has finally been set to work in the European Union with the beginning of the year 2016. This has caused massive changes in the regional legislative supervisory acts. One new aspect of regulation is the requirement of an analysis and judgement concerning possible deviations of the company’s risk profile from the assumptions underlying the standard formula in Solvency II. In particular, for the reserve and premium risk and the corresponding combined ratios, resp. a lognormal distribution is implicitly assumed. In this paper, we present a simple, but nevertheless mathematically accurate method on the basis of quantile-quantile-plots which is suitable to perform such kind of analyses.

1 Vorbemerkung

In § 27 des neuen deutschen Versicherungsaufsichtsgesetztes heißt es: Zum Risikomanagementsystem gehört eine unternehmenseigene Risiko- und Solvabilitätsbeurteilung, die Versicherungsunternehmen regelmäßig sowie im Fall wesentlicher Änderungen in ihrem Risikoprofil unverzüglich vorzunehmen haben. … Die Risiko- und Solvabilitätsbeurteilung umfasst mindestens
  1. 1.

    eine eigenständige Bewertung des Solvabilitätsbedarfs unter Berücksichtigung des spezifischen Risikoprofils, der festgelegten Risikotoleranzlimite und der Geschäftsstrategie des Unternehmens,

     
  2. 2.

    eine Beurteilung der jederzeitigen Erfüllbarkeit der aufsichtsrechtlichen Eigenmittelanforderungen, der Anforderungen an die versicherungstechnischen Rückstellungen in der Solvabilitätsübersicht und der Risikotragfähigkeit sowie

     
  3. 3.

    eine Beurteilung der Wesentlichkeit von Abweichungen des Risikoprofils des Unternehmens von den Annahmen, die der Berechnung der Solvabilitätskapitalanforderung mit der Standardformel oder mit dem internen Modell zugrunde liegen.

     

Konkret geht es hierbei um die Annahme einer Lognormalverteilung für das Prämien- und Reserve-Risiko bzw. für die jährlichen Schaden- bzw. Schaden-Kosten-Quoten (vgl. Dreher 2018, S. 912). Eine mathematisch korrekte Überprüfung dieses Sachverhalts kann eigentlich nur mit geeigneten statistischen Tests durchgeführt werden. In dieser Arbeit werden neue asymptotische Formeln hergeleitet, mit denen zum einen diese Annahme mit Hilfe von Quantil-Quantil-Plots überprüft werden kann, zum anderen erwartungstreue Schätzer der zugehörigen Lage-Skalen-Parameter für die logarithmierten Schaden- bzw. Schaden-Kosten-Quoten und damit Momente und Quantile (als Grundlage für das SCR, Solvency Capital Requirement) der entsprechenden Lognormalverteilung hergeleitet werden können. Quantil-Quantil-Plots haben darüber hinaus den Vorteil, die Testergebnisse auch graphisch veranschaulichen zu können, was insbesondere mathematisch weniger geschulten Mitarbeitern von Versicherungsunternehmen entgegenkommen dürfte.

2 Einführung

Graphische Methoden zur statistischen Analyse und Parameterschätzung in Lage-Skalen-Familien von Wahrscheinlichkeitsverteilungen haben eine lange Traditition, sie gehen auf sogenannte „Wahrscheinlichkeitspapiere“ (Quantil-Quantil-Plots) zurück, die etwa ab dem Beginn des 20. Jahrhunderts vor allem im ingenieurwissenschaftlichen Kontext zur Anwendung kamen (vgl. den Übersichtsartikel von Cunnane 1978). Lag der Schwerpunkt zunächst auf der Anpassung der Normalverteilung an hydrologische Beobachtungen, kamen später insbesondere Anpassungen an Extremwertverteilungen und andere Klassen von Wahrscheinlichkeitsverteilungen hinzu (Guo 1990). Eine „optimale“ Wahl der Plot-Positionen (auf der Abszisse) ist dabei eng verbunden mit der Berechnung von Erwartungswerten der geordneten Beobachtungen (sog. Ordnungsstatistiken, vgl. David und Nagaraja 2003).

Später wurden die reinen Schätzverfahren für Lage- und Skalenparameter (oft identisch mit Erwartungswert und Streuung der zugrunde liegenden Verteilung) um geeignete Testverfahren erweitert, mit denen unabhängig von diesen Parametern das Vorliegen eines bestimmten Verteilungstyps überprüft werden kann. Ein interessanter Zugang besteht hier in der Verwendung (einer geeigneten Transformation) des empirischen Korrelationskoeffizienten aus dem Quantil-Quantil-Plot als Testgröße (vgl. Lockhart und Stephens 1998).

3 Quantil-Quantil-Plots und Lage-Skalen-Familien: Schätzer

Betrachtet werden Risiken X der Form \(X=\mu +\sigma Z\) mit einem „Prototypen“ Z und stetiger, streng monotoner Verteilungsfunktion \(F_{Z}.\) Ziel ist die Schätzung der Parameter \(\mu\) und \(\sigma\) sowie die Überprüfung der Verteilungshypothese anhand von n Beobachtungen. Bezeichnet dazu \(X_{\left(k\right)}\) die k-te Ordnungsstatistik (d. h. den k-größten Wert) aus einer Reihe von unabhängigen Replikationen \(X_{1},\cdots ,X_{n}\) von X, so trägt man im Quantil-Quantil-Plot die Größen \(\left(Q_{Z}\left(u_{k}\right),X_{\left(k\right)}\right)\) mit der Quantilfunktion \(Q_{Z}=F_{Z}^{-1}\) und geeigneten \(u_{k},k=1,\cdots ,n\) ab und ermittelt mittels linearer Regression die Ausgleichsgerade mit Achsenabschnitt \(\hat{\mu }\) und Steigung \(\hat{\sigma },\) die gegeben sind durch
$$\hat{\sigma }=\frac{\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\;\mathrm{und}\;\hat{\mu }=\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}-\frac{\hat{\sigma }}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)$$
(1)
(vgl. Fahrmeir et al. 2016, Abschn. 3.6.2).

Die Bedeutung der Erwartungswerte der Ordnungsstatistiken für die Parameterschätzungen zeigt sich in der folgenden:

Proposition: Mit der Wahl \(u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)\) für \(k=1,\cdots ,n\) sind \(\hat{\sigma }\) und \(\hat{\mu }\) erwartungstreue Schätzer für \(\sigma\) und \(\mu .\)

Beweis: Aus der obigen Wahl folgt
$$Q_{Z}(u_{k})=E\left(Z_{\left(k\right)}\right)=\frac{E\left(X_{\left(k\right)}\right)-\mu }{\sigma }\;\mathrm{bzw}.\;E\left(X_{\left(k\right)}\right)=\mu +\sigma Q_{Z}\left(u_{k}\right)\;\text{f\"{u}r}\;k=1,\cdots ,n,$$
(2)
wobei \(Z_{\left(k\right)}=\frac{X_{\left(k\right)}-\mu }{\sigma }\) verteilungsmäßig der k-ten Ordnungsstatistik aus einer Reihe von unabhängigen Replikationen \(Z_{1},\cdots ,Z_{n}\) von Z entspricht. Es folgt
$$\begin{array}{l} E\left(\hat{\sigma }\right)=\frac{\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\\ \ =\frac{\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\\ \ =\frac{\mu \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)+\sigma \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\mu \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)-\sigma \cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}=\sigma \quad \end{array}$$
(3)
und
$$E\left(\hat{\mu }\right)=\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)-\frac{E\left(\hat{\sigma }\right)}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)=\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)-\frac{\sigma }{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)=\mu ,$$
(4)
was zu zeigen war.
Bemerkung: Im Falle einer reinen Skalenfamilie (d. h. \(\mu =0\)) gilt entsprechend
$$\hat{\sigma }=\frac{\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}Q_{Z}\left(u_{k}\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)}$$
(5)

Auch dieser Schätzer ist erwartungstreu, wenn \(u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)\) für \(k=1,\cdots ,n\) gewählt wird.

Beispiel: Standard-Exponentialverteilung: Hier ist \(F_{Z}(x)=1-e^{-x}\) für \(x>0.\) Da die Ordnungsstatistiken unabhängige, exponentialverteilte Zuwächse besitzen, gilt
$$E\left(Z_{\left(k\right)}\right)=\sum _{i=1}^{k}\frac{1}{n+1-i}\;\text{f\"{u}r}\;k=1,\cdots ,n,$$
(6)
mit
$$u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)=1-\exp \left(-\sum _{i=1}^{k}\frac{1}{n+1-i}\right),\;k=1,\cdots ,n.$$
(7)
Approximativ ergibt sich hieraus mit \(\sum _{j=1}^{m}\frac{1}{j}\approx \ln \left(m+1\right)+\gamma\) (γ = 0,57721… ist die Euler-Konstante) die Beziehung
$$E\left(Z_{\left(k\right)}\right)=\sum _{i=1}^{k}\frac{1}{n+1-i}=\sum _{i=1}^{n}\frac{1}{i}-\sum _{i=1}^{n-k}\frac{1}{i}\approx \ln (n+1)-\ln (n+1-k)=\ln \left(\frac{n+1}{n+1-k}\right)$$
(8)
bzw.
$$\begin{array}{l} \\ \\ \end{array}u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)=1-\exp \left(-\sum _{i=1}^{k}\frac{1}{n+1-i}\right)\approx \frac{k}{n+1},\:k=1,\cdots ,n.$$
(9)

Dies entspricht der „klassischen“ Empfehlung von Weibull (1939), vgl. auch Cunnane (1978, S. 211) oder Gumbel (1958, Kapitel 1.2.7).

Die Frage, welche Güte eine Schätzung eine hohen Quantils mit diesem Ansatz hat, beispielsweise des \(1-\alpha\)-Quantils \(\mathrm{VaR}_{\alpha }(X)\) (Value at Risk) mit typischerweise kleinem \(\alpha ,\) lässt sich ebenfalls leicht beantworten. Aus der Regressionsgeraden ergibt sich nämlich unmittelbar
$$\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}=\hat{\mu }+\hat{\sigma }\cdot Q_{Z}(1-\alpha )$$
(10)
mit
$$E\widehat{\left(\mathrm{VaR}_{\alpha }\left(X\right)\right)}=\mu +\sigma \cdot Q_{Z}(1-\alpha )=Q_{X}(1-\alpha ),$$
(11)
also ebenfalls eine erwartungstreue Schätzung.
Es gibt allerdings Probleme mit der Erwartungstreue, wenn die Daten vorher (z. B. logarithmisch) transformiert werden, um eine Lage-Skalen-Familie zu erhalten. Im letzterem Fall gilt für das Risiko \(Y=\exp (X)\) nämlich \(\mathrm{VaR}_{\alpha }(Y)=\mathrm{VaR}_{\alpha }\left(e^{X}\right)=e^{{\mathrm{VaR}_{\alpha }}\left(X\right)},\) die übliche Schätzung \(\widehat{\mathrm{VaR}_{\alpha }\left(Y\right)}\colon =e^{\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}}\) besitzt aufgrund der Jensen-Ungleichung für konvexe Funktionen (vgl. etwa Czado und Schmidt 2011, Satz 1.5) aber einen Bias:
$$E\widehat{\left(\mathrm{VaR}_{\alpha }\left(Y\right)\right)}=E\left(e^{\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}}\right)>e^{E\widehat{\left(\mathrm{VaR}_{\alpha }\left(\mathrm{X}\right)\right)}}=e^{{\mathrm{VaR}_{\alpha }}\left(X\right)}=\mathrm{VaR}_{\alpha }(Y).$$
(12)
Im Kontext von Solvency II ist das jedoch eher unschädlich, wenn die Schaden- bzw. Schaden-Kosten-Quoten als lognormalverteilt angenommen werden. Die logarithmierten Schaden- bzw. Schaden-Kosten-Quoten sind dann normalverteilt, so dass hier die Bestimmung bzw. numerische Berechnung der Erwartungswerte der Ordnungsstatistiken der Standard-Normalverteilung (mit Dichte \(\varphi\) und Verteilungsfunktion \(\Upphi\)) relevant ist. Formal gilt hier (vgl. David und Nagaraja 2003, Kapitel 3.1):
$$E\left(Z_{\left(k\right)}\right)=k\left(\begin{array}{l} n\\ k \end{array}\right)\int _{-\infty }^{\infty }x\Phi ^{k-1}(x)\left(1-\Upphi \left(x\right)\right)^{n-k}\varphi (x)dx\;\text{f\"{u}r}\;k=1,\cdots ,n.$$
(13)
Dabei ist
$$\varphi (x)=\frac{1}{\sqrt{2\pi }}\exp \left(-\frac{x^{2}}{2}\right)\;\mathrm{und}\;\Upphi (x)=\int _{-\infty }^{x}\varphi \left(u\right)du\;\text{f\"{u}r}\;x\in \mathbb{R}.$$
(14)
Sowohl \(\Upphi (x)\) als auch \(E\left(Z_{\left(k\right)}\right)\) sind nicht elementar berechenbar. Numerische Auswertungen für \(E\left(Z_{\left(k\right)}\right)\) wurden von Harter (1961) publiziert, für n = 1,···,100 und k = 1,···,n vollumfänglich und für größere n bis 400 in Auszügen. In der Literatur findet man dazu zahlreiche numerische Approximationen, z. B. (vgl. Cunnane 1978, S. 211) (siehe Tab. 1).
Tab. 1

Approximationen für Erwartungswerte von Ordnungsstatistiken

Hazen (1914)

\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,5}{n+1}\right)\)

Weibull (1939)

\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k}{n+1}\right)\)

Beard (1943)

\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,31}{n+0,38}\right)\)

Benard and Bos-Levenbach (1953)

\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,30}{n+0,20}\right)\)

Blom (1958)

\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,375}{n+0,25}\right)\)

Tukey (1962)

\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,333}{n+0,333}\right)\)

Gringorten (1963)

\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,44}{n+0,12}\right)\)

Aus einer selbst durchgeführten größeren Monte-Carlo-Studie ergibt sich als sehr gute Approximation für die Erwartungswerte der Ordnungsstatistiken einer Standard-Normalverteilung:
$$E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\hat{u}_{k}\right)\;\mathrm{mit}\;\hat{u}_{k}=\frac{k-\hat{a}_{n}}{n+\hat{b}_{n}},$$
(15)
wobei
$$\begin{aligned} &\hat{a}_{n}=0,27950585+\frac{0,04684273}{0,34986981+n^{-0,79499457}},\\ &\hat{b}_{n}=0,44480354-\frac{0,09890767}{0,36353365+n^{-0,78493983}},\:k=1,\ldots ,n,\:n\leq 100. \end{aligned}$$
(16)
Der Fehler zwischen den exakten Werten für \(a_{n}\) und \(b_{n}\) (berechnet aus den Werten von Harter 1961) und den approximativen Werten \(\hat{a}_{n}\) und \(\hat{b}_{n}\) gemäß Gl. 16 beträgt für \(3\leq n\leq 100\) jeweils betragsmäßig maximal 0,00007. Abb. 1 und 2 zeigen die exakten Werte von \(a_{n}\) bzw. \(b_{n}\) (Punkte) gegenüber den approximativen Werten \(\hat{a}_{n}\) bzw. \(\hat{b}_{n}\) (gestrichelte Linie).
Abb. 1

an vs. \(\hat{a}_{n}\)

Abb. 2

bn vs. \(\hat{b}_{n}\)

Durch Vergleich mit den Werten aus Tab. 1 ergibt sich eine sehr gute Übereinstimmung zu Blom (1958) für \(n=12\) und zu Tukey (1962) für \(n=2.\) Die übrigen Approximationsformeln weisen demgegenüber größere Abweichungen auf.

Für \(n\leq 20\) kann auch die relativ gute Approximation
$$\hat{a}_{n}=0,3177n^{0,0661},\:\hat{b}_{n}=\frac{0,3856}{n^{0,1754}},\:k=1,\ldots ,n$$
(17)
verwendet werden mit einem betragsmäßig maximalen Fehler von 0,003.

4 Quantil-Quantil-Plots und Lage-Skalen-Familien: Tests

Es gibt in der Literatur eine Reihe von Vorschlägen zum Testen der Hypothese:

H0

die Verteilung des Risikos X entstammt der Lage-Skalen-Familie zu Z

(sog. einfacher Signifikanztest). Eine gute Übersicht über dieses Thema geben Lockhart und Stephens (1998). Interessant sind hier Tests auf der Basis des empirischen Korrelationskoeffizienten \(\rho _{n}\) aus dem Quantil-Quantil-Plot (Erwartungswerte der Ordnungsstatistiken gemäß Gln. 15 und 16 vs. den der Größe nach angeordneten Beobachtungswerten). Die Tatsache, dass die Verteilung des empirischen Korrelationskoeffizienten unter der Nullhypothese von den Lage- und Skalenparametern unabhängig ist, folgt aus der Invarianz der Korrelation zweier Risiken unter positiv-homogener (linearer) Transformation, vgl. Fahrmeir et al. (2016, Abschnitt 3.4.4). Ähnliche Testverfahren wurden u. a. von Shapiro und Wilk entwickelt, vgl. D’Agostino und Stephens (1986, Kapitel 5) oder Huber-Carol et al. (2002, Kapitel 7). Einen Vergleich über zahlreiche Anpassungstests auf Normalverteilung geben Seier (2002) und Yazici und Yolacan (2007).

In dieser Arbeit schlagen wir eine geringfügige Modifikation der in Lockhart und Stephens (1998) betrachteten Teststatistiken vor, nämlich \(T_{n}\colon =-\ln (1-\rho _{n}).\) Dies hat den Vorteil, dass die Verteilung von \(T_{n}\) unter der Nullhypothese einer Normalverteilung für Werte von \(n\geq 10\) recht gut selbst durch eine Normalverteilung approximiert werden kann, so dass sich die p-Werte für den Anpassungstest einfach, z. B. mit EXCEL, berechnen lassen (zu den Grundlagen von p-Werten vgl. etwa Fahrmeir et al. 2016, Abschnitt 10.2.3). Dieses Ergebnis deckt sich mit einer ähnlichen allgemeinen Aussage über die asymptotische Normalität des empirischen Korrelationskoeffizienten zwischen zwei Zufallsvariablen, vgl. etwa van der Vaart (1998, Example 3.6).

Abb. 3 und 4 zeigen die Wirkungsweise bei einer Fehlerwahrscheinlichkeit 1. Art von 5 %.
Abb. 3

T10 = 2,4467; p = 4,22 % (Nullhypothese wird abgelehnt)

Abb. 4

T10 = 2,7261; p = 10,26 % (Nullhypothese wird angenommen)

Abb. 5678910111213 und 14 zeigen die Histogramme aus jeweils 1 Mio. Simulationen der Verteilung der Teststatistik \(T_{n}\) für n = 11,···,20 mit einer Anpassung an die Normalverteilung.
Abb. 5

μ = 3,5727; σ = 0,6201

Abb. 6

μ = 3,6219; σ = 0,6103

Abb. 7

μ = 3,6696; σ = 0,6005

Abb. 8

μ = 3,7152; σ = 0,5935

Abb. 9

μ = 3,7584; σ = 0,5873

Abb. 10

μ = 3,7998; σ = 0,5813

Abb. 11

μ = 3,8385; σ = 0,5767

Abb. 12

μ = 3,8773; σ = 0,5730

Abb. 13

μ = 3,9119; σ = 0,5679

Abb. 14

μ = 3,9475; σ = 0,5645

Die Parameter \(\mu _{n}\) und \(\sigma _{n}\) der angepassten Normalverteilung lassen sich im Bereich n = 10,···,50 recht gut durch folgende Interpolation approximieren (siehe Tab. 2):
$$\hat{\mu }_{n}=\frac{5,87383 n+101,011}{n+35,3404}\;\mathrm{und}\;\hat{\sigma }_{n}=\frac{0,477812 n+3,25495}{n+2,72721}$$
(18)
Tab. 2

Parameterapproximation für Testverteilung

n

\(\mu _{n}\)

\(\hat{\mu }_{n}\)

\(\sigma _{n}\)

\(\hat{\sigma }_{n}\)

10

3,5221

3,5233

0,6323

0,6312

11

3,5727

3,5741

0,6201

0,6200

12

3,6219

3,6226

0,6103

0,6103

13

3,6696

3,6692

0,6005

0,6019

14

3,7152

3,7139

0,5935

0,5945

15

3,7584

3,7568

0,5873

0,5879

16

3,7998

3,7980

0,5813

0,5820

17

3,8385

3,8377

0,5767

0,5768

18

3,8773

3,8759

0,5730

0,5720

19

3,9119

3,9126

0,5679

0,5676

20

3,9475

3,9481

0,5645

0,5637

26

4,1328

4,1364

0,5473

0,5458

50

4,6259

4,6250

0,5138

0,5148

5 Gütebewertung

Abb. 15 und 16 zeigen im Vergleich Histogramme der Verteilung der Teststatistik für \(n=20\) bei den Hypothesen:

H0

die Verteilung des Risikos X entstammt einer Normalverteilung

gegen:

H1

die Verteilung des Risikos X entstammt einer Gumbelverteilung

bzw.:

H2

die Verteilung des Risikos X entstammt einer logistischen Verteilung.

Der Testumfang betrug jeweils 1 Mio. Simulationen.
Abb. 15

Histogramme der Verteilung der Teststatistik unter \(H_{0}\) (rot) und \(H_{1}\) (blau)

Abb. 16

Histogramme der Verteilung der Teststatistik unter \(H_{0}\) (rot) und \(H_{2}\) (blau)

Erwartungsgemäß ist die Trennschärfe zwischen Normal- und Gumbelverteilung höher als zwischen Normal- und Logistischer Verteilung. Aus den Simulationen lassen sich die Fehlerwahrscheinlichkeiten zweiter \((\beta )\) Art bei gegebener Fehlerwahrscheinlichkeit erster Art \((\alpha )\) (approximativ) bestimmen (siehe Tab. 3).
Tab. 3

Fehlerwahrscheinlichkeiten 2. Art für den Korrelationstest

\(\alpha\)

1 %

5 %

10 %

Kritischer Wert

2,6180

3,0045

3,2159

\(\beta\) Gumbel

84,70 %

69,31 %

59,11 %

\(\beta\) Logistisch

94,92 %

86,73 %

78,84 %

Die Ergebnisse gelten nach Logarithmieren der Daten analog auch für das Testen einer Lognormalverteilung gegen eine Fréchet- bzw. Loglogistische Verteilung.

Es sollte hier noch angemerkt werden, dass der oben vorgestellte Korrelationstest eine im Allgemeinen bessere Trennschärfe besitzt als der Kolmogorov-Smirnov- bzw. Lilliefors-Test (vgl. Dallal und Wilkinson 1986), wie auch schon von Durbin (1961) festgestellt wurde. Dies liegt daran, dass der Korrelationstest – bei gleichem Abstand der Verteilungen – empfindlicher auf Abweichungen in der Form der Verteilungsfunktionen reagiert. Tab. 4 und 5 zeigen zum Vergleich exemplarisch die Fehlerwahrscheinlichkeiten zweiter Art für den Lilliefors-Test mit \(n=20\) bei den Alternativen Gumbel- und Logistische Verteilung auf. Die Daten stammen aus einer selbst durchgeführten Simulationsstudie mit einem jeweiligen Umfang von 1.000.000.
Tab. 4

Fehlerwahrscheinlichkeiten 2. Art für den Lilliefors-Test

\(\alpha\)

1 %

5 %

10 %

Kritischer Wert

0,2230

0,1918

0,1762

\(\beta\) Gumbel

92,15 %

79,60 %

69,84 %

\(\beta\) Logistisch

97,66 %

91,40 %

84,85 %

Tab. 5

Fehlerwahrscheinlichkeiten 2. Art für den Shapiro-Wilk-Test

\(\alpha\)

1 %

5 %

10 %

Kritischer Wert

0,8672

0,9042

0,9199

\(\beta\) Gumbel

84,09 %

68,76 %

58,50 %

\(\beta\) Logistisch

95,94 %

88,38 %

81,90 %

Für die Gumbel-Alternative sind die Fehlerwahrscheinlichkeiten zweiter Art hier nur minimal kleiner als bei dem Korrelationstest, für die Logistische Alternative etwas höher, allerdings deutlich kleiner als beim Lilliefors-Test.

6 Fallstudie

In diesem Abschnitt werden die im vorigen Teil beschriebenen Verfahren anhand von Informationen aus der Versicherungsbranche veranschaulicht. Konkret geht es um brutto-Schaden-Kosten-Quoten der Sparten Sach gesamt, Sach privat, verbundene Gebäudeversicherung (VGV), verbundene Hausratversicherung (VHV), Unfall, Rechtsschutz, Gewerbe und allgemeine Haftpflicht. Die Daten wurden dem vom GDV herausgegebenen Statistischen Taschenbuch der Versicherungsbranche (2018) ab dem Jahr 2000 entnommen (Haftpflicht ab 2004). Es soll geprüft werden, ob die Schaden-Kosten-Quoten lognormal-, also die logarithmierten Quoten normalverteilt sind. Der jeweilige Quantil-Quantil-Plot wird deshalb mit den logarithmierten Quoten erstellt. Die Nullhypothese lautet hier: die (logarithmierten) Quoten sind normalverteilt (siehe Abb. 17181920212223 und 24).
Abb. 17

Q‑Q-Plot für Sach gesamt

Abb. 18

Q‑Q-Plot für Sach privat

Abb. 19

Q‑Q-Plot für VGV

Abb. 20

Q‑Q-Plot für VHV

Abb. 21

Q‑Q-Plot für Unfall

Abb. 22

Q‑Q-Plot für Rechtsschutz

Abb. 23

Q‑Q-Plot für Gewerbe

Abb. 24

Q‑Q-Plot für allgemeine Haftpflicht

Tab. 6 enthält die Testgrößen \(T_{n}\) und p-Werte für den Korrelationstest sowie zum Vergleich die Testgrößen \(d_{n}\) und \(W_{n}\) sowie p-Werte nach dem Lilliefors- bzw. Shapiro-Wilk-Test. Die p-Werte für die Teststatistiken \(d_{n}\) und \(W_{n}\) wurden durch eine eigene Monte Carlo Studie im Umfang von 1.000.000 ermittelt, vgl. auch Dallal und Wilkinson (1986).
Tab. 6

Testgrößen und p-Werte

 

Korrelationstest

Lilliefors-Test

Shapiro-Wilk-Test

Sparte

\(T_{n}\)

p-Wert (in %)

\(d_{n}\)

p-Wert (in %)

\(W_{n}\)

p-Wert (in %)

Sach gesamt

2,8831

4,32

0,1743

15,17

0,8955

9,67

Sach privat

2,1064

0,09

0,2732

0,11

0,7758

0,20

VGV

2,1378

0,11

0,2481

0,47

0,7785

0,21

VHV

3,3515

17,95

0,1083

83,00

0,9329

33,18

Unfall

3,5261

26,76

0,1670

19,73

0,9280

28,50

Rechtsschutz

4,6539

91,30

0,0936

94,59

0,9763

91,62

Gewerbe

4,1377

67,08

0,1268

61,19

0,9665

79,25

Allgemeine Haftpflicht

3,9443

64,96

0,1795

24,90

0,9395

40,59

Es zeigt sich, dass sich die p-Werte aller Verfahren deutlich unterscheiden, mit der größten Diskrepanz bei den Sparten Sach gesamt, VHV und Allgemeine Haftpflicht. Bei den Sparten Sach privat und VGV lehnen alle Tests bei einer Fehlerwahrscheinlichkeit 1. Art von 1 % die Nullhypothese ab. Bei der Sparte Sach gesamt würde die Nullhypothese bei einer Fehlerwahrscheinlichkeit 1. Art von 5 % mit dem Korrelationstest knapp abgelehnt, mit den anderen beiden Tests dagegen nicht. Bei den Sparten VHV, Unfall, Rechtsschutz, Gewerbe und Allgemeine Haftpflicht wird die Nullhypothese bei einer Fehlerwahrscheinlichkeit 1. Art von 10 % unter allen Tests nicht verworfen.

Als geschätzte Parameter für die Normal- bzw. Lognormalverteilung erhält man jeweils aus dem Achsenabschnitt den geschätzten Erwartungswert \(\hat{\mu }\) und aus der Steigung die geschätzte Streuung \(\hat{\sigma }.\)

7 Fazit

Ein Korrelationstest auf der Basis von Quantil-Quantil-Plots ist einfach durchzuführen und hat gegenüber dem Lilliefors- und anderen Anpassungstests den Vorteil, explizit näherungsweise gute p-Werte aller Größenordnungen für beliebige Stichprobenumfänge zu erhalten, mit einer guten Anpassung der Verteilung der Testgröße an eine Normalverteilung. Empirische Studien zeigen dabei eine vergleichbare Güte zu ähnlichen Testverfahren.

Quantil-Quantil-Plots bieten darüber hinaus den großen Vorteil einer graphischen Veranschaulichung der Testergebnisse, was insbesondere für mathematisch weniger geschulte Mitarbeiter von Versicherungsunternehmen interessant sein dürfte.

Literatur

  1. Beard, L.R.: Statistical analysis in hydrology. Trans. Am. Soc. Civ. Eng. 108 1110–1160 (1943)Google Scholar
  2. Benard, A., Bos-Levenbach, E.C.: The plotting of observations on probability paper (Dutch). Statistica 7, 163–173 (1953)CrossRefGoogle Scholar
  3. Blom, G: Statistical Estimates and Transformed Beta-Variables. Wiley, N.Y. (1958)Google Scholar
  4. Cunnane, C.: Unbiased plotting positions—a review. J. Hydrol. Reg. Stud. 37, 205–222 (1978)CrossRefGoogle Scholar
  5. Czado, C., Schmidt, T.: Mathematische Statistik. Springer, Berlin (2011)CrossRefGoogle Scholar
  6. D’Agostino, R.B., Stephens, M.A.: Goodness-of-Fit Techniques. Marcel Dekker, New York (1986)Google Scholar
  7. Dallal, G.E., Wilkinson, L.: An analytic approximation to the distribution of Lilliefors’s test statistic for normality. Am Stat 40, 294–295 (1986)Google Scholar
  8. David, H.A., Nagaraja, H.N.: Order statistics, 3. Aufl. Wiley, New York (2003)CrossRefGoogle Scholar
  9. Dreher, M. (Hrsg.): Beck’sche Kurzkommentare: Prölss/Dreher: Versicherungsaufsichtsgesetz mit Nebengesetzen, 13. Aufl. C. H. Beck, München (2018)Google Scholar
  10. Durbin, J.: Some methods of constructing exact tests. Biometrica 48, 41–65 (1961)CrossRefGoogle Scholar
  11. Fahrmeir, L., Heumann, Ch , Künstler, R., Pigeot, I.: Statistik. Der Weg zur Datenanalyse, 8. Aufl. Springer, Berlin (2016)Google Scholar
  12. Gesamtverband der Deutschen Versicherungswirtschaft (GDV): Statistisches Taschenbuch der Versicherungswirtschaft 2018. Versicherungswirtschaft, Karlsruhe (2018)Google Scholar
  13. Gringorten, I.I.: A plotting rule for extreme probability paper. Journal of Geophysical Research 68, 813–814 (1963)CrossRefGoogle Scholar
  14. Gumbel, E.J.: Statistics of extremes. Columbia University Press, New York (1958)CrossRefGoogle Scholar
  15. Guo, S.L.: A discussion on unbiased plotting positions for the general extreme value distribution. J. Hydrol. Reg. Stud. 121, 33–44 (1990)CrossRefGoogle Scholar
  16. Harter, H.L.: Expected values of normal order statistics. Biometrika 48, 151–165 (1961)CrossRefGoogle Scholar
  17. Hazen, A.: Storage to be provided in impounding reservoirs for municipal water supply. Trans. Am. Soc. Cir. Eng. 77, 1547–1550 (1914). Pap. 1308Google Scholar
  18. Huber-Carol, C., Balakrishnan, N., Nikulin, M.S., Mesbah, M. (Hrsg.): Goodness-of-fit tests and model validity. Springer, New York (2002)Google Scholar
  19. Lockhart, R.A., Stephens, M.A.: The probability plot: tests of fit based on the correlation coefficient. In: Balakrishnan, N., Rao, C.R. (Hrsg.) Order statistics: applications Handbook of Statistics 17. S. 453–473. Elsevier, Amsterdam (1998)CrossRefGoogle Scholar
  20. Seier, E.: Comparison of tests for univariate normality. Department of mathematics, east Tennessee state university (2002). http://interstat.statjournals.net/YEAR/2002/articles/0201001.pdf. Zugegriffen: 9.1.2020
  21. Tukey, J.W.: The future of data analysis. Ann. Math. Statist. 33, 1–67 (1962)CrossRefGoogle Scholar
  22. van der Vaart, A.W.: Asymptotic statistics. Cambridge University Press, Cambridge (1998)CrossRefGoogle Scholar
  23. Weibull, W.: A statistical theory of strength of materials. Ing. Vet. Ak. Handl 151, (1939)Google Scholar
  24. Yazici, B., Yolacan, S.: A comparison of various tests of normality. J Stat Comput Simul 77, 175–183 (2007)CrossRefGoogle Scholar

Copyright information

© The Author(s) 2020

Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.

Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.

Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/licenses/by/4.0/deed.de.

Authors and Affiliations

  1. 1.Institut für Mathematik, Schwerpunkt Versicherungs- und FinanzmathematikCarl von Ossietzky Universität OldenburgOldenburgDeutschland

Personalised recommendations