1 Vorbemerkung

In § 27 des neuen deutschen Versicherungsaufsichtsgesetztes heißt es: Zum Risikomanagementsystem gehört eine unternehmenseigene Risiko- und Solvabilitätsbeurteilung, die Versicherungsunternehmen regelmäßig sowie im Fall wesentlicher Änderungen in ihrem Risikoprofil unverzüglich vorzunehmen haben. … Die Risiko- und Solvabilitätsbeurteilung umfasst mindestens

  1. 1.

    eine eigenständige Bewertung des Solvabilitätsbedarfs unter Berücksichtigung des spezifischen Risikoprofils, der festgelegten Risikotoleranzlimite und der Geschäftsstrategie des Unternehmens,

  2. 2.

    eine Beurteilung der jederzeitigen Erfüllbarkeit der aufsichtsrechtlichen Eigenmittelanforderungen, der Anforderungen an die versicherungstechnischen Rückstellungen in der Solvabilitätsübersicht und der Risikotragfähigkeit sowie

  3. 3.

    eine Beurteilung der Wesentlichkeit von Abweichungen des Risikoprofils des Unternehmens von den Annahmen, die der Berechnung der Solvabilitätskapitalanforderung mit der Standardformel oder mit dem internen Modell zugrunde liegen.

Konkret geht es hierbei um die Annahme einer Lognormalverteilung für das Prämien- und Reserve-Risiko bzw. für die jährlichen Schaden- bzw. Schaden-Kosten-Quoten (vgl. Dreher 2018, S. 912). Eine mathematisch korrekte Überprüfung dieses Sachverhalts kann eigentlich nur mit geeigneten statistischen Tests durchgeführt werden. In dieser Arbeit werden neue asymptotische Formeln hergeleitet, mit denen zum einen diese Annahme mit Hilfe von Quantil-Quantil-Plots überprüft werden kann, zum anderen erwartungstreue Schätzer der zugehörigen Lage-Skalen-Parameter für die logarithmierten Schaden- bzw. Schaden-Kosten-Quoten und damit Momente und Quantile (als Grundlage für das SCR, Solvency Capital Requirement) der entsprechenden Lognormalverteilung hergeleitet werden können. Quantil-Quantil-Plots haben darüber hinaus den Vorteil, die Testergebnisse auch graphisch veranschaulichen zu können, was insbesondere mathematisch weniger geschulten Mitarbeitern von Versicherungsunternehmen entgegenkommen dürfte.

2 Einführung

Graphische Methoden zur statistischen Analyse und Parameterschätzung in Lage-Skalen-Familien von Wahrscheinlichkeitsverteilungen haben eine lange Traditition, sie gehen auf sogenannte „Wahrscheinlichkeitspapiere“ (Quantil-Quantil-Plots) zurück, die etwa ab dem Beginn des 20. Jahrhunderts vor allem im ingenieurwissenschaftlichen Kontext zur Anwendung kamen (vgl. den Übersichtsartikel von Cunnane 1978). Lag der Schwerpunkt zunächst auf der Anpassung der Normalverteilung an hydrologische Beobachtungen, kamen später insbesondere Anpassungen an Extremwertverteilungen und andere Klassen von Wahrscheinlichkeitsverteilungen hinzu (Guo 1990). Eine „optimale“ Wahl der Plot-Positionen (auf der Abszisse) ist dabei eng verbunden mit der Berechnung von Erwartungswerten der geordneten Beobachtungen (sog. Ordnungsstatistiken, vgl. David und Nagaraja 2003).

Später wurden die reinen Schätzverfahren für Lage- und Skalenparameter (oft identisch mit Erwartungswert und Streuung der zugrunde liegenden Verteilung) um geeignete Testverfahren erweitert, mit denen unabhängig von diesen Parametern das Vorliegen eines bestimmten Verteilungstyps überprüft werden kann. Ein interessanter Zugang besteht hier in der Verwendung (einer geeigneten Transformation) des empirischen Korrelationskoeffizienten aus dem Quantil-Quantil-Plot als Testgröße (vgl. Lockhart und Stephens 1998).

3 Quantil-Quantil-Plots und Lage-Skalen-Familien: Schätzer

Betrachtet werden Risiken X der Form \(X=\mu +\sigma Z\) mit einem „Prototypen“ Z und stetiger, streng monotoner Verteilungsfunktion \(F_{Z}.\) Ziel ist die Schätzung der Parameter \(\mu\) und \(\sigma\) sowie die Überprüfung der Verteilungshypothese anhand von n Beobachtungen. Bezeichnet dazu \(X_{\left(k\right)}\) die k-te Ordnungsstatistik (d. h. den k-größten Wert) aus einer Reihe von unabhängigen Replikationen \(X_{1},\cdots ,X_{n}\) von X, so trägt man im Quantil-Quantil-Plot die Größen \(\left(Q_{Z}\left(u_{k}\right),X_{\left(k\right)}\right)\) mit der Quantilfunktion \(Q_{Z}=F_{Z}^{-1}\) und geeigneten \(u_{k},k=1,\cdots ,n\) ab und ermittelt mittels linearer Regression die Ausgleichsgerade mit Achsenabschnitt \(\hat{\mu }\) und Steigung \(\hat{\sigma },\) die gegeben sind durch

$$\hat{\sigma }=\frac{\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\;\mathrm{und}\;\hat{\mu }=\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}-\frac{\hat{\sigma }}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)$$
(1)

(vgl. Fahrmeir et al. 2016, Abschn. 3.6.2).

Die Bedeutung der Erwartungswerte der Ordnungsstatistiken für die Parameterschätzungen zeigt sich in der folgenden:

Proposition: Mit der Wahl \(u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)\) für \(k=1,\cdots ,n\) sind \(\hat{\sigma }\) und \(\hat{\mu }\) erwartungstreue Schätzer für \(\sigma\) und \(\mu .\)

Beweis: Aus der obigen Wahl folgt

$$Q_{Z}(u_{k})=E\left(Z_{\left(k\right)}\right)=\frac{E\left(X_{\left(k\right)}\right)-\mu }{\sigma }\;\mathrm{bzw}.\;E\left(X_{\left(k\right)}\right)=\mu +\sigma Q_{Z}\left(u_{k}\right)\;\text{f\"{u}r}\;k=1,\cdots ,n,$$
(2)

wobei \(Z_{\left(k\right)}=\frac{X_{\left(k\right)}-\mu }{\sigma }\) verteilungsmäßig der k-ten Ordnungsstatistik aus einer Reihe von unabhängigen Replikationen \(Z_{1},\cdots ,Z_{n}\) von Z entspricht. Es folgt

$$\begin{array}{l} E\left(\hat{\sigma }\right)=\frac{\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\\ \ =\frac{\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\\ \ =\frac{\mu \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)+\sigma \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\mu \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)-\sigma \cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}=\sigma \quad \end{array}$$
(3)

und

$$E\left(\hat{\mu }\right)=\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)-\frac{E\left(\hat{\sigma }\right)}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)=\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)-\frac{\sigma }{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)=\mu ,$$
(4)

was zu zeigen war.

Bemerkung: Im Falle einer reinen Skalenfamilie (d. h. \(\mu =0\)) gilt entsprechend

$$\hat{\sigma }=\frac{\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}Q_{Z}\left(u_{k}\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)}$$
(5)

Auch dieser Schätzer ist erwartungstreu, wenn \(u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)\) für \(k=1,\cdots ,n\) gewählt wird.

Beispiel: Standard-Exponentialverteilung: Hier ist \(F_{Z}(x)=1-e^{-x}\) für \(x>0.\) Da die Ordnungsstatistiken unabhängige, exponentialverteilte Zuwächse besitzen, gilt

$$E\left(Z_{\left(k\right)}\right)=\sum _{i=1}^{k}\frac{1}{n+1-i}\;\text{f\"{u}r}\;k=1,\cdots ,n,$$
(6)

mit

$$u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)=1-\exp \left(-\sum _{i=1}^{k}\frac{1}{n+1-i}\right),\;k=1,\cdots ,n.$$
(7)

Approximativ ergibt sich hieraus mit \(\sum _{j=1}^{m}\frac{1}{j}\approx \ln \left(m+1\right)+\gamma\) (γ = 0,57721… ist die Euler-Konstante) die Beziehung

$$E\left(Z_{\left(k\right)}\right)=\sum _{i=1}^{k}\frac{1}{n+1-i}=\sum _{i=1}^{n}\frac{1}{i}-\sum _{i=1}^{n-k}\frac{1}{i}\approx \ln (n+1)-\ln (n+1-k)=\ln \left(\frac{n+1}{n+1-k}\right)$$
(8)

bzw.

$$\begin{array}{l} \\ \\ \end{array}u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)=1-\exp \left(-\sum _{i=1}^{k}\frac{1}{n+1-i}\right)\approx \frac{k}{n+1},\:k=1,\cdots ,n.$$
(9)

Dies entspricht der „klassischen“ Empfehlung von Weibull (1939), vgl. auch Cunnane (1978, S. 211) oder Gumbel (1958, Kapitel 1.2.7).

Die Frage, welche Güte eine Schätzung eine hohen Quantils mit diesem Ansatz hat, beispielsweise des \(1-\alpha\)-Quantils \(\mathrm{VaR}_{\alpha }(X)\) (Value at Risk) mit typischerweise kleinem \(\alpha ,\) lässt sich ebenfalls leicht beantworten. Aus der Regressionsgeraden ergibt sich nämlich unmittelbar

$$\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}=\hat{\mu }+\hat{\sigma }\cdot Q_{Z}(1-\alpha )$$
(10)

mit

$$E\widehat{\left(\mathrm{VaR}_{\alpha }\left(X\right)\right)}=\mu +\sigma \cdot Q_{Z}(1-\alpha )=Q_{X}(1-\alpha ),$$
(11)

also ebenfalls eine erwartungstreue Schätzung.

Es gibt allerdings Probleme mit der Erwartungstreue, wenn die Daten vorher (z. B. logarithmisch) transformiert werden, um eine Lage-Skalen-Familie zu erhalten. Im letzterem Fall gilt für das Risiko \(Y=\exp (X)\) nämlich \(\mathrm{VaR}_{\alpha }(Y)=\mathrm{VaR}_{\alpha }\left(e^{X}\right)=e^{{\mathrm{VaR}_{\alpha }}\left(X\right)},\) die übliche Schätzung \(\widehat{\mathrm{VaR}_{\alpha }\left(Y\right)}\colon =e^{\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}}\) besitzt aufgrund der Jensen-Ungleichung für konvexe Funktionen (vgl. etwa Czado und Schmidt 2011, Satz 1.5) aber einen Bias:

$$E\widehat{\left(\mathrm{VaR}_{\alpha }\left(Y\right)\right)}=E\left(e^{\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}}\right)>e^{E\widehat{\left(\mathrm{VaR}_{\alpha }\left(\mathrm{X}\right)\right)}}=e^{{\mathrm{VaR}_{\alpha }}\left(X\right)}=\mathrm{VaR}_{\alpha }(Y).$$
(12)

Im Kontext von Solvency II ist das jedoch eher unschädlich, wenn die Schaden- bzw. Schaden-Kosten-Quoten als lognormalverteilt angenommen werden. Die logarithmierten Schaden- bzw. Schaden-Kosten-Quoten sind dann normalverteilt, so dass hier die Bestimmung bzw. numerische Berechnung der Erwartungswerte der Ordnungsstatistiken der Standard-Normalverteilung (mit Dichte \(\varphi\) und Verteilungsfunktion \(\Upphi\)) relevant ist. Formal gilt hier (vgl. David und Nagaraja 2003, Kapitel 3.1):

$$E\left(Z_{\left(k\right)}\right)=k\left(\begin{array}{l} n\\ k \end{array}\right)\int _{-\infty }^{\infty }x\Phi ^{k-1}(x)\left(1-\Upphi \left(x\right)\right)^{n-k}\varphi (x)dx\;\text{f\"{u}r}\;k=1,\cdots ,n.$$
(13)

Dabei ist

$$\varphi (x)=\frac{1}{\sqrt{2\pi }}\exp \left(-\frac{x^{2}}{2}\right)\;\mathrm{und}\;\Upphi (x)=\int _{-\infty }^{x}\varphi \left(u\right)du\;\text{f\"{u}r}\;x\in \mathbb{R}.$$
(14)

Sowohl \(\Upphi (x)\) als auch \(E\left(Z_{\left(k\right)}\right)\) sind nicht elementar berechenbar. Numerische Auswertungen für \(E\left(Z_{\left(k\right)}\right)\) wurden von Harter (1961) publiziert, für n = 1,···,100 und k = 1,···,n vollumfänglich und für größere n bis 400 in Auszügen. In der Literatur findet man dazu zahlreiche numerische Approximationen, z. B. (vgl. Cunnane 1978, S. 211) (siehe Tab. 1).

Tab. 1 Approximationen für Erwartungswerte von Ordnungsstatistiken

Aus einer selbst durchgeführten größeren Monte-Carlo-Studie ergibt sich als sehr gute Approximation für die Erwartungswerte der Ordnungsstatistiken einer Standard-Normalverteilung:

$$E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\hat{u}_{k}\right)\;\mathrm{mit}\;\hat{u}_{k}=\frac{k-\hat{a}_{n}}{n+\hat{b}_{n}},$$
(15)

wobei

$$\begin{aligned} &\hat{a}_{n}=0,27950585+\frac{0,04684273}{0,34986981+n^{-0,79499457}},\\ &\hat{b}_{n}=0,44480354-\frac{0,09890767}{0,36353365+n^{-0,78493983}},\:k=1,\ldots ,n,\:n\leq 100. \end{aligned}$$
(16)

Der Fehler zwischen den exakten Werten für \(a_{n}\) und \(b_{n}\) (berechnet aus den Werten von Harter 1961) und den approximativen Werten \(\hat{a}_{n}\) und \(\hat{b}_{n}\) gemäß Gl. 16 beträgt für \(3\leq n\leq 100\) jeweils betragsmäßig maximal 0,00007. Abb. 1 und 2 zeigen die exakten Werte von \(a_{n}\) bzw. \(b_{n}\) (Punkte) gegenüber den approximativen Werten \(\hat{a}_{n}\) bzw. \(\hat{b}_{n}\) (gestrichelte Linie).

Abb. 1
figure 1

an vs. \(\hat{a}_{n}\)

Abb. 2
figure 2

bn vs. \(\hat{b}_{n}\)

Durch Vergleich mit den Werten aus Tab. 1 ergibt sich eine sehr gute Übereinstimmung zu Blom (1958) für \(n=12\) und zu Tukey (1962) für \(n=2.\) Die übrigen Approximationsformeln weisen demgegenüber größere Abweichungen auf.

Für \(n\leq 20\) kann auch die relativ gute Approximation

$$\hat{a}_{n}=0,3177n^{0,0661},\:\hat{b}_{n}=\frac{0,3856}{n^{0,1754}},\:k=1,\ldots ,n$$
(17)

verwendet werden mit einem betragsmäßig maximalen Fehler von 0,003.

4 Quantil-Quantil-Plots und Lage-Skalen-Familien: Tests

Es gibt in der Literatur eine Reihe von Vorschlägen zum Testen der Hypothese:

H0

die Verteilung des Risikos X entstammt der Lage-Skalen-Familie zu Z

(sog. einfacher Signifikanztest). Eine gute Übersicht über dieses Thema geben Lockhart und Stephens (1998). Interessant sind hier Tests auf der Basis des empirischen Korrelationskoeffizienten \(\rho _{n}\) aus dem Quantil-Quantil-Plot (Erwartungswerte der Ordnungsstatistiken gemäß Gln. 15 und 16 vs. den der Größe nach angeordneten Beobachtungswerten). Die Tatsache, dass die Verteilung des empirischen Korrelationskoeffizienten unter der Nullhypothese von den Lage- und Skalenparametern unabhängig ist, folgt aus der Invarianz der Korrelation zweier Risiken unter positiv-homogener (linearer) Transformation, vgl. Fahrmeir et al. (2016, Abschnitt 3.4.4). Ähnliche Testverfahren wurden u. a. von Shapiro und Wilk entwickelt, vgl. D’Agostino und Stephens (1986, Kapitel 5) oder Huber-Carol et al. (2002, Kapitel 7). Einen Vergleich über zahlreiche Anpassungstests auf Normalverteilung geben Seier (2002) und Yazici und Yolacan (2007).

In dieser Arbeit schlagen wir eine geringfügige Modifikation der in Lockhart und Stephens (1998) betrachteten Teststatistiken vor, nämlich \(T_{n}\colon =-\ln (1-\rho _{n}).\) Dies hat den Vorteil, dass die Verteilung von \(T_{n}\) unter der Nullhypothese einer Normalverteilung für Werte von \(n\geq 10\) recht gut selbst durch eine Normalverteilung approximiert werden kann, so dass sich die p-Werte für den Anpassungstest einfach, z. B. mit EXCEL, berechnen lassen (zu den Grundlagen von p-Werten vgl. etwa Fahrmeir et al. 2016, Abschnitt 10.2.3). Dieses Ergebnis deckt sich mit einer ähnlichen allgemeinen Aussage über die asymptotische Normalität des empirischen Korrelationskoeffizienten zwischen zwei Zufallsvariablen, vgl. etwa van der Vaart (1998, Example 3.6).

Abb. 3 und 4 zeigen die Wirkungsweise bei einer Fehlerwahrscheinlichkeit 1. Art von 5 %.

Abb. 3
figure 3

T10 = 2,4467; p = 4,22 % (Nullhypothese wird abgelehnt)

Abb. 4
figure 4

T10 = 2,7261; p = 10,26 % (Nullhypothese wird angenommen)

Abb. 5678910111213 und 14 zeigen die Histogramme aus jeweils 1 Mio. Simulationen der Verteilung der Teststatistik \(T_{n}\) für n = 11,···,20 mit einer Anpassung an die Normalverteilung.

Abb. 5
figure 5

μ = 3,5727; σ = 0,6201

Abb. 6
figure 6

μ = 3,6219; σ = 0,6103

Abb. 7
figure 7

μ = 3,6696; σ = 0,6005

Abb. 8
figure 8

μ = 3,7152; σ = 0,5935

Abb. 9
figure 9

μ = 3,7584; σ = 0,5873

Abb. 10
figure 10

μ = 3,7998; σ = 0,5813

Abb. 11
figure 11

μ = 3,8385; σ = 0,5767

Abb. 12
figure 12

μ = 3,8773; σ = 0,5730

Abb. 13
figure 13

μ = 3,9119; σ = 0,5679

Abb. 14
figure 14

μ = 3,9475; σ = 0,5645

Die Parameter \(\mu _{n}\) und \(\sigma _{n}\) der angepassten Normalverteilung lassen sich im Bereich n = 10,···,50 recht gut durch folgende Interpolation approximieren (siehe Tab. 2):

$$\hat{\mu }_{n}=\frac{5,87383 n+101,011}{n+35,3404}\;\mathrm{und}\;\hat{\sigma }_{n}=\frac{0,477812 n+3,25495}{n+2,72721}$$
(18)
Tab. 2 Parameterapproximation für Testverteilung

5 Gütebewertung

Abb. 15 und 16 zeigen im Vergleich Histogramme der Verteilung der Teststatistik für \(n=20\) bei den Hypothesen:

H0

die Verteilung des Risikos X entstammt einer Normalverteilung

gegen:

H1

die Verteilung des Risikos X entstammt einer Gumbelverteilung

bzw.:

H2

die Verteilung des Risikos X entstammt einer logistischen Verteilung.

Der Testumfang betrug jeweils 1 Mio. Simulationen.

Abb. 15
figure 15

Histogramme der Verteilung der Teststatistik unter \(H_{0}\) (rot) und \(H_{1}\) (blau)

Abb. 16
figure 16

Histogramme der Verteilung der Teststatistik unter \(H_{0}\) (rot) und \(H_{2}\) (blau)

Erwartungsgemäß ist die Trennschärfe zwischen Normal- und Gumbelverteilung höher als zwischen Normal- und Logistischer Verteilung. Aus den Simulationen lassen sich die Fehlerwahrscheinlichkeiten zweiter \((\beta )\) Art bei gegebener Fehlerwahrscheinlichkeit erster Art \((\alpha )\) (approximativ) bestimmen (siehe Tab. 3).

Tab. 3 Fehlerwahrscheinlichkeiten 2. Art für den Korrelationstest

Die Ergebnisse gelten nach Logarithmieren der Daten analog auch für das Testen einer Lognormalverteilung gegen eine Fréchet- bzw. Loglogistische Verteilung.

Es sollte hier noch angemerkt werden, dass der oben vorgestellte Korrelationstest eine im Allgemeinen bessere Trennschärfe besitzt als der Kolmogorov-Smirnov- bzw. Lilliefors-Test (vgl. Dallal und Wilkinson 1986), wie auch schon von Durbin (1961) festgestellt wurde. Dies liegt daran, dass der Korrelationstest – bei gleichem Abstand der Verteilungen – empfindlicher auf Abweichungen in der Form der Verteilungsfunktionen reagiert. Tab. 4 und 5 zeigen zum Vergleich exemplarisch die Fehlerwahrscheinlichkeiten zweiter Art für den Lilliefors-Test mit \(n=20\) bei den Alternativen Gumbel- und Logistische Verteilung auf. Die Daten stammen aus einer selbst durchgeführten Simulationsstudie mit einem jeweiligen Umfang von 1.000.000.

Tab. 4 Fehlerwahrscheinlichkeiten 2. Art für den Lilliefors-Test
Tab. 5 Fehlerwahrscheinlichkeiten 2. Art für den Shapiro-Wilk-Test

Für die Gumbel-Alternative sind die Fehlerwahrscheinlichkeiten zweiter Art hier nur minimal kleiner als bei dem Korrelationstest, für die Logistische Alternative etwas höher, allerdings deutlich kleiner als beim Lilliefors-Test.

6 Fallstudie

In diesem Abschnitt werden die im vorigen Teil beschriebenen Verfahren anhand von Informationen aus der Versicherungsbranche veranschaulicht. Konkret geht es um brutto-Schaden-Kosten-Quoten der Sparten Sach gesamt, Sach privat, verbundene Gebäudeversicherung (VGV), verbundene Hausratversicherung (VHV), Unfall, Rechtsschutz, Gewerbe und allgemeine Haftpflicht. Die Daten wurden dem vom GDV herausgegebenen Statistischen Taschenbuch der Versicherungsbranche (2018) ab dem Jahr 2000 entnommen (Haftpflicht ab 2004). Es soll geprüft werden, ob die Schaden-Kosten-Quoten lognormal-, also die logarithmierten Quoten normalverteilt sind. Der jeweilige Quantil-Quantil-Plot wird deshalb mit den logarithmierten Quoten erstellt. Die Nullhypothese lautet hier: die (logarithmierten) Quoten sind normalverteilt (siehe Abb. 17181920212223 und 24).

Abb. 17
figure 17

Q‑Q-Plot für Sach gesamt

Abb. 18
figure 18

Q‑Q-Plot für Sach privat

Abb. 19
figure 19

Q‑Q-Plot für VGV

Abb. 20
figure 20

Q‑Q-Plot für VHV

Abb. 21
figure 21

Q‑Q-Plot für Unfall

Abb. 22
figure 22

Q‑Q-Plot für Rechtsschutz

Abb. 23
figure 23

Q‑Q-Plot für Gewerbe

Abb. 24
figure 24

Q‑Q-Plot für allgemeine Haftpflicht

Tab. 6 enthält die Testgrößen \(T_{n}\) und p-Werte für den Korrelationstest sowie zum Vergleich die Testgrößen \(d_{n}\) und \(W_{n}\) sowie p-Werte nach dem Lilliefors- bzw. Shapiro-Wilk-Test. Die p-Werte für die Teststatistiken \(d_{n}\) und \(W_{n}\) wurden durch eine eigene Monte Carlo Studie im Umfang von 1.000.000 ermittelt, vgl. auch Dallal und Wilkinson (1986).

Tab. 6 Testgrößen und p-Werte

Es zeigt sich, dass sich die p-Werte aller Verfahren deutlich unterscheiden, mit der größten Diskrepanz bei den Sparten Sach gesamt, VHV und Allgemeine Haftpflicht. Bei den Sparten Sach privat und VGV lehnen alle Tests bei einer Fehlerwahrscheinlichkeit 1. Art von 1 % die Nullhypothese ab. Bei der Sparte Sach gesamt würde die Nullhypothese bei einer Fehlerwahrscheinlichkeit 1. Art von 5 % mit dem Korrelationstest knapp abgelehnt, mit den anderen beiden Tests dagegen nicht. Bei den Sparten VHV, Unfall, Rechtsschutz, Gewerbe und Allgemeine Haftpflicht wird die Nullhypothese bei einer Fehlerwahrscheinlichkeit 1. Art von 10 % unter allen Tests nicht verworfen.

Als geschätzte Parameter für die Normal- bzw. Lognormalverteilung erhält man jeweils aus dem Achsenabschnitt den geschätzten Erwartungswert \(\hat{\mu }\) und aus der Steigung die geschätzte Streuung \(\hat{\sigma }.\)

7 Fazit

Ein Korrelationstest auf der Basis von Quantil-Quantil-Plots ist einfach durchzuführen und hat gegenüber dem Lilliefors- und anderen Anpassungstests den Vorteil, explizit näherungsweise gute p-Werte aller Größenordnungen für beliebige Stichprobenumfänge zu erhalten, mit einer guten Anpassung der Verteilung der Testgröße an eine Normalverteilung. Empirische Studien zeigen dabei eine vergleichbare Güte zu ähnlichen Testverfahren.

Quantil-Quantil-Plots bieten darüber hinaus den großen Vorteil einer graphischen Veranschaulichung der Testergebnisse, was insbesondere für mathematisch weniger geschulte Mitarbeiter von Versicherungsunternehmen interessant sein dürfte.