Zusammenfassung
Nach etlichen Jahren Vorarbeit ist das Projekt Solvency II Anfang 2016 in den Ländern der Europäischen Union legislativ umgesetzt worden. Damit verbunden sind einige wesentliche Änderungen der jeweiligen nationalen Versicherungsaufsichtsgesetze. Ein neuer Aspekt hierbei ist die Vorschrift, potenzielle Abweichungen des Risikoprofils des Unternehmens von den Annahmen, die der Standardformel zur Berechnung des Solvency Capital Requirements (SCR) zugrunde liegen, zu analysieren und zu beurteilen. Für das Prämien- und Reserve-Risiko bzw. die zugehörigen Schaden-Kosten-Quoten wird dabei stillschweigend eine Lognormalverteilung unterstellt. In dieser Arbeit wird ein einfaches, aber dennoch mathematisch korrektes Verfahren auf der Basis von Quantil-Quantil-Plots vorgestellt, mit dem eine solche Analyse durchgeführt werden kann.
Abstract
After several years of development, the Solvency II-project has finally been set to work in the European Union with the beginning of the year 2016. This has caused massive changes in the regional legislative supervisory acts. One new aspect of regulation is the requirement of an analysis and judgement concerning possible deviations of the company’s risk profile from the assumptions underlying the standard formula in Solvency II. In particular, for the reserve and premium risk and the corresponding combined ratios, resp. a lognormal distribution is implicitly assumed. In this paper, we present a simple, but nevertheless mathematically accurate method on the basis of quantile-quantile-plots which is suitable to perform such kind of analyses.
Avoid common mistakes on your manuscript.
1 Vorbemerkung
In § 27 des neuen deutschen Versicherungsaufsichtsgesetztes heißt es: Zum Risikomanagementsystem gehört eine unternehmenseigene Risiko- und Solvabilitätsbeurteilung, die Versicherungsunternehmen regelmäßig sowie im Fall wesentlicher Änderungen in ihrem Risikoprofil unverzüglich vorzunehmen haben. … Die Risiko- und Solvabilitätsbeurteilung umfasst mindestens
- 1.
eine eigenständige Bewertung des Solvabilitätsbedarfs unter Berücksichtigung des spezifischen Risikoprofils, der festgelegten Risikotoleranzlimite und der Geschäftsstrategie des Unternehmens,
- 2.
eine Beurteilung der jederzeitigen Erfüllbarkeit der aufsichtsrechtlichen Eigenmittelanforderungen, der Anforderungen an die versicherungstechnischen Rückstellungen in der Solvabilitätsübersicht und der Risikotragfähigkeit sowie
- 3.
eine Beurteilung der Wesentlichkeit von Abweichungen des Risikoprofils des Unternehmens von den Annahmen, die der Berechnung der Solvabilitätskapitalanforderung mit der Standardformel oder mit dem internen Modell zugrunde liegen.
Konkret geht es hierbei um die Annahme einer Lognormalverteilung für das Prämien- und Reserve-Risiko bzw. für die jährlichen Schaden- bzw. Schaden-Kosten-Quoten (vgl. Dreher 2018, S. 912). Eine mathematisch korrekte Überprüfung dieses Sachverhalts kann eigentlich nur mit geeigneten statistischen Tests durchgeführt werden. In dieser Arbeit werden neue asymptotische Formeln hergeleitet, mit denen zum einen diese Annahme mit Hilfe von Quantil-Quantil-Plots überprüft werden kann, zum anderen erwartungstreue Schätzer der zugehörigen Lage-Skalen-Parameter für die logarithmierten Schaden- bzw. Schaden-Kosten-Quoten und damit Momente und Quantile (als Grundlage für das SCR, Solvency Capital Requirement) der entsprechenden Lognormalverteilung hergeleitet werden können. Quantil-Quantil-Plots haben darüber hinaus den Vorteil, die Testergebnisse auch graphisch veranschaulichen zu können, was insbesondere mathematisch weniger geschulten Mitarbeitern von Versicherungsunternehmen entgegenkommen dürfte.
2 Einführung
Graphische Methoden zur statistischen Analyse und Parameterschätzung in Lage-Skalen-Familien von Wahrscheinlichkeitsverteilungen haben eine lange Traditition, sie gehen auf sogenannte „Wahrscheinlichkeitspapiere“ (Quantil-Quantil-Plots) zurück, die etwa ab dem Beginn des 20. Jahrhunderts vor allem im ingenieurwissenschaftlichen Kontext zur Anwendung kamen (vgl. den Übersichtsartikel von Cunnane 1978). Lag der Schwerpunkt zunächst auf der Anpassung der Normalverteilung an hydrologische Beobachtungen, kamen später insbesondere Anpassungen an Extremwertverteilungen und andere Klassen von Wahrscheinlichkeitsverteilungen hinzu (Guo 1990). Eine „optimale“ Wahl der Plot-Positionen (auf der Abszisse) ist dabei eng verbunden mit der Berechnung von Erwartungswerten der geordneten Beobachtungen (sog. Ordnungsstatistiken, vgl. David und Nagaraja 2003).
Später wurden die reinen Schätzverfahren für Lage- und Skalenparameter (oft identisch mit Erwartungswert und Streuung der zugrunde liegenden Verteilung) um geeignete Testverfahren erweitert, mit denen unabhängig von diesen Parametern das Vorliegen eines bestimmten Verteilungstyps überprüft werden kann. Ein interessanter Zugang besteht hier in der Verwendung (einer geeigneten Transformation) des empirischen Korrelationskoeffizienten aus dem Quantil-Quantil-Plot als Testgröße (vgl. Lockhart und Stephens 1998).
3 Quantil-Quantil-Plots und Lage-Skalen-Familien: Schätzer
Betrachtet werden Risiken X der Form \(X=\mu +\sigma Z\) mit einem „Prototypen“ Z und stetiger, streng monotoner Verteilungsfunktion \(F_{Z}.\) Ziel ist die Schätzung der Parameter \(\mu\) und \(\sigma\) sowie die Überprüfung der Verteilungshypothese anhand von n Beobachtungen. Bezeichnet dazu \(X_{\left(k\right)}\) die k-te Ordnungsstatistik (d. h. den k-größten Wert) aus einer Reihe von unabhängigen Replikationen \(X_{1},\cdots ,X_{n}\) von X, so trägt man im Quantil-Quantil-Plot die Größen \(\left(Q_{Z}\left(u_{k}\right),X_{\left(k\right)}\right)\) mit der Quantilfunktion \(Q_{Z}=F_{Z}^{-1}\) und geeigneten \(u_{k},k=1,\cdots ,n\) ab und ermittelt mittels linearer Regression die Ausgleichsgerade mit Achsenabschnitt \(\hat{\mu }\) und Steigung \(\hat{\sigma },\) die gegeben sind durch
(vgl. Fahrmeir et al. 2016, Abschn. 3.6.2).
Die Bedeutung der Erwartungswerte der Ordnungsstatistiken für die Parameterschätzungen zeigt sich in der folgenden:
Proposition: Mit der Wahl \(u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)\) für \(k=1,\cdots ,n\) sind \(\hat{\sigma }\) und \(\hat{\mu }\) erwartungstreue Schätzer für \(\sigma\) und \(\mu .\)
Beweis: Aus der obigen Wahl folgt
wobei \(Z_{\left(k\right)}=\frac{X_{\left(k\right)}-\mu }{\sigma }\) verteilungsmäßig der k-ten Ordnungsstatistik aus einer Reihe von unabhängigen Replikationen \(Z_{1},\cdots ,Z_{n}\) von Z entspricht. Es folgt
und
was zu zeigen war.
Bemerkung: Im Falle einer reinen Skalenfamilie (d. h. \(\mu =0\)) gilt entsprechend
Auch dieser Schätzer ist erwartungstreu, wenn \(u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)\) für \(k=1,\cdots ,n\) gewählt wird.
Beispiel: Standard-Exponentialverteilung: Hier ist \(F_{Z}(x)=1-e^{-x}\) für \(x>0.\) Da die Ordnungsstatistiken unabhängige, exponentialverteilte Zuwächse besitzen, gilt
mit
Approximativ ergibt sich hieraus mit \(\sum _{j=1}^{m}\frac{1}{j}\approx \ln \left(m+1\right)+\gamma\) (γ = 0,57721… ist die Euler-Konstante) die Beziehung
bzw.
Dies entspricht der „klassischen“ Empfehlung von Weibull (1939), vgl. auch Cunnane (1978, S. 211) oder Gumbel (1958, Kapitel 1.2.7).
Die Frage, welche Güte eine Schätzung eine hohen Quantils mit diesem Ansatz hat, beispielsweise des \(1-\alpha\)-Quantils \(\mathrm{VaR}_{\alpha }(X)\) (Value at Risk) mit typischerweise kleinem \(\alpha ,\) lässt sich ebenfalls leicht beantworten. Aus der Regressionsgeraden ergibt sich nämlich unmittelbar
mit
also ebenfalls eine erwartungstreue Schätzung.
Es gibt allerdings Probleme mit der Erwartungstreue, wenn die Daten vorher (z. B. logarithmisch) transformiert werden, um eine Lage-Skalen-Familie zu erhalten. Im letzterem Fall gilt für das Risiko \(Y=\exp (X)\) nämlich \(\mathrm{VaR}_{\alpha }(Y)=\mathrm{VaR}_{\alpha }\left(e^{X}\right)=e^{{\mathrm{VaR}_{\alpha }}\left(X\right)},\) die übliche Schätzung \(\widehat{\mathrm{VaR}_{\alpha }\left(Y\right)}\colon =e^{\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}}\) besitzt aufgrund der Jensen-Ungleichung für konvexe Funktionen (vgl. etwa Czado und Schmidt 2011, Satz 1.5) aber einen Bias:
Im Kontext von Solvency II ist das jedoch eher unschädlich, wenn die Schaden- bzw. Schaden-Kosten-Quoten als lognormalverteilt angenommen werden. Die logarithmierten Schaden- bzw. Schaden-Kosten-Quoten sind dann normalverteilt, so dass hier die Bestimmung bzw. numerische Berechnung der Erwartungswerte der Ordnungsstatistiken der Standard-Normalverteilung (mit Dichte \(\varphi\) und Verteilungsfunktion \(\Upphi\)) relevant ist. Formal gilt hier (vgl. David und Nagaraja 2003, Kapitel 3.1):
Dabei ist
Sowohl \(\Upphi (x)\) als auch \(E\left(Z_{\left(k\right)}\right)\) sind nicht elementar berechenbar. Numerische Auswertungen für \(E\left(Z_{\left(k\right)}\right)\) wurden von Harter (1961) publiziert, für n = 1,···,100 und k = 1,···,n vollumfänglich und für größere n bis 400 in Auszügen. In der Literatur findet man dazu zahlreiche numerische Approximationen, z. B. (vgl. Cunnane 1978, S. 211) (siehe Tab. 1).
Aus einer selbst durchgeführten größeren Monte-Carlo-Studie ergibt sich als sehr gute Approximation für die Erwartungswerte der Ordnungsstatistiken einer Standard-Normalverteilung:
wobei
Der Fehler zwischen den exakten Werten für \(a_{n}\) und \(b_{n}\) (berechnet aus den Werten von Harter 1961) und den approximativen Werten \(\hat{a}_{n}\) und \(\hat{b}_{n}\) gemäß Gl. 16 beträgt für \(3\leq n\leq 100\) jeweils betragsmäßig maximal 0,00007. Abb. 1 und 2 zeigen die exakten Werte von \(a_{n}\) bzw. \(b_{n}\) (Punkte) gegenüber den approximativen Werten \(\hat{a}_{n}\) bzw. \(\hat{b}_{n}\) (gestrichelte Linie).
Durch Vergleich mit den Werten aus Tab. 1 ergibt sich eine sehr gute Übereinstimmung zu Blom (1958) für \(n=12\) und zu Tukey (1962) für \(n=2.\) Die übrigen Approximationsformeln weisen demgegenüber größere Abweichungen auf.
Für \(n\leq 20\) kann auch die relativ gute Approximation
verwendet werden mit einem betragsmäßig maximalen Fehler von 0,003.
4 Quantil-Quantil-Plots und Lage-Skalen-Familien: Tests
Es gibt in der Literatur eine Reihe von Vorschlägen zum Testen der Hypothese:
H0
die Verteilung des Risikos X entstammt der Lage-Skalen-Familie zu Z
(sog. einfacher Signifikanztest). Eine gute Übersicht über dieses Thema geben Lockhart und Stephens (1998). Interessant sind hier Tests auf der Basis des empirischen Korrelationskoeffizienten \(\rho _{n}\) aus dem Quantil-Quantil-Plot (Erwartungswerte der Ordnungsstatistiken gemäß Gln. 15 und 16 vs. den der Größe nach angeordneten Beobachtungswerten). Die Tatsache, dass die Verteilung des empirischen Korrelationskoeffizienten unter der Nullhypothese von den Lage- und Skalenparametern unabhängig ist, folgt aus der Invarianz der Korrelation zweier Risiken unter positiv-homogener (linearer) Transformation, vgl. Fahrmeir et al. (2016, Abschnitt 3.4.4). Ähnliche Testverfahren wurden u. a. von Shapiro und Wilk entwickelt, vgl. D’Agostino und Stephens (1986, Kapitel 5) oder Huber-Carol et al. (2002, Kapitel 7). Einen Vergleich über zahlreiche Anpassungstests auf Normalverteilung geben Seier (2002) und Yazici und Yolacan (2007).
In dieser Arbeit schlagen wir eine geringfügige Modifikation der in Lockhart und Stephens (1998) betrachteten Teststatistiken vor, nämlich \(T_{n}\colon =-\ln (1-\rho _{n}).\) Dies hat den Vorteil, dass die Verteilung von \(T_{n}\) unter der Nullhypothese einer Normalverteilung für Werte von \(n\geq 10\) recht gut selbst durch eine Normalverteilung approximiert werden kann, so dass sich die p-Werte für den Anpassungstest einfach, z. B. mit EXCEL, berechnen lassen (zu den Grundlagen von p-Werten vgl. etwa Fahrmeir et al. 2016, Abschnitt 10.2.3). Dieses Ergebnis deckt sich mit einer ähnlichen allgemeinen Aussage über die asymptotische Normalität des empirischen Korrelationskoeffizienten zwischen zwei Zufallsvariablen, vgl. etwa van der Vaart (1998, Example 3.6).
Abb. 3 und 4 zeigen die Wirkungsweise bei einer Fehlerwahrscheinlichkeit 1. Art von 5 %.
Abb. 5, 6, 7, 8, 9, 10, 11, 12, 13 und 14 zeigen die Histogramme aus jeweils 1 Mio. Simulationen der Verteilung der Teststatistik \(T_{n}\) für n = 11,···,20 mit einer Anpassung an die Normalverteilung.
Die Parameter \(\mu _{n}\) und \(\sigma _{n}\) der angepassten Normalverteilung lassen sich im Bereich n = 10,···,50 recht gut durch folgende Interpolation approximieren (siehe Tab. 2):
5 Gütebewertung
Abb. 15 und 16 zeigen im Vergleich Histogramme der Verteilung der Teststatistik für \(n=20\) bei den Hypothesen:
H0
die Verteilung des Risikos X entstammt einer Normalverteilung
gegen:
H1
die Verteilung des Risikos X entstammt einer Gumbelverteilung
bzw.:
H2
die Verteilung des Risikos X entstammt einer logistischen Verteilung.
Der Testumfang betrug jeweils 1 Mio. Simulationen.
Erwartungsgemäß ist die Trennschärfe zwischen Normal- und Gumbelverteilung höher als zwischen Normal- und Logistischer Verteilung. Aus den Simulationen lassen sich die Fehlerwahrscheinlichkeiten zweiter \((\beta )\) Art bei gegebener Fehlerwahrscheinlichkeit erster Art \((\alpha )\) (approximativ) bestimmen (siehe Tab. 3).
Die Ergebnisse gelten nach Logarithmieren der Daten analog auch für das Testen einer Lognormalverteilung gegen eine Fréchet- bzw. Loglogistische Verteilung.
Es sollte hier noch angemerkt werden, dass der oben vorgestellte Korrelationstest eine im Allgemeinen bessere Trennschärfe besitzt als der Kolmogorov-Smirnov- bzw. Lilliefors-Test (vgl. Dallal und Wilkinson 1986), wie auch schon von Durbin (1961) festgestellt wurde. Dies liegt daran, dass der Korrelationstest – bei gleichem Abstand der Verteilungen – empfindlicher auf Abweichungen in der Form der Verteilungsfunktionen reagiert. Tab. 4 und 5 zeigen zum Vergleich exemplarisch die Fehlerwahrscheinlichkeiten zweiter Art für den Lilliefors-Test mit \(n=20\) bei den Alternativen Gumbel- und Logistische Verteilung auf. Die Daten stammen aus einer selbst durchgeführten Simulationsstudie mit einem jeweiligen Umfang von 1.000.000.
Für die Gumbel-Alternative sind die Fehlerwahrscheinlichkeiten zweiter Art hier nur minimal kleiner als bei dem Korrelationstest, für die Logistische Alternative etwas höher, allerdings deutlich kleiner als beim Lilliefors-Test.
6 Fallstudie
In diesem Abschnitt werden die im vorigen Teil beschriebenen Verfahren anhand von Informationen aus der Versicherungsbranche veranschaulicht. Konkret geht es um brutto-Schaden-Kosten-Quoten der Sparten Sach gesamt, Sach privat, verbundene Gebäudeversicherung (VGV), verbundene Hausratversicherung (VHV), Unfall, Rechtsschutz, Gewerbe und allgemeine Haftpflicht. Die Daten wurden dem vom GDV herausgegebenen Statistischen Taschenbuch der Versicherungsbranche (2018) ab dem Jahr 2000 entnommen (Haftpflicht ab 2004). Es soll geprüft werden, ob die Schaden-Kosten-Quoten lognormal-, also die logarithmierten Quoten normalverteilt sind. Der jeweilige Quantil-Quantil-Plot wird deshalb mit den logarithmierten Quoten erstellt. Die Nullhypothese lautet hier: die (logarithmierten) Quoten sind normalverteilt (siehe Abb. 17, 18, 19, 20, 21, 22, 23 und 24).
Tab. 6 enthält die Testgrößen \(T_{n}\) und p-Werte für den Korrelationstest sowie zum Vergleich die Testgrößen \(d_{n}\) und \(W_{n}\) sowie p-Werte nach dem Lilliefors- bzw. Shapiro-Wilk-Test. Die p-Werte für die Teststatistiken \(d_{n}\) und \(W_{n}\) wurden durch eine eigene Monte Carlo Studie im Umfang von 1.000.000 ermittelt, vgl. auch Dallal und Wilkinson (1986).
Es zeigt sich, dass sich die p-Werte aller Verfahren deutlich unterscheiden, mit der größten Diskrepanz bei den Sparten Sach gesamt, VHV und Allgemeine Haftpflicht. Bei den Sparten Sach privat und VGV lehnen alle Tests bei einer Fehlerwahrscheinlichkeit 1. Art von 1 % die Nullhypothese ab. Bei der Sparte Sach gesamt würde die Nullhypothese bei einer Fehlerwahrscheinlichkeit 1. Art von 5 % mit dem Korrelationstest knapp abgelehnt, mit den anderen beiden Tests dagegen nicht. Bei den Sparten VHV, Unfall, Rechtsschutz, Gewerbe und Allgemeine Haftpflicht wird die Nullhypothese bei einer Fehlerwahrscheinlichkeit 1. Art von 10 % unter allen Tests nicht verworfen.
Als geschätzte Parameter für die Normal- bzw. Lognormalverteilung erhält man jeweils aus dem Achsenabschnitt den geschätzten Erwartungswert \(\hat{\mu }\) und aus der Steigung die geschätzte Streuung \(\hat{\sigma }.\)
7 Fazit
Ein Korrelationstest auf der Basis von Quantil-Quantil-Plots ist einfach durchzuführen und hat gegenüber dem Lilliefors- und anderen Anpassungstests den Vorteil, explizit näherungsweise gute p-Werte aller Größenordnungen für beliebige Stichprobenumfänge zu erhalten, mit einer guten Anpassung der Verteilung der Testgröße an eine Normalverteilung. Empirische Studien zeigen dabei eine vergleichbare Güte zu ähnlichen Testverfahren.
Quantil-Quantil-Plots bieten darüber hinaus den großen Vorteil einer graphischen Veranschaulichung der Testergebnisse, was insbesondere für mathematisch weniger geschulte Mitarbeiter von Versicherungsunternehmen interessant sein dürfte.
Change history
03 June 2020
Die Tab.��6, S.��324 ist in Bezug auf die p-Werte des Shapiro-Wilk-Tests wie folgt zu korrigieren (Werte sind in fetter Schrift dargestellt).
Es zeigt sich, dass sich die p-Werte aller Verfahren deutlich unterscheiden, mit der gr����ten Diskrepanz bei den Sparten VGV, VHV und Allgemeine Haftpflicht. ���
Literatur
Beard, L.R.: Statistical analysis in hydrology. Trans. Am. Soc. Civ. Eng. 108 1110–1160 (1943)
Benard, A., Bos-Levenbach, E.C.: The plotting of observations on probability paper (Dutch). Statistica 7, 163–173 (1953)
Blom, G: Statistical Estimates and Transformed Beta-Variables. Wiley, N.Y. (1958)
Cunnane, C.: Unbiased plotting positions—a review. J. Hydrol. Reg. Stud. 37, 205–222 (1978)
Czado, C., Schmidt, T.: Mathematische Statistik. Springer, Berlin (2011)
D’Agostino, R.B., Stephens, M.A.: Goodness-of-Fit Techniques. Marcel Dekker, New York (1986)
Dallal, G.E., Wilkinson, L.: An analytic approximation to the distribution of Lilliefors’s test statistic for normality. Am Stat 40, 294–295 (1986)
David, H.A., Nagaraja, H.N.: Order statistics, 3. Aufl. Wiley, New York (2003)
Dreher, M. (Hrsg.): Beck’sche Kurzkommentare: Prölss/Dreher: Versicherungsaufsichtsgesetz mit Nebengesetzen, 13. Aufl. C. H. Beck, München (2018)
Durbin, J.: Some methods of constructing exact tests. Biometrica 48, 41–65 (1961)
Fahrmeir, L., Heumann, Ch , Künstler, R., Pigeot, I.: Statistik. Der Weg zur Datenanalyse, 8. Aufl. Springer, Berlin (2016)
Gesamtverband der Deutschen Versicherungswirtschaft (GDV): Statistisches Taschenbuch der Versicherungswirtschaft 2018. Versicherungswirtschaft, Karlsruhe (2018)
Gringorten, I.I.: A plotting rule for extreme probability paper. Journal of Geophysical Research 68, 813–814 (1963)
Gumbel, E.J.: Statistics of extremes. Columbia University Press, New York (1958)
Guo, S.L.: A discussion on unbiased plotting positions for the general extreme value distribution. J. Hydrol. Reg. Stud. 121, 33–44 (1990)
Harter, H.L.: Expected values of normal order statistics. Biometrika 48, 151–165 (1961)
Hazen, A.: Storage to be provided in impounding reservoirs for municipal water supply. Trans. Am. Soc. Cir. Eng. 77, 1547–1550 (1914). Pap. 1308
Huber-Carol, C., Balakrishnan, N., Nikulin, M.S., Mesbah, M. (Hrsg.): Goodness-of-fit tests and model validity. Springer, New York (2002)
Lockhart, R.A., Stephens, M.A.: The probability plot: tests of fit based on the correlation coefficient. In: Balakrishnan, N., Rao, C.R. (Hrsg.) Order statistics: applications Handbook of Statistics 17. S. 453–473. Elsevier, Amsterdam (1998)
Seier, E.: Comparison of tests for univariate normality. Department of mathematics, east Tennessee state university (2002). http://interstat.statjournals.net/YEAR/2002/articles/0201001.pdf. Zugegriffen: 9.1.2020
Tukey, J.W.: The future of data analysis. Ann. Math. Statist. 33, 1–67 (1962)
van der Vaart, A.W.: Asymptotic statistics. Cambridge University Press, Cambridge (1998)
Weibull, W.: A statistical theory of strength of materials. Ing. Vet. Ak. Handl 151, (1939)
Yazici, B., Yolacan, S.: A comparison of various tests of normality. J Stat Comput Simul 77, 175–183 (2007)
Funding
Open Access funding provided by Projekt DEAL.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/licenses/by/4.0/deed.de.
About this article
Cite this article
Pfeifer, D. Modellvalidierung mit Hilfe von Quantil-Quantil-Plots unter Solvency II. ZVersWiss 108, 307–325 (2019). https://doi.org/10.1007/s12297-019-00451-y
Received:
Revised:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s12297-019-00451-y