Skip to main content

Zufällige Variable – der Zufall betritt den ℝ1

  • Chapter
  • First Online:
Mathematik

Zusammenfassung

In den kombinatorischen Beispielen konnten wir Wahrscheinlichkeit explizit ausrechnen. Aber das Modell des Wahrscheinlichkeitsraums \((\Omega;\mathcal{S};P)\) ist noch sehr abstrakt geblieben. Wie können wir von hier aus die Brücke zu praktischen Problemen schlagen und vor allem, wie können wir Wahrscheinlichkeiten für ganz reale, nicht triviale Probleme berechnen?

Dazu werden wir den abstrakten Raum Ω in den uns vertrauten \(\mathbb{R}^{1}\) abbilden, und zwar so, dass wir auch dort Ereignisse und Wahrscheinlichkeiten definieren können, die aber die Struktur aus \((\Omega;\mathcal{S};P)\) im Wesentlichen bewahren. Wir hatten in Kap. 36 Merkmale definiert als Abbildung der Objekte in einen Merkmalsraum, nun definieren wir Zufallsvariable als Abbildung der Ereignisse in die reellen Zahlen. Einfachstes Beispiel für Zufallsvariable sind absolute und relative Häufigkeiten, Längen, Gewichte und ähnliches. Mithilfe von Zufallsvariablen können wir Wahrscheinlichkeiten für alle Borel-Mengen definieren und so den \(\mathbb{R}^{1}\) zu einem Wahrscheinlichkeitsraum erweitern. Durch diesen Kunstgriff steht uns das ganze Werkzeug der reellen Analysis zur Verfügung. Damit gelingt es, den wichtigsten Satz der Wahrscheinlichkeitstheorie zu beweisen, das Gesetz der großen Zahlen. Mit diesem Gesetz können wir endlich anschaulich erklären, was Wahrscheinlichkeit inhaltlich bedeutet. Nun fängt die Wahrscheinlichkeitstheorie erst richtig an.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 69.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Similar content being viewed by others

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Tilo Arens .

Appendices

Zusammenfassung

In diesem Kapitel wird der grundlegende Begriff der Zufallsvariablen vorgestellt und zusammen mit ihrer Verteilungsfunktion eingeführt.

1.1 Die Abbildung \(X:\Omega\rightarrow\mathbb{R}\) heißt Zufallsvariable \(X\), wenn sie eine Verteilungsfunktion \(F_{X}(x)=\mathrm{P}(X\leq x)\) besitzt

Eine diskrete zufällige Variable \(X\) besitzt endlich oder abzählbar unendlich viele Realisationen \(x_{i}\), die mit Wahrscheinlichkeit \(p_{i}=\mathrm{P}(X=x_{i})> 0\) angenommen werden. Für diese \(x_{i}\) gilt

$$\displaystyle\sum_{i=1}^{\infty}\mathrm{P}(X=x_{i})=1.$$

Eigenschaften der Verteilungsfunktion

  • Die Verteilungsfunktion \(F:\mathbb{R}\rightarrow[0,1]\) einer Zufallsvariablen ist eine monoton wachsende, von rechts stetige Funktion von \(x\) mit

    $$\displaystyle\lim\limits_{x\rightarrow-\infty}F(x)=0\leq F(x)\leq 1=\lim\limits_{x\rightarrow\infty}F(x).$$
  • Die Wahrscheinlichkeit, dass \(X\) im Intervall \((a,b]\) liegt, ist

    $$\displaystyle\mathrm{P}(a<X\leq b)=F(b)-F(a).$$

Durch arithmetische Operationen und stückweise stetige Abbildungen lassen sich aus Zufallsvariablen neue Zufallsvariable erstellen.

1.2 Unabhängige Zufallsvariable liefern keine Informationen übereinander

Unabhängigkeit

  • \(X\) und \(Y\) heißen unabhängig, wenn für alle \(x\in\mathbb{R}\) und \(y\in\mathbb{R}\) die Ereignisse \(X\leq x\) und \(Y\leq y\) unabhängig sind. Das heißt, es muss gelten

    $$\displaystyle\mathrm{P}(X\leq x\,|\,Y\leq y)=\mathrm{P}(X\leq x)$$

    oder gleichwertig

    $$\displaystyle\mathrm{P}(X\leq x\cap Y\leq y)=\mathrm{P}(X\leq x)\cdot\mathrm{P}(Y\leq y).$$
  • Die \(n\) zufälligen Variablen \(X_{1},\ldots,X_{n}\) heißen unabhängig, wenn für alle Realisationen \(x_{i}\) von \(X_{i}\) die Ereignisse \(\{X_{1}\leq x_{1}\},\{X_{2}\leq x_{2}\},\ldots,\{X_{n}\leq x_{n}\}\) total unabhängig sind.

  • Sind die Zufallsvariablen \(X_{1},\ldots,X_{n}\) unabhängig und sind \(U=g(X_{1},\ldots,X_{k})\) sowie \(V=k(X_{k+1},\ldots,X_{n})\) ebenfalls Zufallsvariable, so sind auch \(U\) und \(V\) unabhängig.

Die Aussage: „Die Zufallsvariablen \(X_{1}\ldots,X_{n}\) sind independent and identically distributed“ wird abgekürzt mit: „Die Zufallsvariablen \(X_{1}\ldots,X_{n}\) sind i.i.d.“

Die beiden wichtigsten Parameter einer Verteilungsfunktion sind Erwartungswert und Varianz. Diese Parameter existieren für alle beschränkten Verteilungen.

1.3 Der Erwartungswert einer Zufallsvariablen ist der Schwerpunkt ihrer Verteilung

Definition des Erwartungswertes

Ist \(Y\) eine diskrete Zufallsvariable mit der Wahrscheinlichkeitsverteilung \(\mathrm{P}(Y=y_{j})\), \(j=1,2,\dots,\infty\). Dann ist der Erwartungswert \(\mathrm{E}(Y)\) von \(Y\) definiert als

$$\displaystyle\mathrm{E}(Y)=\sum_{j=1}^{\infty}y_{j}\cdot\mathrm{P}(Y=y_{j}),$$

sofern die unendliche Reihe \(\sum_{j=1}^{\infty}y_{j}\cdot\mathrm{P}(Y=y_{j})\) absolut konvergiert. Andernfalls existiert der Erwartungswert nicht.

Der Erwartungswert ist ein linearer Operator, der die Rangordnung erhält. Bei nichtlinearen Funktionen \(g(X)\) ist \(\mathrm{E}(g(X))\neq g(\mathrm{E}(X))\). Ebenso ist \(\mathrm{E}(X\cdot Y)\neq\mathrm{E}(X)\cdot\mathrm{E}(Y)\), es sei denn \(X\) und \(Y\) sind unkorreliert.

1.4 Die Varianz ist ein quadratisches Streuungsmaß

Definition der Varianz

Ist \(X\) eine Zufallsvariable mit dem Erwartungswert \(\mu\). Dann ist die Varianz von \(X\) definiert als

$$\displaystyle\mathop{\mathrm{Var}}(X)=\mathrm{E}(X-\mu)^{2}=\sigma^{2},$$

sofern der Erwartungswert \(\mathrm{E}(X-\mu)^{2}\) existiert. Andernfalls existiert die Varianz nicht.

Die wichtigsten Eigenschaften der Varianz sind der Verschiebungssatz und die Summenregel.

Für Erwartungswert und Varianz gelten drei theoretische wie praktisch wichtige Ungleichungen.

Wichtige Ungleichungen

  • Die Markov-Ungleichung für positive Zufallsvariable: Ist \(\mathrm{P}(X\geq 0)=1\), so folgt für jede Zahl \(k\geq 0\)

    $$\displaystyle\mathrm{P}(X\geq k)\leq\frac{1}{k}\mathrm{E}(X).$$
  • Die Jensen-Ungleichung: Ist \(g(x)\) eine reelle Funktion, dann ist:

    $$\begin{aligned}\displaystyle\mathrm{E}(g(X))&\displaystyle\geq g(\mathrm{E}(X)),\quad\text{falls\leavevmode\nobreak\ }g(x)\leavevmode\nobreak\ \text{\leavevmode\nobreak\ konvex ist,}\\ \displaystyle\mathrm{E}(g(X))&\displaystyle\leq g(\mathrm{E}(X)),\quad\text{falls\leavevmode\nobreak\ }g(x)\leavevmode\nobreak\ \text{\leavevmode\nobreak\ konkav ist}.\end{aligned}$$
  • Die Tschebyschev-Ungleichung

    $$\begin{aligned}\displaystyle\mathrm{P}(|X-\mu|\geq k\sigma)&\displaystyle\leq\frac{1}{k^{2}},\\ \displaystyle\mathrm{P}(|X-\mu|<k\sigma)&\displaystyle\geq 1-\frac{1}{k^{2}}.\end{aligned}$$

1.5 Das Starke Gesetz der großen Zahlen rechtfertigt die Häufigkeitsinterpretation der Wahrscheinlichkeit

Theoretische wie angewandte Statistik basieren auf zwei fundamentalen Grenzwertsätzen. Das Starke Gesetz der großen Zahlen erlaubt eine Interpretation der Wahrscheinlichkeit als Grenzwert relativer Häufigkeiten: In einer Serie unabhängiger Versuche, bei der das Ereignis \(A\) mit der Wahrscheinlichkeit \(\mathrm{P}(A)\) auftritt, konvergiert die relative Häufigkeit, mit der \(A\) in der Serie wirklich aufgetreten ist, mit Wahrscheinlichkeit 1 gegen den Grenzwert \(\mathrm{P}(A)\).

Für die objektivistische oder frequentistische Schule der Wahrscheinlichkeitstheorie ist Wahrscheinlichkeit eine vom Betrachter unabhängige Eigenschaft der Gegenstände, Versuchsanordnungen oder Experimenten. Diese Wahrscheinlichkeit lässt sich auf der Grundlage des Starken Gesetzes der großen Zahlen als relative Häufigkeit in langen Versuchsserien beliebig genau messen.

Das Starke Gesetz der großen Zahlen

Ist \((X_{n})_{\in\mathbb{N}}\) eine Folge von i.i.d.-zufälligen Variablen mit \(\mathrm{E}(X_{i})=\mu\), dann konvergiert \(\overline{X}^{(n)}\) fast sicher gegen \(\mu\).

Der Satz von Glivenko-Cantelli erlaubt es, die beobachtbare empirische Verteilungsfunktion als Schätzung der nichtbeobachtbaren theoretischen Verteilungsfunktion zu verwenden.

Der Satz von Glivenko-Cantelli

Ist \((X_{n})_{\in\mathbb{N}}\) eine Folge von i.i.d.-zufälligen Variablen, dann konvergiert die empirische Verteilungsfunktion \(\widehat{F}^{(n)}(x)\) punktweise und – im Sinne der Supremumsnorm – gleichmäßig für alle \(x\) gegen \(F_{X}(x)\).

1.6 Mehrdimensionale zufällige Variable entsprechen mehrdimensionalen Merkmalen

So wie eindimensionale Zufallsvariable eindimensionalen Merkmalen entsprechen, verallgemeinern wir das mehrdimensionale Merkmal zur mehrdimensionalen zufälligen Variablen. Diese ist durch ihre gemeinsame Verteilung ihrer Randkomponenten gekennzeichnet. Aus ihr lassen sich die Randverteilungen der einzelnen Komponenten ableiten. Randverteilungen- und Komponenten enthalten nur dann die gleiche Information, die in der gemeinsamen Verteilung enthalten ist, wenn die Komponenten unabhängig sind. Während der Erwartungswert der mehrdimensionalen Verteilung sich aus den Erwartungswerten der einzelnen Randkomponenten zusammensetzt, können Kovarianz und Kovarianzmatrix nur aus der gemeinsamen Verteilung bestimmt werden. Diese Parameter geben ersten Aufschluss über die Abhängigkeit der Komponenten.

Die gemeinsame Verteilung

Es seien \(X\) und \(Y\) zwei Zufallsvariable, die auf demselben Wahrscheinlichkeitsraum \(\Omega\) definiert sind. Die gemeinsame Wahrscheinlichkeitsverteilung der zweidimensionalen Zufallsvariablen \((X,Y)\) ist die Angabe der Wahrscheinlichkeit aller Ereignisse

$$\displaystyle\mathrm{P}(\{X=x_{i}\}\cap\{Y=y_{j}\})=\mathrm{P}(X=x_{i},Y=y_{j})=\mathrm{P}(x_{i},y_{j}).$$

Wird eine \(n\)-dimensionale Zufallsvariable \(\boldsymbol{X}=(X_{i}\), \(i=1,\ldots,n)\) als ein strukturiertes \(n\)-Tupel zusammengefasst, dann ist

$$\displaystyle\mathrm{E}(\boldsymbol{X})=\mathrm{E}(X_{i},\leavevmode\nobreak\ i=1,\ldots,n)=(\mathrm{E}(X_{i}),i=1,\ldots,n)$$

Kovarianz und Korrelation

Ist \((X,Y)\) eine zweidimensionale Zufallsvariable, mit dem Erwartungswert \(\mathrm{E}(X,Y)=(\mu_{X},\mu_{Y})\), so ist die Kovarianz \(\mathop{\mathrm{Cov}}(X,Y)\) definiert durch

$$\displaystyle\mathop{\mathrm{Cov}}(X,Y)=\mathrm{E}((X-\mu_{X})(Y-\mu_{Y}))=\sigma_{xy}.$$

Der Korrelations-Koeffizient \(\rho(X,Y)\) ist definiert durch

$$\displaystyle\rho(X,Y)=\frac{\mathop{\mathrm{Cov}}(X,Y)}{\sqrt{\mathop{\mathrm{Var}}(X)\cdot\mathop{\mathrm{Var}}(Y)}}=\frac{\sigma_{xy}}{\sigma_{x}\sigma_{y}}.$$

Sind zwei Variable \(X\) und \(Y\) unabhängig, so sind sie auch unkorreliert.

Sind \(\boldsymbol{X}\) und \(\boldsymbol{Y}\) zwei \(n\)- bzw. \(m\)-dimensionale Variable, dann ist die Kovarianzmatrix \(\mathop{\mathrm{Cov}}(\boldsymbol{X},\boldsymbol{Y})\) die Matrix der Kovarianzen der Komponenten von \(\boldsymbol{X}\) und \(\boldsymbol{Y}\):

$$\displaystyle\mathop{\mathrm{Cov}}(\boldsymbol{X},\boldsymbol{Y})_{ij}=\mathop{\mathrm{Cov}}(X_{i},Y_{j})$$

für \(i=1,\dots,n\), \(j=1,\dots,m\).

Bonusmaterial

Das Bonusmaterial enthält Beispiele für zweidimensionale Zufallsvariable, bei denen Schlüsse, die sich auf  die gemeinsame Verteilung stützen, in überraschendem Gegensatz zu denen stehen, die sich nur auf die beiden Randverteilungen stützen, sowie eine Verallgemeinerung der Tschebyschev-Ungleichung auf mehrdimensionale Zufallsvariable.

Vor allem werden die Grundbegriffe und Grundannahmen der subjektiven Wahrscheinlichkeitstheorie erläutert. Subjektive Wahrscheinlichkeiten lassen sich durch Wettsysteme ermitteln, müssen aber den Kolmogorov-Axiomen gehorchen. Durch Anwendung der Bayes-Regel wird aus Beobachtungen gelernt. Entscheidungen werden aufgrund des Bernoulli-Prinzips getroffen.

Aufgaben

Die Aufgaben gliedern sich in drei Kategorien: Anhand der Verständnisfragen können Sie prüfen, ob Sie die Begriffe und zentralen Aussagen verstanden haben, mit den Rechenaufgaben üben Sie Ihre technischen Fertigkeiten und die Anwendungsprobleme geben Ihnen Gelegenheit, das Gelernte an praktischen Fragestellungen auszuprobieren.

Ein Punktesystem unterscheidet leichte Aufgaben •, mittelschwere •• und anspruchsvolle ••• Aufgaben. Lösungshinweise am Ende des Buches helfen Ihnen, falls Sie bei einer Aufgabe partout nicht weiterkommen. Dort finden Sie auch die Lösungen – betrügen Sie sich aber nicht selbst und schlagen Sie erst nach, wenn Sie selber zu einer Lösung gekommen sind. Ausführliche Lösungswege, Beweise und Abbildungen finden Sie auf der Website zum Buch.

Viel Spaß und Erfolg bei den Aufgaben!

3.1 Verständnisfragen

38.1

• Welche der folgenden vier Aussagen sind richtig:

  1. 1.

    Kennt man die Verteilung von \(X\) und die Verteilung von \(Y\), dann kann man daraus die Verteilung von \(X+Y\) berechnen.

  2. 2.

    Kennt man die gemeinsame Verteilung von \((X,Y)\), kann man daraus die Verteilung von \(X\) berechnen.

  3. 3.

    Haben \(X\) und \(Y\) dieselbe Verteilung, dann ist \(X+Y\) verteilt wie \(2X\).

  4. 4.

    Haben zwei standardisierte Variable \(X\) und \(Y\) dieselbe Verteilung, dann ist \(X=a+bY\).

  5. 5.

    Haben zwei standardisierte Variable \(X\) und \(Y\) dieselbe Verteilung, dann ist \(X\) verteilt wie \(a+bY\).

38.2

• Welche der folgenden 8 Aussagen sind richtig:

  1. 1.

    Jede diskrete Variable, die nur endlich viele Realisationen besitzt, besitzt auch Erwartungswert und Varianz.

  2. 2.

    Eine diskrete zufällige Variable, die mit positiver Wahrscheinlichkeit beliebig groß werden kann, \(\mathrm{P}(X> n)> 0\) für alle \(n\in\mathbb{N}\), besitzt keinen Erwartungswert.

  3. 3.

    \(X\) und \(-X\) haben die gleichen Varianz.

  4. 4.

    Haben \(X\) und \(-X\) den gleichen Erwartungswert, dann ist \(\mathrm{E}(X)=0\).

  5. 5.

    Wenn \(X\) den Erwartungswert \(\mu\) besitzt, dann kann man erwarten, dass die Realisationen von \(X\) meistens in der näheren Umgebung von \(\mu\) liegen.

  6. 6.

    Bei jeder zufälligen Variablen sind stets 50% aller Realisationen größer als der Erwartungswert.

  7. 7.

    Sind \(X\) und \(Y\) zwei zufällige Variable, so ist \(\mathrm{E}(X+Y)=\mathrm{E}(X)+\mathrm{E}(Y)\).

  8. 8.

    Ist die zufällige Variable \(Y=g(X)\) eine nichtlineare Funktion der zufälligen Variablen \(X,\) dann ist \(\mathrm{E}(Y)=g(\mathrm{E}(X))\).

38.3

• Welche der folgenden Aussagen sind richtig?

  1. 1.

    Sind \(X\) und \(Y\) unabhängig, dann sind auch \(1/X\) und \(1/Y\) unabhängig.

  2. 2.

    Sind \(X\) und \(Y\) unkorreliert, dann sind auch \(1/X\) und \(1/Y\) unkorreliert.

38.4

• Zeigen Sie: Aus \(\mathrm{E}(X^{2})=(\mathrm{E}(X))^{2}\) folgt: \(X\) ist mit Wahrscheinlichkeit 1 konstant.

38.5

•• Zeigen Sie:

  1. (a)

    Ist \(X\) eine positive Zufallsvariable, so ist \(\mathrm{E}(\frac{1}{X})\geq\frac{1}{\mathrm{E}(X)}\).

  2. (b)

    Zeigen Sie an einem Beispiel, dass diese Aussage falsch ist, falls \(X\) positive und negative Werte annehmen kann.

38.6

•• Beweisen oder widerlegen Sie die Aussage: Ist \((X_{n})_{n\in\mathbb{N}}\) eine Folge von zufälligen Variablen \(X_{n}\) mit \(\lim\limits_{n\rightarrow\infty}\mathrm{P}(X_{n}> 0)=1\), dann gilt auch \(\lim\limits_{n\rightarrow\infty}\mathrm{E}(X_{n})> 0\).

38.7

•• Beweisen Sie die Markov-Ungleichung aus der Übersicht auf S. 1446.

38.8

•••  Zeigen Sie:

  1. (a)

    Aus \(X\leq Y\) folgt \(F_{X}(t)\geq F_{Y}(t)\), aber aus \(F_{X}(t)\geq F_{Y}(t)\) folgt nicht \(X\leq Y\).

  2. (b)

    Aus \(F_{X}(x)\geq F_{Y}(x)\) folgt \(\mathrm{E}(X)\leq\mathrm{E}(Y)\), falls \(\mathrm{E}(X)\) und \(\mathrm{E}(Y)\) existieren.

38.9

••• Im Beispiel auf S. 1453 sind \(R\) und \(B\) die Augenzahlen zweier unabhängig voneinander geworfener idealer Würfel und \(X=\max(R,B)\) sowie \(Y=\min(R,B)\). Weiter war \(\mathop{\mathrm{Var}}(X)=\mathop{\mathrm{Var}}(Y)=1.97\). Berechnen Sie \(\mathop{\mathrm{Cov}}(X,Y)\) aus diesen Angaben ohne die Verteilung von \((X,Y)\) explizit zu benutzen.

38.10

• Welche der folgenden Aussagen sind wahr? Begründen Sie Ihre Antwort.

  1. 1.

    Um eine Prognose über die zukünftige Realisation einer zufälligen Variablen zu machen, genügt die Kenntnis des Erwartungswerts.

  2. 2.

    Um eine Prognose über die Abweichung der zukünftigen Realisation einer zufälligen Variablen von ihrem Erwartungswert zu machen, genügt die Kenntnis der Varianz.

  3. 3.

    Eine Prognose über die Summe zufälliger i.i.d.-Variablen ist in der Regel genauer als über jede einzelne.

  4. 4.

    Das Prognoseintervall über die Summe von 100 identisch verteilten zufälligen Variablen (mit Erwartungswert \(\mu\) und Varianz \(\sigma^{2})\) ist 10-mal so lang wie das Prognoseintervall für eine einzelne Variable bei gleichem Niveau.

  5. 5.

    Wenn man hinreichend viele Beobachtungen machen kann, dann ist \(\mathrm{E}(X)\) ein gute Prognose für die nächste Beobachtung.

3.2 Rechenaufgaben

38.11

•  Bestimmen Sie die Verteilung der Augensumme \(S=X_{1}+X_{2}\)  von zwei unabhängigen idealen Würfeln \(X_{1}\) und \(X_{2}\).

38.12

•• Beim Werfen von 3 Würfeln tritt die Augensumme 11 häufiger auf als 12, obwohl doch 11 durch die sechs Kombinationen \((6,4,1)\); \((6,3,2)\); \((5,5,1)\); \((5,4,2)\); \((5,3,3)\); \((4,4,3)\) und die Augensumme 12 ebenfalls durch sechs Kombinationen, nämlich \((6,5,1)\), \((6,5,2)\), \((6,3,3)\), \((5,5,2)\), \((5,4,3)\), \((4,4,4)\) erzeugt wird.

  1. (a)

    Ist diese Beobachtung nur durch den Zufall zu erklären oder gibt es noch einen anderen Grund dafür?

  2. (b)

    Bestimmen Sie die Wahrscheinlichkeitsverteilung der Augensumme von drei unabhängigen idealen Würfeln.

38.13

•• Ein fairer Würfel wird dreimal geworfen.

  1. 1.

    Berechnen Sie die Wahrscheinlichkeitsverteilung des Medians \(X_{\text{med}}\) der drei Augenzahlen.

  2. 2.

    Ermitteln Sie die Verteilungsfunktion von \(X_{\text{med}}\).

  3. 3.

    Berechnen Sie Erwartungswert und Varianz des Medians.

38.14

••  Sei \(X\) die Augenzahl bei einem idealen \(n\)-seitigen Würfel: \({\mathrm{P}}(X=i)=\frac{1}{n}\) für \(i=1,\cdots,n.\) Berechnen Sie \(\mathrm{E}(X)\) und \(\mathop{\mathrm{Var}}(X).\)

38.15

••• Für Indikatorfunktionen \(I_{A}\) gilt:

$$\begin{aligned}\displaystyle I_{A^{\mathrm{C}}}&\displaystyle=1-I_{A}\\ \displaystyle I_{A\cap B}&\displaystyle=I_{A}I_{B}\\ \displaystyle I_{A\cup B}&\displaystyle=1-I_{A^{\mathrm{C}}}I_{B^{\mathrm{C}}}\end{aligned}$$

Ist \(A\) ein zufälliges Ereignis, so ist \(\mathrm{E}(I_{A})=\mathrm{P}(A)\). Beweisen Sie mit diesen Eigenschaften die Siebformel aus Abschn. 37.1:

$$\displaystyle{\mathrm{P}}\left(\bigcup_{i=1}^{n}A_{i}\right)=\sum_{k=1}^{n}(-1)^{k+1} \sum_{1\leq i_{1}<i_{2}\cdots<i_{k}\leq n} {\mathrm{P}}(A_{i_{1}}\cap A_{i_{2}}\cap\cdots\cap A_{i_{k}}).$$

38.16

••• Beweisen Sie die folgende Ungleichung:

$$\displaystyle\mathrm{P}(X\geq t)\leq\inf_{s> 0}(\mathrm{e}^{-st}\mathrm{E}(\mathrm{e}^{sX})).$$

Dabei läuft das Infimum über alle \(s> 0\), für die \(\mathrm{E}(\mathrm{e}^{sX})\) existiert.

38.17

•••  Zeigen Sie:

  1. (a)

    Ist für eine diskrete Zufallsvariable \(X\) die Varianz identisch null, so ist \(X\) mit Wahrscheinlichkeit 1 konstant: \({\mathrm{P}}(X=\mathrm{E}(X))=1\).

  2. (b)

    Zeigen Sie die gleiche Aussage für eine beliebige Zufallsvariable \(X\).

38.18

••• Verifizieren Sie die folgende Aussage:

$$\displaystyle\mathrm{E}(\boldsymbol{X}^{\mathrm{T}}\boldsymbol{AX})=\mathrm{E}(\,\boldsymbol{X}^{\mathrm{T}})\boldsymbol{A}\mathrm{E}(\boldsymbol{X})+\text{Spur}(\boldsymbol{A}\mathop{\mathrm{Cov}}(\boldsymbol{X}))$$

38.19

••• Ein idealer \(n\)-seitiger Würfel wird geworfen. Fällt dabei die Zahl \(n,\) so wird der Wurf unabhängig vom ersten Wurf wiederholt. Das Ergebnis des zweiten Wurfs wird dann zum Ergebnis \(n\) des ersten Wurfs addiert. Fällt beim zweiten Wurf wiederum die Zahl \(n,\) wird wie beim ersten Wurf wiederholt und addiert, usw.

Sei \(X\) die bei diesem Spiel gezielte Endsumme. Bestimmen Sie die Wahrscheinlichkeitsverteilung von \(X\) und den Erwartungswert.

38.20

••  Es seien \(X_{1}\) und \(X_{2}\) die Augensummen von zwei idealen Würfeln, die unabhängig voneinander geworfen werden. Weiter sei \(Y=X_{1}-X_{2}.\) Zeigen Sie, dass \(Y\) und \(Y^{2}\) unkorreliert sind.

38.21

•• Das zweidimensionale Merkmal \((X,Y)\) besitze die folgende Verteilung:

 

\(Y\)

 

\(1\)

\(2\)

\(3\)

\(X\)

1

0.1

0.3

0.2

 

2

0.1

0.1

0.2

  1. 1.

    Bestimmen Sie Erwartungswerte und Varianzen

    1. (a)

      von \(X\) und \(Y\),

    2. (b)

      von \(S=X+Y\) und

    3. (c)

      von \(X\cdot Y\).

  2. 2.

    Wie hoch ist die Korrelation von \(X\) und \(Y\)?

3.3 Anwendungsprobleme

38.22

•• Sie schütten einen Sack mit \(n\) idealen Würfeln aus. Die Würfel rollen zufällig über den Tisch. Keiner liegt über dem anderen. Machen Sie eine verlässliche Prognose über die Augensumme aller Würfel.

38.23

• Es seien \(X\) und \(Y\) jeweils der Gewinn aus zwei risikobehafteten Investitionen. Abbildung 38.18 zeigt die Verteilungsfunktionen \(F_{X}\) (rot) und \(F_{Y}\) (blau).

  1. (a)

    Welche der beiden Investitionen ist aussichtsreicher?

  2. (b)

    Kann man aus der Abbildung schließen, dass \(X\leq Y\) oder \(Y\leq X\) ist?

Abb. 38.18
figure 18

Die Verteilungsfunktionen \(F_{X}\) (rot) und \(F_{Y}\) (blau) des Gewinns aus zwei Investitionen \(X\) und \(Y\)

38.24

• Die Weinmenge, die von einer automatischen Abfüllanlage in eine 0.75-l-Flasche abgefüllt wird, sei aus mancherlei Gründen als eine Zufallsvariable aufzufassen, deren Erwartungswert gleich 0.72 und deren Standardabweichung gleich 0.01 beträgt.

  1. 1.

    Wie groß ist die Wahrscheinlichkeit mindestens, dass in eine Flasche zwischen 0.7 l und 0.9 l abgefüllt werden?

  2. 2.

    Wie groß ist höchstens die Wahrscheinlichkeit, dass in eine Flasche weniger als 0.7 l abgefüllt werden, wenn die Verteilung der von der Abfüllanlage abgegebenen Menge symmetrisch ist?

Antworten der Selbstfragen

Antwort 1

\(X+Y\) ist eine entartete Zufallsvariable mit \(\mathrm{P}(X+Y=8)=1\): Aus

$$\displaystyle(X+Y=8)\supseteq(X=5)\cap(Y=3)$$

folgt

$$\displaystyle\mathrm{P}(X+Y=8)\geq\mathrm{P}((X=5)\cap(Y=3))=\mathrm{1}.$$

Denn es kann gezeigt werden: Sind \(A\) und \(B\) zwei Ereignise mit \(\mathrm{P}(A)=\mathrm{P}(B)=1\), so ist \(\mathrm{P}(A\cap B)=1\).

Antwort 2

  1. (a)

    Die Abildungen \(X+X\) und \(2\cdot X\) sind identisch. Dagegen sind \(X+X\) und \(X+Y\) zwei verschiedene Abbildungen, z. B. kann \(2\cdot X\) nur gerade Werte annehmen, dies ist für \(X+Y\) nicht notwendig.

  2. (b)

    Da \(X\) und \(Y\) identisch verteilt sind, haben sie auch gleiche Erwartungswerte und Varianzen: \(\mathrm{E}(X)=\mathrm{E}(Y)=\mu\) und \(\mathop{\mathrm{Var}}(X)=\mathop{\mathrm{Var}}(Y)=\sigma^{2}\). Weiter ist \(\mathrm{E}(2\cdot X)=2\mathrm{E}(X)=2\mu=\mathrm{E}(X)+\mathrm{E}(Y)=\mathrm{E}(X+Y)\). Dagegen unterscheiden sich die Varianzen: Einerseits ist \(\mathop{\mathrm{Var}}(2\cdot X)=4\mathop{\mathrm{Var}}(X)=4\sigma^{2}\). Da \(X\) und \(Y\) unabhängig und daher erst recht unkorreliert sind, folgt andererseits \(\mathop{\mathrm{Var}}(X+Y)=\mathop{\mathrm{Var}}(X)+\mathop{\mathrm{Var}}(Y)=2\sigma^{2}\).

Antwort 3

\(\mathrm{E}(X^{\ast})=\mathrm{E}(\frac{X-\mu}{\sigma})=\frac{1}{\sigma}\mathrm{E}(X-\mu)=\frac{1}{\sigma}(\mathrm{E}(X)-\mu)=0\)

\(\mathop{\mathrm{Var}}(X^{\ast})=\mathop{\mathrm{Var}}(\frac{X-\mu}{\sigma})=\frac{1}{\sigma^{2}}\mathop{\mathrm{Var}}(X-\mu)=\frac{1}{\sigma^{2}}\mathop{\mathrm{Var}}(X) =\frac{\sigma^{2}}{\sigma^{2}}=1\).

Antwort 4

Es war \(\mathrm{E}(X)=\mu=1.5\) und \(\mathop{\mathrm{Var}}(X)=\sigma^{2}=0.75\). Dann ist \(\mathrm{E}(\overline{X}^{(48)})=\mu=1.5\) und \(\mathop{\mathrm{Var}}(\overline{X}^{(48)})=\frac{\sigma^{2}}{n}=\frac{0.75}{48}\). Die Standardabweichung ist demnach \(\sigma_{\overline{X}^{(48)}}=\sqrt{\frac{0.75}{48}}=\allowbreak 0.125\). Damit hat das \(2\sigma\)-Prognoseintervall für \(\overline{X}^{(48)}\) die Gestalt

$$\displaystyle|\overline{X}^{(48)}-1.5|\leq 2\cdot 0.125$$

oder

$$\displaystyle 1.25\leq\overline{X}^{(48)}\leq 1.75\,.$$

Beobachtet wurde \(\overline{x}^{(48)}=1.33\). Die Prognose hat sich bestätigt.

Antwort 5

\(\mathrm{E}(I_{A})=1\cdot\mathrm{P}(A)+0\cdot\mathrm{P}(A^{\mathrm{C}})=\mathrm{P}(A)\). Da \((I_{A})^{2}=I_{A}\) ist, ist \(\mathrm{E}((I_{A})^{2})=\mathrm{E}(I_{A})=\mathrm{P}(A)\). Die Varianz berechnen wir über \(\mathop{\mathrm{Var}}(I_{A})=\mathrm{E}((I_{A})^{2})-(\mathrm{E}(I_{A}))^{2}=\mathrm{P}(A)-(\mathrm{P}(A))^{2}\).

Rights and permissions

Reprints and permissions

Copyright information

© 2018 Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Arens, T., Hettlich, F., Karpfinger, C., Kockelkorn, U., Lichtenegger, K., Stachel, H. (2018). Zufällige Variable – der Zufall betritt den ℝ1. In: Mathematik. Springer Spektrum, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-56741-8_38

Download citation

  • DOI: https://doi.org/10.1007/978-3-662-56741-8_38

  • Published:

  • Publisher Name: Springer Spektrum, Berlin, Heidelberg

  • Print ISBN: 978-3-662-56740-1

  • Online ISBN: 978-3-662-56741-8

  • eBook Packages: Life Science and Basic Disciplines (German Language)

Publish with us

Policies and ethics