Chapter 38: Problem 14
Sei \(X\) die Augenzahl bei einem idealen \(n\)-seitigen Würfel: \(\mathrm{P}(X=i)=\frac{1}{n}\) für \(i=1, \cdots, n\). Berechnen Sie \(\mathrm{E}(X)\) und \(\operatorname{Var}(X)\).
/*! This file is auto-generated */ .wp-block-button__link{color:#fff;background-color:#32373c;border-radius:9999px;box-shadow:none;text-decoration:none;padding:calc(.667em + 2px) calc(1.333em + 2px);font-size:1.125em}.wp-block-file__button{background:#32373c;color:#fff;text-decoration:none}
Learning Materials
Features
Discover
Chapter 38: Problem 14
Sei \(X\) die Augenzahl bei einem idealen \(n\)-seitigen Würfel: \(\mathrm{P}(X=i)=\frac{1}{n}\) für \(i=1, \cdots, n\). Berechnen Sie \(\mathrm{E}(X)\) und \(\operatorname{Var}(X)\).
All the tools & learning materials you need for study success - in one app.
Get started for free
Ein fairer Würfel wird dreimal geworfen. 1\. Berechnen Sie die Wahrscheinlichkeitsverteilung des Medians \(X_{\text {med }}\) der drei Augenzahlen. 2\. Ermitteln Sie die Verteilungsfunktion von \(X_{\text {med }}\). 3\. Berechnen Sie Erwartungswert und Varianz des Medians.
Welche der folgenden Aussagen sind wahr? Begründen Sie Ihre Antwort. 1\. Um eine Prognose über die zukünftige Realisation einer zufälligen Variablen zu machen, genügt die Kenntnis des Erwartungswerts. 2\. Um eine Prognose über die Abweichung der zukünftigen Realisation einer zufälligen Variablen von ihrem Erwartungswert zu machen, genügt die Kenntnis der Varianz. 3\. Eine Prognose über die Summe zufälliger i.i.d.-Variablen ist in der Regel genauer als über jede einzelne. 4\. Das Prognoseintervall über die Summe von 100 identisch verteilten zufälligen Variablen (mit Erwartungswert \(\mu\) und Varianz \(\sigma^{2}\) ) ist 10-mal so lang wie das Prognoseintervall für eine einzelne Variable bei gleichem Niveau. 5\. Wenn man hinreichend viele Beobachtungen machen \(\mathrm{kann}\), dann ist \(\mathrm{E}(X)\) ein gute Prognose für die nächste Beobachtung.
Für Indikatorfunktionen \(I_{A}\) gilt:
$$
\begin{aligned}
I_{A^{C}} &=1-I_{A} \\
I_{A \cap B} &=I_{A} I_{B} \\
I_{A \cup B} &=1-I_{A} C I_{E}^{C}
\end{aligned}
$$
Ist \(A\) ein zufälliges Ereignis, so ist
\(\mathrm{E}\left(I_{A}\right)=\mathrm{P}(A)\). Beweisen Sie mit diesen
Eigenschaften die Siebformel aus Abschn. 37.1:
$$
\mathrm{P}\left(\bigcup_{i=1}^{n} A_{i}\right)=\sum_{k=1}^{n}(-1)^{k+1}
\sum_{1 \leq i_{1}
Welche der folgenden Aussagen sind richtig? 1\. Sind \(X\) und \(Y\) unabhängig, dann sind auch \(1 / X\) und \(1 / Y\) unabhängig. 2\. Sind \(X\) und \(Y\) unkorreliert, dann sind auch \(1 / X\) und \(1 / Y\) unkorreliert.
Zeigen Sie: (a) Ist für eine diskrete Zufallsvariable \(X\) die Varianz identisch null, so ist \(X\) mit Wahrscheinlichkeit 1 konstant: \(\mathrm{P}(X=\) \(\mathrm{E}(X))=1\) (b) Zeigen Sie die gleiche Aussage für eine beliebige Zufallsvariable \(X\).
What do you think about this solution?
We value your feedback to improve our textbook solutions.