\documentclass[8pt,a4paper]{scrartcl} \input{definitions} \input{packages} \geometry{left=10mm,right=10mm, top=10mm, bottom=10mm, paperwidth=210mm, paperheight=297mm} \fancyhf{} %Kopf-/Fu?zeilenfelder leeren \pagestyle{fancy} %Seitenstil auf fancy setzen \fancyhead[L]{SR} %im Kopf links den Titel schreiben \fancyhead[R]{\copyright \hspace{1mm}Lst Ökonometrie, Uni Regensburg, Nov 2012} \renewcommand{\headrulewidth}{0pt} %Im Kopf rechts die Seitenzahl setzen \fancypagestyle{plain}{} % damit auch "plain" Seiten fancy werden \setlength{\headheight}{14.5pt} \renewcommand{\baselinestretch}{1.25} \begin{document} \section*{Wichtigste Rechenregeln für (bedingte) Momente} Im Folgenden bezeichnen $X, Y, Z$ beliebige Zufallsvariablen (deren Erwartungswerte und Varianzen existieren) und $a, b$ Skalare (Konstanten) in $\R$. \\ \begin{tabularx}{\textwidth}{|X|p{7.2cm}|p{7.5cm}|} \hline Moment& Voraussetzung / Bezeichnung & Formel \\ \hline \hline Erwartungswert $E[X]$ & & \\ \hline & Der Erwartungswert einer Konstanten ist die Konstante selbst: & $E[a]=a$ \\ & Der Erwartungswert ist linear, d.h.: & $E[aX+bY]=aE[X]+bE[Y]$ \\ & Falls $X,Y$ stochastisch unabhängig sind, dann gilt: & $E[X\cdot Y]=E[X]\cdot E[Y]$ \\ & Für beliebige $X,Y$ gilt: : & $E[X\cdot Y]=E[X]\cdot E[Y]+ Cov(X,Y)$ \\ & \textbf{Dreiecksungleichung der Erwartungswerte:} & $E[|X+Y|]\leq E[|X|]+E[|Y|]$ \\ & \textbf{Jensen-Ungleichung}: Sei $g(\cdot)$ stetig und konvex, dann gilt: & $E[g(X)]\geq g(E[X])$ \\ & \textbf{Law of Iterated Expectations (LIE):} & $E[E[X|Y]]=E[X]$ \\ \hline Varianz $Var(X)$ & Definition Varianz: $Var(X)=E[(X-E[X])^2]$ & Definition Kovarianz: $Cov(X,Y)=E[(X-E[X])(Y-E[Y])]$\\ \hline & Die Varianz einer Konstanten ist $0$: & $Var(a)=0$ \\ & Transformationsverhalten der Varianz: & $Var(aX+b)=a^2 Var(X)$ \\ & Transformationsverhalten der Varianz für zwei Zufallsvariablen: & $Var(aX+bY)=a^2 Var(X)+b^2Var(Y)+2abCov(X,Y)$ \\ & \textbf{Verschiebungssatz:} & $Var(X)=E[X^2]-(E[X])^2$ \\ & \textbf{Verschiebungssatz der Kovarianz:} & $Cov(X,Y)=E[XY]-E[X]\cdot E[Y]$ \\ & Transformationsverhalten der Kovarianz: & $Cov(aX+bY+c,Z)=a Cov(X,Z)+b Cov(Y,Z)$ \\ \hline Bedingter EW $E[X|Y]$ & & \\ \hline & Für jede Funktion $g(\cdot)$ gilt: & $E[g(X)|X]=g(X)$ (insb. für $g \equiv \id$ gilt: $E[X|X]=X$ \\ & Transformationsverhalten des bedingten EWs: & $E[g(X)Y+h(X)|X]=g(X)\cdot E[Y|X]+h(X)$ \\ & Falls $X,Y$ stochastisch unabhängig sind, dann gilt: & $E[X|Y]=E[X]$ \\ & \textbf{Law of Iterated Expectations (LIE):} & $E[X|Z]=E[E[X|Y,Z]|Z]$ \\ & Falls $E[Y^2]<\infty$ und $E[g(X)^2]<\infty$, so gelten: & $E[(Y-E[Y|X])^2|X]\leq E[(Y-g(X))^2|X)]$ \\ & & $E[(Y-E[Y|X])^2]\leq E[(Y-g(X))^2)]$\\ \hline Bed. Var. $Var(X|Y)$ & & \\ \hline & \textbf{Verschiebungssatz der bed. Varianz:} & $Var(X|Y)=E[(X-E[X|Y])^2|Y]=E[X^2|Y]-E[X|Y]^2$ \\ & \textbf{Verschiebungssatz der bed. Kovarianz:} & $Cov(X,Y|Z)=E[XY|Z]-E[X|Z]E[Y|Z]$ \\ & Falls $X=a$, so gilt: & $Var(X|Y)=0$ \\ & \textbf{Zerlegungssatz der Varianz:} & $Var(X)=E[Var(X|Y)]+Var(E[X|Y])$ \\ & Für jede Funktion $g(\cdot)$ gilt: & $Var[g(Y)X|Y]=g(Y)^2Var(X|Y)$\\ & Für jede Funktion $g(\cdot), h(\cdot)$ gilt: & $Cov(g(Z)X,h(Z)Y|Z)=g(Z)h(Z)Cov(X,Y|Z)$ \\ & Erwartungswert und Kovarianzen: & $E[Cov(X,Y|Z)]=E[(X-E[X|Z])\cdot (Y-E[Y|Z])]$ \\ \hline \end{tabularx} \section*{Wichtigste (Fehl-) Schlüsse für (bedingte) Momente} \begin{enumerate} \item $E[Y|X] = E[Y] \Ra Cov(Y,X)= 0$\\ Da $E[Y|X=x]=f(x)=E[Y]=c$ für alle $x$ konstant $E[Y]$ ist, hat jegliche Realisation $x$ von $X$ keinen Einfluss auf $Y$ und somit ist $Y$ von $X$ unabhängig. \item $E[Y|X] = 0 \Ra E[Y]=0 \land Cov(Y,X)=0$\\ Spezialfall des ersten Schlusses, falls $f(x)\equiv 0 = E[Y]$ für alle $x$ schon die "`0"'-Kostante ist. Falls $Y$ und $X$ schon unabhängig sind, sind sie auch unkorreliert. \item $Cov(Y,X)=0 \not\Ra E[Y|X]=0$ im Allgemeinen\\ Einfaches Gegenbeispiel: Sei $Y=X^2$ und $E[X]=E[X^3]=0$. Dann gilt \begin{align*} Cov(X,Y)=Cov(X,X^2)=\underbrace{E[X^3]}_{=0} -E[X^2]\underbrace{E[X]}_{=0} = 0 \Ra Cov(X,Y)=0 \hd \text{ aber }\hd E[Y |X] = E[X^2|X] = X^2 \end{align*} Falls $Y$ und $X$ unkorreliert sind, so sind sie deshalb noch \textbf{nicht} unabhängig (insbesondere wenn quadratische, ... Einflüsse vorliegen). \item $Cov(X,Y)\neq 0 \Ra E[Y|X] \neq 0 $ im Allgemeinen\\ Begründung: bwinÓéÀÖ_bwinÓéÀÖ¹ÙÍø»¶Ó­Äú@ ist die Verneinung der zweiten Aussage (aus $A \Ra B$ folgt $\lnot B \Ra \lnot A$). \item $Cov(X,Y)= 0 \land E[Y]=0 \Ra E[Y\cdot X ]=0$\\ Einfaches Benutzen des Produkts von Zufallsvariablen im Erwartungswert liefert \begin{align*} E[Y \cdot X] = \underbrace{E[Y]}_{=0} \cdot E[X] + \underbrace{Cov(Y,X)}_{=0} = 0 \end{align*} \item $E[Y] =0 \not\Ra E[Y|X]=0$ \\ Einfaches Gegenbeispiel: \\ Sei $X=M_1+M_2$ und $Y=M_1$, wobei $M_1$ und $M_2$ die unabhängigen Würfe zweier fairer Münzen mit Auszahlungen von -1 und 1 sind, dann: \begin{align*} &E[X]= E[M_1+ M_2] = E[M_1] + E[M_2] = 0 + 0 = 0 \\ &E[X|Y] = E[M_1+ M_2 | M_1] = M_1 + E[M_2|M_1] \stackrel{\text{ind.}}{=} M_1 +E[M_2] = M_1 =\begin{cases} +1 \\ -1 \end{cases}\neq 0 \end{align*} \end{enumerate} \end{document}