\documentclass[8pt,a4paper,landscape]{scrartcl} \input{definitions} \input{packages} \geometry{left=10mm,right=10mm, top=10mm, bottom=10mm, paperwidth=210mm, paperheight=297mm} \fancyhf{} %Kopf-/Fu?zeilenfelder leeren \pagestyle{fancy} %Seitenstil auf fancy setzen \fancyhead[L]{SR} %im Kopf links den Titel schreiben \fancyhead[R]{\copyright \hspace{1mm}Lst Ökonometrie, Uni Regensburg, Nov 2012} \renewcommand{\headrulewidth}{0pt} %Im Kopf rechts die Seitenzahl setzen \fancypagestyle{plain}{} % damit auch "plain" Seiten fancy werden \setlength{\headheight}{14.5pt} \renewcommand{\baselinestretch}{1.25} \begin{document} \section*{Konvergenzbegriffe in der Ökonometrie} Sei $X_n, n=1,2,...$ eine Folge von Zufallsvariablen, $X$ ein Grenzwert (abhängig von der Konvergenzart). Für die im Folgenden definierten Konvergenzbegriffe gilt folgende Logik: \begin{align} \notag X_n \ARa X \hspace{2mm}\Ra\hspace{2mm} X_n \PRa X \hspace{2mm}\Ra\hspace{2mm} X_n \DRa X \end{align} \begin{tabularx}{\textwidth}{|X|p{7.5cm}|p{7.5cm}| p{7.5cm}|} \hline & \textbf{Fast sichere Konvergenz} ($\ARa$) & \textbf{Konvergenz in Wahrscheinlichkeit} ($\plimni$, $\PRa$) & \textbf{Konvergenz in Verteilung} ($\DRa$) \newline (wobei $F_{X_n}$ bzw. $F_X$ die zugehörigen Verteilungsfunktionen sind)\\ \hline \hline Definition & $\forall \epsilon>0:P(\limni|X_n-X|<\epsilon)$\newline $\hd =P\left(\lbrace\omega\in\Omega \vert \limni X_n(\omega) = X(\omega)\rbrace\right)=1$ & $\forall \epsilon >0: \hspace{5mm}\limni P\left( |X_n - X | < \epsilon\right)=1$ & $\limni F_{X_n}(x)=F_X(x)$ \newline $\LR \limni P(X_n \leq x ) = P(X\leq x)\hd \forall x \in \R$\\ \hline Bedeutung & Die Folge der Zufallsvariablen und der Grenzwert stimmen in fast allen Punkten bzw. Realisationen überein. \newline Anders formuliert: Umso größer $n$ ist, umso mehr Funktionswerte des Folgenglieds stimmen mit dem des Grenzwerts überein. & Es werden keine Realisationen (bzw. Funktionswerte) betrachtet, sondern der Limes einer Wahrscheinlichkeitsfolge von Ereignissen. & Analog zur fast sicheren Konvergenz, in der die Zufallsvariablen punktweise übereinstimmen, stimmen hier die Verteilungsfunktionen fast überall überein, obwohl es unterschiedliche Zufallsvariablen sein können.\\ \hline Eigenschaften & &Konsistenz eines Schätzers:\newline Sei nun $\hbeta_n$ ein Schätzer für $\vbeta$ der Stichprobe $1,...,n$, betrachtet als Zufallsvariable. Der Schätzer heißt \textbf{konsistent}, falls für den wahren Wert $\vbeta$ gilt, dass $\hbeta_n \PRa \vbeta$, also als Zufallsvariable in Wahrscheinlichkeit gegen den wahren Wert $\beta$ konvergiert. &\\ \hline Rechenregeln & & Falls die Grenzwerte $\plimni \vy_n=:\vy,\plimni \vz_n=:\vz$ von Zufallsvektorfolgen und $\plimni\mA_n :=\mA$ der Zufallsmatrixfolge existieren, so gelten folgende arithmetische Operationen: \newline $\plimni(\vy_n+\vz_n)=\plimni(\vy_n)+\plimni(\vz_n)$ \newline $\plimni(\vy^T_n \vz_n) = (\plimni(\vy_n))^T (\plimni(\vz_n)$ \newline $\plimni(\mA_n \vz_n) = (\plimni(\mA_n)) (\plimni(\vz_n)$ & Falls die Grenzwerte des Vektors $\va_n \DRa\va$ und der Matrx $\mA_n \DRa \mA$ in Verteilung existieren, so existiert auch der Grenzwert ihres Produkts: \newline $\mA_n\va_n \DRa \mA\va$ \\ \hline Gesetz der großen Zahlen \newline Law of Large Numbers (LLN)& Sei $X_i$ eine unabhängige voneinander und identische verteilte \newline(IID-)Folge von Zufallsvariablen mit endlichem Erwartungswert $\mu$, dann gilt für $\muh := n^{-1}\sum_{i=1}^n X_i$:\newline \textbf{Starkes Gesetz der großen Zahlen} \newline $\muh \ARa \mu$ & Sei $X_i$ eine unabhängige voneinander und identische verteilte \newline(IID-)Folge von Zufallsvariablen mit endlichem Erwartungswert $\mu$, dann gilt für $\muh := n^{-1}\sum_{i=1}^n X_i$:\newline \textbf{Schwaches Gesetz der großen Zahlen} \newline $\muh \PRa \mu \text{ bzw. } \plim(\muh)=\mu$& \\ \hline Wichtige Sätze & & \textbf{Slutsky's Theorem}\newline Sei $\plimni X_n=X$ und $g(\cdot)$ stetig an der Stelle $X$. Dann gilt: \newline $\plimni g(X_n)=g(\plimni X_n)=g(X)$ \newline (Man darf den $\plimni$ in die Funktion ziehen) & \textbf{Continuous Mapping Theorem} \newline Sei $X_n \DRa X $ und $h(\cdot)$ eine stetige Funktion von Zufallsvariablen. Dann gilt: $h(X_n)\DRa h(X)$ \newline \textbf{Cramér-Wold Device}\newline Für eine Folge von Zufallsvektoren $\vx_n$ gilt: \newline $\vx_n \DRa \vx \hd \LR \hd \vlambda^T \vx_n \DRa \vlambda^TS\vx$\\ \hline Gegenbeispiele & Beispiel für fast sicher konvergent, aber keine math. Konvergenz: \newline Sei $S$ das Einheitsintervall $\left[0,1\right]$ mit Gleichverteilung darauf. Betrachte \newline $X_n(s):=s+s^n$ und $X(s)=s$. & Beispiel für in Wahrscheinlichkeit konvergent, nicht fast sicher:\newline Sei $S$ wieder $\left[0,1\right]$ mit Gleichverteilung. Betrachte \newline $X_1(s):=s+I_{\left[0,1\right]}(s),X_2(s):=s+I_{\left[0,1/2\right]}(s),$ \newline $X_3(s):=s+I_{\left[1/2,1\right]}(s),X_4(s):=s+I_{\left[0,1/3\right]}(s),$\newline $X_5(s):=s+I_{\left[1/3,2/3\right]}(s),$... und $X(s):=s$ & Beispiel für in Verteilung konvergent, nicht in Warscheinlichkeit:\newline Betrachte die Zufallsvariablen $X_n, X$ auf $\Omega=\lbrace 0,1\rbrace$ mit \newline $P(\omega=0)=P(\omega=1)=\frac{1}{2}$:\newline $X_n:=\begin{cases} 1 , \text{wenn }\omega = 1 \\ 0, \text{wenn }\omega = 0 \end{cases}$ und $X := \begin{cases}1 , \text{wenn }\omega = 0 \\ 0, \text{wenn }\omega = 1 \end{cases}$\\ \hline \end{tabularx} \end{document}