Introduction to Econometrics - Cheatsheet
Definition und Bedeutung der Ökonometrie
Definition:
Ökonometrie ist die Anwendung statistischer Methoden zur Analyse ökonomischer Daten.
Details:
- Verwendet zur Quantifizierung ökonomischer Theorien und Modelle
- Hilft bei der Bewertung kausaler Beziehungen
- Ziel: Vorhersage und Politikberatung
- Wichtige Werkzeuge: Regressionsanalyse, Zeitreihenanalyse und Paneldatenanalyse
- Erfordert Kenntnisse in Statistik, Mathematik und Ökonomie
- Zentrale Gleichung: Lineares Regressionsmodell: $y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \ldots + \beta_n x_n + \epsilon$
Einführung in das einfache lineare Regressionsmodell
Definition:
Analyse der Beziehung zwischen einer abhängigen und einer unabhängigen Variable.
Details:
- Modell: \( y = \beta_0 + \beta_1 x + \epsilon \)
- Schätzung mittels OLS: minimiert die Summe der quadrierten Residuen
- OLS-Schätzer: \( \hat{\beta}_1 = \frac{ \sum (x_i - \bar{x})(y_i - \bar{y}) }{ \sum (x_i - \bar{x})^2 } \)
- Interpretation: \( \beta_1 \) misst die durchschnittliche Änderung von \( y \) bei einer Einheit Änderung von \( x \)
- Residuum: \( \hat{\epsilon}_i = y_i - \hat{y}_i \)
- Bestimmtheitsmaß (R²): erklärt den Anteil der durch das Modell erklärten Varianz von \( y \)
Schätzung der Regressionsparameter
Definition:
Methode zur Bestimmung der Koeffizienten in einem Regressionsmodell, um die Beziehung zwischen abhängigen und unabhängigen Variablen zu quantifizieren.
Details:
- Lineare Regression nutzt die Methode der kleinsten Quadrate (OLS), um Regressionsparameter zu schätzen.
- Formel: \[ \beta = (X'X)^{-1} X'Y \]
- \( X \) und \( Y \) sind Matrix der unabhängigen bzw. abhängigen Variablen.
- Ergebnis: Minimierung der Summe der quadrierten Fehlerterme.
- Fehlerterm: \( e_i = Y_i - \beta_0 - \beta_1 X_1 - ... - \beta_k X_k \)
- Hauptannahmen: Linearität, Unabhängigkeit, Homoskedastizität, Normalverteilung der Fehlerterme.
Interpretation der Regressionskoeffizienten
Definition:
Positive oder negative Beziehung zwischen unabhängigen und abhängigen Variablen in einem Regressionsmodell.
Details:
- Interpretation des Koeffizienten \beta_i: Änderung der abhängigen Variable bei einer Änderung der unabhängigen Variable um eine Einheit, ceteris paribus.
- Schätzung der Regressionsgleichung: y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \beta_3 x_3 + \text{...} + \beta_k x_k + u
- \beta_0 (\text{Achsenabschnitt}): Erwartungswert von y, wenn alle x gleich Null sind.
- Einzelne Koeffizienten \beta_i quantifizieren den marginalen Effekt von x_i auf y.
- Vorzeichen (\text{positiv/negativ}) zeigt Richtung der Beziehung.
- Signifikanzprüfung: p-Wert und Konfidenzintervalle.
- Multikollinearität, Heteroskedastizität und Autokorrelation beachten.
Teststatistiken und deren Verteilungen
Definition:
Verwendung von Teststatistiken zur Prüfung von Hypothesen in der Ökonometrie, basierend auf bestimmten Wahrscheinlichkeitsverteilungen.
Details:
- Teststatistik: Kennzahl zur Überprüfung einer Nullhypothese
- Verteilungen: Normalverteilung, t-Verteilung, F-Verteilung, Chi-Quadrat-Verteilung
- t-Test: \( t = \frac{\bar{X} - \mu}{s / \sqrt{n}} \)
- F-Test: \( F = \frac{S^2_1}{S^2_2} \)
- Chi-Quadrat-Test: \( \chi^2 = \sum \frac{(O_i - E_i)^2}{E_i} \)
- p-Wert: Wahrscheinlichkeit, dass das Testergebnis unter der Nullhypothese auftritt
- Kritischer Wert: Grenzwert zur Zurückweisung der Nullhypothese
Stationarität und nicht-stationäre Prozesse
Definition:
Stationarität: statistische Eigenschaften eines Prozesses bleiben konstant über die Zeit; Nicht-stationäre Prozesse: Eigenschaften ändern sich über die Zeit
Details:
- Stationäre Prozesse: Mittelwert, Varianz und Autokovarianz konstant
- Mathematische Darstellung: \ Y_t = \mu + \varepsilon_t, mit \ \mu=E(Y_t), Var(Y_t)=\sigma^2 und Cov(Y_t,Y_{t-h})=\rho(h)\sigma^2 \forall t
- Nicht-stationäre Prozesse: Eigenschaften wie Mittelwert und Varianz ändern sich über die Zeit
- Typischer nicht-stationärer Prozess: Random Walk \ Y_t = Y_{t-1} + \varepsilon_t
- Differenzierung oft notwendig, um Stationarität zu erreichen (z.B. bei ARIMA-Modellen)
- Dicke/Saisonale Stationarität: Eigenschaften sind über bestimmte Intervalle konstant
Paneldatenanalyse
Definition:
Paneldatenanalyse untersucht Daten, die über mehrere Zeitperioden hinweg für dieselben Beobachtungseinheiten erfasst wurden.
Details:
- Vereinigt Eigenschaften von Querschnitts- und Zeitreihendaten.
- Hauptmodelle: Fixed Effects (FE) und Random Effects (RE).
- FE-Modell: Kontrolliert für zeitinvariante Heterogenität.
- RE-Modell: Geht von keiner Korrelation zwischen den individuellen Effekten und den erklärenden Variablen aus.
- Häufig verwendete Testverfahren: Hausman-Test (entscheidet zwischen FE und RE).
- Allgemeines Modell: \[ Y_{it} = \beta_0 + \beta_1X_{it} + u_i + u_t + u_{it} \]
- \( Y_{it} \) = abhängige Variable, \( X_{it} \) = unabhängige Variable, \( u_i \) = individuelle Effekte, \( u_t \) = zeitliche Effekte, \( u_{it} \) = Fehlerterm.
Instrumentenvariablen und Schätzmethoden
Definition:
Instrumentenvariablen (IV) werden verwendet, um verzerrte Schätzungen bei endogenen Regressoren zu korrigieren.
Details:
- Endogene Variablen: Korrelation zwischen Regressor und Fehlerterm.
- Instrumentenvariable: Muss relevant (korreliert mit endogener Variablen) und exogen (nicht korreliert mit Fehlerterm) sein.
- Zwei-Schritte-Schätzverfahren: 1. Regressiere endogene Variable auf Instrument, 2. Verwende vorhergesagte Werte in der Hauptregression.
- Formeln: \( Z_i \) ist das Instrument, \( X_i \) die endogene Variable, \( Y_i \) das abhängige, und \( u_i \) der Fehlerterm.
- 1. Schritt: \[ X_i = \beta_0 + \beta_1Z_i + v_i \]
- 2. Schritt: \[ Y_i = \beta_0 + \beta_1\hat{X}_i + u_i \]