Lerninhalte finden
Features
Entdecke
© StudySmarter 2024, all rights reserved.
In einem bestimmten Markt möchtest Du den Zusammenhang zwischen dem Umsatz eines Unternehmens (Y) und den Ausgaben für Werbung (X1) sowie den Preis des Produkts (X2) untersuchen. Du verwendest das klassische lineare Regressionsmodell (KLRM) \[ Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + u \] und schätzt die Parameter mit der Methode der kleinsten Quadrate (OLS). Die Annahmen des Modells sind Linearität, Unabhängigkeit der Fehler, Homoskedastizität, keine perfekte Multikollinearität und Normalverteilung der Fehler.Du führst eine Regressionsanalyse durch und erhältst die folgenden Ergebnisse:
Interpretiere die Regressionskoeffizienten in Bezug auf den Umsatz. Was bedeuten die Werte von \( \beta_0 \), \( \beta_1 \) und \( \beta_2 \)?
Lösung:
Prüfe die Annahmen des KLRM (linearität, Unabhängigkeit der Fehler, Homoskedastizität, keine perfekte Multikollinearität, Normalverteilung der Fehler) mit den angegebenen Gütekriterien und Testergebnissen. Erkläre, ob diese Annahmen erfüllt sind oder nicht.
Lösung:
Die Annahme der Linearität besagt, dass die Beziehung zwischen der abhängigen Variable (Umsatz) und den unabhängigen Variablen (Werbeausgaben und Produktpreis) linear ist. Dies kann in der Regel durch eine grafische Untersuchung der Datenpunkte oder durch statistische Tests überprüft werden. Da keine spezifischen Informationen über eine grafische Darstellung gegeben wurden, können wir diese Annahme vorerst akzeptieren, basierend auf der Anwendung des linearen Modells und der erzielten Ergebnisse.
Die Durbin-Watson-Statistik hilft dabei zu überprüfen, ob die Fehlerterme unkorreliert sind. Der Wert kann zwischen 0 und 4 liegen, wobei ein Wert von 2 auf keine Autokorrelation hinweist. In diesem Fall beträgt die Durbin-Watson-Statistik 2.1, was nahe genug an 2 liegt und darauf hindeutet, dass die Annahme der Unabhängigkeit der Fehler erfüllt ist.
Die Annahme der Homoskedastizität besagt, dass die Varianz der Fehlerterme konstant ist. Der Breusch-Pagan-Test wird verwendet, um die Homoskedastizität zu überprüfen. Ein p-Wert größer als 0.05 deutet darauf hin, dass keine Heteroskedastizität vorliegt. Hier beträgt der p-Wert 0.35, was darauf hinweist, dass die Annahme der Homoskedastizität erfüllt ist.
Die Annahme besagt, dass die unabhängigen Variablen nicht perfekt linear voneinander abhängig sind. Obwohl keine spezifischen Multikollinearitätsstatistiken wie der Variance Inflation Factor (VIF) angegeben wurden, deutet die Bereitstellung der Regressionskoeffizienten darauf hin, dass keine perfekte Multikollinearität vorliegt. Man kann weitere Tests wie VIF durchführen, um diese Annahme sicherer zu überprüfen.
Diese Annahme besagt, dass die Fehlerterme normalverteilt sind. Dies kann durch die Betrachtung von Residuenplots oder Normalverteilungsplots überprüft werden. Die Normalverteilung der Fehler ist besonders wichtig für die Durchführung von Hypothesentests und für die Konfidenzintervalle. Da keine Informationen zu spezifischen Tests oder Diagrammen bereitgestellt wurden, nehmen wir vorläufig an, dass diese Annahme akzeptabel ist, basierend auf dem gegebenen Kontext und den erzielten Ergebnissen.
Zusammenfassend zeigen die angegebenen Testergebnisse, dass die Annahmen der Unabhängigkeit der Fehler und der Homoskedastizität erfüllt sind. Die Annahmen der Linearität, fehlender perfekter Multikollinearität und Normalverteilung der Fehler können aufgrund der gegebenen Daten ebenfalls als akzeptabel angesehen werden, sollten jedoch durch weitere Tests bestätigt werden.
Angenommen, Du bist ein Ökonom, der den Einfluss der wöchentlichen Arbeitsstunden (X) auf das wöchentliche Einkommen (Y) von Arbeitnehmern in einer bestimmten Branche untersuchen möchte. Du hast Daten von 100 Arbeitnehmern gesammelt. Mit diesen Daten möchtest Du eine einfache lineare Regression durchführen, um den Zusammenhang zwischen den Arbeitsstunden und dem Einkommen zu analysieren und die Einflussfaktoren zu quantifizieren. Dein Ziel ist es, die Regressionskoeffizienten zu schätzen, das Modell zu interpretieren und die Güte des Modells zu überprüfen.
(a) Verwende die Methode der kleinsten Quadrate (OLS), um die Regressionskoeffizienten \beta_0 und \beta_1 für das einfache lineare Regressionsmodell Y = \beta_0 + \beta_1 X + \epsilon zu schätzen. Leite die Gleichungen her, die Du verwenden musst, um die Schätzwerte der Regressionskoeffizienten zu berechnen.
Lösung:
Um die Regressionskoeffizienten \(\beta_0\) und \(\beta_1\) mithilfe der Methode der kleinsten Quadrate (Ordinary Least Squares, OLS) zu schätzen, beginnen wir mit dem einfachen linearen Regressionsmodell:
\( Y = \beta_0 + \beta_1 X + \epsilon \).
Die Methode der kleinsten Quadrate minimiert die Summe der quadrierten Fehler (Residuen) zwischen den vorhergesagten und tatsächlichen Werten. Unsere Residuen sind die Differenzen zwischen den tatsächlichen Werten \(Y_i\) und den vorhergesagten Werten \(\hat{Y_i} = \beta_0 + \beta_1 X_i\). Die Summe der quadrierten Residuen ist daher:
Um die Regressionskoeffizienten zu finden, leiten wir diese Summe nach \(\beta_0\) und \(\beta_1\) ab und setzen die Ableitungen gleich null:
Leitung der Residualsumme der Quadrate:
Dies gibt uns ein lineares Gleichungssystem, das wir lösen müssen. Setzen wir die erste Ableitung gleich null und vereinfachen:
Dies führt zur ersten Normalgleichung:
Nun leiten wir die zweite Ableitung:
Dies führt zur zweiten Normalgleichung:
Nun haben wir ein System von zwei Gleichungen:
Zur Lösung dieses Gleichungssystems liefern wir die formel für \(\beta_1\):
Wobei \(\bar{Y}\) das Mittel der \(Y_i\) und \(\bar{X}\) das Mittel der \(X_i\) ist.
Zur Lösung der formel für \(\beta_0\):
Dies sind die Schätzgleichungen für die Regressionskoeffizienten des einfachen linearen Modells. Die Koeffizienten \(\beta_0\) und \(\beta_1\) beschreiben den Achsenabschnitt und die Steigung der Regressionsgeraden, die den Zusammenhang zwischen den wöchentlichen Arbeitsstunden und dem wöchentlichen Einkommen darstellen.
(b) Nachdem Du die Schätzwerte \beta_0 und \beta_1 berechnet hast, interpretiere ihre Bedeutung im Kontext dieses Problems.
Lösung:
Nachdem Du die Schätzwerte \(\beta_0\) und \(\beta_1\) berechnet hast, besteht der nächste Schritt darin, ihre Bedeutung im Kontext dieses Problems zu interpretieren:
Zusammengefasst geben \(\beta_0\) und \(\beta_1\) wertvolle Einblicke hinsichtlich der Beziehung zwischen den wöchentlichen Arbeitsstunden und dem wöchentlichen Einkommen der Arbeitnehmer in der untersuchten Branche. Sie ermöglichen es uns zu verstehen, wie das Einkommen voraussichtlich reagiert, wenn sich die Arbeitsstunden ändern.
(c) Berechne und interpretiere das Bestimmtheitsmaß (R2) für das Regressionsmodell. Erläutere, was dieses Maß in Bezug auf die Güte des Modells aussagt.
Lösung:
Das Bestimmtheitsmaß \(R^2\) ist ein wichtiges Maß zur Bewertung der Güte eines Regressionsmodells. Es gibt an, welcher Anteil der Varianz der abhängigen Variable (\(Y\)) durch die unabhängige Variable (\(X\)) im Modell erklärt wird.
Um \(R^2\) zu berechnen, benötigen wir die folgenden Größen:
Das Bestimmtheitsmaß \(R^2\) wird dann wie folgt berechnet:
\[ R^2 = \frac{\text{SSR}}{\text{SST}} = 1 - \frac{\text{SSE}}{\text{SST}} \]
Im Kontext dieses Modells hat \(R^2\) die folgende Bedeutung:
Angenommen, Du berechnest \(R^2\) und findest einen Wert von beispielsweise 0.75. Dies bedeutet, dass 75% der Varianz des wöchentlichen Einkommens (\(Y\)) durch die Anzahl der wöchentlichen Arbeitsstunden (\(X\)) erklärt werden.
Ein hohes \(R^2\) spricht also für eine gute Anpassung des Modells an die Daten. Es zeigt, dass die unabhängige Variable (wöchentliche Arbeitsstunden) einen großen Anteil der Variation in der abhängigen Variable (wöchentliches Einkommen) erklärt. Ein niedriges \(R^2\) würde darauf hinweisen, dass das Modell nicht viel von der Varianz erklärt und möglicherweise wichtige Einflussfaktoren fehlen oder das Modell nicht linear ist.
Kontext: In einer Untersuchung zur Ermittlung der Determinanten des monatlichen Einkommens wurden Daten von 100 Personen erhoben. Erfasst wurden die unabhängigen Variablen Ausbildungsjahre (education), Berufserfahrung (experience) und geschlechtsspezifische Unterschiede (gender) sowie die abhängige Variable Einkommen (income). Du sollst ein multiples lineares Regressionsmodell schätzen, um die Beziehung zwischen Einkommen und den unabhängigen Variablen education, experience und gender zu untersuchen. Verwende dazu die Methode der kleinsten Quadrate (OLS) und berücksichtige die Voraussetzungen des Gauss-Markov-Theorems.
Formuliere das multiple lineare Regressionsmodell für diese Untersuchung in Matrixform. Definiere dabei die abhängige und die unabhängigen Variablen sowie den Fehlerterm. Schreibe die Gleichung in der Form \[y = X\beta + \boldsymbol{u}\].
Lösung:
Das multiple lineare Regressionsmodell in Matrixform lautet:
\[ y = X \boldsymbol{\beta} + \boldsymbol{u} \]Nutze die OLS-Formel \[\beta = (X'X)^{-1}X'y\] zur Schätzung der Koeffizienten. Berechne die geschätzten Koeffizienten (\(\beta\)-Schätzer), wenn die folgenden Matrizen vorliegen:
Lösung:
Berechnung der geschätzten Koeffizienten (\beta-Schätzer):Um die geschätzten Koeffizienten zu berechnen, verwenden wir die OLS-Formel:\[ \boldsymbol{\beta} = (X'X)^{-1}X'y \]Zuerst berechnen wir die Inverse der Matrix \( X'X \):Gegeben:\[ X'X = \begin{pmatrix} 100 & 150 & 200 \ 150 & 250 & 300 \ 200 & 300 & 400 \end{pmatrix} \] Um die Inverse einer 3x3-Matrix zu berechnen, benötigen wir eine Formel oder ein numerisches Verfahren. Wir verwenden hier eine vereinfachte Notation für die Berechnung. Für die Inverse einer Matrix \(A\) gilt:\[ A^{-1} = \frac{1}{{\text{det}(A)}} \text{Adj}(A) \]Die Determinante von \(X'X\) berechnen wir mit der Formel:
Erläutere die vier Voraussetzungen des Gauss-Markov-Theorems, die gelten müssen, damit der OLS-Schätzer BLUE (Best Linear Unbiased Estimator) ist. Gehe dabei auf jeden Punkt ein und beschreibe, wie jeder einzelne in der Praxis überprüft werden kann.
Lösung:
Voraussetzungen des Gauss-Markov-Theorems für den OLS-Schätzer:Damit der OLS-Schätzer als BLUE (Best Linear Unbiased Estimator) gilt, müssen die folgenden vier Voraussetzungen erfüllt sein:
Das Modell muss in der Form \( y = X\beta + u \) vorliegen, wobei \( y \) die abhängige Variable, \( X \) die Matrizen der unabhängigen Variablen, \( \beta \) der Vektor der Regressionskoeffizienten und \( u \) der Fehlerterm ist. Praxis: In der Praxis ist sicherzustellen, dass das Modell linear in den Parametern ist, auch wenn es nicht in den Variablen linear sein muss.
Der Fehlerterm \( u \) hat einen Erwartungswert von Null: \( E(u) = 0 \). Dies bedeutet, dass die Fehler im Durchschnitt nicht systematisch von Null abweichen. Praxis: Dies kann geprüft werden, indem die Residuen des Modells (d.h. die beobachteten minus die vorhergesagten Werte) untersucht werden. Wenn der Durchschnitt der Residuen nahe bei Null liegt, ist die Voraussetzung weitgehend erfüllt.
Die Varianz der Fehlerterme muss konstant sein (Homoskedastizität): \( \text{Var}(u_i) = \sigma^2 \) für alle \( i \). Dies bedeutet, dass die Streuung der Residuen nicht von den Werten der unabhängigen Variablen abhängt. Praxis: Homoskedastizität kann durch Plotten der Residuen gegen die vorhergesagten Werte überprüft werden. Ein konstantes Muster über den gesamten Bereich der unabhängigen Variablen suggeriert Homoskedastizität. Tests wie der Breusch-Pagan-Test oder der White-Test können ebenfalls verwendet werden.
Die Fehlerterme \( u_i \) und \( u_j \) dürfen für \( i e j \) nicht korreliert sein: \( \text{Cov}(u_i, u_j) = 0 \). Dies bedeutet, dass es keine systematische Beziehung zwischen den Fehlertermen gibt. Praxis: Autokorrelation kann in Zeitreihen oft auftreten. Der Durbin-Watson-Test ist ein gebräuchlicher Test zur Überprüfung auf Autokorrelation. Residuenplottungen können ebenfalls nützlich sein, um systematische Muster zu erkennen.
Stelle dir vor, dass die Residuenanalyse gezeigt hat, dass die Varianz der Fehlerterme nicht konstant ist (Heteroskedastizität vorliegt). Welches Problem tritt dabei in Bezug auf die OLS-Schätzung auf und wie kannst Du das Problem der Heteroskedastizität möglicherweise lösen? Nenne mindestens zwei Lösungsansätze und erläutere diese kurz.
Lösung:
Problem bei Heteroskedastizität in der OLS-Schätzung:Wenn Heteroskedastizität vorliegt, bedeutet dies, dass die Varianz der Fehlerterme nicht konstant ist. Dieses Problem hat mehrere Auswirkungen auf die OLS-Schätzung:
Eine Möglichkeit zur Anpassung an Heteroskedastizität besteht darin, robuste Standardfehler zu verwenden. Diese Standardfehler sind korrigiert, um die unterschiedliche Streuung der Residuen zu berücksichtigen, und liefern zuverlässigere Hypothesentests und Konfidenzintervalle. Praxis: In statistischen Softwarepaketen wie R oder Stata kann man robuste Standardfehler durch spezielle Funktionen oder Parameter anfordern (z. B. in R: `lmrob` in der `robustbase`-Paket oder in Stata: `robust`-Option).
Eine andere Methode zur Korrektur von Heteroskedastizität besteht darin, eine Transformation der abhängigen Variablen vorzunehmen (z. B. logarithmieren). Oft kann dies die Streuung der Residuen stabilisieren. Praxis: Wenn die abhängige Variable \( y \) logarithmiert wird, wird das Modell von \( y = X\beta + u \) zu \( \log(y) = X\beta + u \). Die Wahl der Transformation sollte durch eine visuelle Inspektion der Residuen und die Anwendung von Tests wie dem Box-Cox-Test unterstützt werden.
Hier werden den Beobachtungen je nach ihrer Varianz unterschiedliche Gewichte zugeordnet. Die Beobachtungen mit größerer Varianz erhalten geringere Gewichte. Praxis: In statistischen Softwarepaketen können Gewichtungsfunktionen definiert werden, die das Modell entsprechend anpassen. (z.B. in R: Funktion `lm` mit dem Argument `weights`).
Manchmal kann die Heteroskedastizität durch das Fehlen relevanter erklärender Variablen verursacht werden. Durch Hinzufügen dieser Variablen zum Modell kann das Problem möglicherweise gelöst werden.
In dieser Aufgabe wirst Du Modelle der Zeitreihenanalyse anwenden, um eine monatliche Verkaufszeitreihe vorherzusagen. Gegeben sei eine Zeitreihe von monatlichen Verkaufszahlen eines Unternehmens über einen Zeitraum von 5 Jahren. Die Daten sind stationär. Du sollst AR- und MA-Modelle sowie eine Kombination davon (ARMA) nutzen, um die zukünftigen Verkaufszahlen zu modellieren.
Schätze ein AR(2)-Modell für die gegebenen monatlichen Verkaufszahlen. Notiere die geschätzte Regressionsgleichung.
Lösung:
Um ein AR(2)-Modell (Autoregressives Modell der Ordnung 2) für die monatlichen Verkaufszahlen zu schätzen, musst Du die folgenden Schritte durchführen:
Die Daten laden und sicherstellen, dass sie stationär sind. Da die Daten in der Aufgabenstellung als stationär angegeben werden, können wir diesen Schritt überspringen.
Ein AR(2)-Modell spezifizieren, das die Verkaufszahlen als eine Funktion von deren vergangenen Werten darstellt. Die allgemeine Form eines AR(2)-Modells ist:
y_t = c + \rho_1 y_{t-1} + \rho_2 y_{t-2} + \theta_t
wobei:
Das Modell schätzen und die Regressionskoeffizienten ermitteln. Dies kann mithilfe von statistischen Softwarepaketen wie Python's statsmodels oder R erfolgen. Für Python könnte der Code wie folgt aussehen:
pythonimport pandas as pdimport statsmodels.api as smfrom statsmodels.tsa.ar_model import AutoReg# Angenommen, 'sales_data' ist ein Pandas DataFrame mit den monatlichen Verkaufszahlenmodel = AutoReg(sales_data, lags=2)model_fitted = model.fit()# Die geschätzten Regressionskoeffizientendruck(model_fitted.params)
Die geschätzte Regressionsgleichung notieren, basierend auf den herausgefundenen Parametern. Angenommen, wir haben die folgenden Parameter geschätzt:
Die geschätzte Regressionsgleichung wäre dann:
y_t = 0.5 + 0.7y_{t-1} + 0.2y_{t-2} + \theta_t
Durch diese Schritte hast Du erfolgreich ein AR(2)-Modell geschätzt und die Regressionsgleichung für die monatlichen Verkaufszahlen eines Unternehmens notiert.
Erkläre, wie Du überprüfen würdest, ob das geschätzte AR(2)-Modell stationär ist. Welche Bedingungen müssen erfüllt sein?
Lösung:
Um sicherzustellen, dass das geschätzte AR(2)-Modell stationär ist, müssen bestimmte Bedingungen erfüllt sein. Hier sind die Schritte und Kriterien:
Stelle das AR(2)-Modell auf:
\[ y_t = c + \rho_1 y_{t-1} + \rho_2 y_{t-2} + \theta_t \]
Bei einem AR(2)-Modell hängt der aktuelle Wert \( y_t \) von den beiden vorhergehenden Werten \( y_{t-1} \) und \( y_{t-2} \) ab.
Bestimme das charakteristische Polynom des Modells:
\[ 1 - \rho_1 B - \rho_2 B^2 \]
wobei \( B \) der Verzögerungsoperator ist.
Berechne die Wurzeln des charakteristischen Polynoms:
Überprüfe die Bedingungen für Stationarität:
Optional: Verwende den Augmented Dickey-Fuller (ADF) Test, um die Stationarität zu bestätigen:
pythonfrom statsmodels.tsa.stattools import adfuller# Angenommen, 'sales_data' sind die ursprünglichen Verkaufsdatenresult = adfuller(sales_data)print('ADF-Statistik:', result[0])print('p-Wert:', result[1])if result[1] < 0.05: print('Die Daten sind stationär.')else: print('Die Daten sind nicht stationär.')
Zusammenfassung der Bedingungen für die Stationarität:
Durch diese Schritte und Überprüfungen kannst Du sicherstellen, dass das geschätzte AR(2)-Modell stationär ist und somit für die Vorhersage zukünftiger Verkaufszahlen geeignet ist.
Schätze ein MA(1)-Modell für dieselbe Zeitreihe und notiere die geschätzte Regressionsgleichung.
Lösung:
Um ein Moving Average Modell der Ordnung 1 (MA(1)) für die monatlichen Verkaufszahlen zu schätzen, werden die folgenden Schritte durchgeführt:
Die Daten laden und sicherstellen, dass sie stationär sind. Da die Daten in der Aufgabenstellung als stationär angegeben werden, können wir direkt mit dem Modell fortfahren.
Ein MA(1)-Modell spezifizieren:
Das MA(1)-Modell kann wie folgt geschrieben werden:
\[ y_t = \mu + \theta_1 \epsilon_{t-1} + \epsilon_t \]
wobei:
Das MA(1)-Modell schätzen:
Verwenden Sie dazu eine statistische Software wie Python's statsmodels. Ein Beispiel für den Python-Code wäre:
pythonimport pandas as pdimport statsmodels.api as sm# Angenommen, 'sales_data' ist ein Pandas DataFrame mit den monatlichen Verkaufszahlen# Anpassung des MA(1)-Modellsmodel = sm.tsa.ARMA(sales_data, order=(0, 1))model_fitted = model.fit()# Die geschätzten Regressionskoeffizienten anzeigenprint(model_fitted.params)
Die geschätzte Regressionsgleichung notieren:
Angenommen, wir haben die folgenden Parameter geschätzt:
Die geschätzte Regressionsgleichung wäre dann:
\[ y_t = 10 + 0.5 \epsilon_{t-1} + \epsilon_t \]
Durch diese Schritte hast Du erfolgreich ein MA(1)-Modell geschätzt und die Regressionsgleichung für die monatlichen Verkaufszahlen aufgestellt.
Schätze ein ARMA(1,1)-Modell für die Verkaufszahlen und vergleiche die Güte der Anpassung (z.B. AIC-Wert) mit den zuvor geschätzten AR(2) und MA(1) Modellen.
Lösung:
Um ein ARMA(1,1)-Modell (Autoregressives Moving Average Modell der Ordnung 1 und 1) für die monatlichen Verkaufszahlen zu schätzen und mit den zuvor geschätzten AR(2) und MA(1) Modellen zu vergleichen, kannst Du die folgenden Schritte durchführen:
Die Daten laden und sicherstellen, dass sie stationär sind. Da die Daten in der Aufgabenstellung als stationär angegeben werden, können wir direkt mit dem Modell fortfahren.
Ein ARMA(1,1)-Modell spezifizieren:
Das ARMA(1,1)-Modell kann wie folgt geschrieben werden:
\[ y_t = c + \phi_1 y_{t-1} + \theta_1 \epsilon_{t-1} + \epsilon_t \]
wobei:
Das ARMA(1,1)-Modell schätzen:
Verwenden dazu eine statistische Software wie Python's statsmodels. Ein Beispiel für den Python-Code wäre:
pythonimport pandas as pdimport statsmodels.api as sm# Angenommen, 'sales_data' ist ein Pandas DataFrame mit den monatlichen Verkaufszahlen# Anpassung des ARMA(1,1)-Modellsmodel = sm.tsa.ARMA(sales_data, order=(1, 1))model_fitted = model.fit()# Die geschätzten Regressionskoeffizienten anzeigenprint(model_fitted.params)# AIC-Wert anzeigenprint('AIC:', model_fitted.aic)
Vergleiche die Güte der Anpassung (z.B. AIC-Wert) des ARMA(1,1)-Modells mit den zuvor geschätzten AR(2) und MA(1) Modellen:
Für die AR(2):
python# Anpassung des AR(2)-Modellsmodel_ar = sm.tsa.ARMA(sales_data, order=(2, 0))model_ar_fitted = model_ar.fit()# AIC-Wert anzeigenprint('AIC (AR(2)):', model_ar_fitted.aic)
Für die MA(1):
python# Anpassung des MA(1)-Modellsmodel_ma = sm.tsa.ARMA(sales_data, order=(0, 1))model_ma_fitted = model_ma.fit()# AIC-Wert anzeigenprint('AIC (MA(1)):', model_ma_fitted.aic)
Vergleiche die AIC-Werte der drei Modelle:
Ein niedrigerer AIC-Wert zeigt eine bessere Modellanpassung an. Das Modell mit dem niedrigsten AIC-Wert wird als das am besten geeignete Modell für die Vorhersage der zukünftigen Verkaufszahlen betrachtet.
Durch diese Schritte hast Du erfolgreich ein ARMA(1,1)-Modell geschätzt und die Güte der Anpassung mit den zuvor geschätzten AR(2) und MA(1) Modellen verglichen.
Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.
Kostenloses Konto erstellenDu hast bereits ein Konto? Anmelden