„Zeitreihenanalyse“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K typo, form
 
(38 dazwischenliegende Versionen von 21 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
[[Datei:Random-data-plus-trend-r2.png|mini|Beispiel für eine Zeitreihe: Linearer mit Trend mit additivem Fehlerterm]]
{{Belege}}
Die '''Zeitreihenanalyse''' befasst sich in der [[Statistik]] mit der [[Mathematische Statistik|inferenzstatistischen]] [[Analyse]] von Zeitreihen und der [[Vorhersagemodell|Vorhersage]] von [[Trend (Statistik)|Trends]] ([[Trendextrapolation]]) zu ihrer künftigen Entwicklung. Sie ist eine Spezialform der [[Regressionsanalyse]].
Eine '''Zeitreihe''' ist eine [[zeit]]abhängige [[Folge (Mathematik)|Folge]] von Datenpunkten (meist aber keine [[Reihe (Mathematik)|Reihe]] im mathematischen Sinne). Typische Beispiele für Zeitreihen sind Börsenkurse, [[Sonntagsfrage|Wahlabsichtsbefragungen]] oder [[Wetterbeobachtung]]en.


== Begriff der Zeitreihe ==
Die '''Zeitreihenanalyse''' ist die Disziplin, die sich mit der [[Mathematische Statistik|inferenzstatistischen]] Analyse von Zeitreihen und der [[Vorhersage]] ([[Trend (Statistik)|Trends]]) ihrer künftigen Entwicklung beschäftigt. Sie ist eine Spezialform der [[Regressionsanalyse]].
Eine '''Zeitreihe''' ist eine [[zeit]]lich geordnete [[Folge (Mathematik)|Folge]] (meist aber keine [[Reihe (Mathematik)|Reihe]] im mathematischen Sinne) von [[Zahl]]en oder [[Beobachtung]]en, bei der sich die Anordnung der [[Merkmalsausprägung]]en zwingend aus dem [[Zeitablauf]] ergibt (etwa [[Aktienkurs]]e, [[Börsenkurs]]e allgemein, [[Bevölkerungsentwicklung]], [[Preisindex]], [[Sonntagsfrage|Wahlabsichtsbefragungen]], [[Wetterdaten]], [[Zinsindex]]).<ref>[https://www.google.de/books/edition/Das_kleine_B%C3%B6rsen_Lexikon/PyTRDwAAQBAJ?hl=de&gbpv=1&dq=zentralbank+lexikon&pg=PA470&printsec=frontcover#spf=1626866982901 Hans E. Büschgen, ''Das kleine Börsen-Lexikon'', 2012, S. 1176]</ref>


Die einzelnen Zeitpunkte werden zu einer Menge von Beobachtungszeitpunkten <math>T</math> zusammengefasst, bei der für jeden Zeitpunkt <math>t \in T </math> genau eine Beobachtung vorliegt.<ref>[[Rainer Schlittgen]], Bernd Streitberg: ''Zeitreihenanalyse.'' Oldenbourg Verlag, 2001., ISBN 978-3-486-71096-0 (abgerufen über [[Verlag Walter de Gruyter|De Gruyter]] Online). S.&nbsp;1</ref> Zeitreihen treten in allen Bereichen der Wissenschaft auf.
== Zeitreihen: Nähere Begriffsbestimmung, Einteilung und Beispiele ==


== Zeitreihen: Nähere Begriffsbestimmung, Einteilung und Beispiele ==
Der Begriff Zeitreihe setzt voraus, dass Daten nicht kontinuierlich, sondern ''diskret'' aber in endlichen zeitlichen Abständen anfallen. Aus einem zeitkontinuierlichen Messsignal (oder der kontinuierlichen Aufzeichnung eines Messsignals, zum Beispiel mit einem analogen t-y-Schreiber oder einem analogen Magnetbandgerät) kann eine Zeitreihe durch [[Abtastung (Signalverarbeitung)|Abtastung]] gewonnen werden.
Der Begriff Zeitreihe setzt voraus, dass Daten nicht kontinuierlich, sondern ''diskret'' aber in endlichen zeitlichen Abständen anfallen. Aus einem zeitkontinuierlichen Messsignal (oder der kontinuierlichen Aufzeichnung eines Messsignals, zum Beispiel mit einem analogen t-y-Schreiber oder einem analogen Magnetbandgerät) kann eine Zeitreihe durch [[Abtastung (Signalverarbeitung)|Abtastung]] gewonnen werden.


Die Zeitpunkte, denen Datenpunkte zugeordnet werden, können ''äquidistant'', also in konstanten Abständen (beispielsweise alle 5 Sekunden), in anderer Regelmäßigkeit (beispielsweise werktäglich) oder unregelmäßig angeordnet sein. Ein Datenpunkt kann aus einer einzelnen Zahl ([[Skalar (Mathematik)|skalare]] Werte, ''[[univariat]]e'' Zeitreihe) oder aus einer Mehrzahl ([[Tupel]]) von Zahlenwerten ([[Vektor|vektorielle Werte]], ''[[multivariat]]e'' Zeitreihe) bestehen. Jedoch müssen alle Datenpunkte in gleicher Weise aus Einzelwerten aufgebaut sein. Typische Zeitreihen entstehen aus dem Zusammenwirken regelhafter und zufälliger Ursachen. Die regelhaften Ursachen können periodisch (saisonal) variieren und/oder langfristige Trends enthalten. Zufällige Einflüsse werden oft als [[Rauschen (Physik)|Rauschen]] bezeichnet.
Die Zeitpunkte, denen Datenpunkte zugeordnet werden, können ''äquidistant'', also in konstanten Abständen (beispielsweise alle 5 Sekunden), in anderer Regelmäßigkeit (beispielsweise werktäglich) oder unregelmäßig angeordnet sein. Ein Datenpunkt kann aus einer einzelnen Zahl ([[Skalar (Mathematik)|skalare]] Werte, ''[[univariat]]e'' Zeitreihe) oder aus einer Mehrzahl ([[Tupel]]) von Zahlenwerten ([[Vektor|vektorielle Werte]], ''[[multivariat]]e'' Zeitreihe) bestehen. Jedoch müssen alle Datenpunkte in gleicher Weise aus Einzelwerten aufgebaut sein. Typische Zeitreihen entstehen aus dem Zusammenwirken regelhafter und zufälliger Ursachen. Die regelhaften Ursachen können periodisch (saisonal) variieren und/oder langfristige Trends enthalten. Zufällige Einflüsse werden oft als [[Rauschen (Physik)|Rauschen]] bezeichnet.


Gegeben sei ein T-dimensionaler Vektor von Zufallsvariablen <math> x_1, x_2, \dotsc, x_T </math> mit einer zugehörigen [[Multivariate Verteilung|multivariaten Verteilung]]. Dies kann auch als eine Folge von Zufallsvariablen <math>\{x_t\}^T_{t=1}</math> oder als [[stochastischer Prozess]] aufgefasst werden. Eine Stichprobe daraus ergibt als ein mögliches Ergebnis die T reellen Zahlen <math>\left\{x^{(1)}_1, x^{(1)}_2, \dotsc, x^{(1)}_T\right\}</math>. Selbst bei unendlich langer Beobachtung wäre <math>\left\{x^{(1)}_t\right\}^{\infty}_{t=1}</math> nur eine einzige [[Realisierung (Stochastik)|Realisierung]] des stochastischen Prozesses. Solch ein Prozess hat jedoch nicht nur eine Realisierung, sondern im Allgemeinen beliebig viele mit gleichen statistischen Eigenschaften. Eine ''[[Messreihe|Zeitreihe]]'' ist als eine Realisierung des datengenerierenden Prozesses definiert.
Gegeben sei ein <math>T</math>-dimensionaler Vektor von Zufallsvariablen <math> x_1, x_2, \dotsc, x_T </math> mit einer zugehörigen [[Multivariate Verteilung|multivariaten Verteilung]]. Dies kann auch als eine Folge von Zufallsvariablen <math>\{x_t\}^T_{t=1}</math> oder als [[stochastischer Prozess]] aufgefasst werden. Eine Stichprobe daraus ergibt als ein mögliches Ergebnis die T reellen Zahlen <math>\left\{x^{(1)}_1, x^{(1)}_2, \dotsc, x^{(1)}_T\right\}</math>. Selbst bei unendlich langer Beobachtung wäre <math>\left\{x^{(1)}_t\right\}^{\infty}_{t=1}</math> nur eine einzige [[Realisierung (Stochastik)|Realisierung]] des stochastischen Prozesses. Solch ein Prozess hat jedoch nicht nur eine Realisierung, sondern im Allgemeinen beliebig viele mit gleichen statistischen Eigenschaften. Eine ''Zeitreihe'' ist als eine Realisierung des datengenerierenden Prozesses definiert.
Statt stochastische Prozesse der Dimension T anhand ihrer T-dimensionalen [[Verteilungsfunktion]] zu beschreiben, kann man ihn durch die [[Moment (Stochastik)|Momente]] erster und zweiter Ordnung erfassen, also durch
Statt stochastische Prozesse der Dimension T anhand ihrer T-dimensionalen [[Verteilungsfunktion]] zu beschreiben, kann man ihn durch die [[Moment (Stochastik)|Momente]] erster und zweiter Ordnung erfassen, also durch


:<math>T</math> [[Erwartungswert]]e: <math>\operatorname{E}[x_i],\quad i = 1,2,\dots,T,</math>
:<math>T</math> [[Erwartungswert]]e: <math>\operatorname{E}(x_i)\quad, i = 1,2,\dots,T,</math>
:<math>T</math> [[Varianz (Stochastik)|Varianzen]]:<math>\operatorname{Var}[x_i] = \operatorname{E}\left[(x_i-\operatorname{E}[x_i])^2\right],\quad i = 1,2,\dotsc,T,</math>
:<math>T</math> [[Varianz (Stochastik)|Varianzen]]:<math>\operatorname{Var}(x_i) = \operatorname{E}((x_i-\operatorname{E}(x_i))^2)\quad , i = 1,2,\dotsc,T,</math>
:<math>\frac{T(T-1)}{2}</math> [[Kovarianz (Stochastik)|Kovarianzen]]: <math>\operatorname{Cov}[x_i,x_j] = \operatorname{E}[(x_i-\operatorname{E}[x_i])(x_j-\operatorname{E}[x_j])],\quad i<j.</math>
:<math>\frac{T(T-1)}{2}</math> [[Kovarianz (Stochastik)|Kovarianzen]]: <math>\operatorname{Cov}(x_i,x_j) = \operatorname{E}( (x_i-\operatorname{E}(x_i))(x_j-\operatorname{E}(x_j))),\quad i<j.</math>


Man spricht auch von [[Autokovarianz]]en, da es sich um Kovarianzen desselben Prozesses handelt. Im Spezialfall multivariater Normalverteilung des stochastischen Prozesses gilt, dass er durch die Momente erster und zweiter Ordnung eindeutig festgelegt ist. Für die statistische [[Inferenz]] mit Zeitreihen müssen Annahmen getroffen werden, da in der Praxis meist nur eine Realisierungn des die Zeitreihe generierenden Prozesses vorliegt. Die Annahme der ''[[Ergodizität]]'' bedeutet, dass Stichprobenmomente, die aus einer endlichen Zeitreihe gewonnen werden, für <math>T\rightarrow \infty</math> quasi gegen die Momente der [[Grundgesamtheit]] konvergieren.
Man spricht auch von [[Autokovarianz]]en, da es sich um Kovarianzen desselben Prozesses handelt. Im Spezialfall der [[Mehrdimensionale Normalverteilung|mehrdimensionalen Normalverteilung]] des stochastischen Prozesses gilt, dass er durch die Momente erster und zweiter Ordnung eindeutig festgelegt ist. Für die statistische [[Inferenz]] mit Zeitreihen müssen Annahmen getroffen werden, da in der Praxis meist nur eine Realisierung des die Zeitreihe generierenden Prozesses vorliegt. Die Annahme der ''[[Ergodizität]]'' bedeutet, dass Stichprobenmomente, die aus einer endlichen Zeitreihe gewonnen werden, für <math>T\rightarrow \infty</math> quasi gegen die Momente der [[Grundgesamtheit]] konvergieren.


Zeitreihen fallen in vielen Bereichen an:
Zeitreihen fallen in vielen Bereichen an:
Zeile 30: Zeile 32:


== Zeitreihenanalyse: Überblick ==
== Zeitreihenanalyse: Überblick ==

Ziele der Zeitreihenanalyse können sein
Ziele der Zeitreihenanalyse können sein
* die kürzestmögliche Beschreibung einer historischen Zeitreihe
* die kürzestmögliche Beschreibung einer historischen Zeitreihe
Zeile 39: Zeile 40:
Die Vorgehensweise im Rahmen der Zeitreihenanalyse lässt sich in folgende Arbeitsphasen einteilen:
Die Vorgehensweise im Rahmen der Zeitreihenanalyse lässt sich in folgende Arbeitsphasen einteilen:
* Identifikationsphase: Identifikation eines geeigneten Modells für die Modellierung der Zeitreihe
* Identifikationsphase: Identifikation eines geeigneten Modells für die Modellierung der Zeitreihe
* Schätzphase: Schätzung von geeigneten [[Parameter (Statistik)|Parametern]] für das gewählte Modell
* Schätzphase: Schätzung von geeigneten Parametern für das gewählte Modell
* Diagnosephase: [[Diagnose]] und [[Evaluierung]] des geschätzten Modells
* Diagnosephase: [[Diagnose]] und [[Evaluierung]] des geschätzten Modells
* Einsatzphase: Einsatz des geschätzten und als geeignet befundenen Modells (insbesondere zu Prognosezwecken)
* Einsatzphase: Einsatz des geschätzten und als geeignet befundenen Modells (insbesondere zu Prognosezwecken)
Zeile 46: Zeile 47:


=== Identifikationsphase ===
=== Identifikationsphase ===
An erster Stelle sollte die ''graphische Darstellung'' der empirischen Zeitreihenwerte stehen. Dieses ist die einfachste und intuitivste Methode. Im Rahmen der graphischen Analyse lassen sich erste Schlüsse über das Vorliegen von Trends, Saisonalitäten, Ausreißern, Varianzinstationarität sowie sonstiger Auffälligkeiten ziehen. Stellt man einen stochastischen Trend ([[Instationarität]]) fest (entweder durch die graphische Analyse oder durch einen statistischen Test wie den [[Augmented Dickey-Fuller-Test]]), der später durch eine Transformation der Zeitreihe (Differenzieren) bereinigt werden soll, so bietet sich eine ''Varianzstabilisierung'' (beispielsweise [[Box-Cox-Transformation]]) an. Die Varianzstabilisierung ist wichtig, da nach dem Differenzieren einer Zeitreihe negative Werte in der transformierten Zeitreihe vorkommen können.
An erster Stelle sollte die ''graphische Darstellung'' der empirischen Zeitreihenwerte stehen. Dieses ist die einfachste und intuitivste Methode. Im Rahmen der graphischen Analyse lassen sich erste Schlüsse über das Vorliegen von Trends, Saisonalitäten, Ausreißern, Varianzinstationarität sowie sonstiger Auffälligkeiten ziehen. Stellt man einen stochastischen Trend ([[Instationarität]]) fest (entweder durch die graphische Analyse oder durch einen statistischen Test wie den [[Augmented Dickey-Fuller-Test|erweiterter Dickey-Fuller-Test]] ({{enS}} ''augmented Dickey-Fuller test'', kurz ''ADF test'')), der später durch eine Transformation der Zeitreihe (Differenzieren) bereinigt werden soll, so bietet sich eine ''Varianzstabilisierung'' (beispielsweise [[Box-Cox-Transformation]]) an. Die Varianzstabilisierung ist wichtig, da nach dem Differenzieren einer Zeitreihe negative Werte in der transformierten Zeitreihe vorkommen können.


Bevor weitergearbeitet werden kann, muss noch die grundsätzliche Frage geklärt werden, ob die Zeitreihe in einem deterministischen Modell ([[Trendmodell]]) oder einem stochastischen Modell abgebildet werden soll. Diese beiden Alternativen implizieren unterschiedliche Methoden der Trendbereinigung. Beim Trendmodell erfolgt die Bereinigung mittels einer Regressionsschätzung, beim stochastischen Modell mittels Differenzenbildung.
Bevor weitergearbeitet werden kann, muss noch die grundsätzliche Frage geklärt werden, ob die Zeitreihe in einem deterministischen Modell ([[Trendmodell]]) oder einem stochastischen Modell abgebildet werden soll. Diese beiden Alternativen implizieren unterschiedliche Methoden der Trendbereinigung, siehe [[Trendbereinigende Fluktuationsanalyse]]. Beim Trendmodell erfolgt die Bereinigung mittels einer Regressionsschätzung, beim stochastischen Modell mittels Differenzenbildung.


=== Schätzphase ===
=== Schätzphase ===
In der Schätzphase werden die Modellparameter und -koeffizienten mit Hilfe unterschiedlicher Techniken geschätzt. Für das Trendmodell bietet sich die [[Methode der kleinsten Quadrate|Kleinste-Quadrate-Schätzung]], für die Modelle im Rahmen des Box-Jenkins-Ansatzes die [[Momentenmethode]], die nichtlineare Kleinstquadratmethode und die [[Maximum-Likelihood-Methode]] für die Schätzung an.
In der Schätzphase werden die Modellparameter und -koeffizienten mit Hilfe unterschiedlicher Techniken geschätzt. Für das Trendmodell bietet sich die [[Methode der kleinsten Quadrate|Kleinste-Quadrate-Schätzung]], für die Modelle im Rahmen des Box-Jenkins-Ansatzes die [[Momentenmethode]], die nichtlineare Kleinste-Quadrate-Schätzung und die [[Maximum-Likelihood-Methode]] für die Schätzung an.


=== Diagnosephase ===
=== Diagnosephase ===
In der Diagnosephase werden das Modell oder ggf. mehrere ausgewählte Modelle hinsichtlich ihrer Güte beurteilt. Dabei bietet sich folgende Vorgehensweise an:
In der Diagnosephase werden die Güte des Modells oder ggf. mehrere ausgewählte Modelle beurteilt. Dabei bietet sich folgende Vorgehensweise an:


1. Schritt: Prüfen, ob die geschätzten Koeffizienten signifikant von Null verschieden sind. Bei einzelnen Koeffizienten erfolgt dies mit Hilfe eines [[T-Test|''t''-Tests]], mehrere Koeffizienten zusammen werden mit einem [[F-Test|''F''-Test]] untersucht.
1. Schritt: Prüfen, ob die geschätzten Koeffizienten signifikant von Null verschieden sind. Bei einzelnen Koeffizienten erfolgt dies mit Hilfe eines [[T-Test|''t''-Tests]], mehrere Koeffizienten zusammen werden mit einem [[F-Test|''F''-Test]] untersucht.
Zeile 60: Zeile 61:
2. Schritt: Verfährt man nach der Box-Jenkins-Methode, so ist zu prüfen, inwieweit die empirischen [[Autokorrelation]]skoeffizienten mit denen übereinstimmen, die sich theoretisch aufgrund der vorher geschätzten Koeffizienten ergeben müssten. Zusätzlich können die [[Partielle Autokorrelationsfunktion|partiellen Autokorrelationskoeffizienten]] sowie das [[Spektrum (lineare Algebra)|Spektrum]] analysiert werden.
2. Schritt: Verfährt man nach der Box-Jenkins-Methode, so ist zu prüfen, inwieweit die empirischen [[Autokorrelation]]skoeffizienten mit denen übereinstimmen, die sich theoretisch aufgrund der vorher geschätzten Koeffizienten ergeben müssten. Zusätzlich können die [[Partielle Autokorrelationsfunktion|partiellen Autokorrelationskoeffizienten]] sowie das [[Spektrum (lineare Algebra)|Spektrum]] analysiert werden.


3. Schritt: Schließlich erfolgt eine sorgfältige Analyse der Residuen. Die Residuen sollten keine Struktur mehr aufweisen. Dabei kann man die Zentriertheit der Residuen mit einem ''t''-Test kontrollieren. Die Konstanz der Varianz kann visuell am Zeitreihengraphen oder durch Berechnung des Effekts verschiedener λ-Werte in einer [[Box-Cox-Transformation]] berechnet werden. Um die Autokorrelationsfreiheit der [[Störgröße und Residuum|Residuen]] zu prüfen kann man jeden einzelnen Koeffizienten auf signifikanten Unterschied zu Null prüfen oder die ersten <math>n</math> Koeffizienten gemeinsam auf Signifikanz zu Null testen. Um Letzteres zu klären kann auf die so genannten [[Portmanteau-Test]]s zurückgegriffen werden. Hierfür bieten sich beispielsweise [[Informationskriterium|Informationskriterien]] an.
3. Schritt: Schließlich erfolgt eine sorgfältige Analyse der Residuen. Die Residuen sollten keine Struktur mehr aufweisen. Dabei kann man die Zentriertheit der Residuen mit einem ''t''-Test kontrollieren. Die Konstanz der Varianz kann visuell am Zeitreihengraphen oder durch Berechnung des Effekts verschiedener λ-Werte in einer [[Box-Cox-Transformation]] berechnet werden. Um die Autokorrelationsfreiheit der [[Störgröße und Residuum|Residuen]] zu prüfen, kann man jeden einzelnen Koeffizienten auf signifikanten Unterschied zu Null prüfen oder die ersten <math>n</math> Koeffizienten gemeinsam auf Signifikanz zu Null testen. Um Letzteres zu klären, kann auf die so genannten [[Portmanteau-Test]]s zurückgegriffen werden. Hierfür bieten sich beispielsweise [[Informationskriterium|Informationskriterien]] an.


=== Einsatzphase ===
=== Einsatzphase ===
In der Einsatzphase gilt es aus der in der Identifikationsphase aufgestellten und als brauchbar befundenen Modellgleichung eine [[Prognose]]gleichung zu formulieren. Dabei muss vorher ein [[Optimalitätskriterium]] festgelegt werden. Dafür kann der ''minimal mean squared error'' (''MMSE'') genommen werden.
In der Einsatzphase gilt es aus der in der Identifikationsphase aufgestellten und als brauchbar befundenen Modellgleichung eine [[Vorhersagemodell|Vorhersagegleichung]] zu formulieren. Dabei muss vorher ein [[Optimalitätskriterium]] festgelegt werden. Dafür kann die ''minimale [[mittlere quadratische Abweichung]]'' ({{enS}} ''minimal mean squared error'', kurz ''MMSE'') genommen werden.


== Methoden der Zeitreihenanalyse ==
== Methoden der Zeitreihenanalyse ==
[[Datei:Zeitreihenprognosen.png|miniatur|hochkant=2.0|Abbildung 1: Verfahren der Zeitreihenanalyse]]
[[Datei:Zeitreihenprognosen.png|mini|hochkant=2|Abbildung 1: Verfahren der Zeitreihenanalyse]]
Die Verlaufsmuster von Zeitreihen können in verschiedene Komponenten zerlegt werden (''Komponentenzerlegung''). So gibt es ''systematische'' oder quasi-systematische Komponenten. Dazu gehören die [[Trend (Statistik)|Trendkomponente]] als allgemeine Grundrichtung der Zeitreihe, die [[Saison]]komponente als eine [[Periodizität|zyklische]] Bewegung innerhalb eines Jahres, die Zykluskomponente (bei ökonomischen Zeitreihen auch [[Konjunktur]] genannt) mit einer Periodenlänge von mehr als einem Jahr sowie eine Kalenderkomponente, die auf [[Kalenderunregelmäßigkeiten]] zurückzuführen ist. Als weitere Komponente tritt noch eine Rest- oder ''irreguläre'' Komponente auf. Hierunter fallen [[Ausreißer]] und [[Strukturbruch|Strukturbrüche]], die durch historische Ereignisse erklärt werden können, sowie Zufallsschwankungen, deren Ursachen im Einzelnen nicht identifiziert werden können.
Die Verlaufsmuster von Zeitreihen können in verschiedene Komponenten zerlegt werden (''Komponentenzerlegung''). So gibt es ''systematische'' oder quasi-systematische Komponenten. Dazu gehören die [[Trend (Statistik)|Trendkomponente]] als allgemeine Grundrichtung der Zeitreihe, die [[Saison]]komponente als eine [[Periodizität|zyklische]] Bewegung innerhalb eines Jahres, die Zykluskomponente (bei ökonomischen Zeitreihen auch [[Konjunktur]] genannt) mit einer Periodenlänge von mehr als einem Jahr sowie eine Kalenderkomponente, die auf [[Kalenderunregelmäßigkeiten]] zurückzuführen ist. Als weitere Komponente tritt noch eine Rest- oder ''irreguläre'' Komponente auf. Hierunter fallen [[Ausreißer]] und [[Strukturbruch|Strukturbrüche]], die durch historische Ereignisse erklärt werden können, sowie Zufallsschwankungen, deren Ursachen im Einzelnen nicht identifiziert werden können.


Zeile 73: Zeile 74:
Traditionelle Ansätze betrachten Zufallsschwankungen als ''strukturneutral'' und fassen die systematischen Komponenten als deterministische Funktionen der Zeit auf,
Traditionelle Ansätze betrachten Zufallsschwankungen als ''strukturneutral'' und fassen die systematischen Komponenten als deterministische Funktionen der Zeit auf,


:<math>Y_t=\beta_0+\beta_1t+Z_t</math>
:<math>Y_t=\beta_0+\beta_1t+Z_t</math>.


In neueren Ansätzen haben Zufallschwankungen eine ''dominierende'' Rolle bei der Modellierung der systematischen Komponente. Damit wird die Zeitreihe durch einen [[Stochastischer Prozess|stochastischen Prozess]] modelliert, wie einen MA(1)-Prozess:
In neueren Ansätzen haben Zufallschwankungen eine ''dominierende'' Rolle bei der Modellierung der systematischen Komponente. Damit wird die Zeitreihe durch einen [[Stochastischer Prozess|stochastischen Prozess]] modelliert, wie einen MA(1)-Prozess:


:<math>Y_t=\theta_1Z_{t-1}+Z_t</math>
:<math>Y_t=\theta_1Z_{t-1}+Z_t</math>.


Dabei ist <math>t</math> der Zeitindex und <math>Z_t</math> eine Zufallsvariable, für die die Eigenschaft [[weißes Rauschen]] angenommen werden kann. Einen dazu konträren Ansatz der Zeitreihenmodellierung stellt die [[Chaostheorie]] (siehe dazu [[Dimensionalität]]) dar.
Dabei ist <math>t</math> der Zeitindex und <math>Z_t</math> eine Zufallsvariable, für die die Eigenschaft [[Weißes Rauschen (Physik)|weißes Rauschen]] angenommen werden kann. Einen dazu konträren Ansatz der Zeitreihenmodellierung stellt die [[Chaostheorie]] (siehe dazu [[Dimensionalität]]) dar.


In der Zeitreihenanalyse stehen einige allgemeine mathematische Instrumente zur Verfügung, wie Transformation ([[Box-Cox-Transformation]]), [[Aggregation (Statistik)|Aggregation]], [[Regressionsanalyse|Regression]], [[Digitales Filter|Filterung]] und [[Gleitender Mittelwert|gleitende Durchschnitte]]. Im Folgenden wird davon ausgegangen, dass die Zeitreihe als stochastischer Prozess modelliert werden kann. Dieser Ansatz wird auch als [[Box-Jenkins-Methode]] bezeichnet. Für stochastische Prozesse gibt es weitere spezielle Methoden und Instrumente. Hierzu zählen die:
In der Zeitreihenanalyse stehen einige allgemeine mathematische Instrumente zur Verfügung, wie Transformation ([[Box-Cox-Transformation]]), [[Aggregation (Statistik)|Aggregation]], [[Regressionsanalyse|Regression]], [[Digitales Filter|Filterung]] und [[Gleitender Mittelwert|gleitende Durchschnitte]]. Im Folgenden wird davon ausgegangen, dass die Zeitreihe als stochastischer Prozess modelliert werden kann. Dieser Ansatz wird auch als [[Box-Jenkins-Methode]] bezeichnet. Für stochastische Prozesse gibt es weitere spezielle Methoden und Instrumente. Hierzu zählen die:
Zeile 88: Zeile 89:


=== Inferenzstatistische Analyse von Zeitreihen ===
=== Inferenzstatistische Analyse von Zeitreihen ===
In der [[Inferenzstatistik]] schätzt man die Größe der untersuchten Effekte auf der Basis von [[Stichprobe]]n. Neben den schon genannten Verfahren, bei denen man inferenzstatistisch dann die Fehler der gefundenen Ergebnisse abschätzt, können komplexe Zeitreihen-[[Mathematisches Modell|Modelle]] spezifiziert und geschätzt werden. Dies wird vor allem in der Ökonometrie für die [[Wirtschaftsmodell]]e genutzt. Grundlage ist der Begriff des ''[[Stochastischer Prozess|stochastischen Prozesses]]''; hier ist insbesondere die Gruppe der [[ARMA-Modell|ARMA]]-Prozesse zu erwähnen.
In der [[Inferenzstatistik]] schätzt man die Größe der untersuchten Effekte auf der Basis von [[Stichprobe]]n. Neben den schon genannten Verfahren, bei denen man inferenzstatistisch dann die Fehler der gefundenen Ergebnisse abschätzt, können komplexe Zeitreihen-[[Mathematisches Modell|Modelle]] spezifiziert und geschätzt werden. Dies wird vor allem in der Ökonometrie für [[Ökonomisches Modell|ökonomische Modelle]] genutzt. Grundlage ist der Begriff des ''[[Stochastischer Prozess|stochastischen Prozesses]]''; hier ist insbesondere die Gruppe der [[ARMA-Modell|ARMA-Prozesse]] zu erwähnen.


=== Ordinale Zeitreihenanalyse ===
=== Ordinale Zeitreihenanalyse ===
Die ordinale Zeitreihenanalyse stellt einen relativ neuen zur qualitativen Untersuchung langer und komplexer Zeitreihen dar. Anstatt der Werte einer Zeitreihe wird die Ordnungsrelation zwischen den Werten, also das Auf und Ab, beschrieben. Dafür wird die Zeitreihe in ordinale Muster transformiert und anschließend die Verteilung dieser Muster statistisch analysiert, um so die Komplexität beziehungsweise den [[Informationsgehalt]], der zugrundeliegenden Zeitreihe zu messen. Ein bekannter Komplexitätsparameter ist die [[Permutationsentropie]], eingeführt im Jahr 2002 von Bandt und Pompe.
Die ordinale Zeitreihenanalyse stellt ein relativ neues Verfahren zur qualitativen Untersuchung langer und komplexer Zeitreihen dar. Anstatt der Werte einer Zeitreihe wird die Ordnungsrelation zwischen den Werten, also das Auf und Ab, beschrieben. Dafür wird die Zeitreihe in ordinale Muster transformiert und anschließend die Verteilung dieser Muster statistisch analysiert, um so die Komplexität beziehungsweise den [[Informationsgehalt]], der zugrundeliegenden Zeitreihe zu messen. Ein bekannter Komplexitätsparameter ist die [[Permutationsentropie]], eingeführt im Jahr 2002 von Bandt und Pompe.


=== Neuronale Netze und die Verarbeitung von Zeitreihen ===
=== Neuronale Netze und die Verarbeitung von Zeitreihen ===
Beschäftigt man sich mit [[Künstliches neuronales Netz|künstlichen neuronalen Netzwerken]], erkennt man, dass der Modellierungsprozess sehr ähnlich zum ARIMA-Modell ist. In der Regel ist nur die Terminologie verschieden. Zur Prognose einer Zeitreihe mit einem Multilayer-Perceptron legt man ein gleitendes Zeitfenster mit n Werten der Vergangenheit über die Zeitreihe. Die Trainingsaufgabe besteht darin, aus n Werten in der Input-Schicht auf den nächsten Wert zu schließen. Das Training erfolgt anhand der bekannten Werte deren Zukunft zu prognostizieren, sozusagen aus sich selbst heraus. In der Regel sind es aber äußere Einflüsse aus einem (chaotischen) [[Dynamisches System|dynamischen System]], die den Verlauf einer Zeitreihe (beobachtbare Werte des dynamischen Systems) beeinflussen. Um äußere Einflüsse in das Modell mit einzubeziehen, können zusätzliche Neuronen in die Inputschicht des Multilayer-Perceptrons eingegeben werden. Diese müssen ebenfalls in Form einer Zeitreihe vorliegen.
Beschäftigt man sich mit [[Künstliches neuronales Netz|künstlichen neuronalen Netzwerken]], erkennt man, dass der Modellierungsprozess sehr ähnlich zum [[ARIMA-Modell]] ist. In der Regel ist nur die Terminologie verschieden. Zur Prognose einer Zeitreihe mit einem Multilayer-Perceptron legt man ein gleitendes Zeitfenster mit n Werten der Vergangenheit über die Zeitreihe. Die Trainingsaufgabe besteht darin, aus n Werten in der Input-Schicht auf den nächsten Wert zu schließen. Das Training erfolgt anhand der bekannten Werte deren Zukunft zu prognostizieren, sozusagen aus sich selbst heraus. In der Regel sind es aber äußere Einflüsse aus einem (chaotischen) [[Dynamisches System|dynamischen System]], die den Verlauf einer Zeitreihe (beobachtbare Werte des dynamischen Systems) beeinflussen. Um äußere Einflüsse in das Modell mit einzubeziehen, können zusätzliche Neuronen in die Inputschicht des Multilayer-Perceptrons eingegeben werden. Diese müssen ebenfalls in Form einer Zeitreihe vorliegen<ref>[http://www.iadisportal.org/digital-library/applied-machine-learning-predicting-behaviour-of-industrial-units-from-climate-data Dieter Meiller, Christian Schieder: '' Applied Machine learning: Predicting behaviour of industrial units from climate data''] In: Abraham A. P., Roth, J. & Peng, G. C. (Hrsg.): Multi Conference on Computer Science and Information Systems 2018, IADIS Press, S. 66–72, ISBN 978-989-8533-80-7</ref>.

== Siehe auch ==
* [[Zeitreihe der Niederschlagssummen in Deutschland seit 1881]]


== Literatur ==
== Literatur ==
* Walter Assenmacher: ''Einführung in die Ökonometrie.'' 6. Auflage. Oldenbourg, München 2002, ISBN 3-486-25429-4.
* Walter Assenmacher: ''Einführung in die Ökonometrie.'' 6. Auflage. Oldenbourg, München 2002, ISBN 3-486-25429-4.
<!-- keine allgemeine Literaturquelle, bestenfalls als EN
* Christoph Bandt & Bernd Pompe. (2002). ''Permutation Entropy: A Natural Complexity Measure for Time Series''. In: ''Physical Review Letters''. 88. 174102. {{DOI|10.1103/PhysRevLett.88.174102}}
* Christoph Bandt & Bernd Pompe. (2002). ''Permutation Entropy: A Natural Complexity Measure for Time Series''. In: ''Physical Review Letters''. 88. 174102. [[doi:10.1103/PhysRevLett.88.174102]]
-->
* Walter Enders: ''Applied Economic Time Series''. Wiley, Hoboken 2003, ISBN 0-471-23065-0.
* Walter Enders: ''Applied Economic Time Series''. Wiley, Hoboken 2003, ISBN 0-471-23065-0.
* James D. Hamilton: ''Time Series Analysis''. Princeton University Press, Princeton, 1994, ISBN 0-691-04289-6.
* [[James D. Hamilton]]: ''Time Series Analysis''. Princeton University Press, Princeton, 1994, ISBN 0-691-04289-6.
* [[Helmut Lütkepohl]]: ''New Introduction to Multiple Time Series Analysis''. Springer-Verlag, Berlin, 2005, ISBN 978-3-540-40172-8.
* [[Helmut Lütkepohl]]: ''New Introduction to Multiple Time Series Analysis''. Springer-Verlag, Berlin, 2005, ISBN 978-3-540-40172-8.
* {{Literatur |Herausgeber=[[P. Heinz Müller|P. H. Müller]] |Titel=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage= 5 |ISBN=978-3-05-500608-1 |Fundstelle=''Zeitreihenanalyse'', S. 505–506}}
* Klaus Neusser: ''Zeitreihenanalyse in den Wirtschaftswissenschaften.'' 3. Auflage. Vieweg+Teubner, Wiesbaden 2011, ISBN 3-834-81846-1.
* Klaus Neusser: ''Zeitreihenanalyse in den Wirtschaftswissenschaften.'' 3. Auflage. Vieweg+Teubner, Wiesbaden 2011, ISBN 3-8348-1846-1.
* Horst Rinne, Katja Specht: ''Zeitreihen. Statistische Modellierung, Schätzung und Prognose''. Vahlen, München 2002, ISBN 3-800-62877-5.
* Horst Rinne, Katja Specht: ''Zeitreihen. Statistische Modellierung, Schätzung und Prognose''. Vahlen, München 2002, ISBN 3-8006-2877-5.
* [[Rainer Schlittgen]], Bernd Streitberg: ''Zeitreihenanalyse''. 9. Auflage. Oldenbourg, München 2001, ISBN 3-486-25725-0.
* [[Rainer Schlittgen]], Bernd Streitberg: ''Zeitreihenanalyse''. 9. Auflage. Oldenbourg, München 2001, ISBN 3-486-25725-0.
* Elmar Steurer: ''Prognose von 15 Zeitreihen der DGOR mit Neuronalen Netzen''. In: ''Operations-Research-Spektrum''. 18(2), S. 117–125. {{DOI|10.1007/BF01539737}}
* Elmar Steurer: ''Prognose von 15 Zeitreihen der DGOR mit Neuronalen Netzen''. In: ''Operations-Research-Spektrum''. 18(2), S. 117–125. [[doi:10.1007/BF01539737]]
* Helmut Thome: ''Zeitreihenanalyse. Eine Einführung für Sozialwissenschaftler und Historiker''. Oldenbourg, München 2005, ISBN 3-486-57871-5.
* Helmut Thome: ''Zeitreihenanalyse. Eine Einführung für Sozialwissenschaftler und Historiker''. Oldenbourg, München 2005, ISBN 3-486-57871-5.
* Ruey S. Tsay: ''Analysis of Financial Time Series''. Wiley, Hoboken 2005, ISBN 0-471-69074-0.
* Ruey S. Tsay: ''Analysis of Financial Time Series''. Wiley, Hoboken 2005, ISBN 0-471-69074-0.


== Software zur Durchführung von Zeitreihenanalysen ==
== Software zur Durchführung von Zeitreihenanalysen ==
Eine Zeitreihenanalyse kann unter anderem mit den freien Softwarepaketen [[GNU R]], [[gretl]], [[OpenNN]] und [[RapidMiner]] durchgeführt werden. Zu proprietären Lösungen gehören die Softwarepakete [[BOARD (Software)|BOARD]], [[Dataplore]], [[EViews]], [[Limdep]], [[Regression Analysis of Time Series|RATS]], [[SPSS]], [[Stata]], [[Statistical Analysis System|SAS]] sowie WinRATS.
Eine Zeitreihenanalyse kann unter anderem mit den freien Softwarepaketen [[R (Programmiersprache)|R]], [[gretl]], [[OpenNN]] und [[RapidMiner]] durchgeführt werden. Zu proprietären Lösungen gehören die Softwarepakete [[BOARD (Software)|BOARD]], [[Dataplore]], [[EViews]], [[Limdep]], [[Regression Analysis of Time Series|RATS]], [[SPSS]], [[Stata]], [[Statistical Analysis System|SAS]] sowie WinRATS.


== Weblinks ==
== Weblinks ==
* [http://statistik.mathematik.uni-wuerzburg.de/timeseries/ Open-Source Buch „A First Course on Time Series Analysis with SAS“ der Universität Würzburg]
* [https://www.mathematik.uni-wuerzburg.de/statistics/forschung/time-series/ Open-Source Buch „A First Course on Time Series Analysis with SAS“ der Universität Würzburg]

* [http://www.itl.nist.gov/div898/handbook/pmc/section4/pmc4.htm Kapitel über Zeitreihenanalyse aus dem Engineering Statistics Handbook]
== Einzelnachweise ==
<references />

{{Normdaten|TYP=s|GND=4067486-1}}


[[Kategorie:Zeitreihenanalyse| ]]
[[Kategorie:Zeitreihenanalyse| ]]
[[Kategorie:Data-Mining]]
[[Kategorie:Data-Mining]]
[[Kategorie:Regressionsanalyse]]
[[Kategorie:Maschinelles Lernen]]

Aktuelle Version vom 2. September 2024, 15:26 Uhr

Beispiel für eine Zeitreihe: Linearer mit Trend mit additivem Fehlerterm

Die Zeitreihenanalyse befasst sich in der Statistik mit der inferenzstatistischen Analyse von Zeitreihen und der Vorhersage von Trends (Trendextrapolation) zu ihrer künftigen Entwicklung. Sie ist eine Spezialform der Regressionsanalyse.

Begriff der Zeitreihe

[Bearbeiten | Quelltext bearbeiten]

Eine Zeitreihe ist eine zeitlich geordnete Folge (meist aber keine Reihe im mathematischen Sinne) von Zahlen oder Beobachtungen, bei der sich die Anordnung der Merkmalsausprägungen zwingend aus dem Zeitablauf ergibt (etwa Aktienkurse, Börsenkurse allgemein, Bevölkerungsentwicklung, Preisindex, Wahlabsichtsbefragungen, Wetterdaten, Zinsindex).[1]

Die einzelnen Zeitpunkte werden zu einer Menge von Beobachtungszeitpunkten zusammengefasst, bei der für jeden Zeitpunkt genau eine Beobachtung vorliegt.[2] Zeitreihen treten in allen Bereichen der Wissenschaft auf.

Zeitreihen: Nähere Begriffsbestimmung, Einteilung und Beispiele

[Bearbeiten | Quelltext bearbeiten]

Der Begriff Zeitreihe setzt voraus, dass Daten nicht kontinuierlich, sondern diskret aber in endlichen zeitlichen Abständen anfallen. Aus einem zeitkontinuierlichen Messsignal (oder der kontinuierlichen Aufzeichnung eines Messsignals, zum Beispiel mit einem analogen t-y-Schreiber oder einem analogen Magnetbandgerät) kann eine Zeitreihe durch Abtastung gewonnen werden.

Die Zeitpunkte, denen Datenpunkte zugeordnet werden, können äquidistant, also in konstanten Abständen (beispielsweise alle 5 Sekunden), in anderer Regelmäßigkeit (beispielsweise werktäglich) oder unregelmäßig angeordnet sein. Ein Datenpunkt kann aus einer einzelnen Zahl (skalare Werte, univariate Zeitreihe) oder aus einer Mehrzahl (Tupel) von Zahlenwerten (vektorielle Werte, multivariate Zeitreihe) bestehen. Jedoch müssen alle Datenpunkte in gleicher Weise aus Einzelwerten aufgebaut sein. Typische Zeitreihen entstehen aus dem Zusammenwirken regelhafter und zufälliger Ursachen. Die regelhaften Ursachen können periodisch (saisonal) variieren und/oder langfristige Trends enthalten. Zufällige Einflüsse werden oft als Rauschen bezeichnet.

Gegeben sei ein -dimensionaler Vektor von Zufallsvariablen mit einer zugehörigen multivariaten Verteilung. Dies kann auch als eine Folge von Zufallsvariablen oder als stochastischer Prozess aufgefasst werden. Eine Stichprobe daraus ergibt als ein mögliches Ergebnis die T reellen Zahlen . Selbst bei unendlich langer Beobachtung wäre nur eine einzige Realisierung des stochastischen Prozesses. Solch ein Prozess hat jedoch nicht nur eine Realisierung, sondern im Allgemeinen beliebig viele mit gleichen statistischen Eigenschaften. Eine Zeitreihe ist als eine Realisierung des datengenerierenden Prozesses definiert. Statt stochastische Prozesse der Dimension T anhand ihrer T-dimensionalen Verteilungsfunktion zu beschreiben, kann man ihn durch die Momente erster und zweiter Ordnung erfassen, also durch

Erwartungswerte:
Varianzen:
Kovarianzen:

Man spricht auch von Autokovarianzen, da es sich um Kovarianzen desselben Prozesses handelt. Im Spezialfall der mehrdimensionalen Normalverteilung des stochastischen Prozesses gilt, dass er durch die Momente erster und zweiter Ordnung eindeutig festgelegt ist. Für die statistische Inferenz mit Zeitreihen müssen Annahmen getroffen werden, da in der Praxis meist nur eine Realisierung des die Zeitreihe generierenden Prozesses vorliegt. Die Annahme der Ergodizität bedeutet, dass Stichprobenmomente, die aus einer endlichen Zeitreihe gewonnen werden, für quasi gegen die Momente der Grundgesamtheit konvergieren.

Zeitreihen fallen in vielen Bereichen an:

Eine besonders komplexe (aber auch reichhaltige) Datensituation liegt vor, wenn man zeitabhängige Mikrodaten besitzt, also Personen- oder Haushaltsdaten für verschiedene Zeitpunkte. Hier spricht man allerdings nicht mehr von Zeitreihendaten, sondern von Trend-, Panel- oder Ereignisdaten, je nach ihrer Zeitstruktur.

Zeitreihenanalyse: Überblick

[Bearbeiten | Quelltext bearbeiten]

Ziele der Zeitreihenanalyse können sein

  • die kürzestmögliche Beschreibung einer historischen Zeitreihe
  • die Vorhersage von künftigen Zeitreihenwerten (Prognose) auf der Basis der Kenntnis ihrer bisherigen Werte (Wettervorhersage)
  • die Erkennung von Veränderungen in Zeitreihen (EEG oder EKG-Monitoring in der Medizin bei chirurgischen Eingriffen, Veränderung der globalen Vegetationsphänologie durch anthropogene Klimaänderungen)
  • die Eliminierung von seriellen oder saisonalen Abhängigkeiten oder Trends in Zeitreihen (Saisonbereinigung), um einfache Parameter wie Mittelwerte verlässlich zu schätzen

Die Vorgehensweise im Rahmen der Zeitreihenanalyse lässt sich in folgende Arbeitsphasen einteilen:

  • Identifikationsphase: Identifikation eines geeigneten Modells für die Modellierung der Zeitreihe
  • Schätzphase: Schätzung von geeigneten Parametern für das gewählte Modell
  • Diagnosephase: Diagnose und Evaluierung des geschätzten Modells
  • Einsatzphase: Einsatz des geschätzten und als geeignet befundenen Modells (insbesondere zu Prognosezwecken)

In den einzelnen Phasen ergeben sich Unterschiede, je nachdem ob man lineare Modelle zur Zeitreihenanalyse (Box-Jenkins-Methode, Komponentenmodell) oder nichtlineare Modelle zu Grunde legt. Im Folgenden wird beispielhaft auf die Box-Jenkins-Methode eingegangen.

Identifikationsphase

[Bearbeiten | Quelltext bearbeiten]

An erster Stelle sollte die graphische Darstellung der empirischen Zeitreihenwerte stehen. Dieses ist die einfachste und intuitivste Methode. Im Rahmen der graphischen Analyse lassen sich erste Schlüsse über das Vorliegen von Trends, Saisonalitäten, Ausreißern, Varianzinstationarität sowie sonstiger Auffälligkeiten ziehen. Stellt man einen stochastischen Trend (Instationarität) fest (entweder durch die graphische Analyse oder durch einen statistischen Test wie den erweiterter Dickey-Fuller-Test (englisch augmented Dickey-Fuller test, kurz ADF test)), der später durch eine Transformation der Zeitreihe (Differenzieren) bereinigt werden soll, so bietet sich eine Varianzstabilisierung (beispielsweise Box-Cox-Transformation) an. Die Varianzstabilisierung ist wichtig, da nach dem Differenzieren einer Zeitreihe negative Werte in der transformierten Zeitreihe vorkommen können.

Bevor weitergearbeitet werden kann, muss noch die grundsätzliche Frage geklärt werden, ob die Zeitreihe in einem deterministischen Modell (Trendmodell) oder einem stochastischen Modell abgebildet werden soll. Diese beiden Alternativen implizieren unterschiedliche Methoden der Trendbereinigung, siehe Trendbereinigende Fluktuationsanalyse. Beim Trendmodell erfolgt die Bereinigung mittels einer Regressionsschätzung, beim stochastischen Modell mittels Differenzenbildung.

In der Schätzphase werden die Modellparameter und -koeffizienten mit Hilfe unterschiedlicher Techniken geschätzt. Für das Trendmodell bietet sich die Kleinste-Quadrate-Schätzung, für die Modelle im Rahmen des Box-Jenkins-Ansatzes die Momentenmethode, die nichtlineare Kleinste-Quadrate-Schätzung und die Maximum-Likelihood-Methode für die Schätzung an.

In der Diagnosephase werden die Güte des Modells oder ggf. mehrere ausgewählte Modelle beurteilt. Dabei bietet sich folgende Vorgehensweise an:

1. Schritt: Prüfen, ob die geschätzten Koeffizienten signifikant von Null verschieden sind. Bei einzelnen Koeffizienten erfolgt dies mit Hilfe eines t-Tests, mehrere Koeffizienten zusammen werden mit einem F-Test untersucht.

2. Schritt: Verfährt man nach der Box-Jenkins-Methode, so ist zu prüfen, inwieweit die empirischen Autokorrelationskoeffizienten mit denen übereinstimmen, die sich theoretisch aufgrund der vorher geschätzten Koeffizienten ergeben müssten. Zusätzlich können die partiellen Autokorrelationskoeffizienten sowie das Spektrum analysiert werden.

3. Schritt: Schließlich erfolgt eine sorgfältige Analyse der Residuen. Die Residuen sollten keine Struktur mehr aufweisen. Dabei kann man die Zentriertheit der Residuen mit einem t-Test kontrollieren. Die Konstanz der Varianz kann visuell am Zeitreihengraphen oder durch Berechnung des Effekts verschiedener λ-Werte in einer Box-Cox-Transformation berechnet werden. Um die Autokorrelationsfreiheit der Residuen zu prüfen, kann man jeden einzelnen Koeffizienten auf signifikanten Unterschied zu Null prüfen oder die ersten Koeffizienten gemeinsam auf Signifikanz zu Null testen. Um Letzteres zu klären, kann auf die so genannten Portmanteau-Tests zurückgegriffen werden. Hierfür bieten sich beispielsweise Informationskriterien an.

In der Einsatzphase gilt es aus der in der Identifikationsphase aufgestellten und als brauchbar befundenen Modellgleichung eine Vorhersagegleichung zu formulieren. Dabei muss vorher ein Optimalitätskriterium festgelegt werden. Dafür kann die minimale mittlere quadratische Abweichung (englisch minimal mean squared error, kurz MMSE) genommen werden.

Methoden der Zeitreihenanalyse

[Bearbeiten | Quelltext bearbeiten]
Abbildung 1: Verfahren der Zeitreihenanalyse

Die Verlaufsmuster von Zeitreihen können in verschiedene Komponenten zerlegt werden (Komponentenzerlegung). So gibt es systematische oder quasi-systematische Komponenten. Dazu gehören die Trendkomponente als allgemeine Grundrichtung der Zeitreihe, die Saisonkomponente als eine zyklische Bewegung innerhalb eines Jahres, die Zykluskomponente (bei ökonomischen Zeitreihen auch Konjunktur genannt) mit einer Periodenlänge von mehr als einem Jahr sowie eine Kalenderkomponente, die auf Kalenderunregelmäßigkeiten zurückzuführen ist. Als weitere Komponente tritt noch eine Rest- oder irreguläre Komponente auf. Hierunter fallen Ausreißer und Strukturbrüche, die durch historische Ereignisse erklärt werden können, sowie Zufallsschwankungen, deren Ursachen im Einzelnen nicht identifiziert werden können.

Die genannten Komponenten sind nicht direkt beobachtbar. Sie entspringen vielmehr der menschlichen Vorstellung. Somit stellt sich die Frage, wie man diese Komponenten modelliert.

Traditionelle Ansätze betrachten Zufallsschwankungen als strukturneutral und fassen die systematischen Komponenten als deterministische Funktionen der Zeit auf,

.

In neueren Ansätzen haben Zufallschwankungen eine dominierende Rolle bei der Modellierung der systematischen Komponente. Damit wird die Zeitreihe durch einen stochastischen Prozess modelliert, wie einen MA(1)-Prozess:

.

Dabei ist der Zeitindex und eine Zufallsvariable, für die die Eigenschaft weißes Rauschen angenommen werden kann. Einen dazu konträren Ansatz der Zeitreihenmodellierung stellt die Chaostheorie (siehe dazu Dimensionalität) dar.

In der Zeitreihenanalyse stehen einige allgemeine mathematische Instrumente zur Verfügung, wie Transformation (Box-Cox-Transformation), Aggregation, Regression, Filterung und gleitende Durchschnitte. Im Folgenden wird davon ausgegangen, dass die Zeitreihe als stochastischer Prozess modelliert werden kann. Dieser Ansatz wird auch als Box-Jenkins-Methode bezeichnet. Für stochastische Prozesse gibt es weitere spezielle Methoden und Instrumente. Hierzu zählen die:

Inferenzstatistische Analyse von Zeitreihen

[Bearbeiten | Quelltext bearbeiten]

In der Inferenzstatistik schätzt man die Größe der untersuchten Effekte auf der Basis von Stichproben. Neben den schon genannten Verfahren, bei denen man inferenzstatistisch dann die Fehler der gefundenen Ergebnisse abschätzt, können komplexe Zeitreihen-Modelle spezifiziert und geschätzt werden. Dies wird vor allem in der Ökonometrie für ökonomische Modelle genutzt. Grundlage ist der Begriff des stochastischen Prozesses; hier ist insbesondere die Gruppe der ARMA-Prozesse zu erwähnen.

Ordinale Zeitreihenanalyse

[Bearbeiten | Quelltext bearbeiten]

Die ordinale Zeitreihenanalyse stellt ein relativ neues Verfahren zur qualitativen Untersuchung langer und komplexer Zeitreihen dar. Anstatt der Werte einer Zeitreihe wird die Ordnungsrelation zwischen den Werten, also das Auf und Ab, beschrieben. Dafür wird die Zeitreihe in ordinale Muster transformiert und anschließend die Verteilung dieser Muster statistisch analysiert, um so die Komplexität beziehungsweise den Informationsgehalt, der zugrundeliegenden Zeitreihe zu messen. Ein bekannter Komplexitätsparameter ist die Permutationsentropie, eingeführt im Jahr 2002 von Bandt und Pompe.

Neuronale Netze und die Verarbeitung von Zeitreihen

[Bearbeiten | Quelltext bearbeiten]

Beschäftigt man sich mit künstlichen neuronalen Netzwerken, erkennt man, dass der Modellierungsprozess sehr ähnlich zum ARIMA-Modell ist. In der Regel ist nur die Terminologie verschieden. Zur Prognose einer Zeitreihe mit einem Multilayer-Perceptron legt man ein gleitendes Zeitfenster mit n Werten der Vergangenheit über die Zeitreihe. Die Trainingsaufgabe besteht darin, aus n Werten in der Input-Schicht auf den nächsten Wert zu schließen. Das Training erfolgt anhand der bekannten Werte deren Zukunft zu prognostizieren, sozusagen aus sich selbst heraus. In der Regel sind es aber äußere Einflüsse aus einem (chaotischen) dynamischen System, die den Verlauf einer Zeitreihe (beobachtbare Werte des dynamischen Systems) beeinflussen. Um äußere Einflüsse in das Modell mit einzubeziehen, können zusätzliche Neuronen in die Inputschicht des Multilayer-Perceptrons eingegeben werden. Diese müssen ebenfalls in Form einer Zeitreihe vorliegen[3].

  • Walter Assenmacher: Einführung in die Ökonometrie. 6. Auflage. Oldenbourg, München 2002, ISBN 3-486-25429-4.
  • Walter Enders: Applied Economic Time Series. Wiley, Hoboken 2003, ISBN 0-471-23065-0.
  • James D. Hamilton: Time Series Analysis. Princeton University Press, Princeton, 1994, ISBN 0-691-04289-6.
  • Helmut Lütkepohl: New Introduction to Multiple Time Series Analysis. Springer-Verlag, Berlin, 2005, ISBN 978-3-540-40172-8.
  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Zeitreihenanalyse, S. 505–506.
  • Klaus Neusser: Zeitreihenanalyse in den Wirtschaftswissenschaften. 3. Auflage. Vieweg+Teubner, Wiesbaden 2011, ISBN 3-8348-1846-1.
  • Horst Rinne, Katja Specht: Zeitreihen. Statistische Modellierung, Schätzung und Prognose. Vahlen, München 2002, ISBN 3-8006-2877-5.
  • Rainer Schlittgen, Bernd Streitberg: Zeitreihenanalyse. 9. Auflage. Oldenbourg, München 2001, ISBN 3-486-25725-0.
  • Elmar Steurer: Prognose von 15 Zeitreihen der DGOR mit Neuronalen Netzen. In: Operations-Research-Spektrum. 18(2), S. 117–125. doi:10.1007/BF01539737
  • Helmut Thome: Zeitreihenanalyse. Eine Einführung für Sozialwissenschaftler und Historiker. Oldenbourg, München 2005, ISBN 3-486-57871-5.
  • Ruey S. Tsay: Analysis of Financial Time Series. Wiley, Hoboken 2005, ISBN 0-471-69074-0.

Software zur Durchführung von Zeitreihenanalysen

[Bearbeiten | Quelltext bearbeiten]

Eine Zeitreihenanalyse kann unter anderem mit den freien Softwarepaketen R, gretl, OpenNN und RapidMiner durchgeführt werden. Zu proprietären Lösungen gehören die Softwarepakete BOARD, Dataplore, EViews, Limdep, RATS, SPSS, Stata, SAS sowie WinRATS.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Hans E. Büschgen, Das kleine Börsen-Lexikon, 2012, S. 1176
  2. Rainer Schlittgen, Bernd Streitberg: Zeitreihenanalyse. Oldenbourg Verlag, 2001., ISBN 978-3-486-71096-0 (abgerufen über De Gruyter Online). S. 1
  3. Dieter Meiller, Christian Schieder: Applied Machine learning: Predicting behaviour of industrial units from climate data In: Abraham A. P., Roth, J. & Peng, G. C. (Hrsg.): Multi Conference on Computer Science and Information Systems 2018, IADIS Press, S. 66–72, ISBN 978-989-8533-80-7