Moving Average Fenster Matlab


GEOS 585A, Angewandte Zeitreihenanalyse Telefon: (520) 621-3457 Fax: (520) 621-8229 Sprechzeiten Mittwoch, 1: 30-5 Uhr (bitte per E-Mail an die Besprechungstermine) Kursbeschreibung Analysewerkzeuge im Zeit - und Frequenzbereich Werden im Rahmen von Stichproben-Zeitreihen eingeführt. Ich benutze einen Datensatz von Beispiel Zeitreihen, um Methoden zu veranschaulichen, und ändern Sie den Datensatz jedes Semester der Kurs angeboten wird. Dieses Beispiel stammt aus einem NSF-Projekt zur Schneedecke-Variabilität im amerikanischen Flussgebiet von Kalifornien. Dieser Datensatz umfasst Baumring-Chronologien, Klima-Indizes, Stream-Flow-Records und Zeitreihen von Schnee-Wasser-Äquivalenten gemessen an Schnee-Kurs-Stationen. Sie werden Ihre eigenen Zeitreihen für den Einsatz im Kurs zusammenstellen. Diese können aus Ihrem eigenen Forschungsprojekt stammen. Zurück zum Seitenanfang Dies ist ein Einführungskurs mit Schwerpunkt auf praktischen Aspekten der Zeitreihenanalyse. Methoden werden hierarchisch eingeführt - beginnend mit Terminologie und explorativen Grafiken, Umzug auf deskriptive Statistiken, und endet mit grundlegenden Modellierung Verfahren. Zu den Themen gehören Detrending, Filtering, autoregressive Modellierung, Spektralanalyse und Regression. Sie verbringen die ersten zwei Wochen damit, Matlab auf Ihrem Laptop zu installieren, eine grundlegende Einführung in Matlab zu erhalten und Ihren Datensatz der Zeitreihen für den Kurs zusammenzustellen. Zwölf Themen oder Lektionen werden dann abgedeckt, jeweils eine Woche oder zwei Unterrichtsstunden. Zwölf Klassenzuordnungen gehen mit den Themen einher. Zuordnungen bestehen darin, Methoden anzuwenden, indem man vorgefertigte Matlab-Skripte (Programme) auf Ihrer Zeitreihe ausführt und die Ergebnisse interpretiert. Der Kurs 3 Credits für Studenten auf dem Campus an der Universität von Arizona in Tucson, und 1 Kredit für Online-Studenten. Jede Zeitreihe mit einem konstanten Zeitinkrement (z. B. Tag, Monat, Jahr) ist ein Kandidat für den Kurs. Beispiele sind tägliche Niederschlagsmessungen, saisonale Gesamtströmung, Sommermitteltemperatur, Jahresindizes des Baumwachstums, Indizes der Meeresoberflächentemperatur und die tägliche Höhenzunahme eines Strauches. Als Ergebnis der Einnahme des Kurses sollten Sie: verstehen grundlegende Zeitreihen Konzepte und Terminologie in der Lage sein, Zeitreihen Methoden auswählen, um Ziele in der Lage sein kritisch zu bewerten wissenschaftliche Literatur mit der Zeitreihe Methoden umfassen ein verbessertes Verständnis der Zeitreihe Eigenschaften Ihrer Eigener Datensatz in der Lage, Ergebnisse der Zeitreihenanalyse prägnant in schriftlicher Form zusammenzufassen Voraussetzungen Ein einführender Statistikkurs Zugang zu einem Laptop-Computer, auf dem Matlab installiert werden kann Erlaubnis des Instruktors (Studenten und Studenten) Weitere Voraussetzungen Wenn Sie an einer Universität sind Arizona (UA) Schüler auf dem Campus in Tucson, haben Sie Zugang zu Matlab und erforderlichen Toolboxes durch eine UA-Site-Lizenz als keine Kosten-Software. Keine vorherige Erfahrung mit Matlab ist erforderlich, und Computer-Programmierung ist nicht Teil des Kurses. Wenn Sie ein on-line, nicht auf Campus an der UA sind, können Sie den Kurs im Frühjahr 2017 Semester als iCourse nehmen. Sie müssen sicherstellen, dass Sie Zugriff auf Matlab und die erforderlichen Toolboxes (siehe unten) an Ihrem Standort haben. Zugang zum Internet. Es gibt keinen Papieraustausch im Kurs. Anmerkungen und Abtretungen werden elektronisch ausgetauscht und abgeschlossene Aufträge werden elektronisch über das System der Universität von Arizona Desire2Learn (D2L) übermittelt. Matlab Ausführung. Ich aktualisiere Scripts und Funktionen jetzt und dann mit dem aktuellen Standlizenz-Release von Matlab, und die Updates können Matlab-Funktionen verwenden, die in früheren Matlab-Versionen nicht verfügbar sind. Für 2017 verwende ich Matlab Version 9.1.0.441655 (R2016b). Wenn Sie eine frühere Version verwenden, stellen Sie sicher, dass es Matlab Release 2007b oder höher ist. Zusätzlich zum Haupt-Matlab-Paket werden vier Toolboxen verwendet: Statistik, Signalverarbeitung, Systemidentifikation und entweder Spline (Matlab Release 2010a oder früher) oder Curve Fitting (Matlab Release 2010b oder höher) Verfügbarkeit Der Kurs wird im Frühjahrssemester angeboten Jedes Jahr (2015, 2017, usw.). Es ist offen für Absolventen Studenten und kann auch von Studenten absolviert werden Senioren mit Genehmigung des Instruktors. Die Einschreibung der gebietsansässigen UA-Studenten ist für das Frühjahrssemester 2017 auf 18 begrenzt. Eine kleine Anzahl von Online-Studierenden wurde in der Regel auch durch das Angebot auf verschiedene Weise unterrichtet. Der Weg ist jetzt der iCourse Veranstaltungsort oben beschrieben. Zurück zum Seitenanfang Kursdarstellung (Lektionen) Der Zeitplan erlaubt in der Regel etwa zwei Wochen, um Daten zu sammeln und mit Matlab vertraut zu werden. Danach wird eine Woche (zwei Unterrichtsstunden) jedem der 12 Lektionen oder Themen gewidmet. Klasse trifft sich am Dienstag und Donnerstag. Ein neues Thema wird am Dienstag eingeführt und am folgenden Donnerstag fortgesetzt. Donnerstags Klasse endet mit einer Zuweisung und eine Demonstration der Ausführung des Skripts auf meine Beispieldaten. Die Abtretung ist fällig (muss von Ihnen an D2L hochgeladen werden) vor Kurs am folgenden Dienstag. Die erste 12 Stunden dieser Dienstage Klasse wird für die geführte Selbsteinschätzung und Einstufung der Zuweisung und das Hochladen von bewerteten (abgestuften) Aufgaben an D2L verwendet. Die restlichen 45 Minuten werden verwendet, um das nächste Thema einzuführen. Sie müssen Ihren Laptop zur Klasse am Dienstag mitbringen. Die 12 Lektionen oder Themen, die in dem Kurs abgedeckt werden, sind in der Klasse skizziert. Online-Studenten werden erwartet, dass sie den gleichen Zeitplan der Einreichung Aufgaben als die ansässigen Studenten folgen, haben aber keinen Zugang zu den Vorlesungen. Eingereichte Zuordnungen von Online-Studenten werden nicht selbst bewertet, sondern von mir abgestuft. Online-Studenten sollten Zugriff auf D2L für die Einreichung von Aufgaben haben. Frühjahr 2017 Semester. Klasse trifft zweimal pro Woche für 75 Minuten Sitzungen, 9: 00-10: 15 Uhr TTh, im Raum 424 (Konferenzraum) von Bryant Bannister Tree-Ring Building (Gebäude 45B). Der erste Tag der Klasse ist Jan 12 (Do). Der letzte Tag der Klasse ist der 2. Mai (Di). Es gibt keine Klasse während der Woche des Spring Break (Mar 11-19). Sie analysieren die Daten der eigenen Wahl in den Klassenzuordnungen. Wie in der Kursübersicht angegeben. Gibt es viel Flexibilität in der Wahl der Zeitreihen. Ich werde einen Katalog von geeigneten Zeitreihen zur Verfügung stellen, aber es ist am besten, den Kurs auf Ihren eigenen Datensatz zu fokussieren. Die erste Aufgabe besteht darin, ein Skript auszuführen, in dem die Daten und Metadaten gespeichert werden, die Sie in der mat-Datei, dem nativen Format von Matlab, gesammelt haben. Nachfolgende Zuordnungen zeichnen Daten aus der Matte-Datei für die Zeitreihenanalyse. Aufgaben Die 12 Themen werden nach dem Semester, das ca. 15 Wochen umfasst, nacheinander angesprochen. Über die ersten zwei Wochen (4-5 Klasse Meetings) werden für einige einleitende Material, die Entscheidung über und das Sammeln Ihrer Zeitreihen, und bereitet Matlab auf Ihrem Laptop verwendet. Jede Woche danach wird einem der 12 Kursthemen gewidmet. Jede Aufgabe besteht darin, ein Kapitel von Notizen zu lesen und ein zugehöriges Matlab-Skript auszuführen, das ausgewählte Methoden der Zeitreihenanalyse auf Ihre Daten anwendet und Ihre Interpretation der Ergebnisse schreibt. Zuordnungen erfordern das Verständnis der Vortragsthemen sowie die Fähigkeit, den Computer und die Software zu nutzen. Sie übermitteln Aufgaben, indem Sie sie an D2L vor der Dienstag-Klasse, wenn das nächste Thema eingeführt wird. Die erste halbe Stunde dieser Dienstagsklasse wird für die geführte Selbstbewertung der Aufgabe verwendet, darunter das Hochladen von selbstabgestuften pdfs zu D2L. Ich überprüfe eine oder mehrere der Self-graded Aufgaben pro Woche (durch zufällige Auswahl), und kann die Note ändern. Um auf Zuordnungen zuzugreifen, klicken Sie auf Zuordnungsdateien. Die Lesungen bestehen aus Klassennoten. Es gibt zwölf Sätze. pdf Anmerkungsakten. Eine für jeden der Kursthemen. Diese. pdf-Dateien können über das Web zugegriffen werden. Weitere Informationen zu den verschiedenen Themen des Kurses finden Sie am Ende eines jeden Kapitels der Notizen. Die Noten basieren ausschließlich auf den Leistungen, die jeweils 10 Punkte wert sind. Es gibt keine Prüfungen. Die Gesamtzahl der möglichen Punkte für die 12 Themen beträgt 12 x 10 120. Eine Note von A benötigt 90-100 Prozent der möglichen Punkte. Eine Klasse von B erfordert 80-90 Prozent. Eine Klasse von C erfordert 70-80 Prozent und so weiter. Die Noten werden durch Selbsteinschätzung geleitet von einer von mir in der Klasse präsentierten Rubrik im Kontext meiner Analyse des Beispieldatensatzes zugeordnet. Die Anzahl der verdienten Punkte sollte am Anfang jeder abgestuften Aufgabe angegeben werden. Mar. Ihre Markierung der Aufgabe sollte die Annotation von Abschlägen unter Bezugnahme auf einen in der Klasse verzeichneten Rubrikpunkt (z. B. -0,5, rp3) enthalten. Aufgaben dieses Semesters werden am Donnerstag durchgeführt und am darauffolgenden Dienstag in der Klasse bewertet. Dies ergibt 4 Tage, um die Zuweisung an D2L abzuschließen und hochzuladen. D2L verfolgt die Zeit, zu der die Zuweisung hochgeladen wurde, und es wird keine Strafe veranschlagt, solange sie vor 9.00 Uhr am Dienstag die Selbstbewertung vorgenommen wird. Wenn Sie geplant sind, von der Klasse entfernt zu sein (zB Teilnahme an einer Konferenz), sind Sie verantwortlich für das Hochladen Ihrer Aufgabe vor 9.00 Uhr am Dienstag ist es, und für das Hochladen der selbst-eingestuften Version von 10.15 Uhr am selben Tag. Mit anderen Worten, der Zeitplan ist der gleiche wie für die Schüler, die in der Klasse sind. Wenn ein Notfall auftaucht (z. B. erhalten Sie die Grippe) und kann nicht die Zuweisung oder Beurteilung im Zeitplan, senden Sie mir bitte eine E-Mail und ich werde eine Unterkunft vorschlagen. Andernfalls wird eine Strafe von 5 Punkten (die Hälfte der insgesamt verfügbaren Punkte für die Übung) beurteilt. Einführung in die Zeitreihen, die Daten für die Analyse organisieren Eine Zeitreihe ist weitgehend definiert als jede Serie von Messungen, die zu verschiedenen Zeiten aufgenommen wurden. Einige grundlegende beschreibende Kategorien von Zeitreihen sind 1) lange vs kurze, 2) gleichmäßige Zeit-vs unebene Zeit-Schritt, 3) diskrete vs kontinuierliche, 4) periodische vs aperiodischen, 5) stationären vs nichtstationären und 6) univariaten vs multivariaten . Diese Eigenschaften sowie die zeitliche Überlappung mehrerer Reihen müssen bei der Auswahl eines Datensatzes für die Analyse in diesem Kurs berücksichtigt werden. Sie analysieren Ihre eigenen Zeitreihen im Kurs. Die ersten Schritte sind, diese Reihen auszuwählen und sie in Strukturen in einer Matte-Datei zu speichern. Gleichförmigkeit in der Lagerung am Anfang ist für diese Klasse bequem, so dass Aufmerksamkeit dann auf das Verständnis Zeitreihen Methoden eher Debugging Computer-Code, um die Daten für die Analyse bereit. Eine Struktur ist eine Matlab-Variable ähnlich einer Datenbank, in der der Inhalt durch Textfeldbezeichner aufgerufen wird. Eine Struktur kann Daten von verschiedenen Formen speichern. Zum Beispiel kann ein Feld eine numerische Zeitreihenmatrix sein, ein anderes kann ein Text sein, der die Datenquelle beschreibt usw. In der ersten Zuweisung werden Sie ein Matlab-Skript ausführen, das Ihre Zeitreihen und Metadaten aus ascii-Textdateien liest, die Sie vorher vorbereiten Speichert die Daten in Matlab-Strukturen in einer einzigen Matte-Datei. In nachfolgenden Zuordnungen werden Zeitreihenmethoden auf die Daten angewendet, indem Sie Matlab-Skripts und Funktionen ausführen, die die Matte-Datei laden und auf diese Strukturen arbeiten. Wählen Sie Beispieldaten, die für Zuweisungen während des Kurses verwendet werden sollen Lesen Sie: (1) Notes1.pdf, (2) Erste Schritte, über das Hilfe-Menü von MATLAB aufrufbar Antwort: Führen Sie das Skript geosa1.m aus und beantworten Sie die Fragen in der Datei in a1.pdf Wie Sie die Kategorien von Zeitreihen unterscheiden können So starten und beenden Sie MATLAB So geben Sie MATLAB-Befehle an der Eingabeaufforderung ein So erstellen Sie Zahlen im Bildfenster Wie Sie Daten in Ihren Textverarbeiter exportieren Unterschied zwischen MATLAB-Skripten und Funktionen Scripts und Funktionen ausführen Die Form einer MATLAB-Strukturvariablen Wie man das Skript geosa1.m anwendet, um einen Satz von Zeitreihen und Metadaten in MATLAB-Strukturen zu erhalten Die Wahrscheinlichkeitsverteilung einer Zeitreihe beschreibt die Wahrscheinlichkeit, dass eine Beobachtung in einen bestimmten Wertebereich fällt. Eine empirische Wahrscheinlichkeitsverteilung für eine Zeitreihe kann durch Sortieren und Rangieren der Werte der Reihe erreicht werden. Quantile und Perzentile sind nützliche Statistiken, die direkt aus der empirischen Wahrscheinlichkeitsverteilung gewonnen werden können. Viele parametrische statistische Tests gehen davon aus, dass die Zeitreihe eine Stichprobe aus einer Population mit einer bestimmten Populationswahrscheinlichkeitsverteilung ist. Oft wird die Bevölkerung als normal angenommen. Dieses Kapitel enthält einige grundlegende Definitionen, Statistiken und Diagramme in Bezug auf die Wahrscheinlichkeitsverteilung. Zusätzlich wird ein Test (Lilliefors-Test) eingeführt, um zu testen, ob eine Probe aus einer Normalverteilung mit nicht spezifiziertem Mittelwert und Varianz stammt. Antwort: Führen Sie das Skript geosa2.m aus und beantworten Sie die in der Datei aufgeführten Fragen in a2.pdf Begriffsbestimmungen: Zeitreihen, Stationarität, Wahrscheinlichkeitsdichte, Verteilungsfunktion, Quantil, Streubreite, Lage, Mittelwert, Standardabweichung und Schiefe Die wertvollste Graphik in der Zeitreihenanalyse - der Zeitreihenplot Wie man das Kastenplot, das Histogramm und das Normalwahrscheinlichkeitsdiagramm interpretiert Parameter und Form der Normalverteilung Lilliefors - Test auf Normalität: grafische Beschreibung, Annahmen, Null - und alternative Hypothesen Caveat auf Interpretation von Bedeutung von statistischen Tests, wenn Zeitreihen nicht zufällig in der Zeit Wie geos2.m angewendet werden, um die Verteilungseigenschaften einer Zeitreihe zu überprüfen und die Serie auf Normalität zu testen Autokorrelation bezieht sich auf die Korrelation einer Zeitreihe mit ihren eigenen Vergangenheits - und Zukunftswerten. Autokorrelation wird manchmal auch als verzögerte Korrelation oder serielle Korrelation bezeichnet. Die sich auf die Korrelation zwischen Mitgliedern einer Reihe von Zahlen in der Zeit angeordnet. Positive Autokorrelation kann als eine spezifische Form der Persistenz betrachtet werden. Eine Tendenz eines Systems, von einer Beobachtung zur nächsten in demselben Zustand zu bleiben. Zum Beispiel ist die Wahrscheinlichkeit von morgen regnerisch, wenn heute regnerisch ist, als wenn heute trocken ist. Geophysikalische Zeitreihen werden häufig aufgrund von Trägheits - oder Verschleppungsprozessen im physikalischen System autokorreliert. Zum Beispiel könnten die sich langsam entwickelnden und sich bewegenden Niederdrucksysteme in der Atmosphäre dem täglichen Regenfall Beharrlichkeit verleihen. Oder die langsame Entwässerung der Grundwasservorkommen könnte eine Verbindung mit den aufeinanderfolgenden jährlichen Flüssen eines Flusses vermitteln. Oder gespeicherte Photosynthate können eine Korrelation zu aufeinanderfolgenden Jahreswerten von Baumringindizes vermitteln. Autokorrelation kompliziert die Anwendung von statistischen Tests durch die Verringerung der Anzahl der unabhängigen Beobachtungen. Die Autokorrelation kann auch die Identifikation einer signifikanten Kovarianz oder Korrelation zwischen Zeitreihen (z. B. Fällung mit einer Baumringreihe) komplizieren. Autokorrelation kann für Vorhersagen ausgenutzt werden: eine autokorrelierte Zeitreihe ist vorhersehbar, probabilistisch, weil zukünftige Werte von aktuellen und vergangenen Werten abhängen. Drei Werkzeuge zur Beurteilung der Autokorrelation einer Zeitreihe sind (1) das Zeitreihenplot, (2) das verzögerte Scatterplot und (3) die Autokorrelationsfunktion. Antwort: Führen Sie das Skript geosa3.m aus und beantworten Sie die Fragen in der Datei in a3.pdf Definitionen: Autokorrelation, Persistenz, serielle Korrelation, Autokorrelationsfunktion (acf), Autokovarianzfunktion (acvf), effektive Stichprobengröße Erkennen der Autokorrelation in der Zeitreihe Plot Wie benutzt man verzögerte Scatterplots um die Autokorrelation zu beurteilen Wie interpretiert man die geplottete acf Wie man die Stichprobengröße für Autokorrelation anpasst Mathematische Definition der Autokorrelationsfunktion Begriffe, die die Breite des berechneten Konfidenzbandes der ACF beeinflussen Der Unterschied zwischen einer einseitigen und einer zwei - sided-Test der signifikanten Lag-1 Autokorrelation Wie geos3.m anwenden, um die Autokorrelation einer Zeitreihe zu untersuchen Das Spektrum einer Zeitreihe ist die Verteilung der Varianz der Serie als Funktion der Frequenz. Aufgabe der Spektralanalyse ist es, das Spektrum abzuschätzen und zu untersuchen. Das Spektrum enthält keine neuen Informationen darüber hinaus in der Autokovarianzfunktion (acvf), und tatsächlich kann das Spektrum mathematisch durch Transformation der acvf berechnet werden. Aber das Spektrum und acvf präsentieren die Informationen über die Varianz der Zeitreihe aus komplementären Gesichtspunkten. Die acf fasst die Informationen im Zeitbereich und das Spektrum im Frequenzbereich zusammen. Antwort: Führen Sie das Skript geosa4.m aus und beantworten Sie die in der Datei aufgeführten Fragen in a4.pdf Definitionen: Frequenz, Periode, Wellenlänge, Spektrum, Nyquistfrequenz, Fourierfrequenzen, Bandbreite Gründe für die Analyse eines Spektrums Wie interpretiert man ein gezeichnetes Spektrum in Bezug auf die Verteilung? Der Varianz Die Differenz zwischen einem Spektrum und einem normierten Spektrum Definition des Lagfensters, wie es bei der Schätzung des Spektrums durch die Blackman-Tukey-Methode verwendet wird Wie die Wahl des Verzögerungsfensters die Bandbreite und die Varianz des geschätzten Spektrums beeinflusst Wie definiere ich ein weißes Rauschspektrum? Und autoregressive Spektrum Wie skizzieren Sie einige typische Spektralformen: weißes Rauschen, autoregressive, quasi-periodische, niederfrequente, hochfrequente Wie anwenden geosa4.m, um das Spektrum einer Zeitreihe durch die Blackman-Tukey-Methode Autoregressive-Moving zu analysieren Durchschnittliche (ARMA) Modellierung Autoregressive Moving Average (ARMA) Modelle sind mathematische Modelle der Persistenz, oder Autokorrelation, in einer Zeitreihe. ARMA-Modelle sind weit verbreitet in der Hydrologie, Dendrochronologie, Ökonometrie und anderen Bereichen eingesetzt. Es gibt mehrere mögliche Gründe für die Anpassung von ARMA-Modellen an Daten. Modellierung kann dazu beitragen, das physische System zu verstehen, indem sie etwas über den physikalischen Prozess, der Persistenz in der Serie baut aufzudecken. Beispielsweise kann ein einfaches physikalisches Wasserbilanzmodell mit Begriffen für Niederschlagseingabe, Verdunstung, Infiltration und Grundwasserspeicherung gezeigt werden, um eine Stromflussreihe zu erhalten, die einer bestimmten Form des ARMA-Modells folgt. ARMA-Modelle können auch verwendet werden, um das Verhalten einer Zeitreihe aus vergangenen Werten allein vorherzusagen. Eine solche Vorhersage kann als Basislinie verwendet werden, um die mögliche Bedeutung anderer Variablen für das System zu bewerten. ARMA-Modelle sind weit verbreitet für die Vorhersage der wirtschaftlichen und industriellen Zeitreihen verwendet. ARMA-Modelle können auch verwendet werden, um Persistenz zu entfernen. In der Dendrochronologie wird beispielsweise die ARMA-Modellierung routinemäßig angewendet, um Rest-Zeithorizonte Zeitreihen des Ringbreitenindex ohne Abhängigkeit von vergangenen Werten zu erzeugen. Dieser Vorgang, der Prewhitening genannt wird, soll die biologisch bedingte Persistenz aus der Reihe entfernen, so dass das Residuum besser geeignet ist, den Einfluss von Klima und anderen äußeren Umweltfaktoren auf das Wachstum des Baumes zu untersuchen. Antwort: Führen Sie das Skript geosa5.m aus und beantworten Sie die Fragen in der Datei in a5.pdf Die funktionale Form der einfachsten AR - und ARMA-Modelle Warum solche Modelle als autoregressiver oder gleitender Durchschnitt bezeichnet werden Die drei Schritte in der ARMA-Modellierung Die Diagnosemuster der Autokorrelation und partielle Autokorrelationsfunktionen für eine AR (1) Zeitreihe Definition des endgültigen Vorhersagefehlers (FPE) und wie das FPE verwendet wird, um ein bestes ARMA-Modell auszuwählen Definition der Portmanteau-Statistik und wie es und die acf von Residuen sein können Um zu untersuchen, ob ein ARMA-Modell die Persistenz in einer Reihe effektiv modelliert. Wie das Prinzip der Parsimonie in der ARMA-Modellierung angewendet wird Definition des Prewhitening Wie Prewhitening (1) das Auftreten einer Zeitreihe und (2) das Spektrum einer Zeitreihe beeinflusst Wie man geosa5.m auf ARMA-Modell eine Zeitreihe anwendet Spektrale Analyse - geglättete Periodogrammmethode Es gibt viele Methoden, um das Spektrum einer Zeitreihe abzuschätzen. In Lektion 4 betrachteten wir die Blackman-Tukey-Methode, die auf der Fourier-Transformation der geglätteten, abgeschnittenen Autokovarianz-Funktion basiert. Das geglättete Periodogrammverfahren umgibt die Transformation der acf durch direkte Fourier-Transformation der Zeitreihen und Berechnung des Rohperiodogramms, eine Funktion, die erstmals in den 1800er Jahren zum Studium von Zeitreihen eingeführt wurde. Das Rohperiodogramm wird durch Anwenden von Kombinationen oder Spannen eines oder mehrerer Filter geglättet, um das geschätzte Spektrum zu erzeugen. Die Glätte, Auflösung und Varianz der Spektralschätzungen wird durch die Wahl der Filter gesteuert. Eine akzentuierte Glättung des Rohperiodogramms erzeugt ein zugrundeliegendes, glatt variierendes Spektrum oder Nullkontinuum, gegen das spektrale Peaks auf Signifikanz geprüft werden können. Dieser Ansatz ist eine Alternative zu der Spezifikation einer funktionalen Form des Nullkontinuums (z. B. AR-Spektrum). Antwort: Führen Sie das Skript geosa6.m aus und beantworten Sie die Fragen, die in der Datei in a6.pdf aufgeführt sind. Definitionen: rohes Periodogramm, Daniell-Filter, Filterspanne, Nullkontinuumsglätte, Stabilität und Auflösung der Spektrumverjüngung, Polsterung, Leckage Die vier Hauptschritte bei der Schätzung Das Spektrum durch das geglättete Periodogramm Wie die Auswirkung der Filterauswahl auf die Glätte, Stabilität und Auflösung des Spektrums reicht Wie das Nullkontinuum bei der Prüfung auf Signifikanz der Spektralpeaks verwendet wird Wie kann geosa6.m angewendet werden, um das Spektrum einer Zeit abzuschätzen Serie durch das geglättete Periodogrammverfahren und Testen auf Periodizität bei einer spezifizierten Frequenz Tendenz in einer Zeitreihe ist eine langsame, allmähliche Änderung in irgendeiner Eigenschaft der Reihe über das gesamte Intervall, das untersucht wird. Der Trend ist manchmal lose definiert als eine langfristige Veränderung im Mittel (Abbildung 7.1), kann sich aber auch auf Veränderungen in anderen statistischen Eigenschaften beziehen. Beispielsweise haben die Baumring-Reihen der gemessenen Ringbreite häufig einen Trend in der Varianz sowie im Mittel (Abbildung 7.2). In der traditionellen Zeitreihenanalyse wurde eine Zeitreihe in Trend-, Saison - oder periodische Komponenten und irreguläre Fluktuationen zerlegt und die verschiedenen Teile wurden getrennt untersucht. Moderne Analysentechniken behandeln die Reihe häufig ohne eine solche routinemäßige Zersetzung, aber eine getrennte Betrachtung des Trends ist immer noch oft erforderlich. Detrending ist die statistische oder mathematische Operation der Entfernung von Trend aus der Serie. Detrending wird oft angewendet, um ein Merkmal zu entfernen, das dazu gedacht ist, die Beziehungen des Interesses zu verzerren oder zu verdecken. In der Klimatologie beispielsweise könnte ein Temperaturverlauf aufgrund einer städtischen Erwärmung eine Beziehung zwischen Trübheit und Lufttemperatur verdecken. Detrending wird auch manchmal als Vorverarbeitungsschritt verwendet, um Zeitreihen für die Analyse durch Verfahren vorzubereiten, die Stationarität übernehmen. Viele alternative Methoden stehen zur Detrending zur Verfügung. Ein einfacher linearer Trend im Mittel kann durch Subtrahieren einer Gerade mit der kleinsten Quadrate entfernt werden. Kompliziertere Trends können unterschiedliche Verfahren erfordern. Beispielsweise wird der kubische Glättungsspline üblicherweise in der Dendrochronologie zum Anpassen und Entfernen von Ring-Breiten-Tendenzen verwendet, die nicht linear oder nicht sogar monoton zunehmend oder mit der Zeit abnehmen können. Bei der Untersuchung und Beseitigung der Tendenz ist es wichtig, den Effekt der Detrierung auf die spektralen Eigenschaften der Zeitreihen zu verstehen. Dieser Effekt kann durch den Frequenzgang der Detrending-Funktion zusammengefasst werden. Antwort: Führen Sie das Skript geosa7.m aus und beantworten Sie die Fragen, die in der Datei in a7.pdf aufgelistet sind. Definitionen: Frequenzgang, Spline, Kubischglättung Spline Vor - und Nachteile des Verhältnisses vs Unterschiedsverminderung Interpretation der Ausdrücke in der Gleichung für den Spline-Parameter Spline interaktiv vom erwünschten Frequenzgang Wie das Spektrum durch Detrending beeinflusst wird Wie die Bedeutung der Trendkomponente in einer Zeitreihe zu messen ist Wie man geosa7.m anwendet, um interaktiv eine Spline-Detrending-Funktion zu wählen und eine Zeitreihe zu trennen Das geschätzte Spektrum einer Zeit Reihe gibt die Verteilung der Varianz als eine Funktion der Frequenz. Je nach dem Zweck der Analyse können einige Frequenzen von größerem Interesse sein als andere, und es kann hilfreich sein, die Amplitude der Schwankungen bei anderen Frequenzen zu reduzieren, indem man sie statistisch filtert, bevor man die Serie betrachtet und analysiert. Zum Beispiel können die hochfrequenten (Jahres-zu-Jahr-) Schwankungen in einer gemessenen Entladungsaufzeichnung einer Wasserscheide relativ unwichtig für die Wasserversorgung in einem Becken mit großen Reservoirs sein, die mehrere Jahre des mittleren Jahresabflusses speichern können. Wo niederfrequente Schwankungen von Interesse sind, ist es wünschenswert, die Entladungsaufzeichnung zu glätten, um kurzzeitige Fluktuationen zu eliminieren oder zu reduzieren, bevor die Entladungsaufzeichnung verwendet wird, um die Wichtigkeit von klimatischen Variationen der Wasserversorgung zu untersuchen. Die Glättung ist eine Form der Filterung, die eine Zeitreihe erzeugt, in der die Wichtigkeit der Spektralkomponenten bei hohen Frequenzen verringert wird. Elektrotechniker nennen diesen Filtertyp einen Tiefpaßfilter, da die niederfrequenten Schwankungen durch das Filter hindurchgehen können. In einem Tiefpaßfilter werden die niederfrequenten (langperiodischen) Wellen kaum durch die Glättung beeinflußt. Es ist auch möglich, eine Serie so zu filtern, dass die niederfrequenten Schwankungen reduziert werden und die hochfrequenten Schwankungen unbeeinflusst bleiben. Dieser Filtertyp wird als Hochpaßfilter bezeichnet. Detrending ist eine Form der Hochpaßfilterung: Die eingebaute Trendlinie verfolgt die niedrigsten Frequenzen, und die Residuen aus der Trendlinie haben diese niedrigen Frequenzen entfernt. Eine dritte Art von Filterung, die Bandpaßfilterung genannt wird, verringert oder filtert sowohl hohe als auch niedrige Frequenzen und lässt ein gewisses Zwischenfrequenzband relativ unberührt. In dieser Lektion decken wir mehrere Methoden der Glättung oder Tiefpassfilterung. Wir haben bereits diskutiert, wie der kubische Glättungsspline für diesen Zweck nützlich sein könnte. Vier weitere Arten von Filtern werden hier diskutiert: 1) einfacher gleitender Durchschnitt, 2) binomialer, 3) gaußscher und 4) fensterartiger (Hamming-Verfahren). Überlegungen bei der Auswahl eines Typs eines Tiefpassfilters sind der gewünschte Frequenzgang und die Spanne oder Breite des Filters. Antwort: Führen Sie das Skript geosa8.m aus und beantworten Sie die Fragen, die in der Datei in a8.pdf aufgeführt sind. Definitionen: Filter, Filtergewichte, Filterspanne, Tiefpaßfilter, Hochpaßfilter, Bandpaßfilter Frequenzgang eines Filters Wie der Gaußsche Filter bezieht sich auf die Gaußsche Verteilung Wie man einen einfachen Binomialfilter manuell (ohne den Computer) aufbaut Wie man die Frequenzantwortfunktion in Bezug auf ein System mit sinusförmigem Eingang und Ausgang beschreibt Wie man geosa8.m anwendet, um interaktiv ein Gauß-Binomial zu entwerfen Oder Hamming-Fenster-Tiefpassfilter für eine Zeitreihe Der Pearson-Produkt-Moment-Korrelationskoeffizient ist wahrscheinlich die einzige am häufigsten verwendete Statistik zur Zusammenfassung der Beziehung zwischen zwei Variablen. Statistische Signifikanz und Vorbehalte der Interpretation des Korrelationskoeffizienten, wie sie auf Zeitreihen angewandt werden, sind Themen dieser Lektion. Unter bestimmten Voraussetzungen hängt die statistische Signifikanz eines Korrelationskoeffizienten nur von der Stichprobengröße ab, die als Anzahl unabhängiger Beobachtungen definiert ist. Wenn die Zeitreihen autokorreliert werden, sollte eine effektive Probengröße, die niedriger ist als die tatsächliche Probengröße, bei der Bewertung der Signifikanz verwendet werden. Vorübergehende oder falsche Beziehungen können bedeutende Korrelation für einige Perioden und nicht für andere ergeben. Die Zeitvariation der Stärke der linearen Korrelation kann mit Korrelationskurven untersucht werden, die für ein Schiebefenster berechnet werden. Wenn jedoch viele Korrelationskoeffizienten gleichzeitig ausgewertet werden, sollten die Konfidenzintervalle angepasst werden (Bonferroni-Anpassung), um die erhöhte Wahrscheinlichkeit, hohe Korrelationen zu beobachten, wo keine Beziehung existiert, zu kompensieren. Die Interpretation von Gleitkorrelationen kann auch durch Zeitvariationen von Mittelwert und Varianz der Reihe kompliziert werden, da die Gleitkorrelation die Kovariation in Form von standardisierten Abweichungen von Mitteln in dem Zeitfenster von Interesse reflektiert, die sich von den langfristigen Mitteln unterscheiden können. Schließlich ist zu betonen, dass der Pearson-Korrelationskoeffizient die Stärke der linearen Beziehung misst. Scatterplots sind nützlich, um zu überprüfen, ob die Beziehung linear ist. Antwort: Führen Sie das Skript geosa9.m ​​aus und beantworten Sie die Fragen in der Datei in a9.pdf Mathematische Definition des Korrelationskoeffizienten Annahmen und Hypothesen zur Signifikanzprüfung des Korrelationskoeffizienten Berechnung des Signifikanzniveaus des Korrelationskoeffizienten und Anpassung des Signifikanzniveaus für Autokorrelation in Die einzelnen Zeitreihen Caveats zur Interpretation des Korrelationskoeffizienten Bonferroni-Anpassung an Signifikanzniveau der Korrelation unter mehreren Vergleichen Inflation der Varianz des geschätzten Korrelationskoeffizienten, wenn Zeitreihe autokorreliert Mögliche Effekte der Datentransformation auf Korrelation Wie Interpretation von Diagrammen von Gleitkorrelationen Anwendung von geosa9. M, um Korrelationen und Gleitkorrelationen zwischen Paaren von Zeitreihen zu analysieren Lagged Beziehungen sind charakteristisch für viele natürliche physikalische Systeme. Die verzögerte Korrelation bezieht sich auf die Korrelation zwischen zwei zeitlich relativ zueinander verschobenen Zeitreihen. Eine verzögerte Korrelation ist wichtig, um die Beziehung zwischen den Zeitreihen aus zwei Gründen zu untersuchen. Zuerst kann eine Reihe eine verzögerte Antwort auf die andere Reihe haben, oder vielleicht eine verzögerte Antwort auf einen gemeinsamen Stimulus, der beide Reihen beeinflusst. Zweitens kann die Reaktion einer Reihe auf die andere Reihe oder einen äußeren Reiz zeitlich verschmiert werden, so dass ein auf eine Beobachtung beschränkter Reiz eine Reaktion bei mehreren Beobachtungen hervorruft. Zum Beispiel kann wegen der Lagerung in Stauseen, Gletschern usw. die Volumenentladung eines Flusses in einem Jahr von dem Niederschlag in den mehreren vorhergehenden Jahren abhängen. Oder wegen der Veränderungen in der Kronendichte und der Photosynthatlagerung kann die Breite eines Baumringes in einem Jahr vom Klima mehrerer vorhergehender Jahre abhängen. Der einfache Korrelationskoeffizient zwischen den beiden Reihen, der rechtzeitig ausgerichtet ist, ist unzureichend, um die Beziehung in solchen Situationen zu charakterisieren. Nützliche Funktionen, die wir als Alternative zum einfachen Korrelationskoeffizienten untersuchen, sind die Kreuzkorrelationsfunktion und die Impulsantwortfunktion. Die Kreuzkorrelationsfunktion ist die Korrelation zwischen den Serien, die in Abhängigkeit von der Anzahl der Beobachtungen des Versatzes gegeneinander verschoben sind. Wenn die einzelnen Serien autokorreliert werden, kann die geschätzte Kreuzkorrelationsfunktion als Maß für die verzögerte Beziehung verzerrt und irreführend sein. Wir werden zwei Ansätze zur Klärung des Musters von Kreuzkorrelationen untersuchen. Eines ist, die Persistenz von der Reihe vor der Kreuzkorrelationsschätzung einzeln zu entfernen oder vorzubereiten. Dabei werden die beiden Serien im wesentlichen gleichberechtigt betrachtet. Eine Alternative ist der Systemansatz: Betrachten Sie die Serie als dynamisches lineares System - eine Reihe der Eingang und die andere - und schätzen Sie die Impulsantwortfunktion. Die Impulsantwortfunktion ist die Antwort des Ausgangs auf aktuelle und zukünftige Zeiten auf einen hypothetischen Impuls des Eingangs, der auf die aktuelle Zeit beschränkt ist. Antwort: Führen Sie das Skript geosa10.m aus und beantworten Sie die in der Datei aufgeführten Fragen in a10.pdf Definitionen: Kreuzkovarianzfunktion, Kreuzkorrelationsfunktion, Impulsantwortfunktion, verzögerte Korrelation, kausal, linear Wie Autokorrelation das Muster von Kreuzkorrelationen verzerren kann and how prewhitening is used to clarify the pattern The distinction between the equal footing and systems approaches to lagged bivariate relationships Which types of situations the impulse response function (irf) is an appropriate tool How to represent the causal system treated by the irf in a flow diagram How to apply geos10.m to analyze the lagged cross-correlation structure of aa pair of time series Multiple linear regression Multiple linear regression (MLR) is a method used to model the linear relationship between a dependent variable and one or more independent variables. The dependent variable is sometimes also called the predictand, and the independent variables the predictors. MLR is based on least squares: the model is fit such that the sum-of-squares of differences of observed and predicted values is minimized. MLR is probably the most widely used method in dendroclimatology for developing models to reconstruct climate variables from tree-ring series. Typically, a climatic variable is defined as the predictand and tree-ring variables from one or more sites are defined as predictors. The model is fit to a period -- the calibration period -- for which climatic and tree-ring data overlap. In the process of fitting, or estimating, the model, statistics are computed that summarize the accuracy of the regression model for the calibration period. The performance of the model on data not used to fit the model is usually checked in some way by a process called validation. Finally, tree-ring data from before the calibration period are substituted into the prediction equation to get a reconstruction of the predictand. The reconstruction is a prediction in the sense that the regression model is applied to generate estimates of the predictand variable outside the period used to fit the data. The uncertainty in the reconstruction is summarized by confidence intervals, which can be computed by various alternative ways. Answer: Run script geosa11.m (Part 1) and answer questions listed in the file in a11.pdf The equation for the MLR model Assumptions for the MLR model Definitions of MLR statistics: coefficient of determination, sums-of-squares terms, overall-F for the regression equation, standard error of the estimate, adjusted R-squared, pool of potential predictors The steps in an analysis of residuals How to apply geosa11.m (part 1) to fit a MLR regression model to predict one variable from a set of several predictor variables Validating the regression model Regression R-squared, even if adjusted for loss of degrees of freedom due to the number of predictors in the model, can give a misleading, overly optimistic view of accuracy of prediction when the model is applied outside the calibration period. Application outside the calibration period is the rule rather than the exception in dendroclimatology. The calibration-period statistics are typically biased because the model is tuned for maximum agreement in the calibration period. Sometimes too large a pool of potential predictors is used in automated procedures to select final predictors. Another possible problem is that the calibration period itself may be anomalous in terms of the relationships between the variables: modeled relationships may hold up for some periods of time but not for others. It is advisable therefore to validate the regression model by testing the model on data not used to fit the model. Several approaches to validation are available. Among these are cross-validation and split-sample validation. In cross-validation, a series of regression models is fit, each time deleting a different observation from the calibration set and using the model to predict the predictand for the deleted observation. The merged series of predictions for deleted observations is then checked for accuracy against the observed data. In split-sample calibration, the model is fit to some portion of the data (say, the second half), and accuracy is measured on the predictions for the other half of the data. The calibration and validation periods are then exchanged and the process repeated. In any regression problem it is also important to keep in mind that modeled relationships may not be valid for periods when the predictors are outside their ranges for the calibration period: the multivariate distribution of the predictors for some observations outside the calibration period may have no analog in the calibration period. The distinction of predictions as extrapolations versus interpolations is useful in flagging such occurrences. Answer: Run script geosa11.m (Part 2) and answer questions listed in the file in a12.pdf Definitions: validation, cross-validation, split-sample validation, mean square error (MSE), root-mean-square error (RMSE) standard error of prediction, PRESS statistic, hat matrix, extrapolation vs interpolation Advantages of cross-validation over alternative validation methods How to apply geosa11.m (part 2) for cross-validated MLR modeling of the relationship between a predictand and predictors, including generation of a reconstruction and confidence bands Downloading Files -- tsfiles. zip -- not yet updated for Spring Semester 2017 The Matlab class scripts and user-written functions are zipped in a downloadable file called tsfiles. zip. To get the files, first create an empty directory on your computer. This is where you will store all functions, scripts and data used in the course. Click on tsfiles. zip to download the zip file to that directory and unzip it there. When you run matlab, be sure that directory is your current matlab working directory. Powerpoint lecture outlines miscellaneous files. Downloadable file other. zip has miscellaneous files used in lectures. Included are Matlab demo scripts, sample data files, user-written functions used by demo scripts, and powerpoint presentations, as pdfs (lect1a. pdf, lect1b. pdf, etc.) used in on-campus lectures. I update other. zip over the semester, and add the presentation for the current lecture within a couple of days after that lecture is given. To run the Matlab scripts for the assignments, you must have your data, the class scripts, and the user-written Matlab functions called by the scripts in a single directory on your computer. The name of this directory is unimportant. Under Windows, it might be something like C:geos585a. The functions and scripts provided for the course should not require any tailoring, but some changes can be made for convenience. For example, scripts and functions will typically prompt you for the name of your input data file and present Spring17 as the default. That is because Ive stored the sample data in Spring17.mat. If you want to avoid having to type over Spring17 with the name of your own data file each time you run the script, edit the matlab script with the Matlab editordebugger to change one line. In the editor, search for the string Spring17 and replace it with the name of your. mat storage file (e. g. Smith2017), then be sure to re-save the edited script. A students guide on examining remotely triggered seismicity from waveform data This website contains a brief tutorial on how to identify remotely triggered seismicity (shallow microearthquakes, icequakes, or deep tectonic tremor) following large distant earthquake from waveform data. It is part of the mini course series offered to incoming Geophysics graduate students and sometimes undergraduate summer interns at Georgia Tech. It is also available online so that outside users could use it as well. This tutorial consists of the following sections: Part 0: Prerequisite Part 1: Distant Mainshock Selection Part 2: Waveform Preparation and Organization Part 3: Visual Inspection of Remotely Triggered Seismicity Part 4: Event Detection Part 0: Prerequisite This tutorial requires that you have some basic knowledges on the following toolssoftware packages: Matlab, SAC, UnixLinux Command Lines, etc. If needed, please visit the following online tutorials or websites to learn more about how to use them before continuing here. MATLAB Tutorials and Learning Resources Introduction to Seismic Analysis Code (SAC) by Zhigang Peng Introduction to Unix: mini-course modules by Andrew Newman If you would like to request data from IRIS DMC (or other datacenters with FDSN webservices), you can use the matlab command irisFetch. m. See Guideline and Manuals online at Manuals: irisFetch. m Part 1: Distant Mainshock Selection In this tutorial, we will primarily use the broadband station TPUB from the BATS (Broadband Array in Taiwan for Seismology network in Taiwan for triggered deep tremor, broaband station JRC2 in Coso, southern California for triggered shallow microearthquakes, and broadband station HOWD in Antarctica for triggered icequakes. All waveforms can be downloaded from the IRIS DMC. or IRIS DMC MetaData Aggregator. We first select distant shallow mainshocks that have satisfied a certain criterion. Generally there are two approaches for the mainshock selection. The first approach is to define a relatively large magnitude and distance threshold so that only the events with high-enough magnitudes are selected. For example, lets select all shallow earthquakes (depth no more than 100 km) with magnitude of at least 7.5 since 1998 from the Advanced National Seismic System (ANSS) earthquake catalog. Please choose the output format Catalog in readable format and save it as ANSSdepth100mag75yr1998.dat Next, manually remove the last few entries without magnitudes, and reformat the catalog from readable format into the following format: year mon day hr min sec longitude latitude depth mag. The output is saved as ANSSdepth100mag75yr1998reformat. dat. Please note that in this section on triggered tremor, we will work at the TaiwanTremorTriggering Tutorial. For recent publications on this topic, see Chao et al. (GJI, 2012). Finally, we select events that are at least 1000 km away from the target region. We use the following commands to compute the distance between each potential mainshock and station TPUB (longitude 120.6296 deg, latitude 23.3005 deg). We focus on distant earthquakes mainly because it is relatively easy to separate seismic signals from the distant mainshocks (lower frequency) and locally triggered seismicity (higher frequency). The source code for the command ndistbaz can be downloaded at sacmsc by zpeng. For those that have access to the TriggerTutorial. zip file, the file sacmsc. tar. gz is already included. Please untar it (i. e. tar zxvf sacmsc. tar. gz), then compile all the code with make all in the sacmsc directory. Next, you can add the path to your PATH environmental variable (which tells the shell which directories to search for excutable variables). Or you can simply run the shell script doANSSmag75.csh to do the job. This procedure removed two nearby events (including the 1999920 magnitude 7.7 Chi-Chi earthquake), resulting in a total of 77 events for further analysis. The output ANSSdepth100mag75yr1998dist1000.dat has the following format. The output is named TPUBANSSdispds. dat. which is in the following format Finally, we select events above certain dynamic stress threshold and distant range (e. g. 1 kPa and 100 km) with the following command. We end up with 269 events for further analysis. We reformat the output as well. File ANSSdepth100mag55yr1998dist100kpa1.dat has the following format. Similarly, if you would like to, you can use the prepared doANSSmag55.csh to do all the jobs. In the interest of time, lets focus the following 7 events that have epicentral distances larger than 1000 km, and predicted dynamic stresses larger than 20 kPa. Part 2: Waveform Preparation and Examination Once you have prepared a list of target mainshocks, the next step is to download the waveforms from the seismic data center. Currently there are many data centers around the world. In this tutorial we present two ways to request the seismic data from the IRIS Data Management Center (DMC). The first way to request the data is to use the IRISs wilber tools. To do so, please go to the following website Wilber 3: Select Event and select the target events. Please go ahead and use the wilber tool to request data for the TW network, BH channel. If we use the 20110311 Mw9.1 Tohoku-Oki earthquake as an example, this will result in 7 stations. Please click the Request Data button, and select the longest time windows available before (30 min before the event time) and after (360 min after the S arrival). To make downloading easier, please select Buddle As gzipped tar achive. Finally fill in your name, email and click on submit. Repeat the same process for the rest events. An alternative and preferred way is to use IRISs webservice tool and download the data directly. For further instructions, please see the online timeseries builder. For example, the following web link provides a direct access to the 5 hrs before and after the 20110311 Tohoku-Oki mainshock (TW. TPUB BHE component, output SAC little-endian). Next, you can use curl or wget to download the files into local disk directly. Or you can directly copypaste the full weblink to any of your brower, and it will start downloading the file immediately. Remember to change the file name to TW. TPUB. BHE. SAC. We have prepared the following csh script to automatically download the 5-hour of data (geniriswsrequest. csh) and put them into different directories (named by the event origin time). Once you have downloaded all the SAC files, the next step is to organize the data in a unified way so that one could use shell scripts to automatically process them. Basically, we would like to make sure that the file names follow certain convention (my default choice is NET. STA. CHAN. SAC), and put various mainshock and station information into the SAC headers, shift the origin time, etc. Similarly, we have prepared a simple csh script preprocessing. csh to do all the job. For more information on how to put the mainshock information into the SAC header, see zpengs SAC Tutorial. Rather than sending requests and downloading the data to your local directory, one could also directly fetch data within Matlab from IRIS DMC (or data centers that implement FDSN web services). In this case, you do not have to save the data in your local directory. To do so, you need to install the IRIS-WS jar file first, and then download the irisFetch. m file, placing it somewhere along your MATLAB search path. See guideline at manuals one at Manuals: irisFetch. m. Once you have installed both files, you can test by running the following command in Matlab. This will retrieve one hour of east component data recorded at the broadband station TPUB following the 20110311 Mw9.0 Tohohu-Oki earthquake. Please launch Matlab first, and before running any commands, please add several of my Matlab subroutines in the Matlab Path. You can use the path command in Matlab below, or add the line into your Matlabs startup. m file. If everything works fine, you will end up with a plot that shows teleseismic waves recorded at station TPUB. Most of the locally triggered tremormicroearthquakes occurred during or immediately following the large-amplitude surface waves. To identify these local sources, we generally apply a band-pass (e. g. 2-8 Hz, 5-15 Hz) or high-pass ( 5 or 10 Hz) to remove long-period signals from distant regions (the mainshock and its early aftershocks). The choice of the frequency range depends somewhat on how far away the triggering mainshock is, and the local background noise. In general, if the triggering mainshock is relatively close (say between 100-1000 km), we normally would apply a slightly higher filter to removesurpress distant signals. We will use the matlab subroutine eqfiltfilt. m to do the filter job. It should be in the. matlab directory, and in the Matlabs path. If not, please download the following matlab subroutine eqfiltfilt. m. and place it somewhere along your MATLAB search path. Then run the following command in MATLAB. If works, it will generate a plot like this. The top trace is the raw data, and bottom trace is been high-pass-filtered at 5 Hz (Butterworth filter, two-way, 4-th order). To produce a band-pass-filtered trace (say between 2-8 Hz), use the following command: Finally, you can use the following matlab subroutine irisFetchspectrogram. m to generate a three-panel plot that includes the raw data (now in physical unit of cms), 5-Hz high-pass-filtered, and the spectrogram (frequency-time plot). If you cannot find it in your matlab directory, please download it from the following link: irisFetchspectrogram. m To remove potential artifact with the short-term FFT, we applied a 0.5 Hz high-pass filter before computing the spectrogram. For more details, see the following short article Peng, Z. L. T. Long, and P. Zhao (2011), The relevance of high-frequency analysis artifacts to remote triggering, Seismol. Res. Lette. 82(5), 856-662, doi: 10.1785gssrl.82.5.656.. For example, if you directly run the command irisFetchspectrogram. m without any argument, the default value will produce a plot like below for the 20110311 M9.0 Tohoku earthquake. Of course, you could also change the input parameters by switching either station or the time windows. Part 3: Visual Inspection of Remotely Triggered Seismicity For the triggered deep tremor (aka non-volcanic or deep tectonic tremr), we use the example in southern Taiwan recorded primarily by the broadband station TW. TPUB. To identifyplot locally triggered seismic signals, we generally apply a band-pass or high-pass filters to removesuppress long-period signals from large distant earthquakes. See below for a simple example of using SACs built-in command to apply filters to the seismic data generated by the 20110311 Mw9.1 Tohoku-Oki earthquake. First, type sac to enter the SAC commandline. For more information on how to use SAC, please refer to the SAC tutorial. Alternatively, you can use Matlab to open the SAC file directly, and apply the filter. To do so, you first need to install the MatSAC package zip and put it in your Matlab seach path. I have already included the MatSAC. tar. gz in the combined TriggeringTutorial. zip file. You only need to add the Matlab path. If you prefer to download it again in command linelinux, please use In matlab, please use the following commands to read and plot the raw and band-pass-filtered data. Finally, one can generate the spectrogram (frequency-time) plot, together with the raw and band - or high-pass-filtered data. To do so, I have prepared a matlab subroutine genspectrogram. m that can directly read the SAC data and plot three-panels (top: raw middle: band - or high-pass-filtered middle: spectrogram). Again it is in the. matlab directory. If not, pLease download the subroutine genspectrogram. m and put in your Matlab path first. For remotely triggered shallow earthquakes, we use one example recorded at broadband station NC. GDXB near the Geysers geothermal field in northern California. This region is known to be rigoriously responding to moderate to large regional - and teleseismic events. See a recent publication in this and other geothermalvolcanic region by Aiken and Peng (JGR, 2014). You can download the data from the Northern California Earthquake Data Center (NCEDC) using various tools, including webservices, or the NetDC Waveform Request. You can repeat the above process by selecting all the mainshocks with predicted dynamic stresses (or by magnitude-distance, etc). I put one example waveforms produced by the 20100404 Mw7.1 Baja California (or El-Mayor) earthquake. It clearly triggered many high-frequency microearthquakes during and after the passing surface waves. Please change your working directory to GeysersEQTriggering. To extract the SAC data from the SEED file 201004042240NCGDXB. NCEDC. DATA.21855, one can follow the steps listed in the Makefile, and type the following commands to put corresponding information in the SAC header. I have prepared a csh shell script dopolezerotransfer. csh that would extract the pole-zero file from the RESP file, and then remove the instrument response, and save the output into velocity in the physical unit of cms. In addition, it will rotate the two horizontal-component seismograms into radial and tangential components. To run the code, simple type If needed, you may want to change the channel name from HH to BH or other codes. For the last example on remotely triggered shallow icequakes, I will use the POLENET station YT. HOWD near the Ellsworth Mountain in Western Antarctica. This station recorded clear high-frequency bursts triggered by the Rayleigh waves of the 2010 Mw8.8 Maule, Chile earthquake. For more details, see Peng et al. (NGEO, 2014). I put the instrument-corrected SAC data in the following directory: IcequakeTriggering. Again, please use either Matlab or SAC to apply various band-pass-filter to the data and see if you can identify the clear signature of triggered high-frequency signals. I will use this example later for automatic detection of triggered events based on STALTA or template-matching methods later. Part 4: Event Detection The most simple way to detect seismic event is through short-term-averagelong-term-average (STALTA) method. I put a simple matlab script burstdetectionstalta. m in the directory IcequakeTriggering. To do the detection, we need to first apply a 5-Hz high-pass filter to the data, take envelope, and then stack to get the station-average envelope function. I create a SAC Macro file that can do the job. If everything works, it will produce a SAC output named YT. HOWD.3c. SAC. vel. hp. log. env Next, launch Matlab, and run the local matlab code doburstdetectionHOWD. m. It use a short-term and long-term windows of 2 and 10 s, and a threshold of 1.5. If works, it will produce an pick output, automatically compute the beta value and produce a plot that shows the detection quality. Several studies (Peng et al. JGR, 2007 Aiken and Peng, JGR, 2014) have used manual phase picking to identify potential triggered seismicity on a single station. Below are some simple SAC commands that can do the job. However, manual picking timing cosuming and subjective, and hence is not recommeneded to use these days. We will use the Geysers triggering as the example. Using the ppk tool, one can find the peaks of each high-frequency bursts in the envelope function, and can assign phase picks from t0-t9 for 10 events. Then one needs to save those phase picks (and the corresponding peak log10-amplitude values) into a separate files, before moving on to use the same phase tags to mark new events. Dynamically triggered seismicity, like regular seismic events, can be detected by waveform matched filter technique e. g. Peng and Zhao, NGEO, 2009. The related C-source code, scripts and example can be found in the slidingwfccsrc directory. Please go to this directory and type the following command to compile the codes You can also go to the Icequake directory and try to use the slidingwfccfixv5 command to detect repeating icequakes triggered during the surface waves. Please use the following commands. After stacking 3-component data, we can see multiple detections of similar events during the surface waves (by using the events at 1290-1292 s as the templates). One could use the following simple matlab script sac2wav. m in the matlab directory to speed up the seismic data so that our human ear can hear it (20-a few kHzs). We can use the Tohoku-triggered tremor in Taiwan as the example. Please run the following commands in Matlab. The output is named TW. TPUB. BHZ. SAC. wav, and can be played in any audio players. Have fun. For more examples, please see zpengs EQ Music. and Earthquake Sound of the Mw9.0 Tohoku-Oki, Japan earthquake. Last updated by Zhigang Peng Wed Nov 5 02:36:05 CET 2014

Comments