Wednesday 29 March 2017

Moving Average Wavelet

Rechenergebnisse mit gleitendem Durchschnitt (MA) - Modell und Wavelet multi-resolution intelligentes Modell zur Rauschbewertung zur Verbesserung der Prognosegenauigkeit Zitieren in diesem Artikel: Akrami, S. A. El-Shafie, A. Naseri, M. et al. Neural Comput Applic (2014) 25: 1853. doi: 10.1007s00521-014-1675-0 Die Niederschlagsvorhersage und die Annäherung ihrer Größenordnung haben eine enorme und wichtige Rolle in der Wasserbewirtschaftung und Abflussvorhersage. Das Hauptziel dieser Arbeit ist es, die Beziehung zwischen den Niederschlagszeitreihen, die durch die Wavelet-Transformation (WT) und den gleitenden Durchschnitt (MA) im Klang-Einzugsgebiet, Malaysia, erreicht wurden. Zu diesem Zweck wurden die Haar und Dmey WTs angewendet, um die Niederschläge Zeitreihe in 7, 10 unterschiedliche Auflösungsniveaus zu zersetzen, respectively. Mehrere Pre-Processing-Fallstudien auf der Grundlage von 2-, 3-, 5-, 10-, 15-, 20-, 25- und 30-Monats-MAs wurden durchgeführt, um einen längerfristigen Trend im Vergleich zu einem kürzerfristigen MA zu entdecken. Die Informationen und Daten wurden von Klang Gates Dam, Malaysia, von 1997 bis 2008 gesammelt. In Bezug auf das Verhalten werden die Zeitreihen von 10-, 15-, 20- und 30-Tage-Niederschlägen in Annäherungs - und Detailkoeffizienten unterschiedlicher Art zerlegt Von WT. Korrelationskoeffizienten R 2 und Wurzel-Mittel-Quadrat-Fehlerkriterien werden angewandt, um die Leistungsfähigkeit der Modelle zu untersuchen. Die Ergebnisse zeigen, dass es einige Ähnlichkeiten zwischen MA-Filter und Wavelet Approximation Sub-Serie-Filter aufgrund der Rausch-Elimination. Außerdem erzielt die Ergebnisse, dass die hohe Korrelation mit MAs über Dmey WT verglichen mit Haar für Niederschlagsdaten Wavelet erreicht werden. Darüber hinaus könnten saubere Signale als Modell-Eingänge verwendet werden, um die Modellleistung zu verbessern. Daher könnten Signalzerlegungstechniken für den Zweck der Datenvorverarbeitung günstig sein und könnten zur Beseitigung der Fehler geeignet sein. Zerlegungskoeffizienten Dmey Wavelet Haar Wavelet Gleitender Durchschnitt Prognosegenauigkeit Referenzen Akrami SA, Nourani V, Hakim SJS (2014) Entwicklung eines nichtlinearen Modells basierend auf Wavelet-ANFIS für die Niederschlagsprognose am Klang Gates Dam. (2006) Datenvorverarbeitung für die Flussfluss-Prognose mittels neuronaler Netze: Wavelet-Transformationen und Datenpartitionierung. Phys Chem Earth 31: 11641171 CrossRef Google Scholar Chang FJ, Chen L (1998) Realer kodierter genetischer Algorithmus für regelbasiertes Hochwasserschutz-Reservoir-Management. Wasser Resour Manag 12 (3): 185198 CrossRef Google Scholar Chen GY, Bui TD, Krzyzak A (2009) Invariante Mustererkennung mit Radon, Dual-Tree-Komplex Wavelet und Fourier-Transformationen. Pattern Recogn 42: 20132019 CrossRef MATH Google Scholar Chen RJC, Bloomfield P, Fu JS (2003) Eine Bewertung von alternativen Prognosemethoden zur Erholungsbesuch. J Leis Res 35 (4): 441454 Google Scholar Erdbeobachtungszentrum, Universiti Kebangsaan Malaysia (UKM), Malaysia 2013 Fonseca ES, Guido RC, Scalassara PR (2007) Wavelet-Zeitfrequenzanalyse und kleinste Quadrate unterstützen Vektor-Maschinen zur Identifizierung von Sprachstörungen . (MRSI) mittels Wavelet-Kodierung und paralleler Bildgebung: In-vitro-Ergebnisse. J Magn Reson 211: 4551 CrossRef Google Scholar Genovese L, Videud B, Ospici M, Deutschd T, Goedeckere S, Mhaut JF (2011) Daubechies-Wavelets für leistungsstarke elektronische Strukturberechnungen. CR Mec 339: 149164 CrossRef MATH Google Scholar Lisi F, Nicolis O, Sandri M (1995) Kombination von Singular-Spektrum-Analyse und neuronale Netze für die Zeitreihen-Prognose. Neuronale Netze für die Vorhersage und Prognose von Wasserressourcen Variablen: eine Überprüfung der Modellierung von Fragen und Anwendungen. Environ Modell Softw 15: 101123 CrossRef Google Scholar Mallat SG (1998) Eine Wavelet-Tour der Signalverarbeitung. Akademische Presse, San Diego MATH Google Scholar Masset P (2008) Analyse der finanziellen Zeitreihen mittels Fourier - und Wavelet-Methoden, Universität Freiburg (Schweiz) Fakultät für Wirtschaftswissenschaften und Sozialwissenschaften Newbold P, Carlson WL, Thorne BM (2003) Wirtschaft und Wirtschaft (fünfte Version). Prentice Hall, Upper Saddle River Google Scholar Nourani V, Komasi M, Mano A (2009) Ein multivariater ANN-Wavelet-Ansatz für die Niederschlagsabflussmodellierung. Wasser Resour Manag 23: 28772894 CrossRef Google Scholar Partal T, Kisi O (2007) Wavelet und Neuro-Fuzzy-Konjunktion Modell für die Niederschlagsvorhersage. J Hydrol 342: 199212 CrossRef Google Scholar Rioul O, Vetterli M (1991) Wavelets und Signalverarbeitung. IEEE SP Zeitschrift. pp 1438 Serrai H, Senhadji L (2005) Erwerbszeitreduzierung bei der Magnetresonanz spektroskopischen Bildgebung diskreten Wavelet-Codierung. J Magn Reson 177: 2230 CrossRef Google Scholar Shafiekhah M, Moghaddam Abgeordneter, Sheikh El Eslami MK (2011) Preisvorhersage für die Strommärkte auf dem Vormarsch nach einer hybriden Prognosemethode. Energie-Convers Manag 52: 21652169 CrossRef Google Scholar Sifuzzaman M, Islamand MR, Ali MZ (2009) Anwendung der Wavelet-Transformation und ihre Vorteile im Vergleich zu Fourier-Transformation. J Phys Sci 13: 121134 Google Scholar Syed AR, Aqil B, Badar S (2010) Vorhersage der Netzwerk-Verkehrslast mit Wavelet-Filter und saisonale autoregressive gleitenden Durchschnitt Modell. (2009) Methoden zur Verbesserung der Leistung des neuronalen Netzes in der Prognose der täglichen Flüsse. J Hydrol 372: 8093 CrossRef Google Scholar Yang X, Ren H, Li B (2008) Eingebettete Null-Baum-Wavelets-Codierung basierend auf adaptivem Fuzzy-Clustering zur Bildkompression. Bild Vis Comput 26: 812819 CrossRef Google Scholar Zhao X, Ye B (2010) Faltung Wavelet-Paket-Transformation und ihre Anwendungen auf Signalverarbeitung. Digit Signal Process 20: 13521364 CrossRef Google Scholar Urheberrechtsinformationen Das Natural Computing Applications Forum 2014 Autoren und Mitgliedsverbände Seyed Ahmad Akrami 1 E-Mail-Autor Ahmed El-Shafie 1 Mahdi Naseri 2 Celso AG Santos 3 1. Bau - und Ingenieurbüro Universiti Kebangsaan Malaysia (UKM ) Bangi Malaysia 2. Institut für Bauingenieurwesen Universität Birjand Birjand Iran 3. Abteilung für Bau - und Umwelttechnik Bundesuniversität Paraba Joo Pessoa Brasilien Über diesen ArtikelBayesianische Wavelet-Analyse von autoregressiven fraktionell integrierten gleitenden Durchschnittsprozessen Kyungduk Ko a, Marina Vannucci b. . Ein Institut für Mathematik, Boise State University, Boise, ID 83725-1555, USA b Abteilung für Statistik, Texas AampM University, College Station, TX, 77843-3143, USA Erhalten 30 Oktober 2003, Akzeptiert 27 Januar 2005, Online verfügbar am 22. März 2005Lange Gedächtnisprozesse sind in vielen wissenschaftlichen Bereichen wie Wirtschaft, Physik und Technik weit verbreitet. In dieser Arbeit wird ein Wavelet-basiertes Bayessche Schätzverfahren zur Schätzung der Parameter eines allgemeinen Gaußschen ARFIMA (p, d, q) (S. d. Q) beschrieben. Autoregressive fractionally integrierte gleitende durchschnittliche Modell mit unbekannten autoregressive und gleitende durchschnittliche Parameter. Wir verwenden die Dekorrelationseigenschaften der Wavelet-Transformationen, um ein relativ einfaches Bayes-Modell im Wavelet-Bereich zu schreiben. Wir verwenden einen effizienten rekursiven Algorithmus, um die Varianzen der Wavelet-Koeffizienten zu berechnen. Diese hängen von den unbekannten charakteristischen Parametern des Modells ab. Wir verwenden Markov-Kette Monte-Carlo-Methoden und direkte numerische Integration für Schlußfolgerungen. Die Performances werden auf simulierten Daten und auf realen Datensätzen ausgewertet. ARFIMA Prozesse Bayesian Inferenz Wavelets Entsprechende Autor. Tel. 1xA0979xA0845xA00805 Fax: 1xA0979xA0845xA03144. Copyright copyright 2005 Elsevier B. V. Alle Rechte vorbehalten. Cookies werden von dieser Website verwendet. Weitere Informationen finden Sie auf der Seite Cookies. Copyright 2017 Elsevier B. V. oder seine Lizenzgeber oder Mitwirkenden. Sciencedirect ist ein eingetragenes Warenzeichen von Elsevier B. V.This die erste Web-Seite war ich auf Wavelets schrieb. Von diesem Samen wuchs andere Web-Seiten, die eine Vielzahl von Wavelet-Themen zu diskutieren. Für ein Inhaltsverzeichnis siehe Wavelets und Signalverarbeitung. Diese Webseite wendet die Wavelet-Transformation auf eine Zeitreihe an, die aus Börsenkursen besteht. Spätere Webseiten erweitern diese Arbeit in einer Vielzahl von Bereichen (z. B. Kompression, Spektralanalyse und Prognose). Als ich anfing, dachte ich, dass ich das Haar Wavelet implementieren würde und dass einige meiner Kollegen es nützlich finden könnten. Ich hatte nicht erwartet, dass die Signalverarbeitung ein so interessantes Thema ist. Ich verstehe auch nicht, wer viele verschiedene Bereiche der Informatik, Mathematik und quantitative Finanzierung durch Wavelets berührt werden würde. Ich fand immer, dass eine Sache zu einem anderen führen, so dass es schwierig, eine logische Haltestelle zu finden. Dieser wandernde Weg der Entdeckung meinerseits erklärt auch das etwas organische Wachstum dieser Webseiten. Ich habe versucht, dieses Wachstum zu zähmen und zu organisieren, aber ich fürchte, dass es immer noch die Tatsache widerspiegelt, dass ich nicht wusste, wohin ich ging, als ich anfing. Der Java-Code, der zusammen mit dieser Webseite veröffentlicht wurde, spiegelt die erste Arbeit wider, die ich auf Wavelets gemacht habe. In Java implementierte, anspruchsvollere, aufhebungsbasierte Algorithmen finden sich auf anderen Webseiten. Der Wavelet-Hub Schema-Code, veröffentlicht auf anderen Webseiten, ist einfacher und einfacher zu verstehen. Das Wavelet-Lifting-Schema stellt auch ein elegantes und leistungsfähiges Framework für die Implementierung einer Reihe von Wavelet-Algorithmen bereit. Beim Implementieren von Wavelet-Paketalgorithmen wechselte ich von Java zu C. Der Wavelet-Paketalgorithmus, den ich verwendete, ist einfacher und eleganter mit Cs-Operator-Überlastungsfunktionen. C unterstützt auch generische Datenstrukturen (Templates), die es mir erlaubten, eine generische Klassenhierarchie für Wavelets zu implementieren. Dieser Code enthält mehrere verschiedene Wavelet-Algorithmen, einschließlich Haar, lineare Interpolation und Daubechies D4. Wie die Wavelet-Algorithmen stellt die hier vorgenommene Finanzmodellierung eine sehr frühe Arbeit dar. Als ich anfing, auf diesen Webseiten zu arbeiten, hatte ich keine Erfahrung mit der Modellierung finanzieller Zeitreihen. Die Arbeit auf dieser Webseite führt zu intensiveren Experimenten mit Wavelet-Filter in Finanzmodellen, die ich weiter zu bearbeiten. Auf dieser Webseite verwende ich Börsenkurse. In der Finanz-Modellierung verwendet man in der Regel Renditen, da was Sie vorhersagen wollen, ist die künftige Rendite. Ich wurde interessiert an Wavelets durch Zufall. Ich arbeitete an Software mit finanziellen Zeitreihen beteiligt (z. B. Aktien offen und enge Preis), so dass ich vermute, dass es ein Unfall wartet, passieren. Ich las im Februar 2001 Ausgabe von WIRED Magazin, als ich die Grafik unten aufgeführt sah. Jeden Monat führt WIRED verschiedene graphische Visualisierungen von Finanzdaten durch, und dies war einer von ihnen. Wenn Aktienkurse in der Tat in allen erkennbaren Informationen Faktor, eine zusammengesetzte Preisgrafik in einer geordneten fashon gehen sollte, da neue Informationen nudges wahrgenommenen Wert gegen den Zug von etablierten Tendenzen. Wavelet-Analyse, weit verbreitet in der Kommunikation verwendet, um Signal (gemusterte Bewegung) von Lärm (zufällige Aktivität), schlägt sonst. Dieses Bild zeigt die Ergebnisse einer laufenden Haar-Transformation - der grundlegenden Wavelet-Formel - am täglichen Ende des Dow und NASDQ seit 1993. Die blauen Berge bilden Signal. Die eingebetteten roten Spikes repräsentieren Rauschen, von denen die gelbe Linie einem 50-Tage-gleitenden Durchschnitt folgt. Lärm, der als Investor-Ignoranz betrachtet werden kann, ist mit dem Wert beider Indizes gestiegen. Aber während das Rauschen im Dow im Durchschnitt 500 Prozent gewachsen ist, hat das NASDAQ-Rauschen 3.000 Prozent Ballon gehabt, weit überragend das spektakuläre 500-prozentige Wachstum von NASDAQ im gleichen Zeitraum. Der größte Teil dieses Anstiegs ist seit 1997 eingetreten, mit einem außergewöhnlichen Anstieg seit Januar 2000. Vielleicht gab es ein Y2K glich nach allem - eine, die nicht Betriebssysteme und CPUs entgleist, aber - - Investor Psychologie. - Clem Chambers (Clemcadvfn). Grafik und Zitat von WIRED Magazin, Februar 2001, Seite 176 Ich bin ein Platonist. Ich glaube, dass es in der Abstraktion Wahrheit gibt, aber dass wir sie nie erreichen können. Wir können nur eine Annäherung oder einen Schatten der Wahrheit erreichen. Die moderne Wissenschaft drückt dies als Heisenbergsche Ungewißheit aus. Eine platonistische Sicht auf eine finanzielle Zeitreihe ist, dass es eine wahre Zeitreihe gibt, die bis zu einem gewissen Grad durch Rauschen verdeckt ist. Zum Beispiel bewegt sich eine Schlusskurs - oder Bidask-Zeitreihe für eine Aktie auf Basis des Angebots und der Nachfrage nach Aktien. Im Fall einer Bidask-Zeitreihe wird die Angebots-Kurve durch das Rauschen umgeben, das durch Zufallsreihenfolge erzeugt wird. Wenn irgendwie das Rauschen herausgefiltert werden könnte, würden wir die wahre Supplydemand-Kurve sehen. Software, die diese Informationen verwendet, kann in der Lage, einen besseren Job zu tun, weil es nicht durch falsche Bewegungen durch Rauschen verursacht verwechselt werden würde. Das WIRED-Diagramm oben zeigt, dass die Wavelet-Analyse verwendet werden kann, um eine finanzielle Zeitreihe zu filtern, um das damit verbundene Rauschen zu entfernen. Natürlich gibt es eine große Fläche, die nicht durch die WIRED Zitat adressiert. Was zum Beispiel ist Rauschen Was sind Wavelets und Haar Wavelets Warum sind Wavelets nützlich bei der Analyse finanzieller Zeitreihen Wenn ich dieses Diagramm sah ich Antworten auf keine dieser Fragen. Die Analyse in der kurzen WIRED Absatz ist auch flach. Lärm in der Zeitreihe steigt mit dem Handelsvolumen. Um zu behaupten, dass das Rauschen zugenommen hat, sollte das Rauschen für das Handelsvolumen normalisiert werden. Lesen ist eine gefährliche Sache. Es kann Sie in seltsame Richtungen starten. Ich zog von Kalifornien nach Santa Fe, New Mexico, weil ich ein Buch las. Diese Grafik in WIRED Magazin startete mich einen Pfad, den ich verbrachte viele Monate nach. Wie jedes Abenteuer, bin ich nicht sicher, ob ich auf diesem eingetroffen wäre, wenn ich gewusst hätte, wie lange und manchmal schwierig, die Reise wäre. Vor Jahren, als es zuerst herauskam, kaufte ich eine Kopie des Buches Die Welt nach Wavelets von Barbara Hubbard, auf der Grundlage einer Überprüfung las ich in der Zeitschrift Science. Das Buch saß auf meinem Regal ungelesen, bis ich den WIRED-Graphen sah. Wavelets wurden etwas von einem Modeerscheinung, ein Schlagwort, dass die Menschen geworfen haben. Barbara Hubbard begann zu schreiben Die Welt nach Wavelets, wenn die Wavelet Modeerscheinung begann zu fangen Feuer. Sie bietet eine interessante Geschichte, wie Wavelets in der mathematischen und Engineering-Welten entwickelt. Sie macht auch einen tapferen Versuch, eine Erklärung dafür zu geben, was die Wavelet-Technik ist. Ms Hubbard ist ein Wissenschaftsschreiber, kein Mathematiker, aber sie beherrschte eine Menge an Grundrechnung und Signalverarbeitung (die ich bewundere). Als sie die Welt schrieb, gab es nach Wavelets nur wenige Bücher über Wavelets und kein einleitendes Material. Obwohl ich Barbara Hubbards heroische Anstrengung bewundere, hatte ich nur ein oberflächliches Verständnis von Wavelets nach dem Lesen der Welt nach Wavelets. Es gibt eine große Literatur über Wavelets und ihre Anwendungen. Aus der Sicht eines Software-Ingenieurs (mit nur einem Jahr College-Kalkül) ist das Problem der Wavelet-Literatur, dass es weitgehend von Mathematikern geschrieben wurde, entweder für andere Mathematiker oder für Mathematiklehrer. Im nicht ein Mitglied jeder Gruppe, so möglicherweise mein Problem ist, dass ich nicht ein fließendes Verständnis der Sprache der Mathematik habe. Ich glaube, dass dies, wenn ich jemals Zeitschriftenartikel auf Wavelets gelesen habe. Allerdings habe ich versucht, auf Bücher und Artikel, die ausdrücklich einleitende und Tutorial zu konzentrieren. Auch diese haben sich als schwierig erwiesen. Das erste Kapitel des Buches Wavelets Made Easy von Yves Nievergelt beginnt mit einer Erklärung von Haar Wavelets (das sind die Wavelets, die verwendet werden, um die Grafik zu erzeugen, die in WIRED veröffentlicht wird). Dieses Kapitel hat zahlreiche Beispiele und ich war in der Lage zu verstehen und zu implementieren Haar Wavelets aus diesem Material (Links zu meinem Java-Code für Haar Wavelets finden Sie unten). Ein späteres Kapitel diskutiert die Wavelet-Transformation von Daubechies. Leider ist dieses Kapitel von Wavelets Made Easy nicht so gut wie das Material auf Haar Wavelets. Es scheint eine Reihe von Fehlern in diesem Kapitel zu geben und die Implementierung des von Nievergelt beschriebenen Algorithmus führt nicht zu einer korrekten Wavelet-Transformation. Unter anderem scheinen die Wavelet-Koeffizienten für die Daubechies-Wavelets falsch zu sein. Meine Web-Seite auf der Daubechies Wavelet-Transformation finden Sie hier. Das Buch Ripples in Mathematics (siehe die Referenzen am Ende der Web-Seite) ist eine bessere Referenz. Es gibt eine große Literatur über Wavelets. Dazu gehören Tausende von Zeitschriftenartikeln und viele Bücher. Die Bücher auf Wavelets reichen von relativ einführenden Arbeiten wie Nievergelts Wavelets Made Easy (die immer noch nicht leicht zu lesen), um Bücher, die nur für Studenten in Mathematik zugänglich sind. Es gibt auch viel Waveletmaterial im Web. Dies beinhaltet eine Reihe von Tutorials (siehe Web-basierte Referenz unten). Angesichts der großen Literatur über Wavelets, gibt es keine Notwendigkeit für ein weiteres Tutorial. Aber es könnte sich lohnen, meine Ansicht der Wavelets zusammenzufassen, wie sie auf 1-D-Signale oder Zeitreihen angewendet werden (ein Bild ist 2-D-Daten). Eine Zeitreihe ist einfach eine Probe eines Signals oder einer Aufzeichnung von etwas, wie Temperatur, Wasserstand oder Marktdaten (wie Eigenkapital schließen Preis). Wavelets erlauben es, dass eine Zeitreihe in mehreren Auflösungen betrachtet wird. Jede Auflösung reflektiert eine andere Frequenz. Die Wavelet-Technik nimmt Mittelwerte und Unterschiede eines Signals auf, wobei das Signal in Spektrum unterbrochen wird. Alle Wavelet-Algorithmen, die ich mit der Arbeit an Zeitreihen vertraut bin, haben zwei Werte (z. B. 64, 128, 256). Jeder Schritt der Wavelet-Transformation erzeugt zwei Sätze von Werten: einen Satz von Mittelwerten und einen Satz von Differenzen (die Differenzen werden als Wavelet-Koeffizienten bezeichnet). Jeder Schritt erzeugt einen Satz von Mittelwerten und Koeffizienten, der die Hälfte der Größe der Eingangsdaten ist. Wenn die Zeitreihe beispielsweise 256 Elemente enthält, erzeugt der erste Schritt 128 Mittelwerte und 128 Koeffizienten. Die Mittelwerte werden dann die Eingabe für den nächsten Schritt (z. B. 128 Mittelwerte, die zu einem neuen Satz von 64 Mittelwerten und 64 Koeffizienten führen). Dies dauert an, bis ein Durchschnitt und ein Koeffizient (z. B. 2 0) berechnet wird. Der Mittelwert und die Differenz der Zeitreihen werden über ein Fenster von Werten gebildet. Die meisten Wavelet-Algorithmen berechnen jeden neuen Durchschnitt und Unterschied durch Verschieben dieses Fensters über die Eingangsdaten. Wenn zum Beispiel die Eingabezeitreihe 256 Werte enthält, wird das Fenster durch zwei Elemente, das 128-fache, bei der Berechnung der Mittelwerte und Differenzen verschoben. Der nächste Schritt der Berechnung verwendet die vorherige Menge von Mittelwerten, auch das Verschieben des Fensters um zwei Elemente. Dies hat die Wirkung der Mittelung über ein Fenster mit vier Elementen. Logischerweise erhöht sich das Fenster jedes Mal um einen Faktor 2. In der Wavelet-Literatur wird dieser strukturierte rekursive Algorithmus als pyramidaler Algorithmus bezeichnet. Die Leistung eines durch eine Wavelet-Berechnung erzeugten Koeffizienten - (Differenz-) Spektrums reflektiert die Veränderung der Zeitreihen bei verschiedenen Auflösungen. Das erzeugte erste Koeffizientenband reflektiert die höchsten Frequenzänderungen. Jedes spätere Band reflektiert Änderungen bei niedrigeren und niedrigeren Frequenzen. Es gibt unendlich viele Wavelet-Basisfunktionen. Die komplexeren Funktionen (wie die Daubechies-Wavelets) erzeugen überlappende Mittelwerte und Unterschiede, die einen besseren Mittelwert liefern als das Haar-Wavelet bei niedrigeren Auflösungen. Diese Algorithmen sind jedoch komplizierter. Jedes Fachgebiet entwickelt seine eigene Untersprache. Dies gilt sicherlich für Wavelets. Ich habe hier einige Definitionen aufgelistet, die, wenn ich verstanden hätte, dass mir ihre Bedeutung durch die Wavelet-Literatur geholfen hätte. Eine Funktion, die zu einem Satz von Hochfrequenzdifferenzen oder Wavelet-Koeffizienten führt. Beim Heben von Schema-Terme berechnet das Wavelet die Differenz zwischen einer Vorhersage und einem tatsächlichen Wert. Wenn wir ein Datenmuster s i haben. S i1. S i2. Die Haar-Wavelet-Gleichungen ist wobei ci der Wavelet-Koeffizient ist. Das Wavelet-Lifting-Schema verwendet für das Haar-Wavelet einen etwas anderen Ausdruck: Die Skalierungsfunktion erzeugt eine glattere Version des Datensatzes, die die Hälfte der Größe des Eingabedatensatzes ist. Wavelet-Algorithmen sind rekursiv und die geglätteten Daten werden der Eingang für den nächsten Schritt der Wavelet-Transformation. Die Wavelet-Skalierungsfunktion von Haar ist, wo a i ein geglätteter Wert ist. Die Haar-Transformation bewahrt den Durchschnitt in den geglätteten Werten. Dies gilt nicht für alle Wavelet-Transformationen. Hochpassfilter Bei DSP-Ausdrücken ist die Wavelet-Funktion ein Hochpaßfilter. Ein Hochpassfilter ermöglicht die Hochfrequenzkomponenten eines Signals, während die Niederfrequenzkomponenten unterdrückt werden. Zum Beispiel stellen die Unterschiede, die durch die Haar-Wavelet-Funktion erfasst werden, eine Hochfrequenzänderung zwischen einem ungeraden und einem geraden Wert dar. Tiefpaß In DSP-Term (Digital Signal Processing) ist die Skalierungsfunktion ein Tiefpassfilter. Ein Tiefpaßfilter unterdrückt die hochfrequenten Komponenten eines Signals und ermöglicht es, die niederfrequenten Komponenten durchzulassen. Die Haar-Skalierungsfunktion berechnet den Durchschnitt eines geraden und eines ungeradzahligen Elements, was zu einem glatteren Tiefpass-Signal führt. Orthogonale (oder Orthonormale) Transformationen Die Definition von orthonormalen (a. k.a. orthogonalen) Transformationen in Wavelet-Methoden für die Zeitreihenanalyse von Percival und Walden, Cambridge University Press, 2000, Chaper 3, Abschnitt 3.1, ist eine der besten Ive gesehen. Ive zitiert dies unten: Orthonormale Transformationen sind von Interst, weil sie verwendet werden können, um eine Zeitreihe so wieder auszudrücken, dass wir die Serie von ihrer Transformation leicht rekonstruieren können. In einem losen Sinn ist die Information in der Transformation also äquivalent zu der Information die ursprüngliche Reihe, um sie anders zu setzen, die Reihe und ihre Transformation können als zwei Darstellungen der gleichen mathematischen Entität betrachtet werden. Hinsichtlich der Wavelet-Transformationen bedeutet dies, dass die ursprünglichen Zeitreihen exakt aus dem Zeitreihenmittel rekonstruiert werden können und Koeffizienten, die durch eine orthogonale (orthonormale) Wavelet-Transformation erzeugt werden. Dies wird auch als Entstörung bezeichnet. Signalschätzalgorithmen versuchen, Teile der Zeitreihen zu charakterisieren und diejenigen zu entfernen, die in ein bestimmtes Geräuschmodell fallen. Diese Webseiten veröffentlichen einen stark dokumentierten Java-Quellcode für die Wavelet-Transformation. Bücher wie Wavelets Made Easy erklären einige der Mathematik hinter der Wavelet-Transformation. Ich habe festgestellt, dass die Implementierung dieses Codes kann mindestens so schwierig wie das Verständnis der Wavelet-Gleichungen. Beispielsweise erzeugt die in-place Haar-Wavelet-Transformation Wavelet-Koeffizienten in einem Schmetterlingsmuster in dem ursprünglichen Datenarray. Die hier veröffentlichte Java-Quelle enthält Code, um den Schmetterling in Koeffizientenspektren umzuordnen, die bei der Analyse der Daten nützlicher sind. Obwohl dieser Code nicht groß ist, brauchte ich die meisten von einem Samstag, um den Code zu implementieren, um das Schmetterlingsdatenmuster neu zu ordnen. Das Wavelet-Lifting-Schema, entwickelt von Wim Sweldens und anderen, bietet eine einfachere Möglichkeit, so viele Wavelet-Algorithmen auszuwählen. Ich begann, an Lifting Scheme Wavelet-Implementierungen zu arbeiten, nachdem ich diese Webseite geschrieben und die Software entwickelt hatte. Der Haar-Wavelet-Code ist viel einfacher, wenn er in dem Hebesystem ausgedrückt wird. Siehe meine Webseite The Wavelet Lifting Scheme. Der Link zur Java-Quell-Download-Web-Seite ist unten. Es gibt eine Vielzahl von Wavelet-Analyse-Algorithmen. Unterschiedliche Wavelet-Algorithmen werden abhängig von der Art der analysierten Daten angewendet. Das Haar-Wavelet, das hier verwendet wird, ist sehr schnell und funktioniert gut für die finanziellen Zeitreihen (z. B. der enge Preis für eine Aktie). Finanzielle Zeitreihen sind nicht stationär (zur Verwendung eines Signalverarbeitungsterms). Dies bedeutet, dass auch innerhalb eines Fensters finanzielle Zeitreihen nicht gut durch eine Kombination von sin und cos Begriffen beschrieben werden können. Auch finanzielle Zeitreihen sind nicht vorhersehbar zyklisch (es sei denn, man glaubt an Elliot-Wellen). Finanzzeitreihen eignen sich für Haar-Wavelet-Analyse, da Graphen der finanziellen Zeitreihen dazu neigen, gezackt, ohne viele glatte Details. Zum Beispiel zeigt die Grafik unten den täglichen Schlusskurs für Applied Materials über einen Zeitraum von etwa zwei Jahren. Täglicher Schlusskurs für Applied Materials (Symbol: AMAT), 121897 bis 123099. Die Haar-Wavelet-Algorithmen Ich habe Arbeit an Daten implementiert, die aus Samples bestehen, die eine Potenz von zwei sind. In diesem Fall gibt es 512 Proben. Es gibt eine Vielzahl von populären Wavelet-Algorithmen, darunter Daubechies Wavelets, Mexican Hat Wavelets und Morlet Wavelets. Diese Wavelet-Algorithmen haben den Vorteil einer besseren Auflösung für reibungslos wechselnde Zeitreihen. Aber sie haben den Nachteil, teurer zu berechnen als die Haar-Wavelets. Die Higer-Auflösung, die durch diese Wavlets zur Verfügung gestellt wird, ist nicht wert die Kosten für finanzielle Zeitreihen, die durch gezackte Übergänge gekennzeichnet sind. Die hier veröffentlichten Haar-Wavelet-Algorithmen werden auf Zeitreihen angewandt, bei denen die Anzahl der Abtastungen eine Potenz von zwei ist (z. B. 2, 4, 8, 16, 32, 64.) Das Wavelet von Haar verwendet ein rechteckiges Fenster zum Abtasten der Zeitreihen. Der erste Durchlauf über die Zeitreihe verwendet eine Fensterbreite von zwei. Die Fensterbreite wird bei jedem Schritt verdoppelt, bis das Fenster die gesamte Zeitreihe umfasst. Jeder Durchlauf der Zeitreihe erzeugt eine neue Zeitreihe und einen Satz von Koeffizienten. Die neue Zeitreihe ist der Durchschnitt der bisherigen Zeitreihen über dem Stichprobenfenster. Die Koeffizienten stellen die mittlere Änderung im Probenfenster dar. Wenn wir z. B. eine Zeitreihe haben, die aus den Werten v 0 besteht. V 1. V n. Wird eine neue Zeitreihe mit halb so vielen Punkten durch Mittelung der Punkte im Fenster berechnet. Wenn es der erste Durchgang über der Zeitreihe ist, ist die Fensterbreite zwei, so daß zwei Punkte gemittelt werden: Die 3-D-Oberfläche unterhalb von Graphen zeigt neun Wavelet-Spektren, die aus den 512 Punkt AMAT-Schlusskurs-Zeitreihen erzeugt werden. Die x-Achse zeigt die Probennummer, die y-Achse den Mittelwert an diesem Punkt und die z-Achse zeigt log2 der Fensterbreite. Die Wavelet-Koeffizienten werden zusammen mit den neuen mittleren Zeitreihenwerten berechnet. Die Koeffizienten stellen die mittlere Änderung über dem Fenster dar. Wenn die Fensterbreite zwei ist, wäre dies: Die folgende Grafik zeigt die Koeffizientenspektren. Wie zuvor stellt die z-Achse das log 2 der Fensterbreite dar. Die y-Achse repräsentiert die zeitliche Änderung der Fensterbreite. Etwas zögern intuitiv, die negativen Werte bedeuten, dass sich die Zeitreihe nach oben bewegt Positive Werte bedeuten, dass die Zeitreihe nach unten geht, da v i größer als v i1 ist. Beachten Sie, dass das Hochfrequenzkoeffizientenspektrum (log 2 (windowWidth) 1) den geräuschvollsten Teil der Zeitreihe widerspiegelt. Hier ändert sich der Wechsel zwischen den Werten um Null. Kurve des Haar-Koeffizientenspektrums. Die Oberfläche zeigt das höchste Frequenzspektrum im Vorder - und das niedrigste Frequenzspektrum im Rücken. Beachten Sie, dass das höchste Frequenzspektrum die meisten Rauschen enthält. Die Wavelet-Transformation ermöglicht, dass ein Teil oder ein ganzes gegebenes Spektrum entfernt wird, indem die Koeffizienten auf Null gesetzt werden. Das Signal kann dann unter Verwendung der inversen Wavelet-Transformation wiederhergestellt werden. Plots der AMAT-Schlusskurs-Zeitreihen mit verschiedenen gefilterten Spektren werden hier gezeigt. Jedes Spektrum, das eine Zeitreihe bildet, kann unabhängig voneinander untersucht werden. Ein Rauschfilter kann auf jedes Spektrum angewendet werden, um die Koeffizienten, die als Rauschen klassifiziert sind, zu entfernen, indem die Koeffizienten auf Null gesetzt werden. Diese Web-Seite zeigt eine Histogramm-Analyse der drei höchsten Frequenzspektrum der AMAT engen Preis. Das Ergebnis eines Filters, das die Punkte entfernt, die innerhalb einer Gaußschen Kurve in jedem Spektrum fallen, wird ebenfalls gezeigt. Die Gaußkurve hat eine mittlere und eine Standardabweichung der Koeffizienten in diesem Spektrum. Eine andere Weise, Geräusche zu entfernen ist, Schwellenwert zu verwenden. Meine Web-Seite skizziert einen Schwellenwert Algorithmus finden Sie hier. Wie unterscheiden sich Haar-Wavelet-Filter mit einfachen Filtern, wie Fenster-Mittel - und Median-Filter, wird hier ein Diagramm der AMAT-Zeitreihe gezeigt, gefiltert mit einem Medianfilter (der in diesem Fall praktisch identisch zu einem Mittelfilter ist). Diese Filter können mit den Spektralfiltern verglichen werden (wobei ein gegebenes Wavelet-Koeffizientenspektrum hier abgefiltert wird). Ob ein Wavelet-Filter besser ist als ein Fenster-Mittelfilter, hängt von der Anwendung ab. Das Wavelet-Filter erlaubt, dass bestimmte Teile des Spektrums gefiltert werden. Beispielsweise kann das gesamte Hochfrequenzspektrum entfernt werden. Oder ausgewählte Teile des Spektrums können entfernt werden, wie es mit dem Gaußschen Rauschfilter geschieht. Die Leistung von Haar Wavelet-Filter ist, dass sie effizient berechnet werden können und sie bieten eine Menge Flexibilität. Sie können potenziell mehr Details in der Zeitreihe, im Vergleich zu den Mittel-oder Median-Filter verlassen. Insofern dieses Detail für eine Anwendung nützlich ist, ist das Wavelet-Filter eine bessere Wahl. Die Wavelet-Transformation hat eine Reihe von Vorteilen: Sie ist konzeptionell einfach. Es ist schnell. Es ist speicherwirksam, da es an Ort und Stelle ohne ein temporäres Array berechnet werden kann. Es ist genau reversibel ohne die Kanteneffekte, die ein Problem mit anderen Wavelet-Trasformen sind. Die Haar-Transformation hat auch Einschränkungen, die ein Problem für einige Anwendungen sein kann. Beim Erzeugen jedes Satzes von Mittelwerten für die nächste Stufe und jeden Satz von Koeffizienten führt die Haar-Transformation einen Durchschnitt und eine Differenz auf einem Paar von Werten aus. Dann verschiebt sich der Algorithmus um zwei Werte und berechnet einen anderen Mittelwert und Differenz für das nächste Paar. Das Hochfrequenzkoeffizientenspektrum sollte alle Hochfrequenzänderungen reflektieren. Das Haar-Fenster ist nur zwei Elemente breit. Wenn eine große Änderung von einem geraden Wert zu einem ungeraden Wert stattfindet, wird die Änderung nicht in den Hochfrequenzkoeffizienten reflektiert. Beispielsweise gibt es in den unten dargestellten 64-Element-Zeitreihen einen großen Abfall zwischen den Elementen 16 und 17 und den Elementen 44 und 45. Da es sich um Hochfrequenzänderungen handelt, können wir erwarten, dass sie in den Hochfrequenzkoeffizienten reflektiert werden. Im Fall der Haar-Wavelet-Transformation fehlen diese Hochfrequenzkoeffizienten jedoch, da sie auf geradzahligen ungeraden Elementen liegen. Die Oberfläche unten zeigt drei Koeffizientenspektren: 32, 16 und 8 (wobei das 32 Elementkoeffizientenspektrum die höchste Frequenz ist). Das Hochfrequenzspektrum ist auf der Vorderkante der Oberfläche aufgetragen. Das niedrigste Frequenzspektrum (8) ist der äußere Rand der Oberfläche. Es ist zu beachten, dass sowohl große Größenänderungen im Hochfrequenzspektrum (32) fehlen. Die erste Änderung wird im nächsten Spektrum (16) aufgenommen, und die zweite Änderung wird im letzten Spektrum im Graphen (8) aufgenommen. Viele andere Wavelet-Algorithmen, wie der Daubechies-Wavelet-Algorithmus, verwenden überlappende Fenster, so dass das Hochfrequenzspektrum alle Änderungen in den Zeitreihen widerspiegelt. Wie der Haar-Algorithmus verschiebt sich Daubechies bei jedem Schritt um zwei Elemente. Jedoch werden der Durchschnitt und die Differenz über vier Elemente berechnet, so dass es keine Löcher gibt. The graph below shows the high frequency coefficient spectrum calculated from the same 64 element time series, but with the Daubechies D4 wavelet algorithm. Because of the overlapping averages and differences the change is reflected in this spectrum. The 32, 16 and 8 coefficient spectrums, calculated with the Daubechies D4 wavelet algorithm, are shown below as a surface. Note that the change in the time series is reflected in all three coefficient spectrum. Wavelet algorithms are naturally parallel. For example, if enough processing elements exist, the wavelet transform for a particular spectrum can be calculated in one step by assigning a processor for every two points. The parallelism in the wavelet algorithm makes it attractive for hardware implementation. The Web page for downloading the Haar wavelet source code can be found here. This Java code is extensively documented and this web page includes a link to the Javadoc generated documentation. A simpler version of the Haar wavelet algorithm can be found via my web page The Wavelet Lifting Scheme. The plots above are generated with gnuplot for Windows NT. See my web page of Gnuplot links here. I am only marginally statisified with gnuplot. The software is easy to use and the Windows NT version comes with a nice GUI and a nice help system. However, when it comes to 3-D plots, the software leaves some things to be desired. The hidden line removal consumes vast amounts of virtual memory. When I tried to plot one of the coefficients surfaces with the x and z axes switched, it ran out of memory on a Windows NT system with 256K of virtual memory. Also, the surface would be much easier to understand if it could be colored with a spectrum. If you know of a better 3D plotting package that runs on Windows NT, please drop me a note. I have also had a hard time getting gnuplot to generate 2-D plots with multiple lines that have different colors. I have succeeded in doing this only when the data for each line was in a separate file, which can be awkward. I was sent the reference to Root by a physicist, Costas A. Root is a data analysis framework that is targeted at the massive amounts of data generated by high energy physics experiments at CERN and elsewhere. Although Root leans heavily toward physics, it looks to me like Root would be useful in other areas. Some of the statistical techniques that are used to analyze results in experimental physics is also used in quantitive finance, for example. Root has different goals than gnuPlot. It is targeted at a much more challenging data analysis enviroment (terabytes of data). But it has a large learning curve and Im skeptical if it can be easily used by those who do not have a sophisticated command of C. In contrast gnuPlot is a simple plotting environment. So my search for a better plotting environment continues. I know that such environments are supported by Matlab and Mathematics, but these packages are too expensive for my limited software budget. References Ripples in Mathematics: the Discrete Wavelet Transform by Jensen and la Cour-Harbo, 2001 So far this is the best book Ive found on wavelets. I read this book after I had spent months reading many of the references that follow, so Im not sure how easy this book would be for someone with no previous exposure to wavelets. But I have yet to find any easy reference. Ripples in Mathematics covers Lifting Scheme wavelets which are easier to implement and understand. The book is written at a relatively introductory level and is aimed at engineers. The authors provide implementations for a number of wavelet algorithms. Ripples also covers the problem of applying wavelet algorithms like Daubechies D4 to finite data sets (e. g. they cover some solutions for the edge problems encountered for Daubechies wavelets). Wavelets and Filter Banks by Gilbert Strang and Truong Nguyen, Wellesley Cambridge Pr, 1996 A colleague recommend this book, although he could not load it to me since it is packed away in a box. Sadly this book is hard to find. I bought my copy via abebooks, used, from a book dealer in Australia. While I was waiting for the book I read a few of Gilbert Strangs journal articles. Gilbert Strang is one of the best writers Ive encountered in mathematics. I have only just started working through this book, but it looks like an excellent, although mathematical, book on wavelets. Wavelets Made Easy by Yves Nievergelt, Birkhauser, 1999 This books has two excellent chapters on Haar wavelets (Chapter 1 covers 1-D Haar wavelets and Chapter 2 covers 2-D wavelets). At least in his coverage of Haar wavelts, Prof. Nievergelt writes clearly and includes plenty of examples. The coverage of Haar wavelets uses only basic mathematics (e. g. algebra). Following the chapter on Haar wavelets there is a chapter on Daubechies wavelets. Daubechies wavelets are derived from a general class of wavelet transforms, which includes Haar wavelets. Daubechies wavelets are better for smoothly changing time series, but are probably overkill for financial time series. As Wavelets Made Easy progresses, it gets less easy. Following the chapter on Daubechies wavelets is a discussion of Fourier transforms. The later chapters delve into the mathematics behind wavelets. Prof. Nievergelt pretty much left me behind at the chapter on Fourier transforms. For an approachable discussion of Fourier transforms, see Understanding Digital Signal Processing by Richard G. Lyons (below). As Wavelets Made Easy progresses, it becomes less and less useful for wavelet algorithm implementation. In fact, while the mathematics Nievergelt uses to describe Daubechies wavelets is correct, the algorithm he describes to implement the Daubechies transform and inverse transform seems to be wrong. Wavelets Made Easy does not live up to the easy part of its title. Given this and the apparent errors in the Daubechies coverage, I am sorry to say that I cant recommend this book. Save your money and buy a copy of Ripples in Mathematics . Discovering Wavelets by Edward Aboufadel and Steven Schlicker At 125 pages, this is one of the most expensive wavelet books Ive purchased, on a per page basis. It sells on Amazon for 64.95 US. I bought it used for 42.50. If Discovering Wavelets provided a short, clear description of wavelets, the length would be a virtue, not a fault. Sadly this is not the case. Discovering Wavelets seems to be a book written for college students who have completed calculus and linear algebra. The book is heavy on theorms (which are incompletely explained) and very sort on useful explaination. I found the description of wavelets unnecessarily obscure. For example, Haar wavelets are described in terms of linear algebra. They can be much more simply described in terms of sums, differences and the so called pyramidal algorithm. While Discovering Wavelets covers some important material, its coverage is so obscure and cursory that I found the book useless. The book resembles a set of lecture notes and is of little use without the lecture (for their students sake I hope that Aboufadel and Schlicker are better teachers than writers). This is a book that I wish I had not purchased. Wavelet Methods for Time Series Analysis by Donald B. Percival and Andrew T. Walden, Cambridge University Press, 2000 Im not a mathematician and I dont play one on television. So this book is heavy going for me. Never the less, this is a good book. For someone with a better mathematical background this might be an excellent book. The authors provide a clear discussion of wavelets and a variety of time series analsysis techniques. Unlike some mathematicians, Percival and Walden actually coded up the wavelet algorithms and understand the difficulties of implementation. They compare various wavelet families for various applications and chose the simplest one (Haar) in some cases. One of the great benifits of Wavelet Methods for Time Series Analysis is that it provides a clear summary of a great deal of the recent research. But Percival and Walden put the research in an applied context. For example Donoho and Johnstone published an equation for wavelet noise reduction. I have been unable to find all of their papers on the Web and I have never understood how to calculate some of the terms in the equation in practice. I found this definition in Wavelet Methods . The World According to Wavelets: The Story of a Mathematical Technique in the Making by Barbara Burke Hubbard, A. K. Peters, 1996 This book provides an interesting history of the development of wavelets. This includes sketches of many of the people involved in pioneering the application and mathematical theory behind wavelets. Although Ms. Hubbard makes a heroic effort, I found the explaination of wavelets difficult to follow. The Cartoon Guide To Statistics by Larry Gonic and Woollcott Smith, Harper Collins I work with a number of mathematicians, so its a bit embarrassing to have this book on my disk. I never took statistics. In college everyone I knew who took statistics didnt like it. Since it was not required for my major (as calculus was), I did not take statistics. Ive come to understand how useful statistics is. I wanted to filter out Gaussian noise, so I needed to understand normal curves. Although the title is a bit embarrassing, The Cartoon Guide to Statistics provided a very rapid and readable introduction to statistics. Understanding Digital Signal Processing by Richard G. Lyons. This book is fantastic. Perhaps the best introductory book ever written on digital signal processing. It is the book on signal processing for software engineers like myself with tepid mathematical backgrounds. It provides the best coverage Ive ever seen on DFTs and FFTs. In fact, this book has inspired me to try FFTs on financial time series (an interesting experiment, but wavelets produce better results and Fourier transforms on non-stationary time series). See my web page A Notebook Compiled While Reading Understanding Digital Signal Processing by Lyons My web page on the wavelet Lifting Scheme. The Haar wavelet algorithm expressed using the wavelet Lifting Scheme is considerably simpler than the algorithm referenced above. The Lifting Scheme also allows Haar wavelet to be extended into a wavelet algorithms that have perfect reconstruction and have better multiscale resolution than Haar wavelets. Emil Mikulic has published a simple explaination of the Haar transform, for both 1-D and 2-D data. For those who find my explaination obscure, this might be a good resource. The Wavelet Tutorial . The Engineers Ultimate Guide to Wavelet Analysis, by Robi Polikar. The ultimate guide to wavelet analysis has yet to be written, at least for my purposes. But Prof. Polikars Wavelet Tutorial is excellent. When it comes to explaining Wavelets and Fourier transforms, this is one of the best overviews Ive seen. Prof. Polikar put a great deal of work into this tutorial and I am greateful for his effort. However, there was not sufficient detail in this tutorial to allow me to create my own wavelet and inverse wavelet tranform software. This Web page (which is also available in PDF) provides a nice overview of the theory behind wavelets. But as with Robi Polikars web page, its a big step from this material to a software implementation. Whether this Web page is really friendly depends on who your friends are. If you friends are calculus and taylor series, then this paper is for you. After working my way through a good part of Wavelets Made Easy this paper filled in some hole for me. But I would not have understood it if I had read it before Wavelets Made Easy . Wim Sweldens, who has published a lot of material on the Web (he is the editor of Wavelet Digest ) and elsewhere on Wavelets is a member of this group. An interesting site with lots of great links to other web resources. Lifting Scheme Wavelets Win Sweldens and Ingrid Daubechies invented a new wavelet technique known as the lifting scheme . Gabriel Fernandez has published an excellent bibliography on the lifting scheme wavelets which can be found here. This bibliography has a pointer to Wim Sweldens and Peter Schroders lifting scheme tutorial Building Your Own Wavelets at Home . Clemens Valens has written a tutorial on the fast lifting wavelet transform. This is a rather mathematically oriented tutorial. For many, Wim Sweldens paper Building Your Ownh Wavlets at Home may be easier to under stand (although I still found this paper heavy going). Gabriel Fernandez has developed LiftPack . The LiftPack Home Page publishes the LiftPack software. The bibliography is a sub-page of the LiftPack Home page. Wavelets in Computer Graphis One of the papers referenced in Gabriel Fernandezs lifting scheme bibliography is Wim Sweldens and Peter Schroders paper Building Your Own Wavelets at Home . This is part of a course on Wavelets in Computer Graphics given at SigGraph 1994, 1995 and 1996. The sigGraph course coverd an amazing amount of material. Building Your Own Wavelets at Home was apparently covered in a morning. There are a lot of mathematically gifted people in computer graphics. But even for these people, this looks like tough going for a morning. Ive spent hours reading and rereading this tutorial before I understood it enough to implement the polynomial interpolation wavelets that it discusses. D. Donoho De-Noising By Soft-Thresholding . IEEE Trans. on Information Theory, Vol 41, No. 3, pp. 613-627, 1995. D. Donoho Adapting to Unknown Smoothness via Wavelet Shrinkage . JASA. 1995. CalTech Multi-Resolution Modeling Group Publications The Wavelets in Computer Graphics page, referenced above, is one of the links from the CalTech Multi-resolution Modeling Group Publications web page. The wavelet publications referenced on this page concentrate on wavelet applications for computer graphics. This is yet another introductory tutorial by a mathematician. It gives a feeling for what you can do with wavelets, but there is not enough detail to understand the details of implementing wavelet code. Amara Graps web page provides some good basic introductory material on wavelets and some excellent links to other Web resources. There is also a link to the authors (Amara) IEEE Computational Sciences and Engineering article on wavelets. Wave from Ryerson Polytechnic University Computational Signals Analysis Group Wave is a C class library for wavelet and signal analysis. This library is provided in source form. I have not examined it in detail yet. Wavelet and signal processing algorithms are usually fairly simple (they consist of a relatively small amount of code). My experience has been that the implementation of the algorithms is not as time consuming as understanding the algorithms and how they can be applied. Since one of the best ways to understand the algorithms is to implement and apply them, Im not sure how much leverage Wave provides unless you already understand wavelet algorithms. Wavelet Compression Arrives by Peter Dyson, Seybold Reports, April 1998. This is an increasingly dated discussion on wavelet compression products, especially for images. The description of the compression products strengths and weaknesses is good, but the description of wavelets is poor. Prof. Zbigniew R. Struzik of Centrum voor Wiskunde en Informatica in the Netherlands has done some very interesting work with wavelets in a variety of areas, including data mining in finance. This web page has a link to Prof. Struziks publications (at the bottom of the Web page). Prof. Struziks work also shows some interesting connections between fractals and wavelets. Disclaimer This web page was written on nights and weekends, using my computer resources. This Web page does not necessarily reflect the views of my employer (at the time this web page was written). Nothing published here should be interpreted as a reflection on any techniques used by my employer (at that time). Ian Kaplan, July 2001 Revised: February 2004


No comments:

Post a Comment