@phdthesis{Zimmer2022, type = {Master Thesis}, author = {Jonas Zimmer}, title = {Evaluation Attention-basierter Deep Learning Verfahren zur Luftschadstoffprognose}, journal = {Evaluation of Attention-based Deep Learning Methods for Air Pollution Forecasting}, address = {Offenburg}, pages = {vi, 76, xii}, year = {2022}, abstract = {F{\"u}r die Prognose von Zeitreihen sind bez{\"u}glich der Qualit{\"a}t der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer f{\"u}r die {\"U}bersetzung von Sprache vorgestellt. Aufgrund seiner F{\"a}higkeit mit sequenziellen Daten zu arbeiten, ist er auch f{\"u}r Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer f{\"u}r Zeitreihenvorhersagen von einem Transformer f{\"u}r Sprach{\"u}bersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualit{\"a}ts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschlie{\"s}end wird evaluiert, wie die Fehler des Transformers reduziert werden k{\"o}nnen und wie gut der Transformer generalisiert.}, language = {de} }