@phdthesis{Zimmer2018, type = {Bachelor Thesis}, author = {Zimmer, Jonas}, title = {MQTT5 als Anwendungsprotokoll im Internet der Dinge}, address = {Offenburg}, url = {https://nbn-resolving.org/urn:nbn:de:bsz:ofb1-opus4-29873}, pages = {137}, year = {2018}, abstract = {Diese Bachelor Thesis behandelt das Thema MQTT 5, ein Anwendungsprotokoll im Internet der Dinge, das im Januar 2018 ver{\"o}ffentlicht wurde. MQTT 5 dient zur Kommunikation zwischen Ger{\"a}ten die mit dem Internet verbunden sind. Innerhalb dieser Thesis werden die Neuerungen und Verbesserungen von MQTT 5 beschrieben. Es wird untersucht, welche Mikrocontroller, SoC-Computer, Programmier-Frameworks und lattformdienste MQTT 5 unterst{\"u}tzen. Anschließend wird die Entwicklung eines Smarthome-Szenarios beschrieben, das im "Interaktive Verteilte Systeme Labor" an der Hochschule Offenburg zur Anwendung kommt. Um die Umgebung w{\"a}hrend der Durchf{\"u}hrung von Laborversuchen zu verbessern,werden die Temperatur, Luftfeuchtigkeit, Luftqualit{\"a}t, Lautst{\"a}rke und Lichtst{\"a}rke im Labor gemessen. Diese Werte werden anhand von Lichtern, die ihre Farbe {\"a}ndern und einer Steckdose, die sich je ach Wert ein- und ausschaltet, visualisiert.}, language = {de} } @phdthesis{Zimmer2022, type = {Master Thesis}, author = {Zimmer, Jonas}, title = {Evaluation Attention-basierter Deep Learning Verfahren zur Luftschadstoffprognose}, journal = {Evaluation of Attention-based Deep Learning Methods for Air Pollution Forecasting}, address = {Offenburg}, pages = {vi, 76, xii}, year = {2022}, abstract = {F{\"u}r die Prognose von Zeitreihen sind bez{\"u}glich der Qualit{\"a}t der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer f{\"u}r die {\"U}bersetzung von Sprache vorgestellt. Aufgrund seiner F{\"a}higkeit mit sequenziellen Daten zu arbeiten, ist er auch f{\"u}r Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer f{\"u}r Zeitreihenvorhersagen von einem Transformer f{\"u}r Sprach{\"u}bersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualit{\"a}ts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden k{\"o}nnen und wie gut der Transformer generalisiert.}, language = {de} }