Refine
Document Type
- Master's Thesis (34) (remove)
Has Fulltext
- yes (34)
Is part of the Bibliography
- no (34)
Keywords
- IT-Sicherheit (4)
- Deep learning (3)
- Energiemanagement (2)
- Landwirtschaft (2)
- Maschinelles Lernen (2)
- 5G (1)
- Agrophotovoltaics (1)
- Algorithmus (1)
- Android (1)
- Attention-basiert (1)
Institute
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34) (remove)
Open Access
- Closed Access (17)
- Closed (13)
- Open Access (4)
- Diamond (3)
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
AI-based Ground Penetrating Radar Signal Processing for Thickness Estimation of Subsurface Layers
(2023)
This thesis focuses on the estimation of subsurface layer thickness using Ground Penetrating Radar (GPR) A-scan and B-scan data through the application of neural networks. The objective is to develop accurate models capable of estimating the thickness of up to two subsurface layers.
Two different approaches are explored for processing the A-scan data. In the first approach, A-scans are compressed using Principal Component Analysis (PCA), and a regression feedforward neural network is employed to estimate the layers’ thicknesses. The second approach utilizes a regression one-dimensional Convolutional Neural Network (1-D CNN) for the same purpose. Comparative analysis reveals that the second approach yields superior results in terms of accuracy.
Subsequently, the proposed 1-D CNN architecture is adapted and evaluated for Step Frequency Continuous Wave (SFCW) radar, expanding its applicability to this type of radar system. The effectiveness of the proposed network in estimating subsurface layer thickness for SFCW radar is demonstrated.
Furthermore, the thesis investigates the utilization of GPR B-scan images as input data for subsurface layer thickness estimation. A regression CNN is employed for this purpose, although the results achieved are not as promising as those obtained with the 1-D CNN using A-scan data. This disparity is attributed to the limited availability of B-scan data, as B-scan generation is a resource-intensive process.
Um die Akzeptanz und Relevanz von Mailings zu steigern, ist es für Unternehmen wichtig, die Kundeninteressen möglichst gezielt anzusprechen. Bereits jetzt wird die E-Mail-Marketing Lösung Inxmail Professional zusammen mit Recommender Systemen eingesetzt, was das Erstellen und Versenden von E-Mails mit personalisierten Produktempfehlungen ermöglicht. Das notwendige Wissen für den Aufbau und den Betrieb dieser Recommender Systeme liegt dabei jedoch bei (externen) Technologie-Partnern, wodurch höhere Kosten und zusätzliche Abhängigkeiten für Inxmail und seine Kunden entstehen.
Mit dieser Arbeit wurde erforscht, was es für das Unternehmen Inxmail bedeutet, mit Open-Source-Software ein eigenständiges Recommender System aufzubauen und in die E-Mail-Marketing Lösung Inxmail Professional zu integrieren. Hierfür wird Inxmail Professional in einem typischen Kontext mit einem angebundenen Onlineshop System betrachtet. Das Recommender System soll anhand der Daten, die es aus dem Onlineshop System bekommt, individuelle Produktempfehlungen berechnen, um diese automatisiert beim Versand für jeden Empfänger abfragen und in die E-Mail integrieren zu können.
Auf Basis des Machine Learning Servers Harness und der integrierten Universal Recommender Engine wurde ein Recommender System aufgebaut.
Für die Integration des Onlineshop Systems Shopware wurde ein Plugin entwickelt, welches das Recommender System über alle relevanten Benutzeraktionen benachrichtigt. Die Inxmail Professional Integration basiert auf einem Webservice, der implementiert wurde, um die individuellen Produktempfehlungen für einen Kunden/Empfänger beim Recommender System abzufragen und mit den Detailinformationen zu den Produkten aus dem Onlineshop aufzubereiten.
Es konnte gezeigt werden, dass auf der Grundlage von Open-Source-Technologien ein eigenständiges Recommender System aufgebaut, evaluiert und in Inxmail Professional mit angebundenem Onlineshop System integriert werden kann. Der Gesamtprozess für die Evaluation des Systems wurde weitestgehend automatisiert, wodurch viele manuelle und zeitintensive Schritte über Steuerungsskripte abgehandelt werden können. Das System erlaubt die reibungslose Verarbeitung großer Datenmengen (> 19.000.000 Events) auf einem einzelnen Server. Die Vorhersagequalität wurde anhand realer Interaktionsdaten aus öffentlichen E-Commerce-Datensätzen mit Offline-Tests gemessen. Dadurch wurde sichergestellt, dass das System in der Lage ist, bei stetig wachsender Eventmenge zuverlässige aufempfehlungen zu berechnen. Die Tests haben gezeigt, dass bei mehreren Millionen Events von mehreren Tausend Benutzern für mehrere Tausend Produkte, 13 % bis 15 % aller tatsächlichen Käufe in den Top-10 der vom System vorgeschlagenen Empfehlungen enthalten waren.
Damit wurde die Grundlage für den selbstständigen Aufbau und Betrieb eines Recommender Systems gelegt, was eine sinnvolle und kostengünstige Alternative zu externen Systemen sein kann.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
In den letzten Jahrzehnten haben permanentmagneterregte Synchronmaschinen und deren Regelung immer mehr Einzug in industrielle Applikationen erhalten. Durch die weltweit wachsende Elektromobilität partizipiert das Automobil an deren fortschreitenden Einsatzmöglichkeit.
Die Modellierung eines physikalisch-technischen Systems ist ein wichtiger Bestandteil in der Entwicklung einer Regelung. Inhaltlich setzt sich die Abschlussarbeit mit dieser Vorgehensweise für eine 6-phasige permanentmagneterregte Synchronmaschine auseinander. Durch die doppelte Anzahl an Statorwicklungen existieren unter anderem zwei verschiedene Wicklungskonzepte, wie eine elektrische Maschine aufgebaut sein könnte. Beide Wicklungskonzepte, bei dem entweder eine volle magnetische Kopplung oder keine magnetische Kopplung der betrachteten Teilsysteme vorliegt, werden untersucht. Ziel der Masterthesis ist es, eine mathematische Grundlage für die Modellbildung einer 6-phasigen permanentmagneterregten Synchronmaschine herzuleiten, um darauf aufbauend eine feldorientierte Regelung zu entwerfen. Wie in der industriellen Antriebstechnik gebräuchlich, erfolgt die Regelung in einem rotierenden Koordinatensystem. Die Stromregelung basiert auf einen zeitkontinuierlichen PI-Regler samt Spannungsbegrenzung und einer Anti-Windup-Struktur. In der Ausarbeitung wird mithilfe zweier Simulationsmodelle bewiesen, dass sowohl das mathematische Modell einer 6-phasigen permanentmagneterregten Synchronmaschine als auch deren Regelung simulationstechnisch die erwarteten Resultate liefern.
Annotated training data is essential for supervised learning methods. Human annotation is costly and laborsome especially if a dataset consists of hundreds of thousands of samples and annotators need to be hired. Crowdsourcing emerged as a solution that makes it easier to get access to large amounts of human annotators. Introducing paid external annotators however introduces malevolent annotations, both intentional and unintentional. Both forms of malevolent annotations have negative effects on further usage of the data and can be summarized as spam. This work explores different approaches to post-hoc detection of spamming users and which kinds of spam can be detected by them. A manual annotation checking process resulted in the creation of a small user spam dataset which is used in this thesis. Finally an outlook for future improvements of these approaches will be made.
The status quo of PROFINET, a commonly used industrial Ethernet standard, provides no inherent security in its communication protocols. In this thesis an approach for protecting real-time PROFINET RTC messages against spoofing, tampering and optionally information disclosure is specified and implemented into a real-world prototype setup. Therefor authenticated encryption is used, which relies on symmetric cipher schemes. In addition a procedure to update the used symmetric encryption key in a bumpless manner, e.g. without interrupting the real-time communication, is introduced and realized.
The concept for protecting the PROFINET RTC messages was developed in collaboration with a task group within the security working group of PROFINET International. The author of this thesis has also been part of that task group. This thesis contributes by proofing the practicability of the concept in a real-world prototype setup, which consists of three FPGA-based development boards that communicate with each other to showcase bumpless key updates.
To enable a bumpless key update without disturbing the deterministic real-time traffic by dedicated messages, the key update annunciation and status is embedded into the header. By provisioning two key slots, of which only one is in used, while the other is being prepared, a well-synchronized coordinated switch between the receiver and the sender performs the key update.
The developed prototype setup allows to test the concept and builds the foundation for further research and implementation activities, e.g. the impact of cryptographic operations onto the processing time.
Diese Arbeit umfasst erste Tests und die Inbetriebnahme eines neuen Prüfplatzes bei der QMK-GmbH. Der Prüfplatz selbst soll in der Lage sein, Leistungsshuntwiderstände kalibrieren zu können. Leistungsshuntwiderstände sind meist eher groß und schwer, damit durch viel Material die Wärmeentwicklung kompensiert werden kann. Zudem sind die Kontaktflächen dementsprechend groß, damit der Übergangswiderstand an den Kontaktflächen möglichst gering ist. Der Widerstandswert selbst ist sehr klein. Standardmäßig liegen Widerstände hier im Bereich von 10 bis 100 Ω. Um so kleine Widerstände möglichst genau messen zu können, muss technisch viel Aufwand betrieben werden. In der Regel wird dies mit einer Vierleitermessung realisiert. Leistungsshuntwiderstände werden aber generell mit einem eher hohen Strom im Bereich von 100 bis 10 000 . Mit dem neuen Prüfplatz soll dies auch umgesetzt werden. Die Widerstände sollen mithilfe von hohen Strömen bis 2 kA kalibriert werden, damit der, für den Prüfling, zutreffende Arbeitsbereich unter Berücksichtigung seiner Eigenerwärmung abgebildet werden kann. Für diese Anwendung wurde ein Prüfplatz entwickelt, der 2 kA zur Verfügung stellen kann und mithilfe eines genauen und kalibrierten Referenzwiderstandes den Widerstand des Kalibriergegenstandes ermitteln kann. Würde man den Aufbau messtechnisch beschreiben, so wird durch eine Konstantstromquelle ein Gleichstrom erzeugt, der beide in Reihe geschalteten Widerstände durchströmt. Damit ist der Strom an beiden Widerständen identisch und kann ermittelt werden. An den Widerständen wird gleichzeitig dessen Spannungsabfall gemessen. Mit dem ermittelten Strom kann anschließend über das Ohmsche Gesetz der „unbekannte“ Widerstandswert des Kalibriergegenstandes ermittelt werden. Dieser wird mit dem Sollwert seines Datenblattes verglichen und in einem Protokoll unter Berücksichtigung der eigenen Messunsicherheit bewertet. Die Messergebnisse werden nach der Messung bzw. Kalibrierung in einem Zertifikat zusammen gefasst, und dem Kunden ausgestellt.
Ziel der Arbeit ist es, eine Kalibriereinrichtung zu entwickeln und zu bewerten, die den Richtlinien und Grundlangen der DAkkS entspricht oder zumindest als Grundlage für eine Akkreditierung bei der DAkkS dient. In erster Linie, soll es mit der Kalibriereinrichtung möglich sein, ISO-Kalibrierungen nach der 9001 Norm durchzuführen und zu bewerten.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
Decarbonisation Strategies in Energy Systems Modelling: APV and e-tractors as Flexibility Assets
(2023)
This work presents an analysis of the impact of introducing Agrophotovoltaic technologies and electric tractors into Germany’s energy system. Agrophotovoltaics involves installing photovoltaic systems in agricultural areas, allowing for dual usage of the land for both energy generation and food production. Electric tractors, which are agricultural machinery powered by electric motors, can also function as energy storage units, providing flexibility to the grid. The analysis includes a sensitivity study to understand how the availability of agricultural land influences Agrophotovoltaic investments, followed by the examination of various scenarios that involve converting diesel tractors to electric tractors. These scenarios are based on the current CO2 emission reduction targets set by the German Government, aiming for a 65% reduction below 1990 levels by 2030 and achieving zero emissions by 2045. The results indicate that approximately 3% of available agricultural land is necessary to establish a viable energy mix in Germany. Furthermore, the expansion of electric tractors tends to reduce the overall system costs and enhances the energy-cost-efficiency of Agrophotovoltaic investments.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.
In der vorliegenden Thesis werden Empfehlungsalgorithmen zur Verbesserung von Wein-Empfehlungen evaluiert. Der Algorithmus wird zur Entscheidung zwischen zwei Weinen eingesetzt, so dass der jeweils für den Kunden geeignetere Wein empfohlen wird. Das derzeitige System setzt Collaborative Filtering durch den Alternating Least Squares (ALS) Algorithmus um. Bei Kunden und Weinen, die nicht die notwendigen Bedingungen für die Anwendung von ALS erfüllen, wird durch Zufall entschieden.
Dem bestehenden Ansatz wurden folgenden Verfahren gegenübergestellt: Content-based Filtering mit einen Autoencoder und Hybrid Filtering mit einem neuronalen Netz sowie mit der Empfehlungsbibliothek LightFM. Die neuen Ansätze berücksichtigen immer die Weineigenschaften und können für noch nicht gekaufte Weine eingesetzt werden (Cold-Start Problem). Verglichen wurden die Ansätze durch zwei Ranking-Methoden und einen selbst-entwickelten offline A/B-Test.
Unter den neuen Ansätzen schnitt LightFM am besten ab. ALS lieferte insgesamt die besten Ranking-Werte. Durch ein online A/B-Test zwischen ALS und LightFM konnten keine signifikanten Ergebnisse ermittelt werden. Insgesamt konnte auf Basis der in den Tests gesammelten Daten keine Verbesserung der Empfehlungslogik gegenüber dem bestehenden Verfahren mittels ALS nachgewiesen werden. Für eine abschließende statistisch signifikante Beurteilung müssten mehr online A/B-Tests durchgeführt werden.
Das Lokalisationssystem besteht aus einem Anwender-PC mit Bluetooth-Adapter, einem Lautsprecherkreis sowie einem Tablet. Eine Funktion im Programm Matlab auf dem Anwender-PC dient zur Eingabe der Steuerparameter, welche in einer Textdatei an eine Schnittstelle, die ebenfalls auf dem Anwender-PC installiert ist, übergeben und via Bluetooth an eine native App auf einem Tablet gesendet wird. Die Schnittstelle wurde mithilfe der IDE Eclipse mit der Programmiersprache Java erstellt und kann unter der Bedingung, dass auf dem verwendeten PC JRE Version 1.8.0 oder jünger vorinstalliert ist, systemunabhängig ausgeführt werden. Je nach gesendeten Parametern wird eine von sechs möglichen GUIs auf dem Bildschirm des Tablets angezeigt, welche die Anordnung der Lautsprecher im Audiometrieraum wiedergibt. Nach dem Schallereignis hat der Proband die Möglichkeit, je nach gewählter GUI, einen von sieben bzw. zwölf angezeigten Lautsprechersymbolen oder einen beliebigen Punkt auf dem Bildschirm anzutippen. Diese Eingabe entspricht der Richtung, welche der Proband als Schallquelle lokalisierte. Nach Eingabe der Probandenantwort wird diese via Bluetooth an die Schnittstelle und somit an Matlab gesendet, wo die Antwort ausgewertet werden kann.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
This research presents a comprehensive exploration of hydroponic systems and their practical applications, with a focus on innovative solutions for managing environmental and analytical sensors in hydroponic setups. Hydroponic systems, which enable soilless cultivation, have gained increasing importance in modern agriculture due to their resource-efficient and high-yield nature.
The study delves into the development and deployment of the SensVert system, an adaptable solution tailored for hydroponic environments. SensVert offers adaptability and accessibility to farmers across various agricultural domains, addressing contemporary challenges in supervising and managing environmental and analytical sensors within hydroponic setups. Leveraging LoRa technology for seamless wireless data transmission, SensVert empowers users with a feature-rich dashboard for real-time monitoring and control. The study showcases the practical implementation of SensVert through a single sensor node, seamlessly integrating temperature, humidity, pressure, light, and pH sensors. The system automates pH regulation, employing the Henderson-Hasselbalch equation, and precisely controls liquid dosing using a PID controller. At the core of SensVert lies an architecture comprising The Things Stack as the network server, Node-Red as the application server, and Grafana as the user interface. These components synergize within a local network hosted on a Raspberry Pi; effectively mitigating challenges associated with data packet transmission in areas with limited internet connectivity.
As part of ongoing research, this work also paves the way for future advancements. These include the establishment of a wireless sensor network (WSN) utilizing LoRa technology, enabling seamless over-the-air sensor node updates for maintenance or replacement scenarios. These enhancements promise to further elevate the system's reliability and functionality within hydroponic cultivation, fostering sustainable agricultural practices.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.