Refine
Document Type
- Bachelor Thesis (64)
- Master's Thesis (34)
- Conference Proceeding (2)
- Article (reviewed) (1)
Conference Type
- Konferenzband (2)
Has Fulltext
- yes (101)
Is part of the Bibliography
- no (101) (remove)
Keywords
- Medizintechnik (5)
- Robotik (5)
- Deep learning (4)
- IT-Sicherheit (4)
- Maschinelles Lernen (4)
- Schluckspecht (4)
- Bildverarbeitung (3)
- Embedded Systems (3)
- Handprothese (3)
- Internet der Dinge (3)
Institute
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (101) (remove)
Open Access
- Closed Access (45)
- Closed (38)
- Open Access (18)
- Diamond (7)
- Bronze (2)
- Gold (1)
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
AI-based Ground Penetrating Radar Signal Processing for Thickness Estimation of Subsurface Layers
(2023)
This thesis focuses on the estimation of subsurface layer thickness using Ground Penetrating Radar (GPR) A-scan and B-scan data through the application of neural networks. The objective is to develop accurate models capable of estimating the thickness of up to two subsurface layers.
Two different approaches are explored for processing the A-scan data. In the first approach, A-scans are compressed using Principal Component Analysis (PCA), and a regression feedforward neural network is employed to estimate the layers’ thicknesses. The second approach utilizes a regression one-dimensional Convolutional Neural Network (1-D CNN) for the same purpose. Comparative analysis reveals that the second approach yields superior results in terms of accuracy.
Subsequently, the proposed 1-D CNN architecture is adapted and evaluated for Step Frequency Continuous Wave (SFCW) radar, expanding its applicability to this type of radar system. The effectiveness of the proposed network in estimating subsurface layer thickness for SFCW radar is demonstrated.
Furthermore, the thesis investigates the utilization of GPR B-scan images as input data for subsurface layer thickness estimation. A regression CNN is employed for this purpose, although the results achieved are not as promising as those obtained with the 1-D CNN using A-scan data. This disparity is attributed to the limited availability of B-scan data, as B-scan generation is a resource-intensive process.
In dieser Bachelorthesis wurde ein Funktionsmuster eines energieautarken elektronischen Türschildes mit einem 7,8” großen E-Paper-Display und NFC-Konfigurationsschnittstelle entwickelt, auf dem per Smartphone-App und NFC einfach Informationen wie Abwesendheitsnachrichten angezeigt werden können. Hierzu wird ein Kommunikationsprotokoll entwickelt, welches die Kommunikation zwischen App und Türschild spezifiziert, und einen Befehlssatz zur Konfiguration des Türschildes bereitstellt. Das System wird aus amorphen Silizium-Solarzellen versorgt und verfügt über einen LiPo-Akku als Energiespeicher. Durch sorgfältiges Hardware- und Software-seitiges Low-Power-Design beträgt die Leistungsaufnahme im Ruhemodus lediglich 1, 5 μW. Bedingt durch den anwenderfreundlichen, jedoch für Low-Power-Designs ungeeigneten Display-Controller, beträgt der Energieverbrauch während eines Updates 300 mW. Trotzdem zeigt sich, dass das System bei einer Zellfläche von knapp 220 cm2 auch bei schlechter Beleuchtung von 10 lx in dunklen Gängen mehrere Türschild-Updates pro Tag bereitstellen kann.
Ziel der Thesis war zuerst eine kurze Literatur-Recherche und eine Einarbeitung in die Automatisierungstechnik (insbesondere in Robotik, speicherprogrammierbare Steuerungen, Bildverarbeitung und Kommunikationsmöglichkeiten), dann die Konzeption und der Aufbau eine Schulungszelle, mit der die Studenten in die Praxis umsetzen können, was sie im Labor gelernt haben und am Ende die Herstellung von Schulungsunterlagen.
Dafür wurde eine mehrstufige Lösung ausgewählt und betrachtet. Diese Lösung besteht in erster Linie in der Erforschung über die verschiedenen verfügbaren Komponenten. das heißt, die Bedienung und die Programmierung eines Universalroboters(UR5e), einer Sensopart-Kamera, eines Wago-PLC mit der Festo Pick-Place didaktisch Station und natürlich die Steuerung ihrer verschiedenen Software zu beherrschen. Dann folgen die Konzeption und der Aufbau der Schulungszelle, die Programmierung einer didaktischen Applikation, die den Studenten als Beispiel dient, und schließlich die Erstellung einer Anleitung dieser Applikation.
Um ein neues System zur Korrektur des Tool Center Points des Roboterwerkzeugs zu finden, wurde diese Bachelorarbeit von der Firma Badische Staal Enginering angeboten. Das Ziel ist es, die Position und den Winkel des TCP1 des an den Roboter angebrachten Tools zu korrigieren, basierend auf dem Messergebnis des TCP. Für diese Arbeit wurde eine Roboterstation bereitgestellt, die auch mit einer Triangulationskamera ausgestattet war.
Nach einer Analyse und Entwicklung des Systems wurde ein Programm erstellt, das Bewegungen, Messungen und Berechnungen kombiniert. Sobald dieses Korrektursystem entwickelt ist, wird eine Testbasis an die Projektbedingungen angepasst, um seine Zuverlässigkeit und Wiederholbarkeit unter realen Bedingungen zu testen. Diese Arbeit wird in der Testumgebung der Halle der BSW2 Anlagenbau und Ausbildung GmbH durchgeführt.
Um die Akzeptanz und Relevanz von Mailings zu steigern, ist es für Unternehmen wichtig, die Kundeninteressen möglichst gezielt anzusprechen. Bereits jetzt wird die E-Mail-Marketing Lösung Inxmail Professional zusammen mit Recommender Systemen eingesetzt, was das Erstellen und Versenden von E-Mails mit personalisierten Produktempfehlungen ermöglicht. Das notwendige Wissen für den Aufbau und den Betrieb dieser Recommender Systeme liegt dabei jedoch bei (externen) Technologie-Partnern, wodurch höhere Kosten und zusätzliche Abhängigkeiten für Inxmail und seine Kunden entstehen.
Mit dieser Arbeit wurde erforscht, was es für das Unternehmen Inxmail bedeutet, mit Open-Source-Software ein eigenständiges Recommender System aufzubauen und in die E-Mail-Marketing Lösung Inxmail Professional zu integrieren. Hierfür wird Inxmail Professional in einem typischen Kontext mit einem angebundenen Onlineshop System betrachtet. Das Recommender System soll anhand der Daten, die es aus dem Onlineshop System bekommt, individuelle Produktempfehlungen berechnen, um diese automatisiert beim Versand für jeden Empfänger abfragen und in die E-Mail integrieren zu können.
Auf Basis des Machine Learning Servers Harness und der integrierten Universal Recommender Engine wurde ein Recommender System aufgebaut.
Für die Integration des Onlineshop Systems Shopware wurde ein Plugin entwickelt, welches das Recommender System über alle relevanten Benutzeraktionen benachrichtigt. Die Inxmail Professional Integration basiert auf einem Webservice, der implementiert wurde, um die individuellen Produktempfehlungen für einen Kunden/Empfänger beim Recommender System abzufragen und mit den Detailinformationen zu den Produkten aus dem Onlineshop aufzubereiten.
Es konnte gezeigt werden, dass auf der Grundlage von Open-Source-Technologien ein eigenständiges Recommender System aufgebaut, evaluiert und in Inxmail Professional mit angebundenem Onlineshop System integriert werden kann. Der Gesamtprozess für die Evaluation des Systems wurde weitestgehend automatisiert, wodurch viele manuelle und zeitintensive Schritte über Steuerungsskripte abgehandelt werden können. Das System erlaubt die reibungslose Verarbeitung großer Datenmengen (> 19.000.000 Events) auf einem einzelnen Server. Die Vorhersagequalität wurde anhand realer Interaktionsdaten aus öffentlichen E-Commerce-Datensätzen mit Offline-Tests gemessen. Dadurch wurde sichergestellt, dass das System in der Lage ist, bei stetig wachsender Eventmenge zuverlässige aufempfehlungen zu berechnen. Die Tests haben gezeigt, dass bei mehreren Millionen Events von mehreren Tausend Benutzern für mehrere Tausend Produkte, 13 % bis 15 % aller tatsächlichen Käufe in den Top-10 der vom System vorgeschlagenen Empfehlungen enthalten waren.
Damit wurde die Grundlage für den selbstständigen Aufbau und Betrieb eines Recommender Systems gelegt, was eine sinnvolle und kostengünstige Alternative zu externen Systemen sein kann.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Analyse domänenseitiger Optimierungen für Deep Reinforcement Learning in der RoboCup Umgebung
(2021)
Mit dem Team "magmaOffenburg" nimmt die Hochschule Offenburg seit 2009 am internationalen Wettbewerb "RoboCup" in der 3D-Simulationsliga für Fußball teil. Dabei kommt es vor allem auf den Einsatz guter Lauf- und Kickverhalten an. Seit 2019 ist es dem Team magmaOffenburg möglich auch Deep Reinforcement Learning für die Weiterentwicklung der Verhalten einzusetzen. Während auf diese Weise schon verwendbare Ergebnisse für das Kicken produziert wurden, so fehlt noch ein Fortschritt beim Laufen lernen. Diese Arbeit beschäftigt sich mit den nötigen Optimierungen auf der Domänenseite, um das gelernte Laufen zu verbessern. Das beinhaltet die Optimierung des Observation- und Actionspaces, sowie auch eine Optimierung der Rewardfunktion. Dabei wurde versucht, die einzelnen Einflüsse verschiedener Parameter und Techniken innerhalb dieser drei Bereiche zu evaluieren. So konnte zum Schluss eine Verbesserung in der Laufgeschwindigkeit von etwas unter einem Meter pro Sekunde auf bis zu 1,8 Metern pro Sekunde erreicht werden. Ausschlaggebend für dieses Ergebnis waren vor allem der Verbesserungen in der Rewardfunktion.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
In den letzten Jahrzehnten haben permanentmagneterregte Synchronmaschinen und deren Regelung immer mehr Einzug in industrielle Applikationen erhalten. Durch die weltweit wachsende Elektromobilität partizipiert das Automobil an deren fortschreitenden Einsatzmöglichkeit.
Die Modellierung eines physikalisch-technischen Systems ist ein wichtiger Bestandteil in der Entwicklung einer Regelung. Inhaltlich setzt sich die Abschlussarbeit mit dieser Vorgehensweise für eine 6-phasige permanentmagneterregte Synchronmaschine auseinander. Durch die doppelte Anzahl an Statorwicklungen existieren unter anderem zwei verschiedene Wicklungskonzepte, wie eine elektrische Maschine aufgebaut sein könnte. Beide Wicklungskonzepte, bei dem entweder eine volle magnetische Kopplung oder keine magnetische Kopplung der betrachteten Teilsysteme vorliegt, werden untersucht. Ziel der Masterthesis ist es, eine mathematische Grundlage für die Modellbildung einer 6-phasigen permanentmagneterregten Synchronmaschine herzuleiten, um darauf aufbauend eine feldorientierte Regelung zu entwerfen. Wie in der industriellen Antriebstechnik gebräuchlich, erfolgt die Regelung in einem rotierenden Koordinatensystem. Die Stromregelung basiert auf einen zeitkontinuierlichen PI-Regler samt Spannungsbegrenzung und einer Anti-Windup-Struktur. In der Ausarbeitung wird mithilfe zweier Simulationsmodelle bewiesen, dass sowohl das mathematische Modell einer 6-phasigen permanentmagneterregten Synchronmaschine als auch deren Regelung simulationstechnisch die erwarteten Resultate liefern.
Da die hohe Anzahl an Steuergeräten in einem Fahrzeug von den unterschiedlichsten Automobilzulieferern entwickelt und produziert werden, ist es den einzelnen Steuergeräte-Herstellern nicht möglich, diese während des Entwicklungsprozesses in einem realen Fahrzeug zu testen. Restbussimulationen, womit Fahrzeugnetzwerke softwaretechnisch nachgebaut werden, schaffen hierbei Abhilfe.
Für die Entwicklung konkurrenzfähiger, effizienter und wirtschaftlicher Steuergerätesoftware wird die Embedded Software in einzelne Module unterteilt. Dieser modulare Prozess ermöglicht das Implementieren der Embedded Softwaremodule in Steuergeräte unterschiedlicher Fahrzeughersteller, sodass es zu Kosteneinsparungen während der Entwicklung und Wartung kommt. Steuergeräte, welche in unterschiedlichen Fahrzeugen zum Einsatz kommen und eine hohe Anzahl an gleichen Softwaremodulen besitzen, werden in sogenannten „Plattformen“ gehandelt.
Im Rahmen dieser Arbeit wird, analog zu der Plattformsoftware der Steuergeräte eine Plattform-Restbussimulation entworfen. Sie stellt dem Softwareentwickler während des kompletten Entwicklungszyklus eine lauffähige Testumgebung zur Verfügung, welche wichtige Steuergeräte eines Fahrzeugnetzwerks nachbildet. So werden in dieser Arbeit Konzepte erstellt und implementiert, welche eine effiziente und intuitive Benutzung der Plattform-Restbussimulation ermöglichen und alle Plattformkunden mit einer einzigen Simulationsumgebung abdecken. Dies führt zu einer zeitlichen Einsparung bei der Implementierung, Verwaltung und Bedienung.
Ziel dieses Projekt war, an einem existierenden, funktionierenden und LabVIEW-programmierten Roboter Verbesserungen durchzuführen, damit er stabiler, robuster, einfacher zu benutzen ist, und damit er in seinen Aktionen wiederholbar ist. Der Roboter wurde aus dem Starter-Pack von National Instruments (NI) gebaut, der ein MyRIO-Programmiergerät enthält. Dieses lässt sich in einer graphischen Programmierungssprache (LabVIEW) programmieren, die mehrere Aktionen parallel durchführen kann und in der Industrie weit verbreitet ist. Der Roboter wurde von einem vorherigen Team schon begonnen und konzipiert und besteht aus 3 Etagen, die die Motoren, die mechanischen Teilen und das elektronische Material behalten. Die Mechanik und die Elektronik waren funktionell, aber weder robust noch dauerhaft. Die Programmierung enthielt einige Fehler, die zuerst korrigiert werden mussten. Eine Zeit war nötig, um die vorherigen technischen Lösungen anzuschauen und um sich mit der Programmierung in LabVIEW vertraut zu machen. Dann wurde vor dem ersten Wettbewerb das System für die Aufgabe der Sortierung der Bälle mit einer opaken 3D-bedruckten Abdeckung ausgestattet, um den lichtempfindlichen Sensor vor Licht zu schützen und die vorige Alufolie mit einer robusten Lösung zu ersetzen. Unser Team, das aus drei bis fünf Studenten (abhängig von den Semestern) besteht, hat am 4. Oktober 2018 an einem Wettbewerb der Firma National Instruments teilgenommen, bei dem ein Roboter verschiedene Aktionen selbstständig auf einer Strecke durchführen soll. Ziel dieses Wettbewerbs ist es, die Teamarbeit und die Produkte von National Instruments durch den Bau eines Roboters und dessen Programmierung aus einem MyRIO-Gerät zu fördern. Der Wettbewerb fand bei der Veranstaltung „NI Days“ statt und sah fünf Teams französischer Studenten gegeneinander antreten. Unser Roboter gewann den ersten Platz im Wettbewerb, indem er die meisten Punkte in den Runden erzielte. Nach dem Wettbewerb wurde der Schwerpunkt auf die Mechanik und die Programmierung gelegt, da es noch Probleme gab und um die technischen Lösungen des Roboters robuster zu machen. Dabei wurden Schutzteile von Liniensensoren konzipiert und die Dimensionierung des Arms für die Aufgabe der Rohre begonnen, was danach von einem anderen Teammitglieder weitergeführt wurde. Bezüglich der Programmierung wurde das Frontpanel komplett geändert und die Klarheit des Programms anhand von Kommentaren und Beschreibungen verbessert, um das Programm einfacher und benutzerfreundlicher zu machen. Danach wurden die Probleme der Datei gelöst, die die Zustände des Roboters im Embedded Modus aufschreibt, damit wir Informationen haben, wenn es auf der Strecke einen Fehler gab. Schließlich galt es, die Regelung der Hauptmotoren des Roboters zu verbessern, um seine Verfahrgeschwindigkeit zu erhöhen und gleichzeitig sicherzustellen, dass er die Linie nicht verlässt. Dieses ermöglichte, die Ausführungsgeschwindigkeit der Strecke zu erreichen, die 1,4-mal höher war als die vorherige Geschwindigkeit. Am Ende dieser Arbeit wird ein neues Team von drei bis fünf Studenten das Projekt übernehmen, um sich auf den nächsten Wettbewerb vorzubereiten und den Roboter weiter zu verbessern.
Annotated training data is essential for supervised learning methods. Human annotation is costly and laborsome especially if a dataset consists of hundreds of thousands of samples and annotators need to be hired. Crowdsourcing emerged as a solution that makes it easier to get access to large amounts of human annotators. Introducing paid external annotators however introduces malevolent annotations, both intentional and unintentional. Both forms of malevolent annotations have negative effects on further usage of the data and can be summarized as spam. This work explores different approaches to post-hoc detection of spamming users and which kinds of spam can be detected by them. A manual annotation checking process resulted in the creation of a small user spam dataset which is used in this thesis. Finally an outlook for future improvements of these approaches will be made.
In Unternehmen entstehen beim Prozess der digitalen Transformation stetig neue Anwendungen und Auswertungen. Es wird viel Zeit und Geld in digitale Lösungen investiert, die das Arbeitsumfeld verbessern. Die Plattformen zur Verwaltung und Verteilung dieser werden dabei jedoch häufig vernachlässigt.
Ziel dieser Arbeit ist es eine solche Plattform in Form eines App-Stores für den Standort zu entwickeln. Dabei liegt der Fokus auf der Verbesserung der App-Nutzung, was durch eine nutzerfreundliche Oberfläche für Endanwender und Entwickler erreicht werden soll. Weiterhin ist eine hohe Wartbarkeit der Plattform notwendig, damit sie auch von einem kleinen Team betrieben werden kann.
Zunächst wurde analysiert, welche Architektur und Technologien für die Umsetzung gut geeignet und welche vom Unternehmen vorgegeben sind. Dabei stellte sich heraus, dass eine Microservice-Architektur am besten geeignet ist. Als Technologie stand lediglich das Framework zur Frontendimplementierung zur Wahl, hier war Angular am besten geeignet.
Durch die Verwendung eines iterativen Prozesses konnten bereits zu Beginn die späteren Nutzer in die Entwicklung eingebunden werden. Dies ermöglichte das Ermitteln aller Anforderungen und Entwerfen einer nutzerfreundlichen Oberfläche. Dieses iterative Vorgehen wurde auch während der Implementierung eingesetzt. Dazu wurden mit Testdaten befüllte Versionen bereitgestellt, damit Nutzer frühzeitig Rückmeldung geben konnten.
When a patient with hearing aids needs to partake in audiometry procedures they need to visit a specialist which costs both time and money. Ideally, the patient should be able to conduct these tests alone, during their own time, and without additional costs. With this idea comes the question of if whether this is possible or not, and, if it is, how.
This thesis explores the throughput of Bluetooth Low Energy and if it is configurable to have a high enough data rate to send high quality audio data with a lossless audio codec while communicating with a low end device. Additionally, this thesis will show that using Rust to develop embedded software is possible and how using it can make the process of doing so easier.
The status quo of PROFINET, a commonly used industrial Ethernet standard, provides no inherent security in its communication protocols. In this thesis an approach for protecting real-time PROFINET RTC messages against spoofing, tampering and optionally information disclosure is specified and implemented into a real-world prototype setup. Therefor authenticated encryption is used, which relies on symmetric cipher schemes. In addition a procedure to update the used symmetric encryption key in a bumpless manner, e.g. without interrupting the real-time communication, is introduced and realized.
The concept for protecting the PROFINET RTC messages was developed in collaboration with a task group within the security working group of PROFINET International. The author of this thesis has also been part of that task group. This thesis contributes by proofing the practicability of the concept in a real-world prototype setup, which consists of three FPGA-based development boards that communicate with each other to showcase bumpless key updates.
To enable a bumpless key update without disturbing the deterministic real-time traffic by dedicated messages, the key update annunciation and status is embedded into the header. By provisioning two key slots, of which only one is in used, while the other is being prepared, a well-synchronized coordinated switch between the receiver and the sender performs the key update.
The developed prototype setup allows to test the concept and builds the foundation for further research and implementation activities, e.g. the impact of cryptographic operations onto the processing time.
Das Ziel dieser Arbeit ist es eine Reihe an Informationen und Erfahrungen zur Verfügung zu stellen, um es der Hochschule Offenburg zu ermöglichen, den Zumi-Roboter für pädagogische Zwecke, speziell für den neu angebotenen Studiengang „Angewandte Künstliche Intelligenz“, einzusetzen. Sie umfasst die Analyse der verbauten Komponenten, Aufschluss über die Bedienoberflächen, die Handhabung des Roboters und Erfahrungsberichte über das Programmieren mit Zumi. Ebenfalls wurden zwei Vorführprogramme konzipiert, welche an Infotagen zur Promotion der Hochschule eingesetzt werden können. Den größten Teil der Arbeit umschließt eine voll ausgearbeitete Laboraufgabe, welche in kommenden Semestern für den bereits angesprochenen Studiengang zum Einsatz kommen und gegen Ende der Arbeit im Detail erläutert wird.
Es wurden verschiedenste Versuche durchgeführt, um die Komponenten zu analysieren und um deren Genauigkeit, Funktionsweise und Verlässlichkeit bewerten zu können.
Diese Arbeit umfasst erste Tests und die Inbetriebnahme eines neuen Prüfplatzes bei der QMK-GmbH. Der Prüfplatz selbst soll in der Lage sein, Leistungsshuntwiderstände kalibrieren zu können. Leistungsshuntwiderstände sind meist eher groß und schwer, damit durch viel Material die Wärmeentwicklung kompensiert werden kann. Zudem sind die Kontaktflächen dementsprechend groß, damit der Übergangswiderstand an den Kontaktflächen möglichst gering ist. Der Widerstandswert selbst ist sehr klein. Standardmäßig liegen Widerstände hier im Bereich von 10 bis 100 Ω. Um so kleine Widerstände möglichst genau messen zu können, muss technisch viel Aufwand betrieben werden. In der Regel wird dies mit einer Vierleitermessung realisiert. Leistungsshuntwiderstände werden aber generell mit einem eher hohen Strom im Bereich von 100 bis 10 000 . Mit dem neuen Prüfplatz soll dies auch umgesetzt werden. Die Widerstände sollen mithilfe von hohen Strömen bis 2 kA kalibriert werden, damit der, für den Prüfling, zutreffende Arbeitsbereich unter Berücksichtigung seiner Eigenerwärmung abgebildet werden kann. Für diese Anwendung wurde ein Prüfplatz entwickelt, der 2 kA zur Verfügung stellen kann und mithilfe eines genauen und kalibrierten Referenzwiderstandes den Widerstand des Kalibriergegenstandes ermitteln kann. Würde man den Aufbau messtechnisch beschreiben, so wird durch eine Konstantstromquelle ein Gleichstrom erzeugt, der beide in Reihe geschalteten Widerstände durchströmt. Damit ist der Strom an beiden Widerständen identisch und kann ermittelt werden. An den Widerständen wird gleichzeitig dessen Spannungsabfall gemessen. Mit dem ermittelten Strom kann anschließend über das Ohmsche Gesetz der „unbekannte“ Widerstandswert des Kalibriergegenstandes ermittelt werden. Dieser wird mit dem Sollwert seines Datenblattes verglichen und in einem Protokoll unter Berücksichtigung der eigenen Messunsicherheit bewertet. Die Messergebnisse werden nach der Messung bzw. Kalibrierung in einem Zertifikat zusammen gefasst, und dem Kunden ausgestellt.
Ziel der Arbeit ist es, eine Kalibriereinrichtung zu entwickeln und zu bewerten, die den Richtlinien und Grundlangen der DAkkS entspricht oder zumindest als Grundlage für eine Akkreditierung bei der DAkkS dient. In erster Linie, soll es mit der Kalibriereinrichtung möglich sein, ISO-Kalibrierungen nach der 9001 Norm durchzuführen und zu bewerten.
Vorhofflimmern ist die häufigste tachykarde Herzrhythmusstörung weltweit. Dabei verliert das Herz seinen normofrequenten Sinusrhythmus und schlägt nicht mehr regelmäßig, sondern zu schnell und unregelmäßig. Vorhofflimmern ist normalerweise keine lebensbedrohliche Herzrhythmusstörung, aber es kann zu einem Schlaganfall führen. Die Ursache dieser Herzrhythmusstörung sind die Kreisende bzw. die fokalen Erregungen im linken Atrium, die hauptsächliche aus einer oder mehreren Pulmonalvenen kommen. Die übliche Therapieverfahren des Vorhofflimmerns ist die Pulmonalvenenisolation.
Diese Bachelorthesis beschäftigt sich daher mit der Modellierung unterschiedlicher linksatrialer Fokus-Modelle und intrakardialer Elektrodenkatheter für die Diagnostik und Terminierung von Vorhofflimmern mittels Pulmonalvenenisolation im Offenburger Herzrhythmusmodell nach Schalk, Krämer und Benke, welches in CST
Studio Suite realisiert wurde.
Zu Beginn wurden die verschiedenen linksatrialen fokalen Flimmerquellen modelliert und daraufhin simuliert. Hierbei wurde jeweils eine Simulation mit linksatrialen fokalen Flimmerquellen, die aus einzelnen, dualen oder allen vier Pulmonalvenen kommen, durchgeführt. Es wurde ebenfalls eine weitere Simulation mit Biosignalen (aus der Realität) erstellt. Mit diesen Simulationen konnte nun der elektrische Erregungsablauf sichtbar gemacht werden. Daraufhin wurden die Katheter für die Diagnostik und für die Pulmonalvenenisolation modelliert und in das bestehende Offenburger Herzrhythmusmodell integriert. Bei den Diagnostik-Kathetern handelte es sich um 10-polige Lasso® Katheter, zwei Varianten von PentaRay® NAV eco Katheter und 4-polige Diagnostik-Katheter „OSYPKA FINDER pure®“. Ablationskatheter sind zwei Varianten von Pentaspline Basket pose Katheter und HELIOSTAR™ Ablation Ballon. Abschließend wurden verschiedene Varianten von Isolationsverfahren der Pulmonalvenen modelliert und daraufhin die linksatrialen fokalen Flimmerquellen nach der Isolation der Pulmonalvenen simuliert.
Diese Bachelorthesis befasst sich mit der Testung eines an der TU München entwickelten Biosignalverstärkers zur Registrierung von auditorisch evozierten Potentialen. Ziel dieses Projekts ist die Charakterisierung dieses Verstärkers. Dabei soll geprüft werden, ob der Verstärker AEPs registrieren und um verstellbare Faktoren verstärken kann. Dafür wurde eine MATLAB – Software implementiert, die es erlaubt über eine Soundkarte akustische Signale mittels Kopfhörer auszugeben und zeitgleich die vom Verstärker registrierten Potentiale einzulesen, zu Mitteln und sie grafisch darzustellen.
Erste Versuche wurden mit der Loop Back Box von Interacoustics, einem Schwingkreis, der einen künstlichen Patienten simuliert, durchgeführt. Diese Versuchsreihen zeigten, dass reale Signale gemessen werden. Anschließend konnten Probandenmessungen mit dem Verstärker und Referenzmessungen mit der Eclipse von Interacoustics durchgeführt werden. Bei sämtlichen Messreihen zeigte sich im Vergleich der beiden Systeme hohe Ähnlichkeit der Kurvenverläufe. Insbesondere das zeitliche Auftreten der Jewett V, der größten gemessenen Amplitude, war nahezu identisch. Allerdings stimmen die Amplitudenwerte nicht überein. Während die Amplitude der Jewett V bei Messungen mit der Eclipse um die 1µV erreichte, war die Amplitude beim Verstärker nur ein bis zwei Nanovolt groß. Damit ist die Verstärkung um ein tausendfaches geringer als bei der Eclipse.
Anhand der gewonnenen Erkenntnisse konnten Hardware technische Optimierungen evaluiert und diskutiert werden.
Die freie Software OpenSSH erlaubt den sicheren Fernzugriff auf entfernte Rechner über das Netzwerk oder Internet und kommt auf vielen Linux-Rechnern zum Einsatz. OpenSSH ermöglicht verschiedene Wege der Authentifizierung, unter anderem mit Hilfe von asymmetrischen Schlüsseln. Im Standardfall existiert hierbei für jedes Nutzerkonto auf dem Zielrechner eine Datei mit den public-Keys der zugriffsberechtigten Nutzer, welche manuell gepflegt wird. Diese Art der Zugriffskontrolle wird jedoch schnell unübersichtlich, sobald viele Mitarbeiter auf viele Server zugreifen dürfen. Um den Überblick über zugriffsberechtigte Nutzer zu behalten, ist es deshalb notwendig, zur Verwaltung eine zusätzliche Software einzusetzen. Im Rahmen dieser Arbeit soll eine solche Verwaltungssoftware konzipiert werden. Nach einer Analyse bestehender Systeme werden die Gründe für die Wahl eines der Tools dargestellt sowie die anschließende Weiterentwicklung der gewählten Software dokumentiert.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
Bildung für nachhaltige Entwicklung (BNE) hat einen festen Platz im deutschen Bildungssystem gefunden. BNE setzt sich die Ziele, Lernende zu informierten und verantwortungsbewussten Konsumenten zu befähigen sowie sie darauf vorzubereiten und das eigene Verhalten sowie das Verhalten anderer kritisch zu reflektieren. Der Nachhaltigkeitsbegriff von BNE orientiert sich hierbei an den drei Perspektiven, Soziales, Ökonomisches und Ökologisches, und an deren Wechselwirkungen untereinander.
Um Lernenden Nachhaltigkeitsthemen nach der Definition von BNE zu vermitteln, bieten sich Photovoltaik-Systeme (PV), vor allem in Off-Grid-Ausführungen, an, da sie aufgrund ihrer Eigenschaften als erneuerbare Energieerzeuger einen rücksichtsvolleren Umgang mit den vorhandenen Ressourcen fordern, Reflexion des eigenen Verhaltens anregen und sich in verschiedenen Situationen unter den drei Perspektiven der Nachhaltigkeit betrachten lassen.
Für eine Projektarbeit an allgemeinbildenden sowie beruflichen Schulen wurde außerhalb dieser Arbeit ein Off-Grid-PV-System entworfen, anhand dessen Lernende Fragestellungen der elektrischen Energieerzeugung aus Sonneneinstrahlung sowie allgemeine Nachhaltigkeitsthemen erforschen. Das didaktische Konzept zur Begleitung des PV-Systems wurde anhand von den Anforderungen der BNE entwickelt und gliedert sich in die Bereiche einleitende Workshops, Lern- und Arbeitsmaterial, weiterführendes Material sowie einen abschließenden Workshop zur Reflexion des erlernten. Die getroffenen Entscheidungen im Bereich der Technik sowie des Lehr-Lern-Materials werden jeweils didaktisch begründet.
Decarbonisation Strategies in Energy Systems Modelling: APV and e-tractors as Flexibility Assets
(2023)
This work presents an analysis of the impact of introducing Agrophotovoltaic technologies and electric tractors into Germany’s energy system. Agrophotovoltaics involves installing photovoltaic systems in agricultural areas, allowing for dual usage of the land for both energy generation and food production. Electric tractors, which are agricultural machinery powered by electric motors, can also function as energy storage units, providing flexibility to the grid. The analysis includes a sensitivity study to understand how the availability of agricultural land influences Agrophotovoltaic investments, followed by the examination of various scenarios that involve converting diesel tractors to electric tractors. These scenarios are based on the current CO2 emission reduction targets set by the German Government, aiming for a 65% reduction below 1990 levels by 2030 and achieving zero emissions by 2045. The results indicate that approximately 3% of available agricultural land is necessary to establish a viable energy mix in Germany. Furthermore, the expansion of electric tractors tends to reduce the overall system costs and enhances the energy-cost-efficiency of Agrophotovoltaic investments.
In dieser Arbeit wird die Identifikation von Trägheitsparametern von Mehrkörpersystemen, am Beispiel eines ein aus vier Segmenten bestehenden Roboterarms untersucht. Es werden verschiedene neuronale Netzarchitekturen zur Identifikation der Trägheitsparameter des Roboterarms exploriert. Als Referenz für das Abschneiden der Ansätze wird ein vorab implementierter numerischer Optimierungsansatz, welcher mittels der Software „Matalb“ umgesetzt wurde, benutzt. Der Ansatz zum Aufstellen der benötigten Bewegungsgleichungen und die Formulierung des Regressionsproblems unterscheidet sich von den in der Literatur verwendeten Ansätzen, und beruht auf einem neu entwickelten Sensorkonzept der Hochschule Offenburg (des Sweaty Labors).
Der numerische Ansatz, insbesondere nach Linearisierung des Problems, erzielte herausragende Ergebnisse und konnte die idealen Parameterwerte präzise identifizieren. Demgegenüber standen die neuronalen Netzwerke, deren Potenzial trotz umfassender Untersuchung verschiedener Architekturen und Ansätze nicht vollends ausgeschöpft werden konnte. Die Resultate zeigen deutlich die Grenzen und Herausforderungen bei der Anwendung maschineller Lernmethoden in der spezifischen Aufgabenstellung der Trägheitsparameteridentifikation auf.
Diese Arbeit leistet einen Beitrag zum Verständnis der Möglichkeiten und Grenzen bei der Anwendung neuer Messtechnologien und Berechnungsverfahren in der Robotik. Die überlegene Leistung des numerischen Solvers gegenüber den neuronalen Netzansätzen unterstreicht die Bedeutung weiterer Forschungen in diesem Bereich.
Mit der vorliegenden Bachelorarbeit wird der Roboter mit dem Namen Pepper evaluiert und dokumentiert. Die Hochschule Offenburg besitzt einen dieser Roboter seit 2019 und will diesen in Forschungsprojekten und in Verbindung mit dem Labor Autonome Systeme einsetzen. Im Laufe dieser Arbeit werden die Sensoren und Aktuatoren auf ihre Genauigkeit, Beschaffenheit und Fehleranfälligkeit getestet. Neben dieser allgemeinen Evaluierung wird ermittelt, ob der Pepper mit Hilfe seiner Bewegungserfassung zur Aktivierung von Senioren geeignet ist. Im Weiteren wird eine Aufgabe für das Labor Autonome Systeme ausgearbeitet. Bei dieser Aufgabe sollen die Studenten der Hochschule, über die NAOqi API des Roboters, Anweisungen an den Pepper übermitteln, welche dieser anschließend selbstständig ausführt. Abschließend werden die gesammelten Evaluierungsergebnisse der Sensoren, Aktuatoren und Verwendungsmöglichkeiten innerhalb der Hochschule oder einem Pflegeheim veranschaulicht.
Jeder Mensch ist ständig unfreiwillig von einer Flut akustischer Reize umgeben. Diese Situation stellt für Menschen mit Hörverlust eine besondere Herausforderung dar. Menschen mit Hörverlust hören durch Hörgeräte zwar alles verstärkt, jedoch stellt sich die Frage, ob ein Hörgerät lediglich eine einfache Verstärkung von Schallwellen ist oder ob es darüber hinausgehende Funktionen bieten kann.
Die vorliegende Thesis widmet sich der akustischen Szenenanalyse in Hörgeräten, wobei der Schwerpunkt auf der Integration von Machine Learning liegt. Das Ziel besteht darin, eine automatisierte Erkennung und Anpassung an verschiedene akustische Situationen zu ermöglichen. Die Arbeit konzentriert sich insbesondere auf die Analyse grundlegender Szenarien wie: Sprache in Ruhe, absolute Ruhe, Sprache in Störgeräuschen und Störgeräuschen in Audiodaten.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.
In der vorliegenden Thesis werden Empfehlungsalgorithmen zur Verbesserung von Wein-Empfehlungen evaluiert. Der Algorithmus wird zur Entscheidung zwischen zwei Weinen eingesetzt, so dass der jeweils für den Kunden geeignetere Wein empfohlen wird. Das derzeitige System setzt Collaborative Filtering durch den Alternating Least Squares (ALS) Algorithmus um. Bei Kunden und Weinen, die nicht die notwendigen Bedingungen für die Anwendung von ALS erfüllen, wird durch Zufall entschieden.
Dem bestehenden Ansatz wurden folgenden Verfahren gegenübergestellt: Content-based Filtering mit einen Autoencoder und Hybrid Filtering mit einem neuronalen Netz sowie mit der Empfehlungsbibliothek LightFM. Die neuen Ansätze berücksichtigen immer die Weineigenschaften und können für noch nicht gekaufte Weine eingesetzt werden (Cold-Start Problem). Verglichen wurden die Ansätze durch zwei Ranking-Methoden und einen selbst-entwickelten offline A/B-Test.
Unter den neuen Ansätzen schnitt LightFM am besten ab. ALS lieferte insgesamt die besten Ranking-Werte. Durch ein online A/B-Test zwischen ALS und LightFM konnten keine signifikanten Ergebnisse ermittelt werden. Insgesamt konnte auf Basis der in den Tests gesammelten Daten keine Verbesserung der Empfehlungslogik gegenüber dem bestehenden Verfahren mittels ALS nachgewiesen werden. Für eine abschließende statistisch signifikante Beurteilung müssten mehr online A/B-Tests durchgeführt werden.
In dieser Thesis wird die Entwicklung einer Progressive Web App, die zur Auflistung von Stellenanzeigen der Valiton GmbH dienen soll, aufgezeigt. Dabei soll ermittelt werden, ob eine Progressive Web App einer Nativen App nahekommt und ob sich der damit verbundene Aufwand lohnt. Umgesetzt wurde die Anwendung mit Hilfe des JavaScript Frameworks Vue.js. Bei der Umsetzung lag der Fokus auf der Offlinefähigkeit, die Push- Benachrichtigungen und das Responsive Design. Diese konnten mit dem UI Framework Vuetify und dem Service Worker implementiert werden. Die Anwendung läuft in allen Browsern, doch sie kommt am besten durch die vollständige Unterstützung des Chrome Browser zur Geltung. Progressive Web Apps werden Nativen Apps immer ähnlicher, jedoch sind sie kein kompletter Ersatz. Ob sich die Umsetzung lohnt, kommt auf den Anwendungsfall an. Die Technologien und Unterstützung verschiedener Browser werden immer besser, womit gesagt werden kann, dass Progressive Web Apps gute Chancen in der Zukunft haben.
Das Lokalisationssystem besteht aus einem Anwender-PC mit Bluetooth-Adapter, einem Lautsprecherkreis sowie einem Tablet. Eine Funktion im Programm Matlab auf dem Anwender-PC dient zur Eingabe der Steuerparameter, welche in einer Textdatei an eine Schnittstelle, die ebenfalls auf dem Anwender-PC installiert ist, übergeben und via Bluetooth an eine native App auf einem Tablet gesendet wird. Die Schnittstelle wurde mithilfe der IDE Eclipse mit der Programmiersprache Java erstellt und kann unter der Bedingung, dass auf dem verwendeten PC JRE Version 1.8.0 oder jünger vorinstalliert ist, systemunabhängig ausgeführt werden. Je nach gesendeten Parametern wird eine von sechs möglichen GUIs auf dem Bildschirm des Tablets angezeigt, welche die Anordnung der Lautsprecher im Audiometrieraum wiedergibt. Nach dem Schallereignis hat der Proband die Möglichkeit, je nach gewählter GUI, einen von sieben bzw. zwölf angezeigten Lautsprechersymbolen oder einen beliebigen Punkt auf dem Bildschirm anzutippen. Diese Eingabe entspricht der Richtung, welche der Proband als Schallquelle lokalisierte. Nach Eingabe der Probandenantwort wird diese via Bluetooth an die Schnittstelle und somit an Matlab gesendet, wo die Antwort ausgewertet werden kann.
Das Ziel in dieser Arbeit ist die Programmierung von einem Mikroprozessor, der als ein Richtmikrofon verwendet wird, um unterschiedlichen Richtcharakteristiken zu erzeugen.
Dabei stellt sich die Frage: Ist es möglich ein Mikroprozessor so zu programmieren, dass er eine Stereoaufnahme so verarbeiten kann, sodass unterschiedliche Richtcharakteristiken erzeugt werden könnten?
Um die Frage zu beantworten, wurde eine technische Ausarbeitung von einem Mikroprozessor und seine Programmierung benötigt. Diese befasst sich mit der Programmierung in C++ / Arduino IDE des Mikrokontrollers und eigene Erstellung von Tests, um die Ergebnisse darzustellen.
Als weitere Basis wurden nur verbraucherorientierten Mikroprozessoren untersucht und die beste Möglichkeit wurde ausgesucht und weiterentwickelt. Zudem lag der Fokus auf der Reproduzierbarkeit der Ergebnisse.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
Das Ziel der vorliegenden Abschlussarbeit war es, ein automatisches Testsystem für die Entwicklung der Embedded-C++-Softwarebibliothek semf zu erstellen. Bei den Software-Modulen die dabei getestet werden, handelt es sich um sogenannte Hardware-Abstraktionen, die die Verwendung der von den Mikrocontroller Herstellern bereitgestellten Hal-Bibliotheken vereinfachen.
Die wohl größte Herausforderung dieser Abschlussarbeit bestand darin, die von dem zu testenden Gerät nach außen gesendeten Nachrichten zu validieren, so wie von außen kommende Nachrichten zu generieren, mit welchem die Leseoperationen des zu testenden Gerätes überprüft werden können. Mithilfe einer Helper-Gegenstelle konnte dies jedoch umgesetzt werden. Das Ergebnis ist ein System mit welchem bestehende und zu entwickelnde Hardware-Abstraktionen zuverlässig, automatisch und effizient validiert werden können.
Diese Abschlussarbeit ist sowohl für Nutzer von semf, als auch für diejenigen Softwareentwickler interessant, die sich für das Testen von eingebetteten Systemen interessieren.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
In dieser Abschlussarbeit wurde die bisherige Spielstrategie des RoboCup3D-Clients an die durch den FatProxy möglich gewordenen perfekten Kicks angepasst. Dazu wurde die aktive Entscheidungslogik am Ball komplett überarbeitet und eine neue Positionierungsstrategie anhand der bisher verwendeten Architektur entwickelt.
Die neue aktive Entscheidungslogik verwendet dabei eine neue, von den Mitspielerpositionen abhängige, Positionsberechnung und mehrere neue Bewertungsmethoden, die diese Positionen bewerten. Zusätzlich gibt es nun auch eine Funktionalität, die den neu benötigten vertikalen Schusswinkel für jede Position bestimmt. Für die neue Positionierung wurde eine Rautenformation gewählt, bei der die verschiedenen Rollen jetzt eigene Spielfeldbereiche zugewiesen bekommen, die sich teilweise überlappen. Diese Bereiche sind nötig geworden, da die Rollen sich jetzt weniger am Ball und mehr direkt am Spielfeld orientieren.
Bei der zum Schluss durchgeführten Evaluation der Spielergebnisse zwischen neuen und alten Strategiekonfigurationen hat sich ergeben, dass die komplett neue Strategiezusammenstellung mit durchschnittlich zwei Toren Vorsprung gegen die alte Strategie gewinnt und damit besser mit den neuen Möglichkeiten interagiert. Mischt man neue und alte Strategiekomponenten hat das jedoch den gegenteiligen Effekt, da die Mischvarianten gegen die alte Strategie verlieren. Die neuen Komponenten benötigen also das gegenseitige Zusammenspiel, um effizient zu funktionieren.
Diese Arbeit beschäftigt sich mit der Dynamik der Konsensbildung in sozialen Netzwerken mit unterschiedlichen Strukturen. Dafür wird mittels des Naming Games die Kommunikation mit dem Ziel der Konsensbildung simuliert und analysiert. Es geht dabei um die Frage, welchen Einfluss die unterschiedlichen Netzwerkstrukturen auf die Dynamik der Simulationen haben. Neben den unterschiedlichen Netzwerkstrukturen werden weitere Faktoren gesucht und analysiert, welche die Dynamik der Konsensfindung beeinflussen. Dafür werden die Simulationen unter bestimmten Parametern und Eigenschaften mehrfach wiederholt. Aus diesen mehrfachen Durchführungen wird eine repräsentative Simulation ausgewählt und untersucht. Hinsichtlich der Frage nach dem Einfluss der Netzwerkstruktur auf die Dynamik, konnte festgestellt werden, dass die Dichte des dem Netzwerk zugrundeliegenden Graphen einen erheblichen Einfluss auf die Effizienz der Kommunikation hat. Mit steigender Dichte steigt auch die Effizienz der Kommunikation. Zudem konnten zwei weitere wesentliche Einflussfaktoren ausgemacht werden: sogenannte Autoritäten und Announcements. Bei Autoritäten handelt es sich um Teilnehmer, welche besonders viele weitere Teilnehmer der Simulation kennen und bei Announcements handelt es sich um eine Form der Kommunikation, die zu einem Zeitpunkt zwischen mehr als zwei Teilnehmern stattfinden kann. Das Hinzufügen dieser Parameter führt wieder zu einer veränderten, effizienteren Dynamik.
Hintergrund:
Die Versorgung von Patienten mit Cochleaimplantaten erfordert im Rahmen der Rehabilitation nicht nur Hörtrainings, sondern auch regelmäßige Erfassungen des Hörvermögens. Diese Tests konzentrieren sich hierbei meist auf das Vertehen von Sprache. Hierbei müssen Patienten Wörter oder Zahlen unter Vorhandensein von Störgeräuschen verstehen. Diese Störgeräusche sind in der Regel künstlicher Natur wie Rauschen. Das Ziel dieser Arbeit ist es, diese künstlichen Störgeräusche durch realistischere zu ersetzen und zusätzlich einen Raumklang sowohl für die Störgeräusche als auch für die zu verstehenden Wörter oder Zahlen zu implementieren. Um die Erfassung der multimodalen Sprachwahrnehmung zu verbessern, wird nicht nur eine virtuelle auditive Umgebung geschaffen, sondern auch eine visuelle Komponente integriert, die auf einem Head-Mounted Display (HMD) wiedergegeben werden kann. Das Ziel ist es, eine audiovisuelle virtuelle Realität zu schaffen, die alltagsrelevante Kommunikationssituationen widerspiegelt und somit die Validität und Relevanz von Hörtests erhöht.
Umsetzung:
Für die Umsetzung wurden Werkzeuge zur Simulation von Raumakustik und eine hochwertige visuelle Darstellung auf einem HMD benötigt. An der Technischen Universität München wurde das Tool "real-time Simulated Open Field Environment" (rtSOFE) entwickelt, das durch die Berechnung von Raumimpulsantworten Raumakustik simuliert und die direkte Wiedergabe von Schallquellen in virtuellen Klangfeldern ermöglicht. Für die visuelle Umgebung wurde die Unreal Engine 5 gewählt, die sehr realistische Darstellungen virtueller Räume ermöglicht und hauptsächlich in der Videospielindustrie verwendet wird.
Ergebnisse:
Mit den Tools rtSOFE und Unreal Engine wurden drei realistische Umgebungen geschaffen: Ein Pub, ein Wohnzimmer und eine U-Bahn-Station. Diese Umgebungen enthalten realitätsnahe Störgeräusche, die zur jeweiligen Umgebung passen. Probanden können sich dank des HMD in diesen Umgebungen frei bewegen. Zudem wurde ein Testsetup unter Verwendung von Sätzen aus dem Oldenburger Satztest innerhalb dieser audiovisuellen Umgebung umgesetzt.
Fazit:
Das entwickelte Testsetup in der audiovisuellen Umgebung ermöglicht eine realistischere und alltagsnähere Erfassung des Hörvermögens im Vergleich zu herkömmlichen Hörtests. Die visuelle Komponente trägt zur Steigerung der Realitätsnähe bei. Allerdings fehlt im aktuellen Setup die Synchronisation zwischen der auditiven und visuellen Umgebung, insbesondere in Form von Lippenbewegungen (Lip Syncing), um eine umfassende Erfassung der multimodalen Sprachwahrnehmung zu ermöglichen.
Die Arbeit befasst sich mit der Inbetriebnahme eines Batteriemanagementsystems des asiatischen Herstellers „LLT Power“ zur Verwendung im batterieelektrisch betriebenen Hocheffizienzfahrzeug der Hochschule Offenburg (Schluckspecht S6). Zudem wird eine Adapterplatine entwickelt, gefertigt und getestet, die per Schalter wahlweise einen Bluetooth- oder USB-Zugriff auf die UART-Schnittstelle des BMS ermöglicht. Gleiches gilt für die im Fahrzeug eingesetzte Spannungsversorgungsplatine die sowohl die Hupe als auch die Leistungselektronik versorgt. Darüber hinaus wird im Rahmen dieser Arbeit auf diverse Programme und Arbeitsschritte eingegangen, die für den Entwicklungsprozess benötigt wurden. Exemplarisch wird das Vorgehen bei der Auswahl der Komponenten sowie der Bestellprozess der Platine aufgezeigt. Auf den Entwurf der zugehörigen 3D-Modelle, die für die Konstruktion der Gehäuse herangezogen werdenkönnen wird ebenso wie auf die Fertigung der Platine eingegangen. Abschließend wird der Projektverlauf resümiert und ein Ausblick auf zukünftige Entwicklungsmöglichkeiten gegeben
This research presents a comprehensive exploration of hydroponic systems and their practical applications, with a focus on innovative solutions for managing environmental and analytical sensors in hydroponic setups. Hydroponic systems, which enable soilless cultivation, have gained increasing importance in modern agriculture due to their resource-efficient and high-yield nature.
The study delves into the development and deployment of the SensVert system, an adaptable solution tailored for hydroponic environments. SensVert offers adaptability and accessibility to farmers across various agricultural domains, addressing contemporary challenges in supervising and managing environmental and analytical sensors within hydroponic setups. Leveraging LoRa technology for seamless wireless data transmission, SensVert empowers users with a feature-rich dashboard for real-time monitoring and control. The study showcases the practical implementation of SensVert through a single sensor node, seamlessly integrating temperature, humidity, pressure, light, and pH sensors. The system automates pH regulation, employing the Henderson-Hasselbalch equation, and precisely controls liquid dosing using a PID controller. At the core of SensVert lies an architecture comprising The Things Stack as the network server, Node-Red as the application server, and Grafana as the user interface. These components synergize within a local network hosted on a Raspberry Pi; effectively mitigating challenges associated with data packet transmission in areas with limited internet connectivity.
As part of ongoing research, this work also paves the way for future advancements. These include the establishment of a wireless sensor network (WSN) utilizing LoRa technology, enabling seamless over-the-air sensor node updates for maintenance or replacement scenarios. These enhancements promise to further elevate the system's reliability and functionality within hydroponic cultivation, fostering sustainable agricultural practices.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.
Das Ziel der Arbeit ist zu erforschen, ob die Erstellung eines Digital Twin des Hamburger Hafens durch Open Source Lösungen realisierbar ist. Die Grundlagen führen in die Themen Digital Twin und Smart City ein. Es wird darauf eingegangen, welche Vorteile durch die Verwendung eines Digital Twins gewonnen werden können und wie sich die verschiedenen Digital Twin-Typen unterscheiden. Es werden verschiedene Architekturen anhand eines Smart City Index weltweit evaluiert, um ein geeignetes Digital Twin-Framework zu finden. FIWARE hat sich als geeignetes Frame- work erwiesen und wird im Anschluss analysiert. Anhand der Evaluierung wird ebenfalls das 3D-Visualisierungs Framework CesiumJS als Open Source Lösung ermit- telt. Das Unternehmen Hamburg Port Authority wird vorgestellt und die interne IT- Infrastruktur betrachtet. Anhand der Architekturdokumentation arc42 werden die Anforderungen und die erforderliche Architektur in Zusammenarbeit mit der Hamburg Port Authority ermittelt. Im Anschluss wird der Architekturentwurf anhand eines Prototyps implementiert. Probleme oder Anforderungen, die nicht erfüllt werden können, werden beschrieben. Abschließend werden die Ergebnisse und das Fazit der Hamburg Port Authority zusammengefasst.
In dieser Arbeit sollte eine mögliche Lösung für die Stimulation im Rahmen der auditiven Hirnstammmessung geprüft werden. Mit einer Sequenz, die rechts, links und binaural periodisch stimuliert, wird überprüft, ob somit eine verkürzte Messzeit erzielt werden kann. In Kapitel 3 ist das Vorgehen diesbezüglich genauer beschrieben. Dieses Vorgehen zieht die Generierung einer Stimuli-Sequenz, sowie die beiden verwendeten Messgeräte mit ein. Zum einen wurden Messungen mit der Eclipse und zum anderen mit dem Sentiero durchgeführt. Die MATLAB-Skripte zur Ansteuerung und die Auswertung der evozierten Potenziale sind im darauffolgenden Kapitel 4 zu finden. Die Datenanalyse in Kapitel 5 beinhaltet einerseits die Messergebnisse der Eclipse. Dabei konnte mit der Sequenz erfolgreich eine ABR-Messung durchgeführt werden. Allerdings entstanden bei der Umsetzung in eine Live-Aufzeichnung der BIC Schwierigkeiten, die ebenfalls beschrieben wurden. Des Weiteren werden in Kapitel 5 die beiden Stimulus-Arten(Toneburst und Click) verglichen. Dabei konnten Messergebnisse gesammelt werden, welche die Aussage bestätigen, dass mit dem Click-Reiz höhere Amplituden der FAEP erzielt werden können. Dafür wurde von fünf Probanden die Einzelstimulation gegenübergestellt. Zudem wurde in der Analyse mit Hilfe einer Kreuzkorrelation geprüft, ob eine Verschiebung der Amplituden der rechten und linken Stimulation eine stärkere Ausprägung der DN1 zur Folge hat. Die Ergebnisse zeigten dabei jedoch keine bedeutenden Unterschiede der Amplituden, wobei auf eine Verschiebung verzichtet werden konnte. Ein weiterer Vergleich, der gezogen werden konnte, ist die Gegenüberstellung der Einzelstimulation mit der Sequenz. Für den Vergleich wurden zwei Probanden ausgewählt, die jeweils sowohl eine hohe Reproduzierbarkeit, als auch ähnliche Wellenkomplexe aufzeigten. Der Vergleich beinhaltete das zeitliche Eintreffen der evozierten Potenziale sowie die Ausprägungen der Amplituden. Die Betrachtung beschränkte sich durchweg auf die Amplituden der Welle lll und der Welle V. Bei den Ergebnissen entstand eine Befürwortung für die Verwendung der Einzelstimulationen, da diese eine verkürzte Latenzzeit der Potenziale und höhere Amplitudenausschläge zur Folge hatten. Allerdings konnte unter der Verwendung der Sequenz-Stimulation dennoch bei manchen Probanden eine deutlichere Ausprägung des DN1-Potenzials gezeigt werden.
Ob durch Stimulation mit einer Sequenz eine zeiteffizientere ABR-Messung durchgeführt werden kann, konnte während der Arbeit nicht validiert werden. Um diesbezüglich eine genauere Aussage treffen zu können, werden weitere Messdaten benötigt.
Die Thesis beschäftigt sich mit dem Kommunikationsprotokoll Lightweight Machine to Machine, welches für das Internet of Things entwickelt wurde. Es soll untersucht werden, wie das Protokoll funktioniert und wie es eingesetzt werden kann. Ebenfalls soll die Thesis zeigen, wie und ob Lightweight Machine to Machine über Long Term Evolution for Machines für Anwendungen mit begrenzten Ressourcen geeignet ist. Um diese Fragestellung zu beantworten, wurde das Protokoll auf Grund seiner Spezifikation und seinen Softwareimplementationen untersucht. Daraufhin wurde ein Versuchssystem entworfen und dieses anschließend auf sein Laufzeitverhalten und auf sein Energieverbrauch getestet. Die Evaluation des Protokolls ergab, dass es viele sinnvolle Funktionen zugeschnitten auf Geräte im Internet of Things besitzt und diese Funktionen kompakt und verständlich umsetzt. Da das Protokoll noch relativ jung ist, stellt es an verschiedenen Punkten eine Herausforderung dar. Die Tests des Versuchssystems ergaben, dass Lightweight Machine to Machine sich unter bestimmten Bedingungen für ressourcenbegrenzte Anwendungen eignet.
Im Rahmen des Projekts "Myo-Hand" soll ein Prototyp einer myoelektrischen Handprothese entwickelt werden. Diese Prothese soll für handamputierte Menschen nützlich sein, da sie ihren Komfort und ihre Unabhängigkeit im Alltag verbessert und somit zu ihrer Eingliederung in die Gesellschaft beiträgt.
In dieser Abschlussarbeit werden die gesamte Arbeit, Studien und Realisierungen vorgestellt, die in den letzten zwei Semestern (WS2022 und SS2023) der Mechanik der Prothese durchgeführt wurden.
Nach einer kurzen Vorstellung der Arbeit des letzten Jahres wird ein Überblick über die Idee und die allgemeine Funktionsweise der Prothese gegeben, die verschiedene Komponenten umfasst: Elektronik, Machine-Learning, Steuerung, Wiederverwertbarkeit und Carbon Footprint. Das Lastenheft wird ebenfalls vorgestellt.
Die technologischen Entscheidungen werden näher erläutert: das Design der Teile, die Wahl der Verbindungen und die verwendeten Motoren. In einem zweiten Teil werden die Schritte zur Herstellung des ersten und zweiten Prototyps sowie eine Kritik des Ergebnisses vorgestellt. Weiter werden die Verbesserungen und die Ziele bis Januar 2024 besprochen.
Anschließend werden der Lebenszyklus der Prothese und ihr Carbon Footprint analysiert und mithilfe der Software Ecodesign Studio berechnet.
The new input method was developed for research acoustic localization, including real and virtual sound sources. For these types of research, the input method plays an important role in the investigation of the auditory localization of sound sources in the collection of valid and meaningful data. The input method using LED array is based on the localization test, which is already used in the acoustics laboratory of the Peter-Osypka-Institute. The current input method via tablet with continuous input surface generates a high inaccuracy and error variance compared to the usual discontinuous input. To minimize this type of error for future measurements, an alternative method will be implemented as part of this bachelor thesis. The methodology of the alternative input method is based on the use of a controllable LED array with rotary encoder and push button. For this, an angular range from -90° to 90° with a 1° angular resolution shall be realized. The LED-array enables a visual representation while localizing sound sources.