Refine
Document Type
- Master's Thesis (34) (remove)
Has Fulltext
- yes (34)
Is part of the Bibliography
- no (34)
Keywords
- IT-Sicherheit (4)
- Deep learning (3)
- Energiemanagement (2)
- Landwirtschaft (2)
- Maschinelles Lernen (2)
- 5G (1)
- Agrophotovoltaics (1)
- Algorithmus (1)
- Android (1)
- Attention-basiert (1)
Institute
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34) (remove)
Open Access
- Closed Access (17)
- Closed (13)
- Open Access (4)
- Diamond (3)
Durch den stark wachsenden Klinikcampus des Universitätsklinikums Freiburg ist die zentrale Versorgung mit medizinischem Sauerstoff an ihrer Kapazitätsgrenze angelangt. Es handelt sich um ein großflächiges, teilweise über viele Jahrzehnte altes Ringleitungssystem, an das immer wieder neue Kliniken und Institute angeschlossen wurden.
Das Ziel der vorliegenden Masterarbeit ist eine umfangreiche Untersuchung und Beurteilung von Sicherheits- und Kapazitätsparametern der zentralen medizinischen Gasversorgung. Hierzu erfolgte zunächst eine Literaturrecherche zum aktuellen Stand der Technik. Danach wurde eine Umfrage an insgesamt 14 deutschen Universitätskliniken mit ähnlicher Ringleitungstopologie durchgeführt. Es zeigte sich, dass in den meisten Fällen bisher noch keine detaillierte Analyse des eigenen Ringleitungssystems für medizinische Zwecke durchgeführt wurde.
An der Universitätsklinik Freiburg erfolgte die Analyse des Ringleitungssystems mit Hilfe der nicht-invasiven Clamp-On Messmethode für Gase. Dabei wurde als erstes festgestellt, dass die Strömungsgeschwindigkeiten innerhalb des Ringleitungssystems im Mittel so niedrig sind, dass keine Brandgefährdung vom z.B. durch die Selbstentzündung von Sauerstoff für die Klinik zu erwarten ist. Es stellte sich weiter heraus, dass für die Notversorgung der einzelnen Kliniken und Institute die Dimensionierung der Flaschenbatterien in lokalen Gasunterzentralen deutlich zu gering ist und dort nachgebessert werden sollte. Im Hinblick auf die o.g. Umfrage ist diese Masterarbeit sicher auch für andere Universitätskliniken bzw. Kliniken mit Campusinfrastruktur mit ähnlicher Ringleitungstopologie interessant.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.
Im Rahmen dieser Arbeit wurde die Performanz grundlegender Bildverarbeitungsalgorithmen wie einem Gaußfilter und Farbraumkonvertierung, aber auch der Feature Detection-Algorithmen Scale Invariant Feature Transform (SIFT) und Speeded-Up Robust Features (SURF) auf einem Raspberry Pi 4 unter Verwendung von openCV unter Variation der Parameter untersucht. Ein Algorithmus zur Farberkennung der Würfelsteine des Rubik's Cube wurde entwickelt, implementiert und evaluiert. Die Laufzeiten der Algorithmen wurden mit dem Raspberry Pi 4 und einem Lenovo P12.Gen Notebook mit Intel-i9 Prozessor gemessen. Die Ergebnisse wurden verglichen und diskutiert.
As the Industry 4.0 is evolving, the previously separated Operational Technology (OT) and Information Technology (IT) is converging. Connecting devices in the industrial setting to the Internet exposes these systems to a broader spectrum of cyber-attacks. The reason is that since OT does not have much security measures as much as IT, it is more vulnerable from the attacker's perspective. Another factor contributing to the vulnerability of OT is that, when it comes to cybersecurity, industries have focused on protecting information technology and less prioritizing the control systems. The consequences of a security breach in an OT system can be more adverse as it can lead to physical damage, industrial accidents and physical harm to human beings. Hence, for the OT networks, certificate-based authentication is implemented. This involves stages of managing credentials in their communication endpoints. In the previous works of ivESK, a solution was developed for managing credentials. This involves a CANopen-based physical demonstrator where the certificate management processes were developed. The extended feature set involving certificate management will be based on the existing solution. The thesis aims to significantly improve such a solution by addressing two key areas that is enhancing functionality and optimizing real-time performance. Regarding the first goal, firstly, an analysis of the existing feature set shall be carried out, where the correct functionality shall be guaranteed. The limitations from the previously implemented system will be addressed and to make sure it can be applied to real world scenarios, it will be implemented and tested in the physical demonstrator. This will lay a concrete foundation that these certificate management processes can be used in the industries in large-scale networks. Implementation of features like revocation mechanism for certificates, automated renewal of the credentials and authorization attribute checks for the certificate management will be implemented. Regarding the second goal, the impact of credential management processes on the ongoing CANopen real-time traffic shall be a studied. Since in real life scenarios, mission-critical applications like Industrial control systems, medical devices, and transportation networks rely on real-time communication for reliable operation, delays or disruptions caused by credential management processes can have severe consequences. Optimizing these processes is crucial for maintaining system integrity and safety. The effect to minimize the disturbance of the credential management processes on the normal operation of the CANopen network shall be characterized. This shall comprise testing real-time parameters in the network such as CPU load, network load and average delay. Results obtained from each of these tests will be studied.
Im Rahmen dieser Arbeit wurde das elektrisch / elektronische System des Hocheffizienzfahrzeugs „Schluckspecht 6“ hinsichtlich seiner Übersichtlichkeit und Modularität optimiert. Essenziell war die Vernetzung der durch verschiedene Projektgruppen erstellten Teilsysteme mittels des neu integrierten CAN-Bus. Im Zuge der Überarbeitung des E/E-Systems wurde auch ein neuer Gesamtfahrzeugschaltplan angefertigt.
Im Rahmen der Optimierung des E-Antriebsstrangs wurde eine neue Motorsteuerung entwickelt, die aufgrund des verbauten Vierquadrantenstellers neben einem zuverlässigen Antrieb des Schluckspecht 6 zukünftig auch die Steuerung und Regelung von Lastmaschinen in – für den Schluckspecht 6 neu entwickelten – Testständen erlaubt. Für die Messdatenerfassung, während Test- und Rennläufen sowie in den Testständen, wurden diverse Messsysteme realisiert. Dazu gehören die Messung des Motorstroms, der Zwischenkreisspannung und der Motordrehzahl. Basierend auf der Motorstrommessung und Zwischenkreisspannungsmessung wurde eine Stromregelung implementiert, um die Bedienfreundlichkeit und Effizienz des S6 im Rennbetrieb zu erhöhen.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Um die Akzeptanz und Relevanz von Mailings zu steigern, ist es für Unternehmen wichtig, die Kundeninteressen möglichst gezielt anzusprechen. Bereits jetzt wird die E-Mail-Marketing Lösung Inxmail Professional zusammen mit Recommender Systemen eingesetzt, was das Erstellen und Versenden von E-Mails mit personalisierten Produktempfehlungen ermöglicht. Das notwendige Wissen für den Aufbau und den Betrieb dieser Recommender Systeme liegt dabei jedoch bei (externen) Technologie-Partnern, wodurch höhere Kosten und zusätzliche Abhängigkeiten für Inxmail und seine Kunden entstehen.
Mit dieser Arbeit wurde erforscht, was es für das Unternehmen Inxmail bedeutet, mit Open-Source-Software ein eigenständiges Recommender System aufzubauen und in die E-Mail-Marketing Lösung Inxmail Professional zu integrieren. Hierfür wird Inxmail Professional in einem typischen Kontext mit einem angebundenen Onlineshop System betrachtet. Das Recommender System soll anhand der Daten, die es aus dem Onlineshop System bekommt, individuelle Produktempfehlungen berechnen, um diese automatisiert beim Versand für jeden Empfänger abfragen und in die E-Mail integrieren zu können.
Auf Basis des Machine Learning Servers Harness und der integrierten Universal Recommender Engine wurde ein Recommender System aufgebaut.
Für die Integration des Onlineshop Systems Shopware wurde ein Plugin entwickelt, welches das Recommender System über alle relevanten Benutzeraktionen benachrichtigt. Die Inxmail Professional Integration basiert auf einem Webservice, der implementiert wurde, um die individuellen Produktempfehlungen für einen Kunden/Empfänger beim Recommender System abzufragen und mit den Detailinformationen zu den Produkten aus dem Onlineshop aufzubereiten.
Es konnte gezeigt werden, dass auf der Grundlage von Open-Source-Technologien ein eigenständiges Recommender System aufgebaut, evaluiert und in Inxmail Professional mit angebundenem Onlineshop System integriert werden kann. Der Gesamtprozess für die Evaluation des Systems wurde weitestgehend automatisiert, wodurch viele manuelle und zeitintensive Schritte über Steuerungsskripte abgehandelt werden können. Das System erlaubt die reibungslose Verarbeitung großer Datenmengen (> 19.000.000 Events) auf einem einzelnen Server. Die Vorhersagequalität wurde anhand realer Interaktionsdaten aus öffentlichen E-Commerce-Datensätzen mit Offline-Tests gemessen. Dadurch wurde sichergestellt, dass das System in der Lage ist, bei stetig wachsender Eventmenge zuverlässige aufempfehlungen zu berechnen. Die Tests haben gezeigt, dass bei mehreren Millionen Events von mehreren Tausend Benutzern für mehrere Tausend Produkte, 13 % bis 15 % aller tatsächlichen Käufe in den Top-10 der vom System vorgeschlagenen Empfehlungen enthalten waren.
Damit wurde die Grundlage für den selbstständigen Aufbau und Betrieb eines Recommender Systems gelegt, was eine sinnvolle und kostengünstige Alternative zu externen Systemen sein kann.
Das Ziel der Arbeit ist zu erforschen, ob die Erstellung eines Digital Twin des Hamburger Hafens durch Open Source Lösungen realisierbar ist. Die Grundlagen führen in die Themen Digital Twin und Smart City ein. Es wird darauf eingegangen, welche Vorteile durch die Verwendung eines Digital Twins gewonnen werden können und wie sich die verschiedenen Digital Twin-Typen unterscheiden. Es werden verschiedene Architekturen anhand eines Smart City Index weltweit evaluiert, um ein geeignetes Digital Twin-Framework zu finden. FIWARE hat sich als geeignetes Frame- work erwiesen und wird im Anschluss analysiert. Anhand der Evaluierung wird ebenfalls das 3D-Visualisierungs Framework CesiumJS als Open Source Lösung ermit- telt. Das Unternehmen Hamburg Port Authority wird vorgestellt und die interne IT- Infrastruktur betrachtet. Anhand der Architekturdokumentation arc42 werden die Anforderungen und die erforderliche Architektur in Zusammenarbeit mit der Hamburg Port Authority ermittelt. Im Anschluss wird der Architekturentwurf anhand eines Prototyps implementiert. Probleme oder Anforderungen, die nicht erfüllt werden können, werden beschrieben. Abschließend werden die Ergebnisse und das Fazit der Hamburg Port Authority zusammengefasst.
Im Rahmen dieser Masterthesis wird ein quasi energieautarkes, nicht-invasives Messsystem für Kleinstlebewesen entwickelt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops mit eigens entwickelter grafischer Nutzeroberfläche geändert werden. Das vollständige Aufladen des nur 3,3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 29 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
In der vorliegenden Thesis werden Empfehlungsalgorithmen zur Verbesserung von Wein-Empfehlungen evaluiert. Der Algorithmus wird zur Entscheidung zwischen zwei Weinen eingesetzt, so dass der jeweils für den Kunden geeignetere Wein empfohlen wird. Das derzeitige System setzt Collaborative Filtering durch den Alternating Least Squares (ALS) Algorithmus um. Bei Kunden und Weinen, die nicht die notwendigen Bedingungen für die Anwendung von ALS erfüllen, wird durch Zufall entschieden.
Dem bestehenden Ansatz wurden folgenden Verfahren gegenübergestellt: Content-based Filtering mit einen Autoencoder und Hybrid Filtering mit einem neuronalen Netz sowie mit der Empfehlungsbibliothek LightFM. Die neuen Ansätze berücksichtigen immer die Weineigenschaften und können für noch nicht gekaufte Weine eingesetzt werden (Cold-Start Problem). Verglichen wurden die Ansätze durch zwei Ranking-Methoden und einen selbst-entwickelten offline A/B-Test.
Unter den neuen Ansätzen schnitt LightFM am besten ab. ALS lieferte insgesamt die besten Ranking-Werte. Durch ein online A/B-Test zwischen ALS und LightFM konnten keine signifikanten Ergebnisse ermittelt werden. Insgesamt konnte auf Basis der in den Tests gesammelten Daten keine Verbesserung der Empfehlungslogik gegenüber dem bestehenden Verfahren mittels ALS nachgewiesen werden. Für eine abschließende statistisch signifikante Beurteilung müssten mehr online A/B-Tests durchgeführt werden.
Komplexe E-Commerce-Systeme müssen heutzutage immer schneller am Markt sein und sich an diesen anpassen. Dies wird durch SaaS-Services möglich, wodurch sich die Best-of-Breed-Lösungen einsetzen lassen. Der monolithische Ansatz der meisten E-Commerce-Systeme ist für diese Anwendungen nicht mehr geeignet. Abhilfe soll der Composable-Commerce-Ansatz schaffen. Für den Ansatz wird eine Integrationslösung benötigt. Ziel dieser Thesis ist es, Integrationslösungen zu evaluieren und mithilfe von Integration-Layer-Prototypen gegenüberzustellen. Es werden zwei Integrationslösungen ausgewählt, die als Prototyp implementiert werden. Für den ersten Prototypen wird Apache Camel in einem Spring-Boot-Server verwendet. Der zweite Prototyp setzt die AWS-eigenen Services für die Integration ein. Zum Schluss werden diese durch einen Last-Test auf ihre Performance geprüft.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Diese Arbeit handelt von der Entwicklung zweier zukunfts- und handlungsorientierter e-Learning Module für das Triebwerkswechselgerät „Cobra“. Dabei wird das didaktische Konzept für diese e-Learning Module entwickelt und reflektiert. Dies beinhaltet die Auseinandersetzung mit verschiedenen Lerntheorien und didaktischen Modellen. Neben diesen didaktischen Modellen findet die Instruktionstheorie nach Gagnè eine Anwendung. Um den Wissenserwerb zu prüfen werden Aufgaben unter Berücksichtigung der Taxonomien nach Bloom entwickelt. Ausschnitte aus den e-Learning Modulen geben einen Einblick in die Umsetzung des didaktischen Konzeptes.
In den letzten Jahrzehnten haben permanentmagneterregte Synchronmaschinen und deren Regelung immer mehr Einzug in industrielle Applikationen erhalten. Durch die weltweit wachsende Elektromobilität partizipiert das Automobil an deren fortschreitenden Einsatzmöglichkeit.
Die Modellierung eines physikalisch-technischen Systems ist ein wichtiger Bestandteil in der Entwicklung einer Regelung. Inhaltlich setzt sich die Abschlussarbeit mit dieser Vorgehensweise für eine 6-phasige permanentmagneterregte Synchronmaschine auseinander. Durch die doppelte Anzahl an Statorwicklungen existieren unter anderem zwei verschiedene Wicklungskonzepte, wie eine elektrische Maschine aufgebaut sein könnte. Beide Wicklungskonzepte, bei dem entweder eine volle magnetische Kopplung oder keine magnetische Kopplung der betrachteten Teilsysteme vorliegt, werden untersucht. Ziel der Masterthesis ist es, eine mathematische Grundlage für die Modellbildung einer 6-phasigen permanentmagneterregten Synchronmaschine herzuleiten, um darauf aufbauend eine feldorientierte Regelung zu entwerfen. Wie in der industriellen Antriebstechnik gebräuchlich, erfolgt die Regelung in einem rotierenden Koordinatensystem. Die Stromregelung basiert auf einen zeitkontinuierlichen PI-Regler samt Spannungsbegrenzung und einer Anti-Windup-Struktur. In der Ausarbeitung wird mithilfe zweier Simulationsmodelle bewiesen, dass sowohl das mathematische Modell einer 6-phasigen permanentmagneterregten Synchronmaschine als auch deren Regelung simulationstechnisch die erwarteten Resultate liefern.
Das Lokalisationssystem besteht aus einem Anwender-PC mit Bluetooth-Adapter, einem Lautsprecherkreis sowie einem Tablet. Eine Funktion im Programm Matlab auf dem Anwender-PC dient zur Eingabe der Steuerparameter, welche in einer Textdatei an eine Schnittstelle, die ebenfalls auf dem Anwender-PC installiert ist, übergeben und via Bluetooth an eine native App auf einem Tablet gesendet wird. Die Schnittstelle wurde mithilfe der IDE Eclipse mit der Programmiersprache Java erstellt und kann unter der Bedingung, dass auf dem verwendeten PC JRE Version 1.8.0 oder jünger vorinstalliert ist, systemunabhängig ausgeführt werden. Je nach gesendeten Parametern wird eine von sechs möglichen GUIs auf dem Bildschirm des Tablets angezeigt, welche die Anordnung der Lautsprecher im Audiometrieraum wiedergibt. Nach dem Schallereignis hat der Proband die Möglichkeit, je nach gewählter GUI, einen von sieben bzw. zwölf angezeigten Lautsprechersymbolen oder einen beliebigen Punkt auf dem Bildschirm anzutippen. Diese Eingabe entspricht der Richtung, welche der Proband als Schallquelle lokalisierte. Nach Eingabe der Probandenantwort wird diese via Bluetooth an die Schnittstelle und somit an Matlab gesendet, wo die Antwort ausgewertet werden kann.
Diese Arbeit umfasst erste Tests und die Inbetriebnahme eines neuen Prüfplatzes bei der QMK-GmbH. Der Prüfplatz selbst soll in der Lage sein, Leistungsshuntwiderstände kalibrieren zu können. Leistungsshuntwiderstände sind meist eher groß und schwer, damit durch viel Material die Wärmeentwicklung kompensiert werden kann. Zudem sind die Kontaktflächen dementsprechend groß, damit der Übergangswiderstand an den Kontaktflächen möglichst gering ist. Der Widerstandswert selbst ist sehr klein. Standardmäßig liegen Widerstände hier im Bereich von 10 bis 100 Ω. Um so kleine Widerstände möglichst genau messen zu können, muss technisch viel Aufwand betrieben werden. In der Regel wird dies mit einer Vierleitermessung realisiert. Leistungsshuntwiderstände werden aber generell mit einem eher hohen Strom im Bereich von 100 bis 10 000 . Mit dem neuen Prüfplatz soll dies auch umgesetzt werden. Die Widerstände sollen mithilfe von hohen Strömen bis 2 kA kalibriert werden, damit der, für den Prüfling, zutreffende Arbeitsbereich unter Berücksichtigung seiner Eigenerwärmung abgebildet werden kann. Für diese Anwendung wurde ein Prüfplatz entwickelt, der 2 kA zur Verfügung stellen kann und mithilfe eines genauen und kalibrierten Referenzwiderstandes den Widerstand des Kalibriergegenstandes ermitteln kann. Würde man den Aufbau messtechnisch beschreiben, so wird durch eine Konstantstromquelle ein Gleichstrom erzeugt, der beide in Reihe geschalteten Widerstände durchströmt. Damit ist der Strom an beiden Widerständen identisch und kann ermittelt werden. An den Widerständen wird gleichzeitig dessen Spannungsabfall gemessen. Mit dem ermittelten Strom kann anschließend über das Ohmsche Gesetz der „unbekannte“ Widerstandswert des Kalibriergegenstandes ermittelt werden. Dieser wird mit dem Sollwert seines Datenblattes verglichen und in einem Protokoll unter Berücksichtigung der eigenen Messunsicherheit bewertet. Die Messergebnisse werden nach der Messung bzw. Kalibrierung in einem Zertifikat zusammen gefasst, und dem Kunden ausgestellt.
Ziel der Arbeit ist es, eine Kalibriereinrichtung zu entwickeln und zu bewerten, die den Richtlinien und Grundlangen der DAkkS entspricht oder zumindest als Grundlage für eine Akkreditierung bei der DAkkS dient. In erster Linie, soll es mit der Kalibriereinrichtung möglich sein, ISO-Kalibrierungen nach der 9001 Norm durchzuführen und zu bewerten.
Die Visualisierung von Programmabläufen ist ein zentraler Aspekt für Programmieranfänger, um das Verständnis von Codeabläufen zu erleichtern und den Einstieg in der Softwareentwicklung zu unterstützen. In dieser Masterthesis wird ein speziell auf die Bedürfnisse von Einsteigern zugeschnittenes generisches Framework vorgestellt, wobei der Fokus auf einer einfachen, verständlichen aber auch korrekten Darstellung der Programmausführung liegt. Das Framework integriert das Debugger Adapter Protocol, um den Debugger unterschiedlicher Sprachen ansprechen und verwenden zu können.
In dieser Arbeit werden zunächst die Anforderungen für das generische Framework diskutiert. Anschließend werden bestehende Ansätze zur Visualisierung von Programmabläufen ausführlich untersucht und analysiert. Die Implementierung des Frameworks wird daraufhin detailliert beschrieben, wobei besonderer Wert auf die Erweiterbarkeit unterschiedlicher Sprachen gelegt wird.
Um die Eignung des Frameworks zu evaluieren, werden mehrere Aufgaben aus dem ersten Modul mit der jeweiligen Programmiersprache des Studiengangs Angewandte Informatik der Hochschule Offenburg betrachtet. Die Ergebnisse zeigen, dass das Framework mit den Aufgaben umgehen und diese korrekt und verständlich darstellen kann.