Refine
Year of publication
Document Type
- Bachelor Thesis (59)
- Conference Proceeding (59)
- Master's Thesis (13)
- Article (reviewed) (6)
- Book (1)
Conference Type
- Konferenzband (54)
- Konferenzartikel (5)
Is part of the Bibliography
- no (138) (remove)
Keywords
- Mikroelektronik (54)
- Design automation (3)
- FPGA (3)
- Finite difference methods (3)
- Finite-Elemente-Methode (3)
- Low-Power (3)
- Sensor (3)
- Angewandte Informatik (2)
- Augmented-Reality (2)
- Business Intelligence (2)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138) (remove)
Open Access
- Open Access (74)
- Bronze (54)
- Closed Access (53)
- Closed (11)
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
Das Projekt PHOTOPUR soll die Reduzierung von Pestiziden in Oberflächengewässern ermöglichen. In dieser Arbeit wird eine Automatisierung eines ersten Demosystems entwickelt, welches den gesamten Reinigungsprozess abbildet. Eine Projektierung der Automatisierung des Systems wird mit den dafür vorgesehenen Fließschemas und Gerätelisten durchgeführt. Darauf aufbauend wird die Ablaufsteuerung des Demosystems durch einen Ablauf-Funktionsplan umgesetzt. Um eine Systemüberwachung der Anlage zu gewährleisten wurde dazu eine Visualisierung ausgearbeitet. Zusätzlich wurden die Regelstrecken der Durchflussregelungen in den zwei Teilprozessen des Reinigungsprozesses bestimmt und durch unterschiedliche Einstellregeln der optimale Regler der Regelkreise ermittelt.
Die in dieser Arbeit entwickelte Software, beinhaltet die drei folgenden Umsetzungen: Realisierung der Ablaufsteuerung, Implementierung der Reglerparameter durch einen vorhandenen Regelalgorithmus und die Visualisierung des Demosystems.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
Durch die Digitalisierung erschlossen sich in den letzten 15 Jahren nicht nur viele Möglichkeiten neues Bildmaterial oder Videomaterial aufzunehmen und zu verwahren, sondern auch die Zugänglichkeit der breiten Masse zu solcher Technologie. Abseits der Datenmengen wie sie Social Media Plattformen tagtäglich verarbeiten, existieren die Sende- und Rundfunkanstalten mit gigantischen Archiven von Videomaterial. Der Großteil davon ist von dokumentarischer oder szenischer Natur sowie verschiedenste Interviews aus allen Bereichen des öffentlichen Lebens.
Nach dem aktuellen Stand wird das Videomaterial von Hand kategorisiert und zur Indizierung verschlagwortet. Die Aufgabe war es nun, diesen Prozess zumindest teilweise zu automatisieren. Dazu sollten auf dem Markt verfügbare Technologien in Bereich der Gesichtserkennung und Texterkennung auf ihre Nutzbarkeit zu diesem Zweck hin evaluiert werden. Dabei soll mit Hilfe der in Interviews verwendeten Bauchbinden das momentan gezeigte Gesicht "gelernt" werden, um es später ohne solche Hilfe wiederzuerkennen.
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Properties) in FPGAs
(2017)
In heutigen Low-Power-Anwendungen ist es mittlerweile Standard sogenannte System-on-a-Chip (SoC)-Systeme zu entwickeln. Diese benötigen eine Recheneinheit, sowie nur die notwendigste Hardware, um die Energieversorgung auch über Energy-Harvesting zu ermöglichen.
Im Rahmen dieser Abschlussarbeit wurde der aktuelle Stand von verfügbaren Hardcore- und Softcore-Prozessoren evaluiert. Aufgrund der hohen Anforderung an den Prozessor in Low-Power-Systemen, wurden Hardcore-Prozessoren für die weitere Untersuchung ausgeschlossen. Obwohl diese sehr leistungstarke und energieeffiziente Prozessoren sind, weisen Hardcore-Prozessoren nicht die notwendige Flexibilität in einer minimalen Konfiguration auf, um die Ansprüche einer Low-Power-Anwendung zu erfüllen.
Aus diesem Grund wurden von verschiedenen Quellen Softcore-Prozessoren untereinander mit zusätzlich, ausgewählten Kriterien untersucht. Die Wahl fiel auf den NEO430, welcher auf der Architektur des Mikrocontrollers MSP430 von Texas Instrument basiert.
Mit dem NEO430 als Softcore, wurde ein Demonstrator-System entwickelt und auf dem Development-Board DE2-115 von Terasic implementiert. Im Zuge der Entwicklung des Demonstrators wurden weiterhin frei verfügbare IP-Cores zur Anbindung an den NEO430 untersucht. Der Demonstrator umfasste eine selbst entwickelte CRC-Berechnung, um damit die Programmierbarkeit, die Funktionen des NEO430 zu testen und dessen Ressourcenverbrauch, sowie Erweiterbarkeit über der Wishbone-Schnittstelle zu evaluieren.
Die Evaluierung des Demonstrator-Systems ergab einen Ressourcenverbrauch von 1253 Logikelemente des Development-Boards. Neben dem Demonstrator wurden weitere Konfigurationen, wie eine Minimale-, die Standard-Konfiguration und insbesondere eine Konfiguration ohne der Wishbone-Schnittstelle evaluiert.
Durch die starke Verbreitung der MSP430-Serie in der Industrie, ist der NEO430 ein interessanter Kandidat für Low-Power-Systeme
Verschiedenste Hersteller von Prothesen treiben die Entwicklungen in der Neuroprothetik immer weiter voran. Jedoch steigen dadurch nicht nur die Komplexität und die Funktionen einer solchen Prothese, sondern auch die Kosten. Oft wird vernachlässigt, dass ein einfaches Greifen meist schon ausreicht und damit oftmals viel mehr Personen geholfen werden kann als mit einer teuren Highend-Prothese.
Die vorliegende Masterthesis soll zeigen, dass es möglich ist, mit einfachen Mitteln einen funktionsfähigen bionischen Prototyp zu entwickeln. Die Steuerung funktioniert per Knopfdruck, Bewegungen werden automatisch ausgeführt.
Hierfür wurde auf der Rekonstruktion der ersten eisernen Hand des Götz von Berlichin-gen aufgebaut. Diese wurde mit günstiger und einfach beschaffbarer Elektronik verändert, damit die Prothese durch elektrische Motoren aktiv ansteuerbar ist. Das Modell wurde mit SolidWorks 2018 verändert. Die elektronischen Bauteile wurden über ein Arduino Board UNO R3 angesteuert, welcher die Schnittstelle zum Computer bildet.
In dieser Arbeit werden 3D-Scanner, deren verschiedene Funktionsarten und Einsatz-möglichkeiten vorgestellt. Ein besonderes Augenmerk liegt hierbei auf medizinischen Anwendungen.
Außerdem wird eine programmierte Ansteuerung in C++ eines 3D-Scanners vom Typ Artec Eva demonstriert. Hierbei werden die mit Qt erstellte GUI und Teile des Quellcodes vorgestellt und erklärt. Ziele der Programmierung waren, außer der Ansteuerung in C++ eine Darstellung mit Hilfe des Visualization Toolkits VTK und es zu ermöglichen, die aufgenommenen Daten auch abspeichern zu können.
Schließlich werden Grundlagen der Kalibrierung und der Koordinatentransformation dargelegt und am Beispiel der Kalibrierung des Artec EVA Scanners exemplarisch aufgezeigt.
Der gesamte Quellcode, welcher im Rahmen dieser Arbeit entstand, ist im Anhang der Arbeit zu finden.
Intelligente Assistenten - Untersuchung der Spracheingabe in Verbindung mit dem ERP-System SIVAS.ERP
(2018)
Die vorliegende Bachelorarbeit wurde für die schrempp edv GmbH erstellt. Die Untersuchung von Technologien intelligenter Assistenz und eine fundierte Einsatzempfehlung für zukünftige Entwicklungen in Verbindung mit dem ERP-System SIVAS sind die primären Ziele der Abschlussarbeit. Das Hauptaugenmerk der Analyse liegt auf der Spracherkennung und der Sprachverarbeitung. Diese Technologien sollen den Umgang mit den komplexen Anwendungen im SIVAS-Umfeld erleichtern.
Der erste Teil der Abschlussarbeit befasst sich mit den theoretischen Grundlagen intelligenter (Sprach-) Assistenz. Im zweiten Teil wird die SIVAS.Montage-App und ein Szenario zur prototypischen Umsetzung intelligenter Assistenz vorgestellt.
Die folgenden Teile beschäftigen sich mit der Spracherkennung und Sprachverarbeitung von Google und Microsoft. Die beiden Unternehmen betreiben seit Jahren intensive Forschungen zu den Sprachtechnologien und bieten erfolgreiche Lösungskonzepte an. Analysierte Frameworks der Spracherkennung sind die Google Speech API und die Bing Speech API. Kandidaten der Sprachverarbeitung sind Dialogflow von Google und LUIS von Microsoft.
Das Ergebnis der Analyse ist die Einsatzempfehlung der Frameworks von Google. Insbesondere bei der ermittelten Fehlerrate als Schlüsselkriterium der Spracherkennung, kann Google mit 11,11 % gegenüber Microsoft mit 23,09 % überzeugen. Der Vergleich der Frameworks zur Sprachverarbeitung liefert ähnliche Resultate. Google ist Microsoft bei der Klassifizierung bisher unbekannter Aussagen der Anwender mit einer Genauigkeit von 86,67 % um fünf Prozentpunkte überlegen. Informationen werden mit Hilfe von Dialogflow erfolgreicher und strukturell besser aufbereitet extrahiert.
Abschließend wird SIVAS mit den analysierten Google-Technologien mittels einer prototypischen Umsetzung des ausgewählten Szenarios zur Erfassung von Montagezeiten zusammengebracht.
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines VHDL-Ethernet Protokollstapels. Aufbauend auf einem existierenden Protokollstapel für 1 GBit/s ist das Ziel dieser Arbeit, einen Protokollstapel zu entwerfen, der eine Datenübertragungsrate von mehr als 10 GBit/s erreicht. Dieser Protokollstapel soll die Protokolle Ethernet, IPv4, ARP, ICMP und UDP enthalten. Durch eine flexible Struktur der Ports und den Einsatz von generics soll dieser Protokollstapel leicht konfigurierbar und so für viele Anwendungszwecke nutzbar sein.
Zunächst wurde der existierende Protokollstapel von der Xilinx Vertix5 Serie auf die 7er Serie portiert und in Betrieb genommen. Dabei traten Probleme mit dem Transceiver und dem ARP Protokoll auf. Nachdem diese gelöst wurden, konnte ein Konzept für den neuen Protokollstapel erarbeitet werden. Dieser nutzt nun ein – in der Busbreite – flexibles Streaming Interface, um die Geschwindigkeit der Datenübertragung anzupassen.
Da jedes der genutzten Protokolle an die Daten einen Header/Trailer anhängt oder entfernt,
wurden für diese Aufgabe insgesamt vier Low-Level-Module entwickelt. Diese Module wurden
mit Hilfe einer Testbench und einer Testmatrix verifiziert. Die Protokollmodule stellen nun den Header/Trailer zusammen und fügen diese mit Hilfe der Low-Level-Module an oder entfernen diese.
Bei der Simulation des Protokollstapels wurde die Funktion der Protokolle nachgewiesen. Durch die große Busbreite, von 64 Bit bei 10 GBit/s und 128 oder 256 Bit bei 40 GBit/s, schlug allerdings die Timing-Analyse fehl. Der kritische Pfad konnte bei der CRC Berechnung gefunden werden. Durch parallele CRC-Berechnungen wurde eine vorübergehende Lösung dieses Problems für die Geschwindigkeit 10 GBit/s erreicht.
Die Analyse des Ressourcenverbrauchs zeigte, dass der neue Protokollstapel nur wenig Ressourcen in einem FPGA nutzt. Für 10 GBit/s werden lediglich 3000 LUTs und 2400 Register
benötigt. Des weiteren wurde festgestellt, dass der Ressourcenverbrauch nicht proportional zur Busbreite ist. Bei einer Verdopplung der Busbreite werden lediglich 60 % mehr Ressourcen benötigt.
Entwicklung eines miniaturisierten Energieversorgungs-Moduls zur autarken Versorgung von Funkmodulen
(2017)
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines miniaturisierten Energieversorgungs-Moduls. Das Modul soll gleichzeitig aus drei Energy-Harvestern Energie sammeln und diese in einem Doppelschichtkondensator zwischenspeichern. Diese Energie kann anschließend von einem Funksensorknoten zum Sammeln und Übermitteln von Daten genutzt werden.
Solch ein aufgebautes System verspricht bei einem geringen Volumen eine hohe Lebensdauer,geringen Wartungsaufwand und eine hohe Leistung, ohne dass eine drahtgebundene Energieversorgung oder große Batterien notwendig sind.
Nach dem Erstellen eins Konzepts und der Auswahl der dafür passenden Komponenten wurde zunächst ein Evaluations-Board aufgebaut. Auf diesem wurden alle in Frage kommenden Komponenten vermessen und die Funktion getestet. Aus den dadurch erworbenen Erkenntnissen wurde das miniaturisierte Energieversorgungs-Modul entwickelt. Das miniaturisierte Modul bietet folgende Möglichkeiten: Aus drei verschiedenen Energy Harvestern wird gleichzeitig die Energie gesammelt und aufbereitet. Durch die Nutzung eines effizienten Wandler-Moduls wird bei der Energieaufbereitung eine Effizienz von über 85 % erreicht. Drei Wandler-Module verbrauchen zusammen lediglich eine Leistung von P = 3, 459 µW. Der Maximum Power Point jedes einzelnen Harvesters kann separat eingestellt werden. Auch alle anderen Komponenten werden stromsparend gewählt. Die Energie wird in einem 1, 5 F Doppelschichtkondensator gespeichert. Zusätzlich wird als Backup-Energieversorgung eine Lithium Knopfzelle eingesetzt.
Dadurch können auch sicherheitskritische Anwendungen realisiert werden. Konnte durch die Energy Harvester nicht genügend Energie gesammelt werden, wird die Batterie dem Funksensorknoten zugeschaltet. Das miniaturisierte Modul hat die Maße 20 mm x 40 mm. Nach abschließenden Messungen mit einem neu implementierten Funksensorknoten, der in einer anderen Bachelorthesis entstanden ist [1], wurde eine Sendewiederholrate von 1, 1 s nachgewiesen. Dies stellt einen sehr guten Wert dar und reicht für die meisten Anwendungen aus.
Zuletzt wird aus allen Komponenten inklusive des Funksensorknotens ein Demonstrationsmuster zusammengebaut. Dieses hat die Maße von 5 cm x 5 cm x 5 cm und kann zur weiterführenden Forschung oder als Anschauungsmaterial genutzt werden.
In dieser Thesis wird die Visualisierung der Stammdaten der MARKANT Handels und
Service GmbH (MARKANT) überarbeitet. Zu Beginn wird auf die Firma MARKANT,
die aktuelle Lösung der Visualisierung und die daraus resultierenden Probleme eingegangen.
In der Thesis wird zunächst ein generisches Diagramm erstellt, welches Daten,
die eine hierarchische Ordnung haben, zeichnet. Darauf aufbauend soll als Beispiel, das
Organigramm der Firma MARKANT, mit allen Anforderungen, umgesetzt werden.
Um das Ziel zu erreichen, wird eine Marktübersicht eingeholt und die Frameworks
verglichen. Nachdem eine engere Auswahl getroffen ist, sollen die Frameworks hinsichtlich
der Visualisierung genauer evaluiert werden.
Nach der Wahl des Frameworks wird eine Konzeption erstellt, bei der auf einen neuen
Technologiestack, sowie auf die Bedienbarkeit des Diagrammes durch den Endanwender
eingegangen wird.
Anhand der erstellten Konzeption werden die verschiedenen Funktionen des Diagrammes
implementiert. Ein neuer Stack wird aufgebaut und an das System der Firma
MARKANT angepasst.
Abschließend zeigt ein Vergleich zwischen der alten und der neuen Visualisierung auf,
was in der Thesis erreicht wurde.
Diese Arbeit beschäftigt sich mit den verschiedenen Technologien, welche in verteilten Systemen zur Kommunikation dienen können. Kernpunkt der Arbeit ist es, eine Schnittstelle zu schaffen, in der eine extrem hohe Anzahl einzelner Anwendungen untereinander und mit einer zentralen Simulationsumgebung weitestgehend automatisch - kommunizieren können. Dabei ist auch ein wesentlicher Punkt die Frage wie Daten ausgetauscht werden können. Betrachtet man zunächst das System an sich, so wird es deutlich, dass speziell für die Entwicklung des Gesamtsystems, die Stabilität, Leistungsfähigkeit und Zuverlässigkeit des Interfaces von enormer Wichtigkeit ist.
Diese Arbeit beschäftigt sich primär mit der Erstellung von Konzepten, welche in den Bereichen der langfristigen Planung, welche eine IT-Strategie festlegt und der kurzfristigen Steuerung des Tagesgeschäfts, ein besser strukturiertes und effizienteres Vorgehen im Umgang mit der Vielzahl an anfallenden Daten und Informationen ermöglichen sollen. Hierzu werden in den Grundlagen zunächst alle relevanten Begriffe geklärt, welche in diesem Umfeld auftreten. Im Kapitel Stand der Technik werden, die in der Industrie am meisten zertifizierten Standards, zur Lösung dieser Problematik vorgestellt. In der darauf folgenden Konzeption werden alle notwendigen Elemente konzipiert. Dafür erfolgt zunächst eine Auswahl der ITIL-Prozesse, welche für ein erfolgreiches IT-Controlling umgesetzt werden sollen. Danach wird ein Vorschlag für einen Service-Katalog auf Basis von ITIL entwickelt, der es ermöglichen soll die wachsende Anzahl von IT-Services an Hochschulen zu verwalten. Nach diesem erfolgt eine Konzeption von neuen Kostenstellen und Kostenarten für das Rechenzentrum der Hochschule Offenburg. Dies ist notwendig, da die aktuellen Kostenstellen und Kostenarten nicht mehr den Anforderungen des Rechenzentrums gerecht werden. Auch wird in dieser Arbeit eine Konzeption für ein einfaches ordnerbasiertes Ablagesystem zur Verwaltung von Partner-, Lizenz- und Vertragsdokumenten erstellt. Der letzte Punkt dieser Arbeit besteht in der Konzeption und Umsetzung eines Informationssystems, durch welches alle relevanten Daten grafisch ansprechend aufbereitet zur Verfügung gestellt werden sollen. Die Umsetzung dieses Informationssystems wird in dieser Arbeit mithilfe der beiden Open-Source-Tools Talend und Palo vorgenommen.
Die vorliegende Bachelorarbeit beschreibt die Erstellung einer Anwendung, die es ermöglicht, einen Roboterarm mithilfe eines haptischen Geräts zu steuern. Zudem wird die Kraftrückkopplung des haptischen Geräts, abhängig von der wirkenden Kraft des Roboterarms, implementiert.
Zur Realisierung dieser Anforderungen wurden zwei Programme erstellt; diese beiden Programme sind über eine TCP Verbindung miteinander verbunden. Programm 1 stellt die haptische Umgebung bereit, Programm 2 die Robot Operating System Node, mit welcher die Daten zum Roboter gesendet und Daten vom Roboter empfangen werden können.
Die in dieser Arbeit erstellten Programme wurden mithilfe von Test Nodes überprüft und leiten die Position der haptischen Umgebung weiter. Die Kraftrückkopplung des haptischen Geräts ist ebenfalls vorhanden und integriert.
Ein Testlauf mithilfe eines simulierten Roboterarms konnte erfolgreich durchgeführt werden.
In der vorliegenden Bachelorarbeit geht es um den Entwurf eines Dauerfestigkeitsprüfstands für Kraftsensoren, deren Messprinzip auf Dehnmessstreifen basiert. Ziel des Dauerfestigkeitsprüfstands ist es, die in der Konstruktionsphase simulierten Ergebnisse für die Dauerfestigkeit der Sensoren nachzuweisen. Erst dadurch sind optimale Verbesserungen der Messkörpergeometrien möglich.
Bei der Produktion von Solarzellen aus multikristallinem Silizium haben Defekte aus der Kristallisationsphase starken Einfluss auf die Materialqualität der Wafer und damit auf den Wirkungsgrad der späteren Solarzelle. Ein Verständnis des Kornwachstums in multikristallinem Silizium während des Kristallisationsprozesses kann zur Optimierung desselben beitragen. In dieser Arbeit werden Methoden untersucht, optische Flüsse zwischen Korngrenzenbildern multikristalliner Si-Wafer mittels neuronaler Netze zu berechnen. Hierfür wird die Architektur eines ausgereiften faltungsbasierten neuronalen Netzes zur optischen Fluss-Berechnung genutzt und durch angepasstes Training auf Waferstrukturen zugeschnitten. Dies umfasst die Synthese eigener, auf Waferbilder basierender Trainingsdaten und das Training mit einer angepassten Fehlerfunktion zur Bewertung der Zuordnungsgenauigkeit von Körnern zwischen Wafern durch den optischen Fluss. Beide Maßnahmen zusammen führen zu einer Reduktion des Zuordnungsfehlers von Körnern zwischen Waferbildern um 45 % gegenüber einem hochoptimierten, auf allgemeine optische Flüsse trainierten Modell basierend auf demselben Netzwerk. Die geschätzte Zuordnungsgenauigkeit des besten Modells beträgt 92,4 % der Pixel der Korngrenzenbilder eines Wafers. Weiteres Verbesserungspotenzial ist vorhanden.
Ziel der vorliegenden Arbeit ist es, einen Fräsroboter zu konstruieren, der kompakter und leichter sein soll als ein bereits im Labor CompAssMed existierender Fräsroboter. Für den neuen Fräsroboter sollte zusätzlich eine Ansteuerung programmiert werden. Mit der Ansteuerung soll es möglich sein, die Fräserspitze im Arbeitsraum des Fräsroboters programmgesteuert zu positionieren. Eine Augmented-Reality-Brille soll evaluiert werden, um ihre Integrationsfähigkeit in das Labor zu untersuchen. Alle Ziele wurden erreicht. Das Gewicht des neuen Fräsroboters ist 75 % geringer und er hat eine 85 % kleinere Grundfläche als der vorhandene Fräsroboter. Die Ansteuerung des neuen Fräsroboters, wurde als MATLAB-Skript realisiert und ist funktional. Die Evaluierung der Augmented-Reality-Brille wurde mit dem Ergebnis durchgeführt, dass sie nicht in die Softwareinfrastruktur des Labors CompAssMed integriert werden kann.
Das Ziel der vorliegenden Bachelorarbeit war es, die Fähigkeiten des LDC1000 EVM von Texas Instruments (TI) zur hochauflösenden induktiven Distanzmessung, integriert in ein Kraftmesssystem, als Alternative zur Dehnungsmessung mit Dehnungsmessstreifen zu untersuchen. Hierzu wurden zunächst Versuche an einem Wegmessaufbau bezüglich Auflösung, Rauschverhalten und der Qualitätsmerkmale für messtechnische Systeme wie Nullpunktstabilität, Linearität und Hystereseverhalten durchgeführt. Anschließend diente eine entworfene Druckmessdose, mit applizierten Dehnungsmessstreifen als Referenz, zur weiteren Untersuchung der Qualitätsmerkmale und zur Optimierung des LDC1000-Systems. Als Messobjekte zur Abstandsmessung kamen die Werkstoffe AlMgSi0,5, St37, AlCu4Mg1 und 1.4305 verschiedener Geometrien zum Einsatz. Die Ergebnisse bestätigen die Angabe von TI zur Sub-Mikrometer-Auflösung des Systems, ein relativ hoher Rauschanteil beschränkt allerdings die Genauigkeit. Die Resultate der Untersuchungen von Nullpunktstabilität und Hystereseverhalten lassen einen Einsatz im Bereich der Kraftmesstechnik unter gewissen Voraussetzungen zu, das nichtlineare Verhalten der induktiven Wegmessung hingegen macht eine nachträgliche Linearisierung der Messwerte unumgänglich. Diese Bachelorarbeit richtet sich an all diejenigen, die sich detallierter mit Alternativen zur Dehnungsmessung auseinandersetzen oder genauere Untersuchungen zum LDC1000 EVM von TI durchführen.
The advantages of the coupling-of-modes (COM) formalism and the transmission-matrix approach are combined to create exact and computationally efficient analysis and synthesis CAD tools for the design of SAW-resonator filters. The models for the filter components, especially gratings, interdigital transducers (IDTs). and multistrip couplers (MSCs), are based on the COM approach, which delivers closed-form expressions. In order to determine the relevant COM parameters, the integrated COM differential equations are compared with analytically derived expressions from the transmission-matrix approach. The most important second-order effects such as energy storage, propagation loss and mechanical and electrical loading are fully taken into account. As an example, the authors investigate a two-pole, acoustically coupled resonator filter at 914.5 MHz on AT quartz. Excellent agreement between theory and measurement is found.
Diese Arbeit befasst sich mit der Konzeption und Entwicklung einer SharePoint App, die einen Datenabgleich zwischen Zoho CRM und JIRA ermöglicht. Mittels dieser App ist es möglich, einen Supportfall, den der Support mittels Zoho CRM aufgenommen hat, bei Bedarf der Entwicklung zuzuweisen, indem in JIRA ein neues Ticket erstellt wird. Des Weiteren können durch die App Informationen, wie Firmen- und Kontaktdaten beiden Abteilungen zugänglich gemacht werden. Realisiert wird dies auf Basis von SharePoint, auf das alle beteiligten Mitarbeiter Zugriff haben. Zunächst wird für eine Lösung mit SharePoint dessen App-Modell analysiert und die möglichen Hosting-Varianten evaluiert. Die dabei getroffene Entscheidung für eine SharePoint gehostete App wird zudem begründet. Um die Bearbeitung eines Supportfalls innerhalb der App zu ermöglichen, wird ein Workflow entworfen, der neben dem Ablauf der Bearbeitung auch die Kommunikation mit den beteiligten Anwendungen festlegt. Die zu diesem Zweck notwendige persistente Speicherung der Daten in der App erfolgt dabei mithilfe von SharePoint Listen. Diese werden aufgrund eines ähnlichen Aufbaus als Tabellen dargestellt. Die detaillierte Darstellung einzelner Listenelemente dagegen erfolgt mithilfe von Dialog-Fenstern, die von SharePoint bereitgestellt werden. Dabei werden abhängig von dem Land aus dem die App aufgerufen wird, die Texte auf Deutsch oder auf Englisch angezeigt.
Diese Arbeit befasst sich mit der Konzeption und Implementierung eines Dateiimportfilters für Mess- und Kalibrierwerkzeuge. Dieser ermöglicht das Importieren von INCA-Experimenten nach CANape, indem aus Experiment-Exportdateien Konfigurationsdateien generiert werden. Im Zuge der Umsetzung wurde dazu das aus binären Daten bestehende Exportdateiformat von INCA analysiert. Das Ziel dieser Analyse bestand darin, herauszufinden, wo und wie die Informationen in den Exportdateien gespeichert sind. Die so erlangten Erkenntnisse wurden verwendet, um den Dateiimportfilter zu entwickeln. Dieser liest aus Exportdateien die notwendigen Informationen aus, überführt sie in eine CANape interne Repräsentation und generiert daraus eine entsprechende Konfigurationsdatei. Die korrekte Funktionsweise wurde anhand von selbst erstellten Experimenten sowie mithilfe von Kundenexperimenten validiert.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
This Master's Thesis discusses intelligent sensor networks considering autonomous sensor placement strategies and system health management. Sensor networks for an intelligent system design process have been researched recently. These networks consist of a distributed collective of sensing units, each with the abilities of individual sensing and computation. Such systems can be capable of self-deployment and must be scalable, long-lived and robust. With distributed sensor networks, intelligent sensor placement for system design and online system health management are attractive areas of research. Distributed sensor networks also cause optimization problems, such as decentralized control, system robustness and maximization of coverage in a distributed system. This also includes the discovery and analysis of points of interest within an environment. The purpose of this study was to investigate a method to control sensor placement in a world with several sources and multiple types of information autonomously. This includes both controlling the movement of sensor units and filtering of the gathered information depending on individual properties to increase system performance, defined as a good coverage. Additionally, online system health management was examined in this study regarding the case of agent failures and autonomous policy reconfiguration if sensors are added to or removed from the system. Two different solution strategies were devised, one where the environment was fully observable, and one with only partial observability. Both strategies use evolutionary algorithms based on artificial neural networks for developing control policies. For performance measurement and policy evaluation, different multiagent objective functions were investigated. The results of the study show that in the case of a world with multiple types of information, individual control strategies performed best because of their abilities to control the movement of a sensor entity and to filter the sensed information. This also includes system robustness in case of sensor failures where other sensing units must recover system performance. Additionally, autonomous policy reconfiguration after adding or removing of sensor agents was successful. This highlights that intelligent sensor agents are able to adapt their individual control policies considering new circumstances.
Diese Arbeit handelt von dem Aufbau eines Laborversuchs, der die Darstellung eines linearen Fertigungsprozesses realisiert. Die Laboraufgaben sind in unterschiedlichen Schwierigkeitsgraden vorhanden. Das Ziel ist es, den Studenten eine haptische und realitätsnahe Fertigungsstraße zu präsentieren. Diese Applikation sortiert Produkte nach zwei Kriterien, der Form und dem Material aus. Zur Darstellung der Produktionsstraße dient eine Drehtischapplikation. Diese ist in unterschiedliche Stationen unterteilt. Durch den Aufbau der Station ist die Modularisierung der Anlage realisiert. Diese soll die Möglichkeit bieten, die Applikation in der Zukunft nach Bedarf anzupassen.
Die Konstruktion und Realisierung des modularen Aufbaues der Hardware sind die Schwerpunkte in dieser Thesis. Zusätzlich wird die Software der Arduino Plattform zur Ansteuerung der Schrittmotoren programmiert. Ein weiterer Punkt ist die softwareseitige Umsetzung des Inkrementalgebers in der Speicherprogrammierten Steuerung (Step7). Dazu gehört ebenfalls die Einbindung des Funktionsbausteines in die Datenbank des Projektes.
Mit dieser Hardware sollen die Studierenden in der Lage sein, Fertigungsprozesse zu simulieren und die erlernten Kenntnisse aus den Vorlesungen anwenden und vertiefen.
Die in dieser Arbeit erzielten Ergebnisse zur Optimierung der Parameter zur Registrierung elektrisch evozierter Hirnstammpotenziale mit den beiden ERA-Messsystemen Eclipse EP25 und Synergy EDX dienen als Grundlage für die eBERA Untersuchungen. Betrachtet wurden besonders hierbei die Stimulati-onsart, Filtereinstellungen und Mittelungsoptionen.
Bei allen Messungen mit beiden Systemen, Eclipse EP25 und Synergy EDX, wird eine contralaterale Ableitung nahegelegt.
Eine zu empfehlende Filtereinstellung der Hochpassfilter und Tiefpassfilter zur Potenzialregistrierung mittels eBERA ist 0,2 Hz / 3000 Hz bei der Synergy und 33 Hz / 3000 Hz bei der Eclipse EP25. Bei Vorliegen tieffrequenter Einstreuun-gen ist eine Erhöhung der Grenzfrequenz des Hochpassfilters auf 100 Hz zu empfehlen.
Bei der Wahl der Stimulationsart hat sich die alternierende als die beste her-ausgestellt. Dies belegen sowohl die in den Ergebnissen gemessenen Potentia-le als auch Messungen von Kollegen (Steffens, 2016).
Die Mittelungsoption „bayesian weighting“ bei der Eclipse EP25 hat sich bei der eBERA Messung als nicht sehr hilfreich erwiesen. Bei der Synergy EDX hat die Einstellung „Mittel“ im Vergleich zu „Gewichtet“ die besseren Ergebnisse erzielt. Daher wird diese Wahl empfohlen, falls mit diesem System gemessen wird. Weitere weniger einflussreiche Einstellungen werden im Anhang C. „Optimierte Parameter beider Messsysteme“ aufgelistet.
In dieser Bachelor Arbeit wird die Realisierung und messtechnische Analyse dreier Delta-Sigma-Modulatoren vorgestellt. Zwei der drei Modulatoren sind mit diskreten Bauteilen realisiert, ein dritter als integrierte Schaltung. Bei den diskret realisierten Modulatoren handelt es sich um Modulatoren 1. und 2. Ordnung, der als integrierte Schaltung verbaute Modulator ist ein Modulator 7. Ordnung.
Die Messdaten werden mithilfe eines Mikrocontrollers aufgezeichnet und am Computer mit MATLAB ausgewertet. Für die Auswertung der Modulatoren wird jeweils der Signalrauschabstand und die harmonische Verzerrung des Signals ermittelt. Zusätzlich wird bei jeder Messung eines Modulators das Spektrum des Signals ermittelt und dargestellt. Bei den beiden diskreten Modulatoren ergibt sich bei den Messungen ein Signalrauschabstand von 54 dB bis 56 dB, bei dem als integrierte Schaltung implementierten Delta-Sigma-Modulator wird ein Wert von 70 dB bis 76 dB erreicht. Für die harmonische Verzerrung der Signale wird beim Modulator 1. Ordnung ein Wert von 64 dB, beim Modulator 2. Ordnung 72 dB und beim 7. Ordnung 91 dB gemessen.
This thesis deals with the implementation of the SUBSCALE algorithm in the Python programming language. First, the current state of research and the needs of the target group are considered. Then, the choice of language is decided based on the findings. On the basis of self-generated requirements, the implementation is carried out.
Finally, the code is evaluated for accuracy, consistency, and execution time, as well as its applicability in practice.
Since the implementation of the current work proved to be unconvincing, an approach is tested in which Python is used only as a front-end.
Der Zweck dieser Arbeit ist es zu untersuchen, ob es möglich ist, einen Regelungsalgorithmus in MATLAB zu implementieren mit dem, mit Hilfe des Roboters Baxter von Rethink Robotics eine automatische Ultraschalluntersuchung einer Schilddrüse durchzuführen. Hierzu ist zum einen eine Kraftregelung notwendig und zum anderen eine Regelung der Ausrichtung des Ultraschallkopfes zum Untergrund, da dieser immer senkrecht darauf stehen soll.
Um den implementierten Regelalgorithmus zu optimieren, sind Tests durchgeführt worden, mit denen ermittelt worden ist, wie die Regelparameter einzustellen sind, um gute Ergebnisse zu erzielen. Die einstellbaren Regelparameter sind der Kraftbereich, in dem keine Regelung stattfinden soll, und der Faktor, mit dem der Greifarm des Roboters nach oben und unten verschoben werden soll. Mit den optimalen Werten, die sich durch diese Untersuchung ergeben haben, ist es möglich, die Kraft recht präzise zu regeln, wobei etwa 3 % aller gemessen Kraftpunkte außerhalb der vorgegebenen Kraftgrenzen liegen.
Es ist in der gegebenen Zeit nicht möglich gewesen, beide Teile der Regelung miteinander zu verbinden. Um die Rotation des Greifarmes zu steuern, ist die Berechnung des nötigen Drehwinkels in Abhängigkeit der Y-Kraft vorgesehen gewesen. Dies hat sich jedoch als problematisch erwiesen, da die Kraft, welche gemessen wird, stark schwankt und daher keine ordnungsgemäße Regelung möglich ist. Aus diesem Grund ist zu empfehlen, die Rotationsregelung nicht nur mit Hilfe von Kraftmessungen, sondern auch mit von Kameras aufgenommenen Bilddaten zu steuern.
Diese Untersuchung hat gezeigt, dass die Kraftregelung in der Ebene und bei kleineren Steigungen bis 12° praktikabel ist. Jedoch ist eine vollautomatische Ultraschalluntersuchung mit diesem Regelalgorithmus nicht möglich, da die Ausrichtung des Ultraschallkopfes nicht möglich ist. Es ist allerdings davon auszugehen, dass der Algorithmus funktionieren kann, wenn Bilddaten mit einbezogen werden.
Die vorliegende Bachelor Thesis befasst sich mit der Funktionsweise des ArduPilot Open Source Autopiloten. Für die Ausführung erfolgt mit einem Pixhawk Flugcontroller. Dabei wird die Funktionsweise der Regler und der Navigation des Luftfahrzeuges untersucht. Nach der Analyse des Regler Aufbaus werden wird die Regelung für einen Multiplex EasyStar 2 ausgelegt und in dem Flugzeug verbaut. Für die Kommunikation mit dem Pixhawk Flugcontroller und der Parametereinstellung für die Regelung wird die Mission Planner Bodenstation verwendet. Die Regelung wird mit praktischen Flugtests und der automatischen Tuning Funktion durchgeführt. Mit Hilfe der angelegten Daten Protokolle während des Flugs wird im Nachhinein das Flugverhalten des Multiplex EasyStar 2 ausgewertet und angepasst. Nach der Auslegung der Regelparameter besteht die Aufgabe darin, einen vollautonomen Flug mit automatischem Start und automatischer Landung durchzuführen. Die Wegpunkt Generierung für den autonomen Flug erfolgt mit der Mission Planner Bodenstation. Es soll mit dieser Arbeit die Zuverlässigkeit und Genauigkeit des Systems überprüft werden.
Researchers are developing new GNSS receivers and antennas based on an innovative signal-processing scheme to significantly improve GNSS tracking reliability and accuracy under degraded signal conditions. It is based on the principles of synthetic-aperture radar. Like in a multi-antenna phased array receiver, GNSS signals from different spatial locations are combined coherently forming an optimized synthetic antenna-gain pattern. The method is implemented in a real-time PC-based software receiver and works with GPS, GLONASS, and Galileo signals. Multiple frequencies are generally supported. The idea of synthetic-aperture processing is realized as a coherent summation of correlation values of each satellite over the so-called beamforming interval. Each correlation value is multiplied with a phase factor. For example, the phase factor can be chosen to compensate for the relative antenna motion over the beam-forming interval and the resulting sum of the scaled correlation values represents a coherent correlation value maximizing the line of sight signal power.
Diese Bachelor-Thesis befasst sich mit der Entwicklung eines Torsomodells, das zur Simulation von Herzkatheteruntersuchungen mit Hilfe von projektorbasierter erweiterter Realität verwendet werden soll. Das zu erstellende Modell beinhaltet ein Herz sowie eine Leistenarterie, welche zum Herzen führt. Aufgrund des zur Verfügung stehenden Budgets konnte lediglich das Herzmodell als 3D-Druck realisiert werden, jedoch nicht das Torsomodell. Hierfür wurde eine Schaufensterpuppe verwendet, da diese zusätzlich zum Kostenpunkt leicht in der Bearbeitung war.
Im Rahmen dieser Arbeit wird ein dezentrales Usermanagement entwickelt, das ein vorhandenes aber veraltetes Usermanagement ersetzen soll.
Zuerst werden verschiedene Technologien für die Umsetzung evaluiert. Dabei wird begründet, warum z. B. dem Relationalen Datenbanksystem von Oracle der Vorzug gegenüber einem NoSQL-System wie MongoDB gegeben wird.
Im Rahmen einer ausführlichen Konzeption werden zuerst die Anforderungen detailliert formu-liert. In einem Grob-Entwurf werden die Beziehungen des alten und des neuen Usermanagements zur Außenwelt dargestellt. Datenmodellierung und Skizzierung der Paket- bzw. Klassen-Struktur innerhalb der Anwendung bilden die Grundlage für die spätere Implementierung. Ein besonderer Schwerpunkt bei der Konzeptionierung liegt auf dem Entwurf der REST-API.
Bei der Implementierung werden die Schritte von der Einrichtung des Spring-Frameworks bis zur lauffähigen Anwendung beschrieben. Der Umgang mit der Datenbank und dem OR-Mapper sind Schwerpunkte der Implementierung, ebenso wie die Umsetzung der REST-Schnittstellen. Die fachlichen Prozesse der Daten-Migration, der Verarbeitung von Requests aus einem zentralen System und des GLN-Mappings werden in eigenen Kapiteln behandelt.
Am Ende werden die erzielten Ergebnisse dokumentiert, offene Punkte angesprochen und ein Fazit gezogen.
Eingebettete Systeme werden immer komplexer.Dabei werden System-on-Chips (SoC) eingesetzt und spielen eine sehr wichtige Rolle. Unter SoC versteht man „die Integration aller oder eines großen Teils der Funktionen eines Systems auf einem Chip“ [G]. SoCs haben sehr viele Vorteile. Vor einigen Jahren gab es noch riesige Leiterplatten mit Schaltungen, die aus mehreren Schaltkreisen aufgebaut wurden. Heute werden diese auf einem einzigen Chip realisiert. SoCs sind nicht nur sehr kompakt, sondern verbrauchen auch weniger Energie, da einerseitsdie Bauteile näherbeieinander sind, sie andererseits mit besseren Technologien ausgerüstet sind. Heutige SoCs sind so gebaut, dass sie wiederverwendet werden können. Sie bestehen aus mehreren einzelnen Systemkomponenten, um sowohl Kosten, als auch Entwicklungszeit zu sparen. Neben SoCs sind FPGAs (Field Programmable Gate Array) und CPLDs (ComplexProgrammableLogic Devices)sehr beliebte programmierbare Logikbauelemente, die in der Digitaltechnik ihren Einsatz finden. Sie sind die zwei wesentlichen Gruppen von ProgrammableLogic Devices (PLDs), dieexistieren. Sie bestehen hauptsächlich aus FlipFlops, CPLDs weisen sie aber vergleichsweise weniger auf. FPGAs sind komplexer als CPLDs. In der Hardware wird die Implementierung von arithmetischen Funktionen wie Addierern, Subtrahierern und Multiplizierern teilweise unterstützt. FPGAs sind aus diesem Grund die passenden Bauelemente zur Realisation von Anwendungen wie digitalen Signalverarbeitungssystemen oder Mikroprozessorsystemen.Die größten Hersteller von FPGAs sind Altera und Xilinx. Ein anderes aktuelles Thema sind die Bussysteme in Chips. Aufgrund der Komplexität der oben beschriebenen System-on-Chips, bestehen sie auch aus immer komplexeren Baugruppen, wie Prozessoren, Speichern oder auch Interfacecontrollern. Bussysteme werden zur Verbindung dieser Baugruppen eingesetzt. Je nach Baugruppe-Interfaces werden unterschiedliche Bussystem verwendet. Diese Bussysteme sind mit speziellen Spezifikationen dotiert, die aus diversen Anforderungen folgen. Einheitliche Standards sind daher wichtig. Unter anderen sind Bussysteme wie AMBA, Wishbone und CoreConnect häufig in FPGAs eingesetzt. Ihr Vorteil liegt an Ihren standardisierten Schnittstellen. Auf diese Bussysteme wird ins Detail in Kapitel 2.1 eingegangen. Zu der Familie von AMBA-Bussen gehört der AXI-Bus.Die vorliegende Arbeit beschäftigt sich mit dem AufbaueineswiederverwendbarenMasters, der aufAXI4-Protokoll basiert ist. Dieser sollte zunächst als Ethernet-Master eingesetzt werden, um Burst-Transaktionen zwischen dem Ethernet MAC und einemSpeicher zu ermöglichen, wird aber in anderen Projekten wiederverwendet.
Durch den technischen Fortschritt werden sowohl die diagnostischen, als auch die therapeutischen Medizinprodukte immer komplexer. Gleichzeitig steigt auch der Funktionsumfang an, wodurch Krankheiten besser erkannt und behandelt werden können. Dabei muss das Gerät nicht nur funktional effektiv und sicher sondern auch einfach und intuitiv zu bedienen sein.
Aus diesem Grund muss beim Hersteller als letztes Glied des Entwicklungsprozesses die Produktvalidierung erfolgen. Um diese nach der erfolgreichen Verifizierung vollständig und effizient durchzuführen, wird in dieser Thesis zunächst die Datenanalyse der klinischen Bewertung aufgezeigt. Anschließend werden die Aufgabenanalyse und der Gebrauchstauglichkeitstest mit der Bewertung durch einen Fragebogen als Methoden der Usability-Validierung vorgestellt. Außerdem schließt die Produktvalidierung die Validierung der Lastenheftanforderungen mit ein, was mit Hilfe einer Dokumentenanalyse abgeprüft wird. Abschließend wird die Produktvalidierung in einem Dokument zusammengefasst und die Validität erklärt.
Zur Umsetzung der Validierungen werden am Beispiel eines mobilen EKG-Systems regularienkonforme Validierungsdokumente erörtert.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines Sensor-Netzwerks für die Anwendung im Smart-Gardening-Bereich. Dabei geht es im Wesentlichen darum, durch Messung verschiedener Parameter den aktuellen Status der Pflanzen im Garten bewerten zu können. So soll dem Anwender des Systems die Gartenarbeit erleichtert werden.
Zunächst wurden verschiedene Smart-Gardening-Systeme bezüglich Messparametern, Kommunikation und Energieversorgung untersucht. Anhand dieser Ergebnisse wurden Anforderungen an ein eigenes System gestellt. Dieses eigene System verwendet eine an der Hochschule Offenburg entwickelte, energieautarke und drahtlose Sensor-Netzwerk-Plattform. Für das Sensor-Netzwerk wurde ein Konzept entwickelt, indem mehrere Topologien und Zugriffsverfahren untersucht wurden. Ausgewählt wurde schließlich die Verwendung einer Stern-Topologie und die Umsetzung eines Kommunikationsprotokolls auf Grundlage eines zeitbasierten Zugriffsverfahrens. Die erforderliche Basisstation wurde konzipiert und auf Basis eines Raspberry Pi 3 realisiert. Das Kommunikationsprotokoll wurde in die Software von Basisstation und Sensorgeräten integriert. Die Sensor-Plattform wurde um einen kapazitiven Sensor für die Messung der Bodenfeuchte erweitert. Dieser Sensor wurde mit Gartenerde getestet und vermessen. Auf Grundlage der Ergebnisse wurde ein Modell für die Berechnung des Wassergehalts der Erde erstellt. Zuletzt wurde das Sensor-Netzwerk getestet.
Das Sensor-Netzwerk kann einige Dutzend Sensorgeräte verknüpfen. Die Sensorgeräte werden im Garten platziert und sind durch Verwendung von Energy-Harvesting energieautark. Sie senden die gesammelten Messwerte mehrmals täglich an die Basisstation, welche die Messwerte empfängt und abspeichert. Eine Android-App kann via Bluetooth auf die Daten zugreifen und sie dem Anwender anzeigen. Die Funktionalität des Systems wurde im Test nachgewiesen. Das System wird in einer erweiterten Form bei der Landesgartenschau 2018 in Lahr zum Einsatz kommen.
Implementierung von schnellen Algorithmen auf Basis der FFT in einem digitalen Signalprozessor
(2017)
In dieser Bachelor-Thesis geht es um die Weiterentwicklung des bestehenden Laborversuchs „Schnelle Algorithmen auf Basis der FFT“ des Labors „Digitale Signalverarbeitung“. Dieser Versuch wird momentan mit einem digitalen Signalprozessor (TMS320C6713) umgesetzt. Dabei sollen eine schnelle Faltung, sowie Erweiterungen der bestehenden Software, welche mit dieser zusammenhängen, implementiert werden. Des Weiteren sollen Verbesserungen und Korrekturen an dem bestehenden Projekt vorgenommen werden. Um herauszufinden, was bereits implementiert ist, wird das bestehende Projekt zunächst analysiert. Anschließend wird die schnelle Faltung mit dem für das Labor benötigten Funktionsumfang implementiert. Zudem werden darüber hinaus Erweiterungen der Software umgesetzt, wie z.B. eine Sprachauswahl.
Das Ziel der vorliegenden Bachelorarbeit ist es, ein prototypisches Meldesystem für die Bankenaufsicht in einer privaten Cloud zu realisieren. Ferner sollen die Vorteile eines solchen Systems gegenüber bestehenden Systemen abgegrenzt werden. Im ersten Teil wird auf die Entwicklung von Software as a Service-Anwendungen sowie die rechtlichen Grundlagen und Zusammenhänge im Meldewesen eingegangen. Des Weiteren werden das Cloud-Computing und das verwendete Datenformat XBRL durchleuchtet. Anschließend werden bestehende Meldesysteme verglichen. Dabei stehen die unterschiedlichen Bereitstellungsarten im Fokus. Zur Erreichung des Ziels der Thesis wird ein Proof of Concept anhand einer Beispielmeldung aus dem Großkreditmeldewesen umgesetzt. Diese Meldung erfordert sowohl das Befüllen von PDF-Formularen sowie das Erstellen von XBRL-Dateien. Für die Umsetzung wird eine Testumgebung aufgebaut, mit welcher es bedingt möglich ist, reale Bedingungen zu simulieren. Nach einer Evaluation wird hierfür das Platform as a Service-System Openshift verwendet. Damit ist es möglich, eine Private Cloud zu erstellen, auf der eine Java EE Anwendung als Reporting as a Service-Lösung zur Verfügung gestellt wird. Deren Funktionsumfang umfasst das Einlesen, Prüfen, Konvertieren und Validieren von Daten sowie das Versenden von Meldungen zur Bankenaufsicht. Um die heterogenen Systeme im Finanzumfeld abzudecken, werden Testdaten als CSV, XLS und via Datenbank bereitgestellt. Die Tests mit diesen Daten sind sehr positiv. So ist es möglich, Daten aus allen Datenquellen einzulesen und mittels einer Plausibilitätsliste der Bundesbank zu prüfen. Anschließend können die Daten in eines der geforderten Formate PDF oder XBRL konvertiert werden. Durch den Ansatz einer privaten Cloud-Lösung können einige Sicherheitsbedenken ausgeschlossen werden, ohne auf die Vorteile wie Lastverteilung, Multitenancy, Skalierbarkeit und hohe Kompatibilität verzichten zu müssen. Abschließend werden in einer Schlussbetrachtung die Ergebnisse vorgestellt und ein Ausblick für die Zukunft gegeben.
Im Rahmen dieser Abschlussarbeit wurde evaluiert, welche Hardware-Plattform für Einsteiger im Bereich der System-on-Chip (SoC) Field-Programmable-Gate-Arrays (FPGAs) (SoC-FPGAs)geeignet ist, speziell Altera Cyclone V SoC. Dabei wurde die Vorgehensweise sowie die benötigten Programme, die für die Entwicklung benötigt werden, ermittelt. Als Beispiel Applikation diente hier die Bildverarbeitung. Die Hardware-Plattform soll es ermöglichen, dass diese von Programmierern im Bereich der Bildverarbeitung genutzt werden kann, ohne dass diese sich um die Hardware kümmern müssen. Zusätzlich sollte evaluiert werden, ob und wie man den FPGA benutzen kann, um Algorithmen auf der Hardware auszuführen, und so einen Performance Gewinn zu erhalten.
Für die Thesis stand zu Beginn ein Hardware-Paket, bestehend aus einem FPGA-SoC-Board, Kamera-Modul sowie TFT-Display zur Verfügung. Dieses Paket stellte sich als nicht geeignet heraus, da die Hersteller entweder keine oder nur mangelhafte Dokumentation zu den Modulen bereitstellten.
Als geeignete Hardware wurde das DE0-Nano-SoC von der Firma Terasic gewählt. Das verwendete Kamera–Modul sowie Display–Modul stammt ebenfalls von Terasic. Diese Module bieten den Vorteil, dass sie auch mit anderen Boards von Terasic kompatibel und gut dokumentiert sind und es Beispiel-Programme für diese Module gibt. Für die gewählte Hardware-Plattform wurde ein IP-Core für die Kommunikation mit der Kamera, sowie ein IP-Core für die Berechnung von Bayer-Raw-Format in das 16 bit(565)-RGB-Format entworfen und implementiert. Die Funktion der IP-Cores wurde mit Hilfe von Simulationen verifiziert.
Es wurden die Arbeitsschritte und Abläufe ermittelt, die nötig sind, um das System vom embedded Linux zu programmieren und mit den IP-Cores zu kommunizieren.
Diese Bachelorthesis befasst sich mit der Entwicklung eines Auslegungstools für eine PV-basierte, autarke Energieversorgung eines Wasserreinigungssystems mit Hilfe eines Batteriespeichers.
Dafür wurde auf Grundlage theoretischer Einstrahlungsmodelle die Berechnung der Bestrahlungsstärke auf eine geneigte Moduloberfläche in Microsoft Excel 2010 implementiert. Die Berechnung wurde dabei so umgesetzt, dass Parameter wie z.B. Ausrichtung und Größe der PV-Module variiert werden können. Darauf aufbauend wurde die Berechnung der Leistung eines PV-Generators mit Hilfe des Wirkungsgrades der PV-Module umgesetzt.
Des Weiteren wurde für diese Arbeit ein Bilanzierungsmodell entwickelt, welches das Verhalten des Batteriespeichers im autarken System simuliert. Dieses Modell berechnet dabei sowohl die im Batteriespeicher gespeicherte Energie, als auch die über ein Bilanzierungsintervall gemittelte Leistung des Batteriespeichers. Das Batteriemodell wurde mit Hilfe von VBA-Code umgesetzt und in das Auslegungstool eingebunden.
Ein weiteres Thema dieser Bachelorthesis ist die Energieversorgung eines speziellen Wasserreinigungssystems, welches im Rahmen des Forschungsprojekts „PHOTOPUR“ entwickelt wird. Dieses mehrstufige System hat einen charakteristischen Energieverbrauch, der möglichst präzise simuliert werden soll. Um dies zu gewährleisten, wurde ein dynamisches Lastprofil erstellt. Das entwickelte Lastprofil ist spezifisch für das Wasserreinigungssystem, enthält aber gleichzeitig viele Freiheitsgrade um es bei der weiteren Entwicklung des Systems möglichst präzise anpassen zu können.
Das entwickelte Auslegungstool kann folglich die erzeugte PV-Leistung, einen Batteriespeicher und das Lastprofil des Wasserreinigungssystems simulieren. Die Darstellung der Simulationsergebnisse erfolgt mit dem Ziel, Aussagen zu der Qualität der Energieversorgung des Wasserreinigungssystems treffen zu können.
Aufbau eines Laborversuchs zur Simulation einer Produktionsstraße im Bereich der Automatisierungstechnik. Diese Produktionsstraße sortiert Produkte nach zwei Kriterien, dem Material und der Form. Die Simulation der Produktionsstraße wird über eine Drehscheibe realisiert. Die Bearbeitung erfolgt durch verschiedene Module. Die modulare Bauweise begründet sich durch eine beliebige Erweiterungsmöglichkeit der Produktionsstraße. Der Schwerpunkt liegt in der Auseinandersetzung mit der Programmierung einer solchen. Das Ziel ist die Konfiguration und die Komplexität einer solchen Programmierung kennenzulernen.
Hierzu werden zwei Laboranleitungen mit je einem Ziel entwickelt:
a) Die Verknüpfung zwischen praktischem Aufbau und Software zu schaffen.
b) Eine mögliche Vorgehensweise der Programmierung bei der Entwicklung einer solchen modularen Produktionsstraße zu erlernen.
Die Entwicklung der Laboranleitungen wird mit Hilfe einer didaktischen Analyse durchgeführt. Didaktische Modelle für die Entwicklung von Laborversuchen für Studierende sind in solcher Form nicht verfügbar, deshalb wird für die Entwicklung dieser Laboranleitungen ein Vergleich verschiedener didaktischer Modelle vorgenommen. Durch diesen Vergleich ergibt sich, dass diese Versuchsanleitungen mit Hilfe der didaktischen Analyse nach Wolfgang Klafkis (vorläufigen) Perspektivenschema zur Unterrichtsplanung entwickelt werden.
Ziel dieser Bachelorarbeit ist die Recherche sämtlicher wesentlicher Informationen und die Entwicklung der Software-Infrastruktur, die zur Erstellung von medizinischen Augmented-Reality-Anwendungen, auf Basis der Datenbrille HoloLens der Firma Microsoft nötig sind. Es soll das Verständnis für digitale Realitäten und Hologramme und die technische Beschreibung der HoloLens vermittelt werden, da dieses Wissen von essentieller Bedeutung ist, wenn Programmieranfänger, aber auch Fortgeschrittene den Einstieg in dieses Thema finden sollen. In dieser Bachelorarbeit werden die Anforderungen an die notwendige Hardware und Software behandelt und auch die Grenzen und Einschränkungen der HoloLens aufgezeigt.
Die vorliegende Bachelor-Thesis ist bei der Firma AUMA in Müllheim in der Abteilung Testingentstanden.
Diese Arbeit ist in zwei Teile unterteilt. Im ersten Teil wird näher auf den Entwurf eines Motorenprüfstands und dessen Realisierung eingegangenen, während sich der zweite Teil damit befasst, wie dieser für die Ausbildung – und die Einarbeitung in Mess- und Steuerungstechnik – von Auszubildenden genutzt werden soll. In diesem Versuchsaufbau wird vorrangig ein Gleichstrommotor getestet.
Die Begründung für die Erstellung eines Motoren-Bremsprüfstands liegt darin, dass es eine der Hauptaufgaben der Abteilung Testing ist, in Labor-Prüfeinrichtungen Antriebe der AUMA Gruppe zu testen. Diese Prüfeinrichtungen arbeiten in der Regel mit gefährlichen Spannungen und dürfen nur von Fachkräften in Betrieb genommen werden. In Zukunft sollen Auszubildende im Zuge einer praxisnahen und handlungsorientierten Ausbildung die Möglichkeit haben, sich selbstständig in die Bereiche der Mess- und Steuerungstechnik einzuarbeiten.
Mit dem realisierten Motoren-Bremsprüfstand ist es in der Abteilung Testing möglich, in Zukunft Auszubildende ressourcenschonend und in einem gefahrenfreien Umfeld in die Aufgaben der Abteilung Testing einzuarbeiten. Somit reduziert sich die benötigte Einarbeitungszeit, in der ein Mitarbeiter die Auszubildenden betreuen muss. Mit dem gebauten Prüfstand können Auszubildende die Charakteristik eines Gleichstrommotors verstehen und die Messmethoden, zur Erfassung von Drehmoment, Drehwinkel, Temperatur, sowie elektrische Größen, anwenden. Diese Erkenntnisse lassen sich optimal auf größere Prüfstände übertragen und bereiten die Auszubildenden auf spätere Aufgaben im Unternehmen AUMA und der Abteilung Testing vor.
Mit Hilfe eines Präzisionsmessplatzes soll es ermöglicht werden, automatisierte Tests mit optischen Distanzsensoren der Firma SICK durchzuführen. Hierbei handelt es sich um applikationsbezogene Vergleichsmessungen. Für die Realisierung einer erweiterbaren, automatischen Ansteuerung wird mit LabVIEW eine Software entwickelt, die unterschiedliche Distanzsensoren für Displacement Anwendungen (kurze Reichweite) einbindet. Zur Bewertung von Sensoren werden unterschiedliche Messmodi bereitgestellt. Hierbei werden motorisierte Linearachsen angesteuert, wodurch dynamische 2D-, bzw. 3D Messungen von unterschiedlichen Materialproben ermöglicht werden. Außerdem können Messergebnisse verschiedener Materialproben visuell verglichen werden. Des Weiteren besteht die Möglichkeit, aufgenommene Messdaten zu exportieren.
Mit der realisierten Ansteuerungssoftware ist es möglich, in Zukunft Mitarbeiter der global agierenden Sales & Service Units ressourcenschonend und in einem anwendungsbezogenen Kontext in die Benutzung und Bewertung von Dis-placementsensoren einzuarbeiten. Für diese Maßnahme der betrieblichen Weiterbildung ist eine Lerneinheit konzipiert. Hier geht es hauptsächlich darum, dass Mitarbeiter die Eigenschaften und Konfigurationsmöglichkeiten von Displacementsensoren verstehen und für unterschiedliche Testobjekte anwenden. Für die Lerneinheit sind Unterrichtsmaterialien erstellt sowie ein vollständiger Unterrichtsentwurf erarbeitet. Der Unterrichtsentwurf orientiert sich an dem Perspektivenschema nach Klafki (vgl. 1994, S. 270ff.).
Die vorliegende Bachelor-Thesis befasst sich mit der Thematik, eine drahtlose Energieübertragung mit Hilfe induktiv resonanter Kopplung zu simulieren und aufzubauen. Durch die in den letzten Jahren immer größer werdende Elektromobilität steigt auch das Interesse an einem drahtlosen Transfer von elektrischem Strom. Doch auch in kleineren Leistungsbereichen ist ein drahtloses Aufladen, wie z.B. bei Laptops und Handys, ein angesagtes Thema. Mit Hilfe von zwei resonanten Schwingkreisen wird ein Austausch an Energie zwischen Sender- und Empfängerschwingkreis demonstriert. Die Grundlagen der magnetischen Induktion wie auch die Grundlagen von elektrischen Schwingkreisen sind hierfür essentiell und werden in dem ersten Kapitel aufgegriffen. Durch das Aufstellen eines mathematischen Modells, im zweiten Kapitel, wird das Prinzip der magnetischen Kopplung und das Phänomen der Frequenzspaltung von gekoppelten Systemen ausführlich behandelt und aufgestellt. Spider-Web Spulen, welche schon in niedrigen Frequenzbereichen hohe Güten aufweisen können, werden für den folgenden Aufbau verwendet. In den darauf folgenden Kapiteln wird das über das Magnetfeld gekoppelte System ausführlich untersucht. Das System erzielt eine Leistungsübertragung von 20W über 30 cm mit einer Effizienz von ungefähr 52%. Des Weiteren konnte der Punkt der kritischen Kopplung, durch eine Verminderung der ohmschen Last im Sendeschwingkreis, auf 50 cm gelegt werden.
Hochgenaue Systeme zur Positionsbestimmung spielen im heutigen Zeitalter für den privaten, kommerziellen aber auch militärischen Bereich eine immer wichtigere Rolle. Anwendungsgebiete wie Wandern, Geocaching, Mauterhebungssysteme, autonome Luft-, Land- und Seefahrt, sowie etliche militärische Verwendungen sind nur ein kleiner Überblick dieser Anwendungsmöglichkeiten.
Die durch die Anwendungsgebiete auftretende Notwendigkeit der Satellitennavigation, stellt meine Motivation dar, den Laborversuch Messtechnische Analyse eines Systems zur Satellitennavigation zu erneuern. Dieser Laborversuch soll den Studierenden des Studiengangs Elektrotechnik/Informationstechnik mit dem Schwerpunkt Kommunikationstechnik die Satellitennavigation anhand moderner Laboreinrichtung näherbringen.
Die nachfolgende Arbeit beschäftigt sich zu Beginn mit den allgemeinen theoretischen Grundlagen der Satellitennavigation, gefolgt von systemspezifischen Beschreibungen. Die weiteren Kapitel beinhalten die Versuchsbeschreibung, eine Musterlösung und Informationen für den betreuenden akademischen Mitarbeiter.
Des Weiteren wurden Messreihen aufgezeichnet, welche die einzelnen
Satellitennavigationssysteme qualitativ gegenüberstellen. Auf die Messreihen wird in dieser Thesis nicht eingegangen. Hierfür darf an dieser Stelle auf einen Beitrag in der Hochschulzeitschrift Forschung im Fokus verwiesen werden.