Refine
Document Type
- Bachelor Thesis (55) (remove)
Language
- German (55) (remove)
Has Fulltext
- yes (55)
Is part of the Bibliography
- no (55)
Keywords
- FPGA (3)
- Augmented-Reality (2)
- Business Intelligence (2)
- Funksensor (2)
- Low-Power (2)
- Regelung (2)
- AMBA AXI (1)
- Ablaufsteuerung (1)
- Angewandte Informatik (1)
- Ausbildung (1)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (55) (remove)
Open Access
- Closed Access (39)
- Open Access (16)
Das Ziel der vorliegenden Bachelorarbeit ist es, ein prototypisches Meldesystem für die Bankenaufsicht in einer privaten Cloud zu realisieren. Ferner sollen die Vorteile eines solchen Systems gegenüber bestehenden Systemen abgegrenzt werden. Im ersten Teil wird auf die Entwicklung von Software as a Service-Anwendungen sowie die rechtlichen Grundlagen und Zusammenhänge im Meldewesen eingegangen. Des Weiteren werden das Cloud-Computing und das verwendete Datenformat XBRL durchleuchtet. Anschließend werden bestehende Meldesysteme verglichen. Dabei stehen die unterschiedlichen Bereitstellungsarten im Fokus. Zur Erreichung des Ziels der Thesis wird ein Proof of Concept anhand einer Beispielmeldung aus dem Großkreditmeldewesen umgesetzt. Diese Meldung erfordert sowohl das Befüllen von PDF-Formularen sowie das Erstellen von XBRL-Dateien. Für die Umsetzung wird eine Testumgebung aufgebaut, mit welcher es bedingt möglich ist, reale Bedingungen zu simulieren. Nach einer Evaluation wird hierfür das Platform as a Service-System Openshift verwendet. Damit ist es möglich, eine Private Cloud zu erstellen, auf der eine Java EE Anwendung als Reporting as a Service-Lösung zur Verfügung gestellt wird. Deren Funktionsumfang umfasst das Einlesen, Prüfen, Konvertieren und Validieren von Daten sowie das Versenden von Meldungen zur Bankenaufsicht. Um die heterogenen Systeme im Finanzumfeld abzudecken, werden Testdaten als CSV, XLS und via Datenbank bereitgestellt. Die Tests mit diesen Daten sind sehr positiv. So ist es möglich, Daten aus allen Datenquellen einzulesen und mittels einer Plausibilitätsliste der Bundesbank zu prüfen. Anschließend können die Daten in eines der geforderten Formate PDF oder XBRL konvertiert werden. Durch den Ansatz einer privaten Cloud-Lösung können einige Sicherheitsbedenken ausgeschlossen werden, ohne auf die Vorteile wie Lastverteilung, Multitenancy, Skalierbarkeit und hohe Kompatibilität verzichten zu müssen. Abschließend werden in einer Schlussbetrachtung die Ergebnisse vorgestellt und ein Ausblick für die Zukunft gegeben.
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Orthogonal Frequency Division Multiplexing (OFDM) ist ein modernes Mehrträgermodulationsverfahren, das sich gut an die besonderen Eigenschaften eines Mobilfunkkanals mit zeitvarianter Mehrwegeausbreitung anpassen kann. Es eignet sich aufgrund seines Aufbaus vor allem für Breitbandübertragungen und wird in vielen aktuellen Funksystemen wie LTE, WLAN, DVB-T usw. eingesetzt. In DSL wird die Basisbandvariante von OFDM eingesetzt, die „Discrete Multitone Transmission (DMT)“ genannt wird. Viele Aussagen über OFDM lassen sich auch auf DMT übertragen.
Moduliert wird mit Hilfe der inversen Fouriertransformation, die viele Unterträger parallel verarbeitet und am Schluss aufsummiert. Dies hat den Nachteil einer hohen Signalfluktuation, die bei Verstärkern zu Problemen führt.
Reale Verstärker haben eine nichtlineare Verstärkungskennlinie mit einer maximalen Ausgangsamplitude. Wird diese überschritten, wird das Signal abgeschnitten (geclippt). Dies hat sowohl vermehrte Bitfehler aufgrund des Orthogonalitätsverlustets der Unterträgersignale zueinander zur Folge, als auch eine erhöhte Außerbandabstrahlung.
Eine mögliche Lösung besteht darin, die Aussteuerung des Verstärkers klein zu halten. Daraus resultieren jedoch erhöhte Kosten und eine verringerte Energieeffizienz. Man ist daher bemüht die Signalfluktuation möglichst gering zu halten. Eine Maßzahl für die Amplitudenschwankungen ist das Peak-to-Average-Power-Ratio (PAPR).
Um das PAPR zu senken, gibt es eine ganze Reihe unterschiedlicher Verfahren. In dieser Arbeit werden die gängigsten davon vorgestellt und das Interleavingverfahren, die Tone Reservations (TR) und das Active Constellation Expanding (ACE) genauer untersucht.
In dieser Bachelor Arbeit wird die Realisierung und messtechnische Analyse dreier Delta-Sigma-Modulatoren vorgestellt. Zwei der drei Modulatoren sind mit diskreten Bauteilen realisiert, ein dritter als integrierte Schaltung. Bei den diskret realisierten Modulatoren handelt es sich um Modulatoren 1. und 2. Ordnung, der als integrierte Schaltung verbaute Modulator ist ein Modulator 7. Ordnung.
Die Messdaten werden mithilfe eines Mikrocontrollers aufgezeichnet und am Computer mit MATLAB ausgewertet. Für die Auswertung der Modulatoren wird jeweils der Signalrauschabstand und die harmonische Verzerrung des Signals ermittelt. Zusätzlich wird bei jeder Messung eines Modulators das Spektrum des Signals ermittelt und dargestellt. Bei den beiden diskreten Modulatoren ergibt sich bei den Messungen ein Signalrauschabstand von 54 dB bis 56 dB, bei dem als integrierte Schaltung implementierten Delta-Sigma-Modulator wird ein Wert von 70 dB bis 76 dB erreicht. Für die harmonische Verzerrung der Signale wird beim Modulator 1. Ordnung ein Wert von 64 dB, beim Modulator 2. Ordnung 72 dB und beim 7. Ordnung 91 dB gemessen.
Durch den technischen Fortschritt werden sowohl die diagnostischen, als auch die therapeutischen Medizinprodukte immer komplexer. Gleichzeitig steigt auch der Funktionsumfang an, wodurch Krankheiten besser erkannt und behandelt werden können. Dabei muss das Gerät nicht nur funktional effektiv und sicher sondern auch einfach und intuitiv zu bedienen sein.
Aus diesem Grund muss beim Hersteller als letztes Glied des Entwicklungsprozesses die Produktvalidierung erfolgen. Um diese nach der erfolgreichen Verifizierung vollständig und effizient durchzuführen, wird in dieser Thesis zunächst die Datenanalyse der klinischen Bewertung aufgezeigt. Anschließend werden die Aufgabenanalyse und der Gebrauchstauglichkeitstest mit der Bewertung durch einen Fragebogen als Methoden der Usability-Validierung vorgestellt. Außerdem schließt die Produktvalidierung die Validierung der Lastenheftanforderungen mit ein, was mit Hilfe einer Dokumentenanalyse abgeprüft wird. Abschließend wird die Produktvalidierung in einem Dokument zusammengefasst und die Validität erklärt.
Zur Umsetzung der Validierungen werden am Beispiel eines mobilen EKG-Systems regularienkonforme Validierungsdokumente erörtert.
In der vorliegenden Bachelorarbeit wird die Verwendung von persistenten Datenstrukturen in Anwendungen untersucht. Dafür werden zunächst verschiedene Eigenschaften von bestehenden Implementierungen persistenter Datenstrukturen im Vergleich zu ephemeralen Implementierungen der Datenstrukturen untersucht. Hierbei werden Laufzeiten und Speicherverbrauch analysiert. Dabei wird gezeigt, in welchen Fällen die Verwendung von persistenten Datenstrukturen Vorteile gegenüber der Verwendung ephemeralen Datenstrukturen bringt.
Im zweiten Teil wird die Verwendung von persistenten Datenstrukturen in asynchronen Umgebungen untersucht. Hierfür werden die grundlegenden Probleme aufgezeigt, die bei der Erzeugung von Thread lokalen Versionen geteilter Zustände entstehen. Es wird aufgezeigt, wie die verschiedenen Versionen durch ein Zusammenführungsverfahren in einen gemeinsamen Zustand überführt werden können. Als konkrete Implementierung wurde eine Framework in Java entwickelt, welches versucht, dieses Problem wiederverwendbar zu lösen. Das entwickelte Framework wird anhand einer Beispielsdomäne evaluiert, indem die Performanz mit der Verwendung von expliziter Synchronisation verglichen wird. Hierbei wird gezeigt, dass in Situationen, in denen die Modifikationen viel Zeit benötigen, der Ansatz des Zusammenführen Vorteile gegenüber expliziter Synchronisation bietet. Im letzten Teil der Arbeit wird die Verwendung eines geteilten persistenten Zustandes im an der Hochschule Offenburg durchgeführtem A 2 O Projekt untersucht, bei dem Software für eine autonomes Modellauto entwickelt wurde. Es werden die Schwierigkeiten bei der Umsetzung der im Framework entwickelten Techniken in C++, sowie mögliche Lösungswege aufgezeigt.
Die in dieser Arbeit erzielten Ergebnisse zur Optimierung der Parameter zur Registrierung elektrisch evozierter Hirnstammpotenziale mit den beiden ERA-Messsystemen Eclipse EP25 und Synergy EDX dienen als Grundlage für die eBERA Untersuchungen. Betrachtet wurden besonders hierbei die Stimulati-onsart, Filtereinstellungen und Mittelungsoptionen.
Bei allen Messungen mit beiden Systemen, Eclipse EP25 und Synergy EDX, wird eine contralaterale Ableitung nahegelegt.
Eine zu empfehlende Filtereinstellung der Hochpassfilter und Tiefpassfilter zur Potenzialregistrierung mittels eBERA ist 0,2 Hz / 3000 Hz bei der Synergy und 33 Hz / 3000 Hz bei der Eclipse EP25. Bei Vorliegen tieffrequenter Einstreuun-gen ist eine Erhöhung der Grenzfrequenz des Hochpassfilters auf 100 Hz zu empfehlen.
Bei der Wahl der Stimulationsart hat sich die alternierende als die beste her-ausgestellt. Dies belegen sowohl die in den Ergebnissen gemessenen Potentia-le als auch Messungen von Kollegen (Steffens, 2016).
Die Mittelungsoption „bayesian weighting“ bei der Eclipse EP25 hat sich bei der eBERA Messung als nicht sehr hilfreich erwiesen. Bei der Synergy EDX hat die Einstellung „Mittel“ im Vergleich zu „Gewichtet“ die besseren Ergebnisse erzielt. Daher wird diese Wahl empfohlen, falls mit diesem System gemessen wird. Weitere weniger einflussreiche Einstellungen werden im Anhang C. „Optimierte Parameter beider Messsysteme“ aufgelistet.
In dieser Thesis wird die Visualisierung der Stammdaten der MARKANT Handels und
Service GmbH (MARKANT) überarbeitet. Zu Beginn wird auf die Firma MARKANT,
die aktuelle Lösung der Visualisierung und die daraus resultierenden Probleme eingegangen.
In der Thesis wird zunächst ein generisches Diagramm erstellt, welches Daten,
die eine hierarchische Ordnung haben, zeichnet. Darauf aufbauend soll als Beispiel, das
Organigramm der Firma MARKANT, mit allen Anforderungen, umgesetzt werden.
Um das Ziel zu erreichen, wird eine Marktübersicht eingeholt und die Frameworks
verglichen. Nachdem eine engere Auswahl getroffen ist, sollen die Frameworks hinsichtlich
der Visualisierung genauer evaluiert werden.
Nach der Wahl des Frameworks wird eine Konzeption erstellt, bei der auf einen neuen
Technologiestack, sowie auf die Bedienbarkeit des Diagrammes durch den Endanwender
eingegangen wird.
Anhand der erstellten Konzeption werden die verschiedenen Funktionen des Diagrammes
implementiert. Ein neuer Stack wird aufgebaut und an das System der Firma
MARKANT angepasst.
Abschließend zeigt ein Vergleich zwischen der alten und der neuen Visualisierung auf,
was in der Thesis erreicht wurde.
Die vorliegende Bachelor-Thesis befasst sich mit der Thematik, eine drahtlose Energieübertragung mit Hilfe induktiv resonanter Kopplung zu simulieren und aufzubauen. Durch die in den letzten Jahren immer größer werdende Elektromobilität steigt auch das Interesse an einem drahtlosen Transfer von elektrischem Strom. Doch auch in kleineren Leistungsbereichen ist ein drahtloses Aufladen, wie z.B. bei Laptops und Handys, ein angesagtes Thema. Mit Hilfe von zwei resonanten Schwingkreisen wird ein Austausch an Energie zwischen Sender- und Empfängerschwingkreis demonstriert. Die Grundlagen der magnetischen Induktion wie auch die Grundlagen von elektrischen Schwingkreisen sind hierfür essentiell und werden in dem ersten Kapitel aufgegriffen. Durch das Aufstellen eines mathematischen Modells, im zweiten Kapitel, wird das Prinzip der magnetischen Kopplung und das Phänomen der Frequenzspaltung von gekoppelten Systemen ausführlich behandelt und aufgestellt. Spider-Web Spulen, welche schon in niedrigen Frequenzbereichen hohe Güten aufweisen können, werden für den folgenden Aufbau verwendet. In den darauf folgenden Kapiteln wird das über das Magnetfeld gekoppelte System ausführlich untersucht. Das System erzielt eine Leistungsübertragung von 20W über 30 cm mit einer Effizienz von ungefähr 52%. Des Weiteren konnte der Punkt der kritischen Kopplung, durch eine Verminderung der ohmschen Last im Sendeschwingkreis, auf 50 cm gelegt werden.
Diese Arbeit beschäftigt sich mit der Leistungsanalyse und Optimierung eines Flugdatenservers. Für die Durchführung dieser Leistungsanalyse wird eine eigene Anwendung entwickelt. Mit dieser eigens entwickelten Anwendung wird das Leistungsverhalten des Flugdatenservers genau analysiert. Mit den Erkenntnissen aus der Leistungsanalyse werden am Flugdatenserver Optimierungen durchgeführt und weitere Möglichkeiten zur Optimierung aufgezeigt. Bei diesem Flugdatenserver (Air Traffic Control Server) handelt es sich um eine Client/Server-Anwendung zur Visualisierung von Flugbewegungen im Lauftraum. Hierfür wird der Flugdatenserver mit Flugsicherungsdaten durch das Flugüberwachungssystem Automatic Dependent Surveillance (ADS) versorgt.