Refine
Year of publication
Document Type
- Conference Proceeding (453)
- Article (reviewed) (145)
- Article (unreviewed) (95)
- Bachelor Thesis (59)
- Contribution to a Periodical (38)
- Book (34)
- Part of a Book (31)
- Patent (30)
- Letter to Editor (13)
- Master's Thesis (13)
Conference Type
- Konferenzartikel (288)
- Konferenz-Abstract (76)
- Konferenzband (57)
- Sonstiges (23)
- Konferenz-Poster (9)
Language
- English (501)
- German (411)
- Other language (2)
- Multiple languages (1)
- Russian (1)
- Spanish (1)
Keywords
- Mikroelektronik (56)
- RoboCup (20)
- Kommunikation (15)
- Mathematik (12)
- E-Learning (8)
- Eingebettetes System (8)
- Energieversorgung (8)
- Intelligentes Stromnetz (8)
- Messtechnik (8)
- Applikation (7)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917) (remove)
Open Access
- Open Access (381)
- Closed Access (298)
- Bronze (155)
- Closed (84)
- Gold (2)
- Diamond (1)
- Grün (1)
Diese Arbeit beschäftigt sich mit den verschiedenen Technologien, welche in verteilten Systemen zur Kommunikation dienen können. Kernpunkt der Arbeit ist es, eine Schnittstelle zu schaffen, in der eine extrem hohe Anzahl einzelner Anwendungen untereinander und mit einer zentralen Simulationsumgebung weitestgehend automatisch - kommunizieren können. Dabei ist auch ein wesentlicher Punkt die Frage wie Daten ausgetauscht werden können. Betrachtet man zunächst das System an sich, so wird es deutlich, dass speziell für die Entwicklung des Gesamtsystems, die Stabilität, Leistungsfähigkeit und Zuverlässigkeit des Interfaces von enormer Wichtigkeit ist.
Durch den technischen Fortschritt werden sowohl die diagnostischen, als auch die therapeutischen Medizinprodukte immer komplexer. Gleichzeitig steigt auch der Funktionsumfang an, wodurch Krankheiten besser erkannt und behandelt werden können. Dabei muss das Gerät nicht nur funktional effektiv und sicher sondern auch einfach und intuitiv zu bedienen sein.
Aus diesem Grund muss beim Hersteller als letztes Glied des Entwicklungsprozesses die Produktvalidierung erfolgen. Um diese nach der erfolgreichen Verifizierung vollständig und effizient durchzuführen, wird in dieser Thesis zunächst die Datenanalyse der klinischen Bewertung aufgezeigt. Anschließend werden die Aufgabenanalyse und der Gebrauchstauglichkeitstest mit der Bewertung durch einen Fragebogen als Methoden der Usability-Validierung vorgestellt. Außerdem schließt die Produktvalidierung die Validierung der Lastenheftanforderungen mit ein, was mit Hilfe einer Dokumentenanalyse abgeprüft wird. Abschließend wird die Produktvalidierung in einem Dokument zusammengefasst und die Validität erklärt.
Zur Umsetzung der Validierungen werden am Beispiel eines mobilen EKG-Systems regularienkonforme Validierungsdokumente erörtert.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Im Rahmen dieser Arbeit wurde ein Telepräsenzsystem entwickelt, bei dem ein Teleroboter mit beweglicher Kamera zum Einsatz kommt, der seine Ausrichtung über ein Head-mounted Display synchronisiert. Der Anwender des Systems sieht auf dem Display das Abbild der Umgebung des Teleroboters. Jede Kopfbewegung des Anwenders wird in Echtzeit auf die Kamerabewegung umgesetzt. Der Anwender kann sozusagen seinen Sehsinn temporär auf den Roboter auslagern, der ihn in einer entfernten Umgebung repräsentiert.
Diese Bachelor-Thesis beschreibt die Realisierung einer Webanwendung für Schüler und Studierende, welche interaktiv demonstriert, wie das Binärsystem funktioniert. Die Anwender sollen verstehen, wie ein Computer die Vielzahl an Daten mit lediglich zwei Zuständen, nämlich 1 und 0, verarbeitet. Dabei wird interaktiv gezeigt, wie der Algorithmus zur Umwandlung von Dezimalzahlen ins Binärsystem abläuft und wie man mit Binärzahlen rechnen kann. Außerdem gibt es sehr interessante Knobelaufgaben. Dabei wird versucht, dem User auf spielerische Art und Weise, zum Beispiel durch Spiele und Aktivitäten, die Denkweise eines Informatikers näher zu bringen. Das Ziel soll sein, dass sich das ursprüngliche Bild, welches Schüler von der Informatik haben, positiv verändert. Hierzu wird ein passendes didaktisches Konzept entwickelt, welches didaktische Modelle, Lehr-/Lernbedingungen und Lernziele der Webanwendung abbildet. Zunächst gibt es eine Einführung in die Thematik und der Stand der Technik wird erläutert, d.h. was bereits in diesem Umfeld existiert. Danach wird besonders auf die Realisierung der Applikation eingegangen. Hier werden Techniken und Werkzeuge für einen Lösungsansatz erklärt. Zuletzt wird das Thema zusammengefasst und evaluiert um einen anschließenden Ausblick geben zu können.
In der vorliegenden Bachelorarbeit wird die Verwendung von persistenten Datenstrukturen in Anwendungen untersucht. Dafür werden zunächst verschiedene Eigenschaften von bestehenden Implementierungen persistenter Datenstrukturen im Vergleich zu ephemeralen Implementierungen der Datenstrukturen untersucht. Hierbei werden Laufzeiten und Speicherverbrauch analysiert. Dabei wird gezeigt, in welchen Fällen die Verwendung von persistenten Datenstrukturen Vorteile gegenüber der Verwendung ephemeralen Datenstrukturen bringt.
Im zweiten Teil wird die Verwendung von persistenten Datenstrukturen in asynchronen Umgebungen untersucht. Hierfür werden die grundlegenden Probleme aufgezeigt, die bei der Erzeugung von Thread lokalen Versionen geteilter Zustände entstehen. Es wird aufgezeigt, wie die verschiedenen Versionen durch ein Zusammenführungsverfahren in einen gemeinsamen Zustand überführt werden können. Als konkrete Implementierung wurde eine Framework in Java entwickelt, welches versucht, dieses Problem wiederverwendbar zu lösen. Das entwickelte Framework wird anhand einer Beispielsdomäne evaluiert, indem die Performanz mit der Verwendung von expliziter Synchronisation verglichen wird. Hierbei wird gezeigt, dass in Situationen, in denen die Modifikationen viel Zeit benötigen, der Ansatz des Zusammenführen Vorteile gegenüber expliziter Synchronisation bietet. Im letzten Teil der Arbeit wird die Verwendung eines geteilten persistenten Zustandes im an der Hochschule Offenburg durchgeführtem A 2 O Projekt untersucht, bei dem Software für eine autonomes Modellauto entwickelt wurde. Es werden die Schwierigkeiten bei der Umsetzung der im Framework entwickelten Techniken in C++, sowie mögliche Lösungswege aufgezeigt.
The research project Ko-TAG [2], as part of the research initiative Ko-FAS [1], funded by the German Ministry of Economics and Technologies (BMWi), deals with the development of a wireless cooperative sensor system that shall pro-vide a benefit to current driver assistance systems (DAS) and traffic safety applications (TSA). The system’s primary function is the localization of vulnerable road users (VRU) e.g. pedestrians and powered two-wheelers, using communication signals, but can also serve as pre-crash (surround) safety system among vehicles. The main difference of this project, compared to previous ones that dealt with this topic, e.g. the AMULETT project, is an underlying FPGA based Hardware-Software co-design. The platform drives a real-time capable communication protocol that enables highly scalable network topologies fulfilling the hard real-time requirements of the single localization processes. Additionally it allows the exchange of further data (e.g. sensor data) to support the accident pre-diction process and the channel arbitration, and thus supports true cooperative sensing. This paper gives an overview of the project’s current system design as well as of the implementations of the key HDL entities supporting the software parts of the communication protocol. Furthermore, an approach for the dynamic reconfiguration of the devices is described, which provides several topology setups using a single PCB design.
Home Care Applications and Ambient Assisted Living become increasingly attractive. This is caused as well by market pull, as the number of elderly people grows monotonously, as well as by technology push, as technological advances and attractive products pave the way to economically advantageous offerings. However, in real-life applications, a significant number of challenges remain. Those include seamless communication between products from different supplier, due to the lack of sufficiently standardized solutions, energy budgets, and scalability of solutions. This paper presents the experience from the InCASA project (Integrated Network for Completely Assisted Senior Citizen's Autonomy), where architectures for heterogeneous physical and logical communication flows are examined.
Currently, QRS width and bundle branch block morphology are used as electrocardiographic guideline criterias to selectheart failure (HF) patients with interventricular desynchronization in sinus rhythm (SR) for cardiac resynchronisationtherapy (CRT). Nevertheless, up to 30% of these patients do not benefit from implantation of CRT systems. Esophagealleft ventricular electrogram (LVE) enables semi-invasive measurement of interventricular conduction delays (IVCD)even in patients with atrial fibrillation (AF). To routinely apply this method, a programmer based semi-invasiveautomatic quantification of IVCD should to be developed. Our aims were todefine interventricular conduction delaysby analyzing fractionated left ventricular (LV) deflections in the esophageal left ventricular electrogram of HF patientsin SR or AF.
In 66 HF patients (49 male,17 female, age 65 ± 10 years) a 5F TOslim electrode (Osypka AG, Germany) was perorallyapplied. Using BARD EP Lab, cardiac desynchronization was quantified as interval IVCD between onset of QRS insurface ECG and the investigator-determined onset of the left ventricular deflection in LVE. IVCD was compared withthe intervals between QRS onset and the first maximum (IVCDm1) and between QRS onset and the second maximum(IVCDm2) of the LV complex.
QRS of 173 ± 26 ms was linked with empirical IVCD of 75 ± 25 ms, at mean. First and second LV maximum could beascertained beyond doubt in all patients. Significant correlations of the p<0,01 level were found between IVCD and theIVCDm1 of 96 ± 28 ms as well as between IVCD and the IVCDm2 of 147 ± 31 ms, at mean. To standardize automatic measurement of interventricular conduction delays with respect to patients with fractionatedLV complexes, the first maximum of the LV deflection should be utilized to qualify the IVCD of HF patients with sinusrhythm and atrial fibrillation.
The efficient support of Hardwae-In-theLoop (HIL) in the design process of hardwaresoftware-co-designed systems is an ongoing challenge. This paper presents a network-based integration of hardware elements into the softwarebased image processing tool „ADTF“, based on a high-performance Gigabit Ethernet MAC and a highly-efficient TCP/IP-stack. The MAC has been designed in VHDL. It was verified in a SystemCsimulation environment and tested on several Altera FPGAs.
Geleitwort
(2012)