Refine
Year of publication
Document Type
- Conference Proceeding (453)
- Article (reviewed) (145)
- Article (unreviewed) (95)
- Bachelor Thesis (59)
- Contribution to a Periodical (38)
- Book (34)
- Part of a Book (31)
- Patent (30)
- Letter to Editor (13)
- Master's Thesis (13)
Conference Type
- Konferenzartikel (288)
- Konferenz-Abstract (76)
- Konferenzband (57)
- Sonstiges (23)
- Konferenz-Poster (9)
Language
- English (501)
- German (411)
- Other language (2)
- Multiple languages (1)
- Russian (1)
- Spanish (1)
Keywords
- Mikroelektronik (56)
- RoboCup (20)
- Kommunikation (15)
- Mathematik (12)
- E-Learning (8)
- Eingebettetes System (8)
- Energieversorgung (8)
- Intelligentes Stromnetz (8)
- Messtechnik (8)
- Applikation (7)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917) (remove)
Open Access
- Open Access (381)
- Closed Access (298)
- Bronze (155)
- Closed (84)
- Gold (2)
- Diamond (1)
- Grün (1)
Die Erfindung betrifft ein Verfahren zur automatischen Klassifikation des Modulationsformats eines digital modulierten Signals, welches die empfangenen I/Q-Datenpunkte zuerst für jedes Modulationsformat mittels eines Clustering-Verfahrens ausgewertet, wobei nach Durchführung des Clustering-Verfahrens für jedes der Modulationsformate jeweils alle I/Q-Datenpunkte jeweils einem ermittelten Cluster-Schwerpunkt zugeordnet sind. Danach wird für jedes Modulationsformat jeweils der Wert einer Nutzenfunktion bestimmt, welche einen umso höheren (niedrigeren) Wert annimmt, je besser die einem Cluster-Schwerpunkt zugeordneten I/Q-Datenpunkte durch den Cluster-Schwerpunkt abgedeckt sind und je geringer die euklidischen Abstände der ermittelten Custer-Schwerpunkte von dem zugeordneten Konstellationspunkt sind. Es wird dann dasjenige Modulationsformat als das für das digital modulierte Signal zutreffende Modulationsformat angenommen, für welche die Nutzenfunktion den höchsten (niedrigsten) Wert annimmt.
NEXCODE is a project promoted by the European Space Agency aimed at research design development and demonstration of a receiver chain for telecomm and links in space missions including the presence of new short low-density parity-check codes for error correction. These codes have excellent performance from the error rate viewpoint but also put new challenges as regards synchronization issues and implementation. In this paper after a short review of the results obtained through numerical simulations we present an overview of the breadboard designed for practical testing and the test-plan proposed for the verification of the breadboard and the validation of the new codes and novel synchronization techniques under relevant operation conditions.
The demand of wireless solutions in industrial applications increases since the early nineties. This trend is not only ongoing, it is further pushed by developments in the area of software stacks like the latest Bluetooth Low Energy Stack. It is also pushed by new chip-designs and powerful and highly integrated electronic hardware. The acceptance of wireless technologies as a possible solution for industrial applications, has overcome the entry barrier [1]. The first step to see wireless as standard for many industrial applications is almost accomplished. Nevertheless there is nearly none acceptance of wireless technology for Safety applications. One highly challenging and demanding requirement is still unsolved: The aspect safety and robustness. Those topics have been addressed in many cases but always in a similar manner. WirelessHART as an example addresses this topic with redundant so called multiple propagation paths and frequency hopping to handle with interferences and loss of network participants. So far the pure peer to peer link is rarely investigated and there are less safety solutions available. One product called LoRa™ can be seen as one possible solution to address this lack of safety within wireless links. This paper focuses on the safety performance evaluation of a modem-chip-design. The use of diverse and redundant wireless technologies like LoRa can lead to an increase acceptance of wireless in safety applications. Many measurements in real industrial application have been carried out to be able to benchmark the new chip in terms of the safety aspects. The content of this research results can help to raise the level of confidence in wireless. In this paper, the term “safety” is used for data transmission reliability.
A benchmark analysis of Long Range (LoRaTM) Communication at 2.45 Ghz for safety applications
(2014)
How can manufacturers or service companies provide better services with connected products, without having acquired a powerful IT infrastructure nor the competences for software development?
Today companies can appeal to a relocated-IT-infrastructure provider, which is called Cloud.
Consequently, they do not have to manage and take care of the safety/security aspect, the updates and the breakdown of the infrastructure internally, as those are all managed by the provider.
It is possible to outsource the development of the software of the connected product to an external company. However, the question now is how fast this company can juggle from one Cloud to another in order to fulfil their clients wishes?
neverMind offers a solution based on a multi-protocols-platform linking the different connected products to a multitude of Clouds without having to redesign the whole communication stack/building block for each change in the Cloud-solution. This is the object of my thesis.
The development follows the V-Model, the first steps to understand the complexity of the project were the realisation of the product technical and architectural specifications. The last step before the Implementation was to design in details the progress and the process of every parts of the platform.
The outcome of the requirements analysis led me to divide the project in two parts:
• a “General Interface” acting as a gateway between the Client-application and “Cloud-modules”
• the “Cloud-modules” themselves.
So far, the specifications are drown up; the General Interface and a client example are coded, as well as a first Cloud-module template.
Integration of BACNET OPC UA-Devices Using a JAVA OPC UA SDK Server with BACNET Open Source Library
(2014)
Taschenbuch Digitaltechnik
(2014)
Das Taschenbuch Digitaltechnik wendet sich an Studierende und Schüler in der Ausbildung sowie an Wissenschaftler und Ingenieure in der Praxis. Es gibt einen Überblick über Grundlagen und Details der Digitaltechnik sowie ausgewählte Anwendungen und enthält aktuelles Faktenwissen in kompakter und strukturierter Form.
Das Taschenbuch Digitaltechnik dient zum schnellen Nachschlagen von Fachbegriffen und Abkürzungen bietet ein umfangreiches, fachlich gegliedertes Literaturverzeichnis für weiterführende Studien ist unentbehrlich bei Prüfungsvorbereitungen und Klausuren.
Die 3. Auflage zeichnet sich aus durch:
- eine vollständige Überarbeitung und Aktualisierung aller Kapitel
- Ausbau des Themenbereichs Analog/Digital-Umsetzer und Digital/Analog-Umsetzer
- zahlreiche verbesserte bzw. neue Abbildungen
Geschichte(n) der Medizin
(2015)
Renommierte Autoren erzählen lebendige und mitreißende Geschichte(n) der Medizin über Krankheiten, Ärzte und Forscher.
-Wie kam es zur Entdeckung des Blutkreislaufes, wo man doch lange Zeit glaubte, die Leber produziere täglich Tausende von Litern Blut?
-Warum sind Hirnschrittmacher erst viel später als Herzschrittmacher auf der medizinischen Bühne erschienen, wo doch das Gehirn schon in der Antike trepaniert und erforscht wurde?
-Die Antworten auf diese und andere Fragen werden nicht nur wissenschaftlich exakt, sondern auch überaus unterhaltsam gegeben.
-Beachtlich, dass Friedrich II. von Preußen auch begnadeter Hobby-Arzt war.
-Bemerkenswert, wie eine Frau zu einer Zeit zielstrebig Ärztin wurde, als nur Männer Medizin studieren durften.
-Bewegend die Erlebnisse eines Arztes an der Front.
-Faszinierend, wie ein „Wunderdoktor“ reihenweise Frauen in Ohnmacht versetzte, um sie zu heilen; er wurde damit zum Mitbegründer der Psychotherapie.
-Das Buch knüpft mit diesen und weiteren Erzählungen an den großen Erfolg des ersten Bandes an und bietet in populärwissenschaftlicher Weise neues Lese- und Bildungsvergnügen.
PET and SPECT in Neurology
(2014)
PET and SPECT in Neurology highlights the combined expertise of renowned authors whose dedication to the investigation of neurological disorders through nuclear medicine technology has achieved international recognition. Classical neurodegenerative disorders are discussed as well as cerebrovascular disorders, brain tumors, epilepsy, head trauma, coma, sleeping disorders, and inflammatory and infectious diseases of the CNS. The latest results in nuclear brain imaging are detailed. Most chapters are written jointly by a clinical neurologist and a nuclear medicine specialist to ensure a multidisciplinary approach. This state-of-the-art compendium will be valuable to anybody in the field of neuroscience, from the neurologist and the radiologist/nuclear medicine specialist to the interested general practitioner and geriatrician. It is the second volume of a trilogy on PET and SPECT imaging in the neurosciences, the other volumes covering PET and SPECT in psychiatry and in neurobiological systems.
Geschichte(n) der Medizin
(2014)
Seit Menschengedenken schreibt die Medizin ihre eigene(n) Geschichte(n). Bis heute faszinieren Berichte über Krankheiten oder Todesfolgen vergangener Zivilisationen, Herrscher und Persönlichkeiten. In diesem Band werden ausgewählte Vitae aus der Zeit zwischen dem zweiten Jahrhundert vor Christus und heute exemplarisch und kurzweilig vorgestellt.
Doch nicht nur die hier wiedergegebenen Krankheitsverläufe der prominenten Protagonisten faszinieren. Mindestens genauso bemerkenswert sind die dargestellten Veränderungen von Moral-Vorstellungen innerhalb der Geschichte(n): So verbietet beispielsweise der Eid des Hippokrates das Blasenstein¬-Schneiden – doch heute ist die Entfernung von Nephrolithen immanenter Bestandteil der Urologie. Und während die Deklaration des Weltärztebundes aus dem Jahr 1948 – das sogenannte Genfer Gelöbnis – den Schwangerschaftsabbruch noch ablehnt, ist dieser heutzutage (in engen Grenzen) erlaubt.
Den renommierten Autoren des vorliegenden Bandes gelingt es mühelos und mitreißend, Geschichte(n) der Medizin in Biografien und Erzählungen lebendig werden zu lassen. Ihre historischen Betrachtungen sind gleichermaßen unterhaltsam wie lehrreich.
Extended Performance Measurements of Scalable 6LoWPAN Networks in an Automated Physical Testbed
(2015)
IPv6 over Low power Wireless Personal Area Networks, also known as 6LoWPAN, is becoming more and more a de facto standard for such communications for the Internet of Things, be it in the field of home and building automation, of industrial and process automation, or of smart metering and environmental monitoring. For all of these applications, scalability is a major precondition, as the complexity of the networks continuously increase. To maintain this growing amount of connected nodes a various 6LoWPAN implementations are available. One of the mentioned was developed by the authors' team and was tested on an Automated Physical Testbed for Wireless Systems at the Laboratory Embedded Systems and Communication Electronics of Offenburg University of Applied Sciences, which allows the flexible setup and full control of arbitrary topologies. It also supports time-varying topologies and thus helps to measure performance of the RPL implementation. The results of the measurements prove an excellent stability and a very good short and long-term performance also under dynamic conditions. In all measurements, there is an advantage of minimum 10% with regard to the average times, like global repair time; but the advantage with reagr to average values can reach up to 30%. Moreover, it can be proven that the performance predictions from other papers are consistent with the executed real-life implementations.
In dieser Bachelor Arbeit wird die Realisierung und messtechnische Analyse dreier Delta-Sigma-Modulatoren vorgestellt. Zwei der drei Modulatoren sind mit diskreten Bauteilen realisiert, ein dritter als integrierte Schaltung. Bei den diskret realisierten Modulatoren handelt es sich um Modulatoren 1. und 2. Ordnung, der als integrierte Schaltung verbaute Modulator ist ein Modulator 7. Ordnung.
Die Messdaten werden mithilfe eines Mikrocontrollers aufgezeichnet und am Computer mit MATLAB ausgewertet. Für die Auswertung der Modulatoren wird jeweils der Signalrauschabstand und die harmonische Verzerrung des Signals ermittelt. Zusätzlich wird bei jeder Messung eines Modulators das Spektrum des Signals ermittelt und dargestellt. Bei den beiden diskreten Modulatoren ergibt sich bei den Messungen ein Signalrauschabstand von 54 dB bis 56 dB, bei dem als integrierte Schaltung implementierten Delta-Sigma-Modulator wird ein Wert von 70 dB bis 76 dB erreicht. Für die harmonische Verzerrung der Signale wird beim Modulator 1. Ordnung ein Wert von 64 dB, beim Modulator 2. Ordnung 72 dB und beim 7. Ordnung 91 dB gemessen.
Im Rahmen dieser Abschlussarbeit wurde evaluiert, welche Hardware-Plattform für Einsteiger im Bereich der System-on-Chip (SoC) Field-Programmable-Gate-Arrays (FPGAs) (SoC-FPGAs)geeignet ist, speziell Altera Cyclone V SoC. Dabei wurde die Vorgehensweise sowie die benötigten Programme, die für die Entwicklung benötigt werden, ermittelt. Als Beispiel Applikation diente hier die Bildverarbeitung. Die Hardware-Plattform soll es ermöglichen, dass diese von Programmierern im Bereich der Bildverarbeitung genutzt werden kann, ohne dass diese sich um die Hardware kümmern müssen. Zusätzlich sollte evaluiert werden, ob und wie man den FPGA benutzen kann, um Algorithmen auf der Hardware auszuführen, und so einen Performance Gewinn zu erhalten.
Für die Thesis stand zu Beginn ein Hardware-Paket, bestehend aus einem FPGA-SoC-Board, Kamera-Modul sowie TFT-Display zur Verfügung. Dieses Paket stellte sich als nicht geeignet heraus, da die Hersteller entweder keine oder nur mangelhafte Dokumentation zu den Modulen bereitstellten.
Als geeignete Hardware wurde das DE0-Nano-SoC von der Firma Terasic gewählt. Das verwendete Kamera–Modul sowie Display–Modul stammt ebenfalls von Terasic. Diese Module bieten den Vorteil, dass sie auch mit anderen Boards von Terasic kompatibel und gut dokumentiert sind und es Beispiel-Programme für diese Module gibt. Für die gewählte Hardware-Plattform wurde ein IP-Core für die Kommunikation mit der Kamera, sowie ein IP-Core für die Berechnung von Bayer-Raw-Format in das 16 bit(565)-RGB-Format entworfen und implementiert. Die Funktion der IP-Cores wurde mit Hilfe von Simulationen verifiziert.
Es wurden die Arbeitsschritte und Abläufe ermittelt, die nötig sind, um das System vom embedded Linux zu programmieren und mit den IP-Cores zu kommunizieren.
Entwicklung eines miniaturisierten Energieversorgungs-Moduls zur autarken Versorgung von Funkmodulen
(2017)
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines miniaturisierten Energieversorgungs-Moduls. Das Modul soll gleichzeitig aus drei Energy-Harvestern Energie sammeln und diese in einem Doppelschichtkondensator zwischenspeichern. Diese Energie kann anschließend von einem Funksensorknoten zum Sammeln und Übermitteln von Daten genutzt werden.
Solch ein aufgebautes System verspricht bei einem geringen Volumen eine hohe Lebensdauer,geringen Wartungsaufwand und eine hohe Leistung, ohne dass eine drahtgebundene Energieversorgung oder große Batterien notwendig sind.
Nach dem Erstellen eins Konzepts und der Auswahl der dafür passenden Komponenten wurde zunächst ein Evaluations-Board aufgebaut. Auf diesem wurden alle in Frage kommenden Komponenten vermessen und die Funktion getestet. Aus den dadurch erworbenen Erkenntnissen wurde das miniaturisierte Energieversorgungs-Modul entwickelt. Das miniaturisierte Modul bietet folgende Möglichkeiten: Aus drei verschiedenen Energy Harvestern wird gleichzeitig die Energie gesammelt und aufbereitet. Durch die Nutzung eines effizienten Wandler-Moduls wird bei der Energieaufbereitung eine Effizienz von über 85 % erreicht. Drei Wandler-Module verbrauchen zusammen lediglich eine Leistung von P = 3, 459 µW. Der Maximum Power Point jedes einzelnen Harvesters kann separat eingestellt werden. Auch alle anderen Komponenten werden stromsparend gewählt. Die Energie wird in einem 1, 5 F Doppelschichtkondensator gespeichert. Zusätzlich wird als Backup-Energieversorgung eine Lithium Knopfzelle eingesetzt.
Dadurch können auch sicherheitskritische Anwendungen realisiert werden. Konnte durch die Energy Harvester nicht genügend Energie gesammelt werden, wird die Batterie dem Funksensorknoten zugeschaltet. Das miniaturisierte Modul hat die Maße 20 mm x 40 mm. Nach abschließenden Messungen mit einem neu implementierten Funksensorknoten, der in einer anderen Bachelorthesis entstanden ist [1], wurde eine Sendewiederholrate von 1, 1 s nachgewiesen. Dies stellt einen sehr guten Wert dar und reicht für die meisten Anwendungen aus.
Zuletzt wird aus allen Komponenten inklusive des Funksensorknotens ein Demonstrationsmuster zusammengebaut. Dieses hat die Maße von 5 cm x 5 cm x 5 cm und kann zur weiterführenden Forschung oder als Anschauungsmaterial genutzt werden.
Implementierung von schnellen Algorithmen auf Basis der FFT in einem digitalen Signalprozessor
(2017)
In dieser Bachelor-Thesis geht es um die Weiterentwicklung des bestehenden Laborversuchs „Schnelle Algorithmen auf Basis der FFT“ des Labors „Digitale Signalverarbeitung“. Dieser Versuch wird momentan mit einem digitalen Signalprozessor (TMS320C6713) umgesetzt. Dabei sollen eine schnelle Faltung, sowie Erweiterungen der bestehenden Software, welche mit dieser zusammenhängen, implementiert werden. Des Weiteren sollen Verbesserungen und Korrekturen an dem bestehenden Projekt vorgenommen werden. Um herauszufinden, was bereits implementiert ist, wird das bestehende Projekt zunächst analysiert. Anschließend wird die schnelle Faltung mit dem für das Labor benötigten Funktionsumfang implementiert. Zudem werden darüber hinaus Erweiterungen der Software umgesetzt, wie z.B. eine Sprachauswahl.
In dieser Thesis wird die Visualisierung der Stammdaten der MARKANT Handels und
Service GmbH (MARKANT) überarbeitet. Zu Beginn wird auf die Firma MARKANT,
die aktuelle Lösung der Visualisierung und die daraus resultierenden Probleme eingegangen.
In der Thesis wird zunächst ein generisches Diagramm erstellt, welches Daten,
die eine hierarchische Ordnung haben, zeichnet. Darauf aufbauend soll als Beispiel, das
Organigramm der Firma MARKANT, mit allen Anforderungen, umgesetzt werden.
Um das Ziel zu erreichen, wird eine Marktübersicht eingeholt und die Frameworks
verglichen. Nachdem eine engere Auswahl getroffen ist, sollen die Frameworks hinsichtlich
der Visualisierung genauer evaluiert werden.
Nach der Wahl des Frameworks wird eine Konzeption erstellt, bei der auf einen neuen
Technologiestack, sowie auf die Bedienbarkeit des Diagrammes durch den Endanwender
eingegangen wird.
Anhand der erstellten Konzeption werden die verschiedenen Funktionen des Diagrammes
implementiert. Ein neuer Stack wird aufgebaut und an das System der Firma
MARKANT angepasst.
Abschließend zeigt ein Vergleich zwischen der alten und der neuen Visualisierung auf,
was in der Thesis erreicht wurde.
The overview of public key infrastructure based security approaches for vehicular communications
(2015)
Modern transport infrastructure becomes a full member of globally connected network. Leading vehicle manufacturers have already triggered development process, output of which will open a new horizon of possibilities for consumers and developers by providing a new communication entity - a car, thus enabling Car2X communications. Nevertheless some of available systems already provide certain possibilities for vehicles to communicate, most of them are considered not sufficiently secured. During last 15 years a number of big research projects funded by European Union and USA governments were started and concluded after which a set of standards were published prescribing a common architecture for Car2X and vehicles onboard communications. This work concentrates on combining inner and outer vehicular communications together with a use of Public Key Infrastructure (PKI).
The aim of this research work was to develop a boiler model with few parameters required for energy planning. The showcase considered for this work was the boiler system of the energy center at Offenburg University of Applied Sciences. A grey box model of the boiler was developed systematically starting from model abstraction, simplification, model break-down and to the use of empirical correlations wherever necessary to describe the intermediate effects along with the use of information from manufacturer’s specification in order to reduce parameters. This strategy had resulted in a boiler model with only 6 parameters, namely, nominal burner capacity, water gallery capacity, air ratio, heat capacity of wall, thermal conductance on flue gas and hot water side. Most of these parameters can be obtained through the information available in the spec sheets and thus an energy planner will be able to parameterize the model with low effort. The model was validated with the monitored data of the showcase. It was tested for the start-up, shut-down behavior and the effect of storage.
Der Studienbeginn wird an der Hochschule Offenburg durch Vorbereitungskurse, sogenannte Brückenkurse, unterstützt. Wir stellen vorläufige Ergebnisse beim Einsatz von Smartphones und Tablets im Rahmen des Physik-Brückenkurses vor, bei dem die Studenten Hilfen zum selbständigen Üben durch eine App erhalten. Durch die Überarbeitung des Kurses und den Einsatz der App konnte der Teilnehmerschwund verringert werden. Die Evaluationsergebnisse bestätigen eine hohe Akzeptanz der Neuerungen seitens der Studierenden. Erste Auswertungen von Ein- und Ausgangstests deuten darauf hin, dass durch den Brückenkurs eine Angleichung der Vorkenntnisse der Studienanfänger erreicht wird, da Teilnehmer mit geringeren Vorkenntnissen tendenziell einen größeren Lernfortschritt erreichen. Durch unterschiedliche Schwierigkeitsstufen und selbstregulierte Übungsphasen in individuellem Tempo können aber auch die Erfordernisse der stärkeren Teilnehmer angemessen berücksichtigt werden.
We propose secure multi-party computation techniques for the distributed computation of the average using a privacy-preserving extension of gossip algorithms. While recently there has been mainly research on the side of gossip algorithms (GA) for data aggregation itself, to the best of our knowledge, the aforementioned research line does not take into consideration the privacy of the entities involved. More concretely, it is our objective to not reveal a node's private input value to any other node in the network, while still computing the average in a fully-decentralized fashion. Not revealing in our setting means that an attacker gains only minor advantage when guessing a node's private input value. We precisely quantify an attacker's advantage when guessing - as a mean for the level of data privacy leakage of a node's contribution. Our results show that by perturbing the input values of each participating node with pseudo-random noise with appropriate statistical properties (i) only a minor and configurable leakage of private information is revealed, by at the same time (ii) providing a good average approximation at each node. Our approach can be applied to a decentralized prosumer market, in which participants act as energy consumers or producers or both, referred to as prosumers.
Die in dieser Arbeit erzielten Ergebnisse zur Optimierung der Parameter zur Registrierung elektrisch evozierter Hirnstammpotenziale mit den beiden ERA-Messsystemen Eclipse EP25 und Synergy EDX dienen als Grundlage für die eBERA Untersuchungen. Betrachtet wurden besonders hierbei die Stimulati-onsart, Filtereinstellungen und Mittelungsoptionen.
Bei allen Messungen mit beiden Systemen, Eclipse EP25 und Synergy EDX, wird eine contralaterale Ableitung nahegelegt.
Eine zu empfehlende Filtereinstellung der Hochpassfilter und Tiefpassfilter zur Potenzialregistrierung mittels eBERA ist 0,2 Hz / 3000 Hz bei der Synergy und 33 Hz / 3000 Hz bei der Eclipse EP25. Bei Vorliegen tieffrequenter Einstreuun-gen ist eine Erhöhung der Grenzfrequenz des Hochpassfilters auf 100 Hz zu empfehlen.
Bei der Wahl der Stimulationsart hat sich die alternierende als die beste her-ausgestellt. Dies belegen sowohl die in den Ergebnissen gemessenen Potentia-le als auch Messungen von Kollegen (Steffens, 2016).
Die Mittelungsoption „bayesian weighting“ bei der Eclipse EP25 hat sich bei der eBERA Messung als nicht sehr hilfreich erwiesen. Bei der Synergy EDX hat die Einstellung „Mittel“ im Vergleich zu „Gewichtet“ die besseren Ergebnisse erzielt. Daher wird diese Wahl empfohlen, falls mit diesem System gemessen wird. Weitere weniger einflussreiche Einstellungen werden im Anhang C. „Optimierte Parameter beider Messsysteme“ aufgelistet.
Data Mining of the Edge
(2016)
Kleine, intelligente Systeme prägen zunehmend unsere Umwelt, dass sogenannte Internet of Things wird immer mehr Teil unseres Alltages. Diese Geräte sind immer mehr dazu in der Lage Daten aufzunehmen und zu verarbeiten. Doch wie jede Technische Revolution, führt auch der Ausbau des IoT zu neuen Herausforderungen. Das Ziel dieser Arbeit ist die Bewertung der Qualität von verschiedenen Data Mining Frameworks im Edge Bereich, die Erstellung mehrere Demonstatoren eines Edge Szenario Aufbaus sowie deren Evaluation.
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
Die Mismatch Negativity (MMN) bezeichnet eine Komponente reizkorrelierter Potentiale. Die MMN ist ein negativer Potentialkomplex, der ungefähr 100 bis 300 ms nach Stimuluspräsentation auftritt, wenn ein neuer Stimulus im Vergleich zu zuvor präsen-tierten, gleichartigen Stimuli ausreichend bzgl. Frequenz, Dauer, Ort oder Intensität abweicht. Der MMN zu Grunde liegen Messungen der späten akustisch evozierten Po-tentiale (SAEP). Die von beiden Stimuli hervorgerufenen SAEP werden separat gemittelt. Bei ausreichender Differenz der Stimuli und geeigneter Stimulusabfolge ist eine Potentialdifferenz zwischen den beiden gemittelten Antworten ableitbar, die MMN.
In dieser Arbeit wurde die Ableitung der MMN mit dem Registriersystem Eclipse EP-25 der Firma Interacoustics in Bezug auf zwei Stimulustypen, Tone-Bursts und Sprach-laute, evaluiert.
In this paper an RFID/NFC (ISO 15693 standard) based inductively powered passive SoC (system on chip) for biomedical applications is presented. A brief overview of the system design, layout techniques and verification method is dis-cussed here. The SoC includes an integrated 32 bit microcontroller, sensor interface circuit, analog to digital converter, integrated RAM, ROM and some other peripherals required for the complete passive operation. The entire chip is realized in CMOS 0.18 μm technology with a chip area of 1.52mm x 3.24 mm.
This work describes a camera-based method for the calibration of optical See-Through Glasses (STGs). A new calibration technique is introduced for calibrating every single display pixel of the STGs in order to overcome the disadvantages of a parametric model. A non-parametric model compared to the parametric one has the advantage that it can also map arbitrary distortions. The new generation of STGs using waveguide-based displays [5] will have higher arbitrary distortions due to the characteristics of their optics. First tests show better accuracies than in previous works. By using cameras which are placed behind the displays of the STGs, no error prone user interaction is necessary. It is shown that a high accuracy tracking device is not necessary for a good calibration. A camera mounted rigidly on the STGs is used to find the relations between the system components. Furthermore, this work elaborates on the necessity of a second subsequent calibration step which adapts the STGs to a specific user. First tests prove the theory that this subsequent step is necessary.
Autonomous humanoid robots need high torque actuators to be able to walk and run. One problem in this context is the heat generated. In this paper we propose to use water evaporation to improve cooling of the motors. Simulations based on thermodynamic calculations as well as measurements on real actuators show that, under the assumption of the load of a soccer game, cooling can be considerably improved with relatively small amounts of water.
Cardiac resynchronization therapy (CRT) is an established biventricular pacing therapy in heart failure patients with left bundle branch block and reduced left ventricular ejection fraction, but not all patients improved clinically as CRT responder. Purpose of the study was to evaluate electrical left atrial conduction delay (LACD) with focused transesophageal electrocardiography in CRT responder and CRT non-responder.
Methods: Twenty heart failure patients (age 66.6±8.2 years; 2 females, 18 males) with New York Heart Association functional class 3.0±0.3 and 174.2±40.2ms QRS duration were analysed using posterior left atrial transesophageal electrocardiography with hemispherical electrodes. Electrical LACD was measured between onset and offset of transesophageal left atrial signal before implantation of CRT devices.
Results: Electrical LACD could be evaluated by bipolar transesophageal left atrial electrocardiography using TO Osypka electrode in all heart failure patients with negative correlation between 54.7±18.1ms LACD and 24.9±6.4% left ventricular ejection fraction (r=-0.65, P=0.002). There were 16 CRT responders with reduction of New York Heart Association functional class from 3.0±0.29 to 2.1±0.2 (r=0.522, P=0.038) during 9.41±10.96 month biventricular pacing and negative correlation between 49.6±14.2ms LACD and 26.0±6.2% left ventricular ejection fraction (r=-0.533, P=0.034). There were 4 CRT non-responders with no reduction of New York Heart Association functional class from 3.0±0.4 to 2.8±0.5 (r=0.816, P=0.184) during with 13.88±16.39 month biventricular pacing and no correlation between 75.25±19.17ms LACD and 20.75±6.4% left ventricular ejection fraction (r=-0.831, P=0.169).
Conclusions: Focused transesophageal left atrial electrocardiography can be utilized to analyse electrical LACD in heart failure patients. LACD correlated negative with left ventricular ejection fraction in CRT responders. LACD may be a useful parameter to evaluate electrical left atrial desynchronization in heart failure patients.
Cardiac resynchronization therapy (CRT) is an established class I level A biventricular pacing therapy in chronic heart failure patients with left bundle branch block and reduced left ventricular ejection fraction, but not all patients improved clinically. Purpose of the study was to evaluate electrical interatrial conduction delay (IACD) to interventricular conduction delay (IVCD) ratio with focused transesophageal left atrial and left ventricular electrocardiography.
Methods: Thirty eight chronic heart failure patients (age 63.4±10.2 years; 3 females, 35 males) with New York Heart Association (NYHA) functional class 3.0±0.2 and 171.71±36.17ms QRS duration were analysed using posterior left atrial and left ventricular transesophageal electrocardiography with hemispherical electrodes before CRT. Electrical IACD was measured between onset of P-wave in the surface ECG and onset of left atrial signal. Electrical IVCD was measured between onset of QRS complex in the surface ECG and onset of left ventricular signal.
Results: Electrical IACD and IVCD could be evaluated by transesophageal left atrial and left ventricular electrocardiography in all heart failure patients with correlation to 1.18±0.92 IACD-IVCD-ratio (r=-0.57, P<0.001; r=0.66, P<0.001). There were 32 CRT responder with reduction of NYHA class from 3.0±0.22 to 1.97±0.31 (P<0.001) during 16.5±18.9 month CRT with 75.19±33.49ms IACD, 78.91±24.73ms IVCD, 1.04±0.66 IACD-IVCD-ratio and correlation between IACD and IACDIVCD- ratio (r=0.84, P<0.001). There were 6 CRT nonresponder with no reduction of NYHA class from 3.0±0.3 to 2.9±0.5 during 14.3±13.7 month biventricular pacing, 50.0±28.26ms IVCD (P=0.014), 1.92±1.65 IACD-IVCD-ratio (P=0,029) and correlation between 67.0±24.9ms IACD and IACD-IVCD-ratio (r=0.85, P=0.031).
Conclusions: Focused transesophageal left atrial and left ventricular electrocardiography can be utilized to analyse electrical IACD and IVCD in heart failure patients. IACDIVDC- ratio may be a useful parameter to evaluate electrical left cardiac desynchronization in heart failure patients.
Hintergrund: Das elektrische interventrikuläre Delay (IVD) und die Lage der linksventrikulären (LV) Elektrode zum Ort der spätesten LV Erregung sind bei Patienten (P) mit Herzinsuffizienz (HF), reduzierter LV Funktion und breiter QRS Dauer (QRSD) von Bedeutung für den Erfolg der kardialen Resynchronisationstherapie (CRT). Die LV Elektrokardiographie ermöglicht eine Abschätzung des elektrischen IVD. Ziel der Studie besteht in der nicht-invasiven Evaluierung des elektrischen IVD bei Patienten (P) mit Vorhofflimmern (AFib) mit und ohne CRT mit biventrikulärer (BV) Stimulation.
Methoden: Bei 49 HF P mit AFib (Alter 63,9 ± 10,8 Jahre; 43 Männer und 6 Frauen) mit New York Heart Association (NYHA) Klasse 2,9 ± 0,4, LV Ejektionsfraktion 26,03 ± 7,99 % und QRS-Dauer (QRSD) 143,69 ± 35,62 ms wurde das elektrische IVD als Intervall zwischen Beginn des QRS-Komplexes im Oberflächen EKG und Beginn des LV Signals im transösophagealen LV EKG bei 31 HF P mit AFib und bei 18 HF P mit AFib und CRT präoperativ bestimmt. Das fokussierte bipolare LV EKG wurde mittels Osypka TO Sonde mit halbkugelförmigen Elektroden in Höhe des maximalen LV Signals registriert.
Ergebnisse: Bei 31 HF P mit AFib betrugen QRSD 135,48 ± 38,78 ms, IVD 49,55 ± 26,38 ms, QRSD-IVD-Verhältnis 3,12 ± 1,11 und das IVD korrelierte mit der QRSD (r=0,75, P<0,001) und dem QRSD-IVD-Verhältnis (r=-0,67, P<0,001) (Fig.). Bei 18 HF P mit AFib und CRT Defibrillator betrugen QRSD 157,83 ± 24,38 ms, IVD 61,94 ± 26,88 ms, QRSD-IVD-Verhältnis 3,12 ± 1,89 und das IVD korrelierte mit der QRSD (r=0,47, P=0,049) und dem QRSD-IVD-Verhältnis (r=-0,73, P<0,001). Bei 72,2 % CRT Responder (R) (n=13) betrugen QRSD 158,15 ± 22,4 ms, IVD 64,23 ± 24,62 ms, QRSD-IVD-Verhältnis 2,82 ± 1,32 und das IVD korrelierte mit der QRSD (r=0,57, P=0,043) und dem QRSD-IVD-Verhältnis (r=-0,76, P=0,0024). Bei 27,8 % CRT Non-Responder (NR) (n=5) betrugen QRSD 157 ± 31,94 ms, IVD 56 ± 34,52 ms, QRSD-IVD-Verhältnis 3,88 ± 2,98 und das IVD korrelierte nicht mit der QRSD (r=0,33, P=0,591) und dem QRSD-IVD-Verhältnis (r=-0,732, P=0,159). Die CRT R verbesserten sich in der NYHA Klasse von 3 ± 0,2 auf 2,2 ± 0,3 (P<0,001) während 15,3 ± 13,1 Monaten BV Stimulation. Bei 15 CRT NR kam es zu keiner Verbesserung der NYHA Klasse von 3 auf 3,3 ± 0,97 (P=0,529) während 18,8 ± 20,7 Monaten BV Stimulation.
Schlussfolgerungen: Das transösophageale LV EKG ermöglicht bei HF-P mit AFib die nichtinvasive Messung des elektrischen IVD präoperativ vor CRT. IVD und QRSD-IVD-Verhältnis sind möglicherweise einfach anwendbare Parameter zur Vorhersage von CRT R und CRT NR bei P mit AFib.
Android is an operating system which was developed for use in smart mobile phones and is the current leader in this market. A lot of efforts are being spent to make Android available to the embedded world, as well. Many embedded systems do not have a local GUI and are therefore called headless devices. This paper presents the results of an analysis of the general suitability of Anroid in headless embedded systems and ponders the advantages and disadvantages. It focuses on the hardware related issues, i.e. to what extent Android supports hardware peripherals normally used in embedded systems.
Pressure dynamics in metal-oxygen (metal-air) batteries: a case study on sodium superoxide cells
(2014)
Electrochemical reactions in metal–oxygen batteries come along with the consumption or release of gaseous oxygen. We present a novel methodology for investigating electrode reactions and transport phenomena in metal–oxygen batteries by measuring the pressure dynamics in an enclosed gas reservoir above the oxygen electrode. The methodology is exemplified by a room-temperature sodium–oxygen battery forming sodium superoxide (NaO2) in an electrolyte of diethylene glycol dimethyl ether (diglyme) and sodium trifluoromethanesulfonate (NaOSO2CF3, NaOTf). The experiments are supported by microkinetic simulations with a one-dimensional multiphysics continuum model. During galvanostatic cycling over 30 cycles, a constant oxygen consumption/release rate is observed upon discharge/charge. The number of transferred electrons per oxygen molecule is calculated to 1.01 ± 0.02 and 1.03 ± 0.02 for discharge and charge, respectively, confirming the nature of the oxygen reaction product as superoxide O2–. The same ratio is observed in cyclic voltammetry experiments with low scan rate (<1 mV/s). However, at higher scan rates, the ratio increases as a result of oxygen transport limitations in the electrolyte. We introduce electrochemical pressure impedance spectroscopy (EPIS) for simultaneously analyzing current, voltage, and pressure of electrochemical cells. Pressure recording significantly increases the sensitivity of impedance toward oxygen transport properties of the porous electrode systems. In addition, we report experimental data on the diffusion coefficient and solubility of oxygen in electrolyte solutions as important parameters for the microkinetic models.
Special implant connection module was developed to combine full features of two commercial heart rhythm simulators, ARSI-4 and Intersim II, into a master-slave teaching system. Seven workstations were equipped with the Carelink and Homemonitoring remote patient monitoring systems. This combination enables in-vitro training of physicians, nurses and students in pace-maker and defibrillator measurements during implantation and individual programming in the follow-up. Thus, extended sets of arrhythmias and electrode problems can be used to simulate problems and their solutions in a wide range of the clinical routine.
Soccer simulation league is one of the founding leagues of RoboCup. In this paper we discuss the past, present and planned future achievements and changes. Also we summarize the connections and inter-league achievements of this league and provide an overview of the community contributions that made this league successful.
This paper investigates the maximum torque capability and torque ripple reduction using the asymmetric stator teeth for interior permanence magnet (IPM) synchronous machines. Traditional electric machines have the identical width for all stator teeth and the winding function is fixed. Using different widths for different stator teeth changes the winding function, therefore, the torque ripple components. The mathematical modeling of interior permanent magnet (IPM) synchronous machine torque ripple and finite element analysis simulation results for the characteristic properties of electric machines are presented. Compared with a similar rating IPM machine, certain combinations of the teeth widths can reduce the torque ripple by 80% with less than 4% average torque decline.
In this paper we propose a motion framework forbipedal robots that decouples motion definitions from stabilizingthe robot. This simplifies motion definitions yet allows dynamicmotion adaptations. Two applications, walking and stopping onone leg, demonstrate the power of the framework. We show thatour framework is able to perform walking and stopping on one legeven under extreme conditions and improves walking benchmarkssignificantly in the RoboCup 3D soccer simulation domain.
Der Übergang Schule-Studium wird an der Hochschule Offenburg im Vorbereitungskurs Mathematik per Smartphone bzw. Tablet unterstützt. Eine Mathe-App gibt zu den Trainingsaufgaben bei Bedarf Tipps, Teilschritte und ausführliche Erklärungen und hilft so den Studierenden, die Lösungen in ihrer individuellen Lerngeschwindigkeit zu entwickeln. Der mobile Ansatz erlaubt, die ca. 400 Teilnehmer des Präsenz-Kurses in normalen Klassenräumen ohne PC-Ausstattung mit E-Learning vertraut zu machen und unterstützt die Flexibilisierung von Übungszeit und -ort über die Präsenzzeit hinaus. Durch die inhaltliche Orientierung am hochschulübergreifenden COSH (Cooperation Schule Hochschule) Mindestanforderungskatalog Mathematik entstand eine Lösung, die jedem Studienanfänger zur Vorbereitung auf das Studium nutzen kann, die zu den Brückenkurs-Inhalten vieler Hochschulen passt und für die aktuell schon Kooperationsprojekte mit Schulen starten.
Der Übergang Schule-Studium wird an der Hochschule Offenburg im Vorbereitungskurs Mathematik per Smartphone bzw. Tablet unterstützt. Eine Mathe-App gibt zu den Trainingsaufgaben bei Bedarf Tipps und Teilschritte und hilft so den Studierenden, gemäß individuellem Tempo und Vorkenntnisstand zu arbeiten. Dies fördert eine Aktivierung der Kursteilnehmer auch bei großer Heterogenität. Der mobile Ansatz erlaubt, die ca. 400 Teilnehmer des Präsenz-Kurses in normalen Klassenräumen ohne PC-Ausstattung mit einem eCoach zu unterstützen und ermöglicht die Flexibilisierung von Übungszeit und –Ort über die Präsenzzeit hinaus.
Dieser für die heutige junge Generation attraktive Lernzugang entstand als Kooperationsprojekt zwischen der MassMatics UG und der Hochschule Offenburg. Durch die inhaltliche Orientierung am hochschulübergreifenden Mindestanforderungskatlog Mathematik des cosh-Arbeitskreises entstand eine Lösung, die jedem Studienanfänger zur Vorbereitung auf das Studium nutzen kann (auch ohne Präsenzkurs), die zu den Brückenkurs-Inhalten vieler Hochschulen passt und für die aktuell schon Kooperationsprojekte mit Schulen starten.
Das Projekt MINT-College TIEFE (Talente Individuell, Erfolgreich Fördern und Entwickeln) der Hochschule Offenburg wird im Rahmen des Bund-Länder-Programms Qualitätspakt Lehre aus Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) unter dem Förderkennzeichen 01PL11016 gefördert. Unterstützt wird das Projekt vom Informationszentrum der Hochschule Offenburg.
The communication system of a large-scale concentrator photovoltaic power plant is very challenging. Manufacturers are building power plants having thousands of sun tracking systems equipped with communication and distributed over a wide area. Research is necessary to build a scalable communication system enabling modern control strategies. This poster abstract describes the ongoing work on the development of a simulation model of such power plants in OMNeT++. The model uses the INET Framework to build a communication network based on Ethernet. First results and problems of timing and data transmission experiments are outlined. The model enables research on new communication and control approaches to improve functionality and efficiency of power plants based on concentrator photovoltaic technology.
The design of control systems of concentrator photovoltaic power plants will be more challenging in the future. Reasons are cost pressure, the increasing size of power plants, and new applications for operation, monitoring and maintenance required by grid operators, manufacturers and plant operators. Concepts and products for fixed-mounted photovoltaic can only partly be adapted since control systems for concentrator photovoltaic are considerable more complex due to the required high accurate sun-tracking. In order to assure reliable operation during a lifetime of more than 20 years, robustness of the control system is one crucial design criteria. This work considers common engineering technics for robustness, safety and security. Potential failures of the control system are identified and their effects are analyzed. Different attack scenarios are investigated. Outcomes are design criteria that encounter both: failures of system components and malicious attacks on the control system of future concentrator photovoltaic power plants. Such design criteria are a transparent state management through all system layers, self-tests and update capabilities for security concerns. The findings enable future research to develop a more robust and secure control system for concentrator photovoltaics when implementing new functionalities in the next generation.
Die “Selbstbetrachtungen” des Marc Aurel – medizinisch-ethische Betrachtungen des Menschseins
(2013)
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Das Ziel der vorliegenden Bachelorarbeit ist es, ein prototypisches Meldesystem für die Bankenaufsicht in einer privaten Cloud zu realisieren. Ferner sollen die Vorteile eines solchen Systems gegenüber bestehenden Systemen abgegrenzt werden. Im ersten Teil wird auf die Entwicklung von Software as a Service-Anwendungen sowie die rechtlichen Grundlagen und Zusammenhänge im Meldewesen eingegangen. Des Weiteren werden das Cloud-Computing und das verwendete Datenformat XBRL durchleuchtet. Anschließend werden bestehende Meldesysteme verglichen. Dabei stehen die unterschiedlichen Bereitstellungsarten im Fokus. Zur Erreichung des Ziels der Thesis wird ein Proof of Concept anhand einer Beispielmeldung aus dem Großkreditmeldewesen umgesetzt. Diese Meldung erfordert sowohl das Befüllen von PDF-Formularen sowie das Erstellen von XBRL-Dateien. Für die Umsetzung wird eine Testumgebung aufgebaut, mit welcher es bedingt möglich ist, reale Bedingungen zu simulieren. Nach einer Evaluation wird hierfür das Platform as a Service-System Openshift verwendet. Damit ist es möglich, eine Private Cloud zu erstellen, auf der eine Java EE Anwendung als Reporting as a Service-Lösung zur Verfügung gestellt wird. Deren Funktionsumfang umfasst das Einlesen, Prüfen, Konvertieren und Validieren von Daten sowie das Versenden von Meldungen zur Bankenaufsicht. Um die heterogenen Systeme im Finanzumfeld abzudecken, werden Testdaten als CSV, XLS und via Datenbank bereitgestellt. Die Tests mit diesen Daten sind sehr positiv. So ist es möglich, Daten aus allen Datenquellen einzulesen und mittels einer Plausibilitätsliste der Bundesbank zu prüfen. Anschließend können die Daten in eines der geforderten Formate PDF oder XBRL konvertiert werden. Durch den Ansatz einer privaten Cloud-Lösung können einige Sicherheitsbedenken ausgeschlossen werden, ohne auf die Vorteile wie Lastverteilung, Multitenancy, Skalierbarkeit und hohe Kompatibilität verzichten zu müssen. Abschließend werden in einer Schlussbetrachtung die Ergebnisse vorgestellt und ein Ausblick für die Zukunft gegeben.
Diese Arbeit beschäftigt sich mit den verschiedenen Technologien, welche in verteilten Systemen zur Kommunikation dienen können. Kernpunkt der Arbeit ist es, eine Schnittstelle zu schaffen, in der eine extrem hohe Anzahl einzelner Anwendungen untereinander und mit einer zentralen Simulationsumgebung weitestgehend automatisch - kommunizieren können. Dabei ist auch ein wesentlicher Punkt die Frage wie Daten ausgetauscht werden können. Betrachtet man zunächst das System an sich, so wird es deutlich, dass speziell für die Entwicklung des Gesamtsystems, die Stabilität, Leistungsfähigkeit und Zuverlässigkeit des Interfaces von enormer Wichtigkeit ist.
Durch den technischen Fortschritt werden sowohl die diagnostischen, als auch die therapeutischen Medizinprodukte immer komplexer. Gleichzeitig steigt auch der Funktionsumfang an, wodurch Krankheiten besser erkannt und behandelt werden können. Dabei muss das Gerät nicht nur funktional effektiv und sicher sondern auch einfach und intuitiv zu bedienen sein.
Aus diesem Grund muss beim Hersteller als letztes Glied des Entwicklungsprozesses die Produktvalidierung erfolgen. Um diese nach der erfolgreichen Verifizierung vollständig und effizient durchzuführen, wird in dieser Thesis zunächst die Datenanalyse der klinischen Bewertung aufgezeigt. Anschließend werden die Aufgabenanalyse und der Gebrauchstauglichkeitstest mit der Bewertung durch einen Fragebogen als Methoden der Usability-Validierung vorgestellt. Außerdem schließt die Produktvalidierung die Validierung der Lastenheftanforderungen mit ein, was mit Hilfe einer Dokumentenanalyse abgeprüft wird. Abschließend wird die Produktvalidierung in einem Dokument zusammengefasst und die Validität erklärt.
Zur Umsetzung der Validierungen werden am Beispiel eines mobilen EKG-Systems regularienkonforme Validierungsdokumente erörtert.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Im Rahmen dieser Arbeit wurde ein Telepräsenzsystem entwickelt, bei dem ein Teleroboter mit beweglicher Kamera zum Einsatz kommt, der seine Ausrichtung über ein Head-mounted Display synchronisiert. Der Anwender des Systems sieht auf dem Display das Abbild der Umgebung des Teleroboters. Jede Kopfbewegung des Anwenders wird in Echtzeit auf die Kamerabewegung umgesetzt. Der Anwender kann sozusagen seinen Sehsinn temporär auf den Roboter auslagern, der ihn in einer entfernten Umgebung repräsentiert.
Diese Bachelor-Thesis beschreibt die Realisierung einer Webanwendung für Schüler und Studierende, welche interaktiv demonstriert, wie das Binärsystem funktioniert. Die Anwender sollen verstehen, wie ein Computer die Vielzahl an Daten mit lediglich zwei Zuständen, nämlich 1 und 0, verarbeitet. Dabei wird interaktiv gezeigt, wie der Algorithmus zur Umwandlung von Dezimalzahlen ins Binärsystem abläuft und wie man mit Binärzahlen rechnen kann. Außerdem gibt es sehr interessante Knobelaufgaben. Dabei wird versucht, dem User auf spielerische Art und Weise, zum Beispiel durch Spiele und Aktivitäten, die Denkweise eines Informatikers näher zu bringen. Das Ziel soll sein, dass sich das ursprüngliche Bild, welches Schüler von der Informatik haben, positiv verändert. Hierzu wird ein passendes didaktisches Konzept entwickelt, welches didaktische Modelle, Lehr-/Lernbedingungen und Lernziele der Webanwendung abbildet. Zunächst gibt es eine Einführung in die Thematik und der Stand der Technik wird erläutert, d.h. was bereits in diesem Umfeld existiert. Danach wird besonders auf die Realisierung der Applikation eingegangen. Hier werden Techniken und Werkzeuge für einen Lösungsansatz erklärt. Zuletzt wird das Thema zusammengefasst und evaluiert um einen anschließenden Ausblick geben zu können.
In der vorliegenden Bachelorarbeit wird die Verwendung von persistenten Datenstrukturen in Anwendungen untersucht. Dafür werden zunächst verschiedene Eigenschaften von bestehenden Implementierungen persistenter Datenstrukturen im Vergleich zu ephemeralen Implementierungen der Datenstrukturen untersucht. Hierbei werden Laufzeiten und Speicherverbrauch analysiert. Dabei wird gezeigt, in welchen Fällen die Verwendung von persistenten Datenstrukturen Vorteile gegenüber der Verwendung ephemeralen Datenstrukturen bringt.
Im zweiten Teil wird die Verwendung von persistenten Datenstrukturen in asynchronen Umgebungen untersucht. Hierfür werden die grundlegenden Probleme aufgezeigt, die bei der Erzeugung von Thread lokalen Versionen geteilter Zustände entstehen. Es wird aufgezeigt, wie die verschiedenen Versionen durch ein Zusammenführungsverfahren in einen gemeinsamen Zustand überführt werden können. Als konkrete Implementierung wurde eine Framework in Java entwickelt, welches versucht, dieses Problem wiederverwendbar zu lösen. Das entwickelte Framework wird anhand einer Beispielsdomäne evaluiert, indem die Performanz mit der Verwendung von expliziter Synchronisation verglichen wird. Hierbei wird gezeigt, dass in Situationen, in denen die Modifikationen viel Zeit benötigen, der Ansatz des Zusammenführen Vorteile gegenüber expliziter Synchronisation bietet. Im letzten Teil der Arbeit wird die Verwendung eines geteilten persistenten Zustandes im an der Hochschule Offenburg durchgeführtem A 2 O Projekt untersucht, bei dem Software für eine autonomes Modellauto entwickelt wurde. Es werden die Schwierigkeiten bei der Umsetzung der im Framework entwickelten Techniken in C++, sowie mögliche Lösungswege aufgezeigt.
The research project Ko-TAG [2], as part of the research initiative Ko-FAS [1], funded by the German Ministry of Economics and Technologies (BMWi), deals with the development of a wireless cooperative sensor system that shall pro-vide a benefit to current driver assistance systems (DAS) and traffic safety applications (TSA). The system’s primary function is the localization of vulnerable road users (VRU) e.g. pedestrians and powered two-wheelers, using communication signals, but can also serve as pre-crash (surround) safety system among vehicles. The main difference of this project, compared to previous ones that dealt with this topic, e.g. the AMULETT project, is an underlying FPGA based Hardware-Software co-design. The platform drives a real-time capable communication protocol that enables highly scalable network topologies fulfilling the hard real-time requirements of the single localization processes. Additionally it allows the exchange of further data (e.g. sensor data) to support the accident pre-diction process and the channel arbitration, and thus supports true cooperative sensing. This paper gives an overview of the project’s current system design as well as of the implementations of the key HDL entities supporting the software parts of the communication protocol. Furthermore, an approach for the dynamic reconfiguration of the devices is described, which provides several topology setups using a single PCB design.
Home Care Applications and Ambient Assisted Living become increasingly attractive. This is caused as well by market pull, as the number of elderly people grows monotonously, as well as by technology push, as technological advances and attractive products pave the way to economically advantageous offerings. However, in real-life applications, a significant number of challenges remain. Those include seamless communication between products from different supplier, due to the lack of sufficiently standardized solutions, energy budgets, and scalability of solutions. This paper presents the experience from the InCASA project (Integrated Network for Completely Assisted Senior Citizen's Autonomy), where architectures for heterogeneous physical and logical communication flows are examined.
Currently, QRS width and bundle branch block morphology are used as electrocardiographic guideline criterias to selectheart failure (HF) patients with interventricular desynchronization in sinus rhythm (SR) for cardiac resynchronisationtherapy (CRT). Nevertheless, up to 30% of these patients do not benefit from implantation of CRT systems. Esophagealleft ventricular electrogram (LVE) enables semi-invasive measurement of interventricular conduction delays (IVCD)even in patients with atrial fibrillation (AF). To routinely apply this method, a programmer based semi-invasiveautomatic quantification of IVCD should to be developed. Our aims were todefine interventricular conduction delaysby analyzing fractionated left ventricular (LV) deflections in the esophageal left ventricular electrogram of HF patientsin SR or AF.
In 66 HF patients (49 male,17 female, age 65 ± 10 years) a 5F TOslim electrode (Osypka AG, Germany) was perorallyapplied. Using BARD EP Lab, cardiac desynchronization was quantified as interval IVCD between onset of QRS insurface ECG and the investigator-determined onset of the left ventricular deflection in LVE. IVCD was compared withthe intervals between QRS onset and the first maximum (IVCDm1) and between QRS onset and the second maximum(IVCDm2) of the LV complex.
QRS of 173 ± 26 ms was linked with empirical IVCD of 75 ± 25 ms, at mean. First and second LV maximum could beascertained beyond doubt in all patients. Significant correlations of the p<0,01 level were found between IVCD and theIVCDm1 of 96 ± 28 ms as well as between IVCD and the IVCDm2 of 147 ± 31 ms, at mean. To standardize automatic measurement of interventricular conduction delays with respect to patients with fractionatedLV complexes, the first maximum of the LV deflection should be utilized to qualify the IVCD of HF patients with sinusrhythm and atrial fibrillation.
The efficient support of Hardwae-In-theLoop (HIL) in the design process of hardwaresoftware-co-designed systems is an ongoing challenge. This paper presents a network-based integration of hardware elements into the softwarebased image processing tool „ADTF“, based on a high-performance Gigabit Ethernet MAC and a highly-efficient TCP/IP-stack. The MAC has been designed in VHDL. It was verified in a SystemCsimulation environment and tested on several Altera FPGAs.
Geleitwort
(2012)