Refine
Year of publication
- 2016 (105) (remove)
Document Type
- Conference Proceeding (45)
- Article (reviewed) (30)
- Part of a Book (8)
- Bachelor Thesis (5)
- Book (5)
- Patent (4)
- Master's Thesis (3)
- Article (unreviewed) (3)
- Letter to Editor (2)
Conference Type
- Konferenzartikel (33)
- Konferenz-Abstract (7)
- Sonstiges (4)
- Konferenzband (1)
Keywords
- Eingebettetes System (5)
- Hochschule (3)
- Mathematik (3)
- Messtechnik (3)
- Radiologie (3)
- RoboCup (3)
- 6LoWPAN (2)
- Abtragung (2)
- Brennstoffzelle (2)
- Computertomografie (2)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (105) (remove)
Open Access
- Closed Access (37)
- Open Access (27)
- Bronze (7)
After having described many different aspects of our team software in previous years, in this paper we take the freedom to describe the magmaChallenge framework provided by the magmaOffenburg team. The framework is used as a benchmark tool to run different challenges like the running challenge in 2014 or the kick accuracy challenge in 2015. This description should serve as a documentation to simplify the maintenance by the community and to add new benchmarks in the future.
Geschichte(n) der Medizin
(2016)
Nach dem großen Erfolg der beiden ersten Bände liegt jetzt der Abschluss der Trilogie vor. Renommierte Autorinnen und Autoren erzählen einmal mehr lebendige und mitreißende Geschichte(n) der Medizin über Krankheiten, Ärzte und Forscher. Wie kam es beispielsweise zur Entdeckung der "Perkussion"? Wer war Avicenna? Warum wurde der Name Goldberg so berühmt? Was haben Rembrandt und Schiller gemeinsam? Welchen Einfluss nahm deutsche Medizin auf den Fernen Osten? Die populärwissenschaftlich aufbereitete Welt der Medizingeschichte(n) fasziniert nicht nur, sie sorgt auch immer wieder für überraschende Erkenntnisse und Aha-Erlebnisse. Das Buch richtet sich daher gleichermaßen an medizinische Laien wie Fachleute.
Kommentar zu "Intracortical microstimulation of human somatosensory cortex" von Sharlene N. Flesher et al., veröffentlicht in Science Translational Medicine, Vol. 8, No. 361, Seite 361ra141 (DOI: 10.1126/scitranslmed.aaf8083)
This paper describes the new Sweaty II humanoid adult size robot trying to qualify for the RoboCup 2016 adult size humanoid competition. Based on experiences during RoboCup 2014, the Sweaty robot has been completely redesigned to a new robot Sweaty II. A major change is the use of linear actuators for the legs. Another characteristic is its indirect actuation by means of rods. This allows a variable transmission ratio depending on the angle of a joint.
Das Ziel der vorliegenden Bachelorarbeit ist es, ein prototypisches Meldesystem für die Bankenaufsicht in einer privaten Cloud zu realisieren. Ferner sollen die Vorteile eines solchen Systems gegenüber bestehenden Systemen abgegrenzt werden. Im ersten Teil wird auf die Entwicklung von Software as a Service-Anwendungen sowie die rechtlichen Grundlagen und Zusammenhänge im Meldewesen eingegangen. Des Weiteren werden das Cloud-Computing und das verwendete Datenformat XBRL durchleuchtet. Anschließend werden bestehende Meldesysteme verglichen. Dabei stehen die unterschiedlichen Bereitstellungsarten im Fokus. Zur Erreichung des Ziels der Thesis wird ein Proof of Concept anhand einer Beispielmeldung aus dem Großkreditmeldewesen umgesetzt. Diese Meldung erfordert sowohl das Befüllen von PDF-Formularen sowie das Erstellen von XBRL-Dateien. Für die Umsetzung wird eine Testumgebung aufgebaut, mit welcher es bedingt möglich ist, reale Bedingungen zu simulieren. Nach einer Evaluation wird hierfür das Platform as a Service-System Openshift verwendet. Damit ist es möglich, eine Private Cloud zu erstellen, auf der eine Java EE Anwendung als Reporting as a Service-Lösung zur Verfügung gestellt wird. Deren Funktionsumfang umfasst das Einlesen, Prüfen, Konvertieren und Validieren von Daten sowie das Versenden von Meldungen zur Bankenaufsicht. Um die heterogenen Systeme im Finanzumfeld abzudecken, werden Testdaten als CSV, XLS und via Datenbank bereitgestellt. Die Tests mit diesen Daten sind sehr positiv. So ist es möglich, Daten aus allen Datenquellen einzulesen und mittels einer Plausibilitätsliste der Bundesbank zu prüfen. Anschließend können die Daten in eines der geforderten Formate PDF oder XBRL konvertiert werden. Durch den Ansatz einer privaten Cloud-Lösung können einige Sicherheitsbedenken ausgeschlossen werden, ohne auf die Vorteile wie Lastverteilung, Multitenancy, Skalierbarkeit und hohe Kompatibilität verzichten zu müssen. Abschließend werden in einer Schlussbetrachtung die Ergebnisse vorgestellt und ein Ausblick für die Zukunft gegeben.
A new yield function for lamellar gray cast iron materials is proposed. The new model is able to describe the results of recently performed microstructure-based finite-element computations that resolve the three dimensional yield surface of three different gray cast irons. The yield function requires only the yield stress in tension and compression of the respective material as model parameters. Furthermore, the algorithmic formulation of the new model is assessed for numerical robustness and efficiency.
Die Erfindung betrifft ein Verfahren zur automatischen Klassifikation des Modulationsformats eines digital modulierten Signals, welches die empfangenen I/Q-Datenpunkte zuerst für jedes Modulationsformat mittels eines Clustering-Verfahrens ausgewertet, wobei nach Durchführung des Clustering-Verfahrens für jedes der Modulationsformate jeweils alle I/Q-Datenpunkte jeweils einem ermittelten Cluster-Schwerpunkt zugeordnet sind. Danach wird für jedes Modulationsformat jeweils der Wert einer Nutzenfunktion bestimmt, welche einen umso höheren (niedrigeren) Wert annimmt, je besser die einem Cluster-Schwerpunkt zugeordneten I/Q-Datenpunkte durch den Cluster-Schwerpunkt abgedeckt sind und je geringer die euklidischen Abstände der ermittelten Custer-Schwerpunkte von dem zugeordneten Konstellationspunkt sind. Es wird dann dasjenige Modulationsformat als das für das digital modulierte Signal zutreffende Modulationsformat angenommen, für welche die Nutzenfunktion den höchsten (niedrigsten) Wert annimmt.
Elektronische Pille zur steuerbaren Abgabe einer Substanz in einem menschlichen oder tierischen Körper, (a) mit einem Gehäuse (3), in welchem die abzugebende Substanz (17) aufgenommen und in welchem eine Abgabeöffnung (47) zur Abgabe der Substanz (17) vorgesehen ist, wobei die Substanz (17) zur Abgabe aus dem Gehäuse (3) mit einem vorbestimmten Druck beaufschlagt ist, (b) mit einer elektronischen Steuereinheit (53, 59, 61, 63), und (c) mit einer im Verlauf eines Abgabepfades angeordneten Ventileinheit (33), welche von der Steuereinheit (53, 59, 61, 63) von einer Geschlossen- Stellung in eine Geöffnet-Stellung steuerbar ist und umgekehrt, (d) dadurch gekennzeichnet, (e) dass die Ventileinheit (33) eine von der elektronischen Steuereinheit (53, 59, 61, 63) ansteuerbare Heizeinheit (49) umfasst, (f) dass die Ventileinheit (33) ein Schaltelement (39) umfasst, welches in der Geschlossen-Stellung zumindest mit einem Teilbereich dichtend an einem Ventilsitz (37) der Ventileinheit (33) anliegt und welches von der Heizeinheit (49) beheizbar ist, (g) dass das Schaltelement (39) zwei temperaturabhängige stabile Schaltstellungen aufweist, welche durch eine Formänderung des Schaltelements (39) definiert sind, und (h) die Heizeinheit (49) an der dem Ventilsitz (37) abgewandten Seite des Schaltelements (39) angeordnet und integriert mit dem Schaltelement (39) ausgebildet ist (i) wobei die Steuereinheit (53, 59, 61, 63) zum Öffnen der Ventileinheit (33) die Heizeinheit (49) aktiviert, so dass das Schaltelement (39) bei Überschreiten einer Schwellentemperatur aus der Geschlossen-Stellung in die Geöffnet-Stellung geschaltet wird und (j) wobei die Steuereinheit (53, 59, 61, 63) zum Schließen der Ventileinheit (33) die Heizeinheit (49) deaktiviert, so dass das Schaltelement bei Unterschreiten einer Schwellentemperatur aus der Geöffnet-Stellung in die Geschlossen-Stellung schaltet.
Die Einführung der extrakorporalen Zirkulation unter Verwendung eines medikamentös induzierten Herzstillstands ermöglicht der Herzchirurgie die Herzoperationen, wie sie heute bekannt sind. Eine große Debatte besteht in der optimalen Zusammensetzung und Anwendungsweise der kardioplegischen Lösungen [6]. In der Helios Klinik für Herzchirurgie in Karlsruhe werden die kalte, kristalloide Kardioplegie nach Bretschneider und die modifizierte, kalte Blutkardioplegie nach Calafiore verwendet. Die vorliegende Arbeit beschäftigt sich mit der Frage, ob die Wahl der Kardioplegie Einwirkungen auf den intraoperativen und postoperativen Verlauf einer Bypass-Operation hat.
In der dazu angefertigten Studie wurden die Daten von 135 KHK Patienten retrospektiv erfasst und statistisch analysiert. Darunter wurden 81 Patienten mit der kalten Blutkardioplegie nach Calafiore behandelt und 53 Patienten mit der kristalloiden HTKLösung nach Bretschneider. Die demografischen Daten und Dringlichkeit der Operationen unterscheiden sich nicht signifikant voneinander. Bei den intraoperativen Parametern sind hinsichtlich der Hämoglobin-, Natrium-, und Kaliumkonzentration signifikante Unterschiede erkennbar. Weitere intraoperative Laborwerte zeigen keine Signifikanz. Die intraoperativen Parameter der Myokardprotektionsverfahren unterscheiden sich bezüglich der verabreichten Kardioplegiemenge. Bei postoperativen Parametern sind keine besonderen Signifikanzen notiert.
Die kristalloide Kardioplegie nach Bretschneider wie auch die modifizierte kalte Blutkardioplegie nach Calafiore sind sichere und effektive Verfahren. Einige Unterschiede konnten zugunsten der Blutkardioplegie nach Calafiore gefunden werden, die spezifisch für das jeweilige Verfahren sind. Zwingende Argumente für oder gegen eines dieser Verfahren konnten nicht gefunden werden.
Die in dieser Arbeit erzielten Ergebnisse zur Optimierung der Parameter zur Registrierung elektrisch evozierter Hirnstammpotenziale mit den beiden ERA-Messsystemen Eclipse EP25 und Synergy EDX dienen als Grundlage für die eBERA Untersuchungen. Betrachtet wurden besonders hierbei die Stimulati-onsart, Filtereinstellungen und Mittelungsoptionen.
Bei allen Messungen mit beiden Systemen, Eclipse EP25 und Synergy EDX, wird eine contralaterale Ableitung nahegelegt.
Eine zu empfehlende Filtereinstellung der Hochpassfilter und Tiefpassfilter zur Potenzialregistrierung mittels eBERA ist 0,2 Hz / 3000 Hz bei der Synergy und 33 Hz / 3000 Hz bei der Eclipse EP25. Bei Vorliegen tieffrequenter Einstreuun-gen ist eine Erhöhung der Grenzfrequenz des Hochpassfilters auf 100 Hz zu empfehlen.
Bei der Wahl der Stimulationsart hat sich die alternierende als die beste her-ausgestellt. Dies belegen sowohl die in den Ergebnissen gemessenen Potentia-le als auch Messungen von Kollegen (Steffens, 2016).
Die Mittelungsoption „bayesian weighting“ bei der Eclipse EP25 hat sich bei der eBERA Messung als nicht sehr hilfreich erwiesen. Bei der Synergy EDX hat die Einstellung „Mittel“ im Vergleich zu „Gewichtet“ die besseren Ergebnisse erzielt. Daher wird diese Wahl empfohlen, falls mit diesem System gemessen wird. Weitere weniger einflussreiche Einstellungen werden im Anhang C. „Optimierte Parameter beider Messsysteme“ aufgelistet.
Die Mismatch Negativity (MMN) bezeichnet eine Komponente reizkorrelierter Potentiale. Die MMN ist ein negativer Potentialkomplex, der ungefähr 100 bis 300 ms nach Stimuluspräsentation auftritt, wenn ein neuer Stimulus im Vergleich zu zuvor präsen-tierten, gleichartigen Stimuli ausreichend bzgl. Frequenz, Dauer, Ort oder Intensität abweicht. Der MMN zu Grunde liegen Messungen der späten akustisch evozierten Po-tentiale (SAEP). Die von beiden Stimuli hervorgerufenen SAEP werden separat gemittelt. Bei ausreichender Differenz der Stimuli und geeigneter Stimulusabfolge ist eine Potentialdifferenz zwischen den beiden gemittelten Antworten ableitbar, die MMN.
In dieser Arbeit wurde die Ableitung der MMN mit dem Registriersystem Eclipse EP-25 der Firma Interacoustics in Bezug auf zwei Stimulustypen, Tone-Bursts und Sprach-laute, evaluiert.
Diese Arbeit befasst sich mit der Konzeption und Implementierung eines Dateiimportfilters für Mess- und Kalibrierwerkzeuge. Dieser ermöglicht das Importieren von INCA-Experimenten nach CANape, indem aus Experiment-Exportdateien Konfigurationsdateien generiert werden. Im Zuge der Umsetzung wurde dazu das aus binären Daten bestehende Exportdateiformat von INCA analysiert. Das Ziel dieser Analyse bestand darin, herauszufinden, wo und wie die Informationen in den Exportdateien gespeichert sind. Die so erlangten Erkenntnisse wurden verwendet, um den Dateiimportfilter zu entwickeln. Dieser liest aus Exportdateien die notwendigen Informationen aus, überführt sie in eine CANape interne Repräsentation und generiert daraus eine entsprechende Konfigurationsdatei. Die korrekte Funktionsweise wurde anhand von selbst erstellten Experimenten sowie mithilfe von Kundenexperimenten validiert.
Data Mining of the Edge
(2016)
Kleine, intelligente Systeme prägen zunehmend unsere Umwelt, dass sogenannte Internet of Things wird immer mehr Teil unseres Alltages. Diese Geräte sind immer mehr dazu in der Lage Daten aufzunehmen und zu verarbeiten. Doch wie jede Technische Revolution, führt auch der Ausbau des IoT zu neuen Herausforderungen. Das Ziel dieser Arbeit ist die Bewertung der Qualität von verschiedenen Data Mining Frameworks im Edge Bereich, die Erstellung mehrere Demonstatoren eines Edge Szenario Aufbaus sowie deren Evaluation.
Diese Bachelorarbeit untersucht die Möglichkeiten der Persistierung und anschließenden Analyse verschiedener Messwerte in einer geeigneten Software-Architektur. Zunächst wird dazu die genaue Aufgabenstellung betrachtet. Im Anschluss soll die geplante Software-Architektur und die vorgesehene Kommunikationsart erklärt werden. Um das entwickelte Produkt einfach zur Verfügung stellen zu können, sollen die Tools Vagrant, Puppet und Docker gemeinsam genutzt werden. Nachdem im Anschluss auf die eingesetzte Servertechnologie eingegangen wurde, beschäftigt sich die Arbeit mit der Persistierung der Messdaten. Hierzu werden die verschiedenen Arten verfügbarer Datenbanktechnologien erläutert und darauf aufbauend eine Auswahl getroffen. Als letzten Teil der Anwendung wird auf die Demonstrationsapplikation eingegangen. Hier werden wieder die nötigen Anforderungen erörtert und die Umsetzung beschrieben.
Anhand der gewonnenen Erkenntnisse wird abschließend ein Fazit der verwendeten Technologien und der Architektur verfasst. Hier soll die Eignung der verwendeten Technologien zur Lösung des Problems überprüft und bewertet werden.
Abschließend wird noch ein Ausblick auf die zukünftige Entwicklung in diesem Bereich gegeben.
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
Die neueste Generation von programmierbaren Logikbausteinen verfügt neben den konfigurierbaren Logikzellen über einen oder mehrere leistungsfähige Mikroprozessoren. In dieser Arbeit wird gezeigt, wie ein bestehendes Zwei-Chip-System auf einen Xilinx Zynq 7000 mit zwei ARM A9-Cores migriert wird. Bei dem System handelt es sich um das „GPS-gestützte Kreisel-system ADMA“ des Unternehmens GeneSys. Die neue Lösung verbessert den Datenaustausch zwischen dem ersten Mikroprozessor zur digitalen Signalverarbeitung und dem zweiten Prozessor zur Ablaufsteuerung durch ein Shared Memory. Für die schnelle und echtzeitfähige Datenübertragung werden zahlreiche hochbitratige Schnittstellengenutzt.