Refine
Year of publication
Document Type
- Conference Proceeding (148) (remove)
Conference Type
- Konferenzartikel (75)
- Konferenzband (56)
- Konferenz-Abstract (15)
- Konferenz-Poster (1)
- Sonstiges (1)
Language
- German (148) (remove)
Keywords
- Mikroelektronik (56)
- E-Learning (4)
- Synchronisierung (2)
- Thermologger (2)
- iSign (2)
- Abtastfrequenz (1)
- Agile Business (1)
- Aktivierung (1)
- Analog-Schaltkreis (1)
- Analogsignal (1)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (148) (remove)
Open Access
- Open Access (123)
- Bronze (90)
- Closed Access (14)
- Closed (10)
- Grün (1)
Die Geschäftsleitung und Führungskräfte von Eller Repro+Druck beschlossen im Juli 1994 die Teilnahme am damls noch neuen EU-Öko-Audit. Die Durchführung des Audits ist für 1996 geplant. Zwei Diplomanden der FH Offenburg wurde die Möglichkeit gegeben, als externe Berater für Eller Repro+Druck ihre Diplomarbeit über die Vorbereitung zum Öko-Audit zu schreiben. Der Betrieb (170 Mitarbeiter) verfügt über elektronische Bildverarbeitung auf Scitex- und Mac-Schiene, derzeit noch konventionelle Plattenkopie und -entwicklung, fünf Offsetrotationen sowie Weiterverarbeitung mit Sammelheftern und Falzmaschinen. Der Referent berichtet über die Erfahrungen, die sein Unternehmen bis zum Herbst 1995 mit der Vorbereitung zum Öko-Audit gemacht hat, und gibt Praxistips. Zusammen mit den Beratern wurden eine Aufnahme der betrieblichen Situation durchgeführt, Maßnahmen geplant und zum Teil durchgeführt.
In der Wertanalyse ist die Methodik TRIZ (Theorie der Lösung erfinderischer Problemstellungen) seit vielen Jahren als Werkzeug zur Kostensenkung oder zur Steigerung der Funktionalität von Produkten bekannt. Seit ihrem ersten Bekanntwerden in Westeuropa hat sich auch TRIZ weiterentwickelt. So wurden Methoden zur Modellierung von Systemen inzwischen erweitert und um Werkzeuge zur schnellen Lösungsfindung, zur Fehlervoraussage und zur Produktplanung neu entwickelt. Durch den weltweiten wissenschaftlichen Fortschritt, die Verwendung unterschiedlicher Sprachen und neue Literatur ist andererseits auch die verwendete Terminologie angewachsen und nicht mehr eindeutig. Die neue VDI-Richtlinie 4521, von deren erstem Teil nun der Gründruck vorliegt, zielt deswegen auf eine Standardisierung der Terminologie und eine vereinheitlichte Beschreibung der Methoden ab. Mit ihrer Hilfe sollen das Studium der Methodik erleichtert, die Benutzung von Literatur vereinfacht und Inhalte der TRIZ klarer darstellbar werden.
Die immer weitreichenderen Anwendungen des Smart Metering und des Smart Grid stellen immer höhere Anforderungen an Kommunikationstechnologien, die die Zielkonflikte aus Echtzeitfähige, Stabilität, Kosten und Energieeffizienz möglichst anwendungsoptimiert und auf einem immer höheren Niveau lösen. Insbesondere im Bereich der so genannten Primärkommunikation zwischen einem Sensor- oder Aktorknoten und einem Datensammler mit Gatewayfunktionalität konnten in den vergangenen Jahren wesentliche Fortschritte erzielt werden. Zu nennen sind hierbei insbesondere die Aktivitäten der ZigBee Alliance rund um den offenen Spezifikationsprozess des ZigBee Smart Energy Profiles (SEP) und der OMS-Gruppe beim ZVEI, die auf dem Wireless M-Bus nach EN13757-4 aufbauen, der sich seinerseits lebhaft und zielgerichtet weiter entwickelt. Der Beitrag diskutiert die vorhandenen Einschränkungen und die verfügbaren Lösungsansätze. Er illustriert diese anhand einiger öffentlich geförderter Projekte, an denen das Team des Autors beteiligt ist.
Die Vielfalt der Protokolle, die praktisch auf allen Ebenen der Netzwerkkommunikation zu berücksichtigen ist, stellt eine der großen Herausforderungen bei der fortschreitenden Automatisierung des intelligenten Hauses dar. Unter dem Überbegriff Internet der Dinge (Internet of Things) entstehen gegenwärtig zahlreiche neue Entwicklungen, Standards, Allianzen und so genannte Ökosysteme. Diese haben die Absicht einer horizontalen Integration gewerkeübergreifender Anwendungen und verfolgen fast alle das Ziel, die Situation zu vereinfachen, die Entwicklungen zu beschleunigen und Markterfolge zu erreichen. Leider macht diese Vielfalt momentan die Welt aber eher noch komplexer und bringt damit das Risiko mit sich, genau das Gegenteil der ursprünglichen Absichten zu erreichen. Dieser Beitrag versucht, die Entwicklungen möglichst systematisch zu kategorisieren und mögliche Lösungsansätze zu beschreiben.
In einer Vorlesung nicht abgehängt zu werden und die vielen Ergebnisse strukturiert zu sichern, ist für Studienanfänger eine große Herausforderung. Mitschriebe sind sehr oft unvollständig, unstrukturiert oder „zerfläddert“. Mitschreib-Marathon und Mitdenken schließen sich bei vielen aus. Auch aktivierende Lehrmethoden, Medienwechsel, Lehrvideos führen oft dazu, dass eine strukturierte Sicherung der Inhalte des Lehrgesprächs noch erschwert wird.
Es wird ein Best Practice Beispiel gezeigt, Mathematik-Vorlesungen über ein Tablet-basiertes Mitmach-Skript zu gestalten. Dieses dient als Schrittmacher zwischen Input- und Verarbeitungsphasen und unterstützt die strukturierte Verschriftlichung, indem es Vorteile von Tafel, PPT und klassischem Skript vereint. Traditionelle Methoden werden mit technologischen Möglichkeiten kombiniert, um die angesprochenen Herausforderungen bewusster im Lehrstil zu berücksichtigen. Verbindungen zu Virtual Classroom und Video-gestützter Lehre werden aufgezeigt.
Der Übergang Schule-Studium wird an der Hochschule Offenburg im Vorbereitungskurs Mathematik per Smartphone bzw. Tablet unterstützt. Eine Mathe-App gibt zu den Trainingsaufgaben bei Bedarf Tipps und Teilschritte und hilft so den Studierenden, gemäß individuellem Tempo und Vorkenntnisstand zu arbeiten. Dies fördert eine Aktivierung der Kursteilnehmer auch bei großer Heterogenität. Der mobile Ansatz erlaubt, die ca. 400 Teilnehmer des Präsenz-Kurses in normalen Klassenräumen ohne PC-Ausstattung mit einem eCoach zu unterstützen und ermöglicht die Flexibilisierung von Übungszeit und –Ort über die Präsenzzeit hinaus.
Dieser für die heutige junge Generation attraktive Lernzugang entstand als Kooperationsprojekt zwischen der MassMatics UG und der Hochschule Offenburg. Durch die inhaltliche Orientierung am hochschulübergreifenden Mindestanforderungskatlog Mathematik des cosh-Arbeitskreises entstand eine Lösung, die jedem Studienanfänger zur Vorbereitung auf das Studium nutzen kann (auch ohne Präsenzkurs), die zu den Brückenkurs-Inhalten vieler Hochschulen passt und für die aktuell schon Kooperationsprojekte mit Schulen starten.
Das Projekt MINT-College TIEFE (Talente Individuell, Erfolgreich Fördern und Entwickeln) der Hochschule Offenburg wird im Rahmen des Bund-Länder-Programms Qualitätspakt Lehre aus Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) unter dem Förderkennzeichen 01PL11016 gefördert. Unterstützt wird das Projekt vom Informationszentrum der Hochschule Offenburg.
Virtual-Reality-Darstellung elektromagnetischer Felder in dreidimensionalen Mikrowellenstrukturen
(2000)
Untersuchungen haben gezeigt, daß der Mensch ein Vielfaches an Informationen in Form von visuellen Eindrücken, im Gegensatz zur textuellen Darstellung, verarbeiten kann. Mit Hilfe des numerischen Feld-Simulationsprogramms F3D können Mikrowellenstrukturen auf die Wechselwirkung mit elektromagnetischen Feldern untersucht werden. Das Programm F3D2VRML stellt die Ergebnisse in einer dreidimensionalen Virtual-Reality-Darstellung (VR) dar.
Damit ist es dem Betrachter möglich, mehr Informationen aufzunehmen, da die Informationen mit Formen und Farben im dreidimensionalen Raum visualisiert werden.
Die Einhaltung der innerhalb der Designphase festgelegten Architektur eines Softwareprojektes muss w ̈ahrend der Entwicklungsphase sichergestellt werden. Dieses Papier beschreibt eine Erweiterung des Eclipse-Plugins JDepend4Eclipse, die die Verwaltung von Regels ̈atzen erlaubt und die Pr ̈ufung auf in einem Projekt vorhandene, unerlaubte Abh ̈angigkeiten auf Knopfdruck innerhalb der Entwicklungsumgebung vornimmt. Die Erweiterung des Plugins wird bereits erfolgreich in internen Projekten der Hochschule Offenburg eingesetzt und soll demn ̈achst ̈offentlich verf ̈ugbar sein.
Vergleich der hämodynamischen Reaktion auf VV-Delay Änderungen bei Sinusrhythmus und Vorhofflimmern
(2010)
Das Ausmaß der elektrischen ventrikulären Desynchronisation bei reduzierter linksventrikulärer Funktion ist von Bedeutung für den Erfolg der Resynchronisationstherapie der Herzinsuffizienz mit biventrikulärer Stimulation. Das Ziel der Untersuchung besteht in der nichtinvasiven Messung der elektrischen inter-ventrikulären Desynchronisation mit und ohne ischämische Herzerkrankung bei kardialen Resynchronisationstherapie Respondern. Bei Patienten mit 25,3 ± 7,3 % reduzierter linksventrikulärer Ejektionsfraktion und 166,9 ± 38,5 ms QRS-Dauer wurde das transösophageale linksventrikuläre EKG abgeleitet. Die QRS-Dauer korrelierte mit dem interventrikulären und links-ventrikulären Delay bei Resynchronisationstherapie Respondern mit nicht-ischämischer Herzerkrankung.
Transösophageales interventrikuläres Delay bei Vorhofflimmern und kardialer Resynchronisation
(2013)
Die transösophageale linksventrikuläre Elektrokardiographie ermöglicht die Evaluierung der elektrischen ventrikulären Desynchronisation im Rahmen der kardialen Resynchronisationstherapie der Herzinsuffizienz. Das Ziel der Untersuchung besteht in der präoperativen Abschätzung des transösophagealen interventrikulären Delays bei Vorhofflimmern und kardialer Resynchronisationstherapie. Bei Patienten mit Vorhofflimmern, Herzinsuffizienz New York Heart Association Klasse 3,0 ± 0,2 und QRS-Dauer 159,6 ± 23,9 ms wurde das fokusierte transösophageale linksventrikuläre EKG abgeleitet. Die kardiale Resynchronisationstherapie Responder QRS-Dauer korrelierte mit dem transösophagealen interventrikulären Delay bei Vorhofflimmern.
Nach dem Nachweis der Funktionalität des an der Fachhochschule Offenburg entwickelten Mikroprozessorkernels FHOP (First Homemade Operational Processor), wird eine Anwendung des Kernels in einem Applikationschip beschrieben.
Der Thermologger-ASIC soll mit Hilfe eines Temperatursensors die Umgebungstemperatur bei technischen Prozessen in regelmäßigen Zeitabständen erfassen und abspeichern. Die Meßwerte werden bei Bedarf ber eine serielle Schnittstelle des Thermologger-ASICs an einen PC übertragen und ausgewertet. Zur Verringerung der Leistungsaufnahme wird zwischen zwei Temperaturmessungen in einen Power-Down-Mode geschaltet.
Der ASIC soll später in einer Chipkarte integriert werden.
Im Institut für angewandte Forschung (IAF) der FH Offenburg wird derzeit eine Chipkarte entwickelt, mit der Temperaturzeitreihen über längere Zeiträume aufgezeichnet werden können. Die zur Datenerfassung erforderlichen Systemkomponenten sind auf nur einem Halbleiterchip zusammengefaßt, wodurch sich bei großen Produktionsstückzahlen ein sehr niedriger Herstellpreis erzielen läßt. Die 'Thermologger' genannte Chipkarte kann zudem mit Standard-Chipkartenlesern und einer dedizierten Software auf jedem PC konfiguriert, gelesen und ausgewertet werden.
Die zunehmende Anzahl von Transistoren mit immer kleineren Strukturgrößen führt zu einer zunehmenden Leistungsaufnahme in modernen Prozessoren. Das gilt insbesondere für High-End Prozessoren, die mit einer hohen Taktfrequenz betrieben werden. Die aufgenommene Leistung wird in Wärme umgewandelt, die in einer Temperaturerhöhung der Prozessoren resultiert. Hohe Betriebstemperaturen verursachen u.a. eine verringerte Rechenleistung, eine kürzere Lebensdauer des Prozessors und höhere Leckströme. Aus diesen Gründen wird aktives, dynamisches thermisches Management immer wichtiger. Dieser Beitrag stellt eine Erweiterung zu dem Standard- Linux-Scheduler in der Kernel-Version 3.0 für eingebettete Systeme vor: einen PID-Regler, der unter Angabe einer Solltemperatur eine dynamische Frequenz- und Spannungsskalierung durchführt. Die Experimente auf dem Freescale LMX6 Quadcore-Prozessor zeigen, dass der PID-Regler die Betriebstemperatur des Prozessors an die Solltemperatur regeln kann. Er ist die Grundlage für eine in Zukunft zu entwickelnde prädiktive Regelung.
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Reutlingen, 9. Juli 2010
(2010)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Künzelsau, 6. Februar 2009
(2009)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Konstanz, 4. Juli 2008
(2008)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Karlsruhe, 10. Juli 2009
(2009)
Tagungsband zum Workshop der Multiprojekt-Chip-Gruppe Baden-Württemberg, Göppingen, 5. Februar 2010
(2010)
Gelingt den Studienanfängern eine strukturierte Ergebnissicherung der Lehrveranstaltungen? Oder sind viele allein schon mit einem vollständigen Mitschrieb überfordert? Laufen aktivierende Methoden, Medienwechsel und der Wunsch nach strukturierter Sicherung der Inhalte des Lehrgesprächs teilweise sogar auseinander? Immer mehr Studierende (möchten) auch per Tablet mitschreiben. Wie könnte man in der Lehre auf diese Aspekte stärker eingehen?
Es wird ein praktischer Ansatz gezeigt, Mathematik-Vorlesungen über ein Tablet-basiertes Mitmach-Skript zu gestalten. Dieses dient als Schrittmacher zwischen Input- und Verarbeitungsphasen und unterstützt die strukturierte Verschriftlichung, indem es Vorteile von Tafel, PPT und klassischem Skript vereint. Traditionelle Methoden werden mit technologischen Möglichkeiten kombiniert, um die angesprochenen Herausforderungen bewusster im Lehrstil zu berücksichtigen. Verbindungen zu Virtual Classroom und Video-gestützter Lehre werden aufgezeigt.
An der Fachhochschule Offenburg wurde im Sept. 93 das Projekt eines implantierbaren 16 Bit Mikroprozessor-Kernels FHOP ins Leben gerufen. Ausgehend von dem in einem Testchip erfolgreich erprobten umstrukturierten Entwurf wurde durch gezielten Einsatz von strukturiertem Routen unter Nutzung der Fähigkeiten zum hierarchischen Arbeiten in der MENTOR-IC-Station eine erheblich verkleinerte und flächenmäßig optimierte Struktur abgeleitet, die sich mit 4 Quadratmilimetern Fläche durchaus mit kommerziellen Mikroprozessor-Kerneln vergleichen läßt.
Der Entwurf und die Realisierung gedruckter Schaltungen oder Elektronikkomponenten stellt ein intensives Thema der Forschung dar. Forschungsgruppen beschäftigen sich zunehmend mit der Entwicklung von gedruckten Energy Harvestern, weil diese kostengünstig und einfach herstellbar sind. Das Energy Harvesting (EH) oder auch das ”Mikro Energy Harvesting“ (MEH) bezeichnet die Gewinnung von elektrischer Energie aus der Umgebung, um elektronische Verbraucher zu versorgen, kontinuierliche Leistungen zu erzeugen, das System energieeffizienter zu machen, sowie die Energiespeicherung im Mikrowattbereich zu gewährleisten. Energy Harvesting-Systeme stellen eine Alternative gegenüber der Energieversorgung autarker Low-Power-Elektronik mit Batterien dar. Das Energiemanagement solcher EH-Systeme ist jedoch eine Herausforderung aufgrund der Energieverfügbarkeit und der im Zeitablauf nicht konstanten Verlustleistung. Dieser Beitrag gibt einen Überblick über die derzeit existierenden ultra low-power Energiemanagement Schaltungen für Energy Harvester. Dabei wird insbesondere der Fokus auf gedruckte Energy Harvester gelegt. Es soll aufgezeigt werden, welche Aspekte der vorgestellten Energieversorgungsschaltungen bei der Entwicklung eines Energieversorgungschips für gedruckte Energy Harvester berüucksichtigt werden sollen.
Immer mehr Anwendungen der Heim- und der Gebäudeautomatisierung werden vernetzt, weil damit erweiterte Funktionen ermöglicht oder Kosten gespart werden können. Dabei führt eine Reihe von Aspekten zu einem erhöhten Risiko für diese vernetzten Systeme. Gegenwärtig arbeiten verschiedene Gruppen an Sicherheitslösungen für die vernetzte Heim- und Gebäudeautomatisierung. Der Beitrag gibt einen Überblick über diese Aktivitäten und zeigt die wesentlichen Entwicklungsrichtungen auf.
Die in dieser Arbeit vorgestellte Vorgehensweise erlaubt die Ortung von Schienenfahrzeugen in topologischen Karten allein mit Hilfe eines Wirbelstromsensorsystems (WSS). Zur Ortung primär erforderlich ist die Identifizierung des befahrenen Gleises selbst, wofür unterschiedliche in einer Karte gespeicherte Merkmale herangezogen werden sowie der zurückgelegte Weg, der durch Zählen der passierten Schwellen ermittelt wird. Diese Merkmale werden mittels eigens definierter, virtueller Sensoren aus dem Signal des WSS gewonnen und mittels einem Bayes’schen Formalismus mit den Referenzdaten aus der vorliegenden topologischen Karte abgeglichen. Diese auf virtuellen Sensoren basierende Vorgehensweise erlaubt eine Parallelisierung der Sensorsignalverarbeitung und eine flexible Einbindung von Sensoren in das Ortungssystem. Die Möglichkeit, Weichen mit einer Trefferquote von 99% zu detektieren, erlaubt die Verfolgung der Fahrzeugposition über die gesamte Fahrstrecke hinweg, unter alleiniger Verwendung der vom WSS gelieferten Messdaten.
RFID- Frontend ISO 15693
(2008)
In dieser Arbeit wurde eine USB-Schnittstelle für ein bestehendes Mikrocontroller System FHOP realisiert. Im aktuellen Stand funktioniert das Design zuverlässig in Low Speed Konfiguration. Im Full Speed gibt es noch einige Schwierigkeiten, denn die Kommunikation bricht nach einigen Paket-Transfers zusammen. Durch das Emulieren des Designs auf FPGA wurde die Funktion nachgewiesen. Die nächste Aufgabe wird sein, die Hardware zu optimieren, damit das USB-Modul auch im Full Speed zuverlässig funktioniert. Zusätzlich wird die Software auf der PC Seite optimiert, um höhere Übertragungsraten zu erzielen.
Optische Navigationssysteme weisen bisher eine eindeutige Trennung zwischen nachverfolgendem Gerät (Tool Tracker) und nachverfolgten Geräten (Tracked Tools) auf. In dieser Arbeit wird ein neues Konzept vorgestellt, dass diese Trennung aufhebt: Jedes Tracked Tool ist gleichzeitig auch Tool Tracker und besteht aus Marker-LEDs sowie mindestens einer Kamera, mit deren Hilfe andere Tracker in Lage und Orientierung nachverfolgt werden können. Bei Verwendung von nur einer Kamera geschieht dies mittels Pose Estimation, ab zwei Kameras werden die Marker-LEDs trianguliert. Diese Arbeit beinhaltet die Vorstellung des neuen Peer-To-Peer-Tracking-Konzepts, einen sehr schnellen Pose-Estimation-Algorithmus für beliebig viele Marker sowie die Klärung der Frage, ob die mit Pose Estimation erreichbare Genauigkeit vergleichbar mit der eines Stereo-Kamera-Systems ist und den Anforderungen an die chirurgische Navigation gerecht wird.
Die Verarbeitung analoger Signale durch digitale Techniken ist durch die enorme Leistungsfähigkeit der Prozessoren zwischenzeitlich zum Standard geworden. Eine hinreichende Genauigkeit der digitalen Verarbeitung kann durch Wahl der notwendigen Wortbreite relativ einfach bewerkstelligt werden, wobei der Aufwand mit zunehmender Wortbreite linear, teilweise auch quadratisch steigt. Zum Flaschenhals in der Verarbeitung wird aber häufig die Wandlung der analog vorliegenden Signale in digitale Signale, ebenso die Rückwandlung der digitalen Signale in analoge Spannungs- oder Stromverläufe. Der Aufwand für diese teils analogen, teils digitalen Systeme steigt oft exponentiell mit der geforderten Genauigkeit bzw. Auflösung der Systeme und erfordert in konventioneller Technik bei hoher Auflösung aufwendige Maßnahmen auf dem Chip. Oversampling- und Rauschfärbungs-Methoden sind in der Verarbeitung von Audio-Signalen schon seit langem probate Mittel, um die Auflösung mit moderatem Aufwand zu erhöhen. Derartige Techniken werden zwischenzeitlich auch gerne im Bereich der Antriebstechnik, wo die Anforderungen an die erforderliche Positioniergenauigkeit zunehmen, eingesetzt. Ziel des Vortrags ist eine leicht verständliche Einführung in die Themengebiete der Überabtastung und der Rauschfärbung und ihre Anwendung im Hinblick auf Rundungsvorgänge im digitalen Bereich, in D/A-Wandlern und A/D-Wandlern vom Delta-Sigma-Typ.
Den Hauptbestandteil des Operationssystems stellt der Zugriff auf SD-Karten mit dem Dateisystem FAT16 von Microsoft dar. Für die Bedienung wurde ein Kommandozeileninterpreter implementiert. Als Ein- und Ausgabegerät dient ein PC mit einem speziellen Terminalprogramm, welcher über USB mit dem Emulationsboard des SIRIUS Softcores verbunden ist. Das System wird über die Eingabe von Befehlen am Terminal gesteuert.
Der SIRIUS Softcore kann nur vom Flash des Emulationsboards booten. Da das Betriebssystem selbst jedoch auf der SD-Karte gespeichert werden soll, ist ein Basis-Betriebssystem erforderlich, welches im Flash abgelegt ist. Das Basis-Betriebssystem lädt gleich nach dem Start das eigentliche Betriebssystem von der SD-Karte. Falls jedoch keine SD-Karte gesteckt ist, ermöglicht das Basis-Betriebssystem mit einem Kommandozeileninterpreter einige Grundfunktionen.
About 20% of those heart failure patients receiving cardiac resynchronization therapy (CRT) are in atrial fibrillation (AF). Current guidelines apply for patients in sinus rhythm only. Recent studies have shown again, that successful resynchronization is closely linked to a pre-existent ventricular desynchronization. In those studies, the interventricular conduction delay (IVCD) was determined prior to device implantation by ultrasound in patients with sinus rhythm (SR)only. In patients with AF this method ́s use is limited.
To implement left-heart electrogram (LHE) into standard programmers and to simplify IVCD measurement in heart failure patients with AF, LHE was recorded in 11 AF patients with heart failure by Biotronik ICS3000 programmer via a15Hz Butterworth high-pass filter. Therefore, TOslim esophageal electrode (Dr. Osypka GmbH, Rheinfelden, Germany) was perorally applied and fixed in position of maximal left ventricular defection. IVCD was measured between onset of QRS in surface ECG and left ventricular defection (LV) in LHE. In addition, intra-left ventricular conduction delay (ILVCD) was measured as duration of LV in LHE.
In all of the 11 AF patients, desynchronization was quantifiable by LHE. Mean QRS of 162 ± 27ms (120-206ms) was linked with IVCD of 62ms ± 27ms (37-98ms) and ILVCD of 110 ± 20ms (80-144ms), at mean. Correlation between IVCD and QRS was 0.39 (n. s.) with IVCD/QRS ratio of 0.38 ± 0.11 (0.22-0.81).
A 15Hz high-pass filtered LHE feature of the Biotronik ICS3000 programmer is feasible to quantify ventricular dyssynchrony in heart failure patients with AF in order to clearly indicate implantation of CRT systems. As relations between QRS duration, IVCD and ILVCD considerably differ interindividually, the predictive values of IVCD, ILVCD and IVCD/QRS ratio for individual CRT response or non-response shall be identified in follow-up studies.
Die Verwendung von Kameras als Messmittel für medizinische Anwendungen setzt deren präzise Kalibrierung voraus. Gängige Verfahren modellieren die Abbildungseigenschaften einer Kamera mittels perspektivischer Projektion und parametrisierter Funktionen zur Beschreibung von Linsenverzerrung. In den Randbereichen des Kamerabildes sind diese Modelle oft unzureichend. Außerdem bedingt die Verwendung starrer Kalibriermuster eine in der Regel kleine Anzahl an nicht gleichmäßig verteilten Punktkorrespondenzen zur Bestimmung der Modellparameter. In der vorliegenden Arbeit wird ein vollkommen neues und nicht auf Modellen basierendes Kalibrierverfahren vorgestellt, bei dem jedes Kamerapixel unabhängig von jedem anderen kalibriert wird.
Hintergrund: Das elektrische interventrikuläre Delay (IVD) und die Lage der linksventrikulären (LV) Elektrode zum Ort der spätesten LV Erregung sind bei Patienten (P) mit Herzinsuffizienz (HF), reduzierter LV Funktion und breiter QRS Dauer (QRSD) von Bedeutung für den Erfolg der kardialen Resynchronisationstherapie (CRT). Die LV Elektrokardiographie ermöglicht eine Abschätzung des elektrischen IVD. Ziel der Studie besteht in der nicht-invasiven Evaluierung des elektrischen IVD bei Patienten (P) mit Vorhofflimmern (AFib) mit und ohne CRT mit biventrikulärer (BV) Stimulation.
Methoden: Bei 49 HF P mit AFib (Alter 63,9 ± 10,8 Jahre; 43 Männer und 6 Frauen) mit New York Heart Association (NYHA) Klasse 2,9 ± 0,4, LV Ejektionsfraktion 26,03 ± 7,99 % und QRS-Dauer (QRSD) 143,69 ± 35,62 ms wurde das elektrische IVD als Intervall zwischen Beginn des QRS-Komplexes im Oberflächen EKG und Beginn des LV Signals im transösophagealen LV EKG bei 31 HF P mit AFib und bei 18 HF P mit AFib und CRT präoperativ bestimmt. Das fokussierte bipolare LV EKG wurde mittels Osypka TO Sonde mit halbkugelförmigen Elektroden in Höhe des maximalen LV Signals registriert.
Ergebnisse: Bei 31 HF P mit AFib betrugen QRSD 135,48 ± 38,78 ms, IVD 49,55 ± 26,38 ms, QRSD-IVD-Verhältnis 3,12 ± 1,11 und das IVD korrelierte mit der QRSD (r=0,75, P<0,001) und dem QRSD-IVD-Verhältnis (r=-0,67, P<0,001) (Fig.). Bei 18 HF P mit AFib und CRT Defibrillator betrugen QRSD 157,83 ± 24,38 ms, IVD 61,94 ± 26,88 ms, QRSD-IVD-Verhältnis 3,12 ± 1,89 und das IVD korrelierte mit der QRSD (r=0,47, P=0,049) und dem QRSD-IVD-Verhältnis (r=-0,73, P<0,001). Bei 72,2 % CRT Responder (R) (n=13) betrugen QRSD 158,15 ± 22,4 ms, IVD 64,23 ± 24,62 ms, QRSD-IVD-Verhältnis 2,82 ± 1,32 und das IVD korrelierte mit der QRSD (r=0,57, P=0,043) und dem QRSD-IVD-Verhältnis (r=-0,76, P=0,0024). Bei 27,8 % CRT Non-Responder (NR) (n=5) betrugen QRSD 157 ± 31,94 ms, IVD 56 ± 34,52 ms, QRSD-IVD-Verhältnis 3,88 ± 2,98 und das IVD korrelierte nicht mit der QRSD (r=0,33, P=0,591) und dem QRSD-IVD-Verhältnis (r=-0,732, P=0,159). Die CRT R verbesserten sich in der NYHA Klasse von 3 ± 0,2 auf 2,2 ± 0,3 (P<0,001) während 15,3 ± 13,1 Monaten BV Stimulation. Bei 15 CRT NR kam es zu keiner Verbesserung der NYHA Klasse von 3 auf 3,3 ± 0,97 (P=0,529) während 18,8 ± 20,7 Monaten BV Stimulation.
Schlussfolgerungen: Das transösophageale LV EKG ermöglicht bei HF-P mit AFib die nichtinvasive Messung des elektrischen IVD präoperativ vor CRT. IVD und QRSD-IVD-Verhältnis sind möglicherweise einfach anwendbare Parameter zur Vorhersage von CRT R und CRT NR bei P mit AFib.
Ein neuer Ansatz wurde für mobile Roboter zur gleichzeitigen 3D (Drei-Dimensionaler) Kartierung und Lokalisierung vorgestellt. Die Grundlage bilden attributierte Flächenmodelle, die z.B. von segmentierten Laserscanner-Tiefenbildern stammen. Zur Optimierung der Gesamtähnlichkeit zwischen Flächenmodellen unter Zeitbedingungen werden mehrere Verfahren (Beschränkte Baumsuche, Iterative Verfeinerung, Evolutionäralgorithmus) kombiniert. Es wird speziell anhand der Ähnlichkeitsmaße gezeigt, wie das Wissen über die Lage stufenweise generiert und verwendet wird. Erste Messungen an realen segmentierten Tiefenbildfolgen zeigen, dass das Verfahren unbekannte übelappung, Verdeckung und Segmentierungsfehler toleriert sowie Echtzeitpotenzial besitzt.
MPC-Workshop Juni 2002
(2002)
MPC-Workshop Juli 2018
(2018)
MPC-Workshop Juli 2015
(2015)
MPC-Workshop Juli 2014
(2014)
MPC-Workshop Juli 2013
(2013)
MPC-Workshop Juli 2012
(2012)
MPC-Workshop Juli 2011
(2011)
MPC-Workshop Juli 2007
(2007)
MPC-Workshop Juli 2006
(2006)
MPC-Workshop Juli 2005
(2005)
MPC-Workshop Juli 2004
(2004)
MPC-Workshop Juli 2003
(2003)
MPC-Workshop Juli 2001
(2001)
MPC-Workshop Januar 2003
(2003)
MPC-Workshop Januar 2002
(2002)
MPC-Workshop Februar 2016
(2016)
MPC-Workshop Februar 2015
(2015)
MPC-Workshop Februar 2014
(2014)
MPC-Workshop Februar 2013
(2013)
MPC-Workshop Februar 2012
(2012)
MPC-Workshop Februar 2011
(2011)
MPC-Workshop Februar 2007
(2007)
MPC-Workshop Februar 2006
(2006)
MPC-Workshop Februar 2005
(2005)
MPC-Workshop Februar 2004
(2004)
MPC-Workshop Februar 2001
(2001)
Die direkte Vermarktung von Strom aus Wind und Sonne stellt einen wichtigen Schritt der Energiewende dar. Einerseits kann durch die Marktintegration die Unabhängigkeit von EEG-Subventionen gelingen. Andererseits wird über diese Mechanismen die Stromerzeugung an der Nachfrage orientiert, wodurch zur Stabilität des Stromnetzes beigetragen wird. Ein Beispiel dafür ist die lokale Vermarktung von PV-Strom in einem Mietshaus. Für deren Umsetzung benötigen die Akteure ein Mess- und Steuerungssystem, dass vor Ort Zähler- und Anlagendaten erfasst und die Abrechnung der Mieter vereinfacht. Außerdem sollte es Kennwerte wie beispielsweise den PV-Anteil berechnen und gegebenenfalls ein Blockheizkraftwerk steuern. Weder die Zählersysteme der Messstellenbetreiber noch die Steuerungssysteme von PV- oder Blockheizkraftwerken erfüllen diese Anforderungen ausreichend. In der Forschung ist man währenddessen bereits einen Schritt weiter und arbeitet an technischen Systemen, die für wesentlich komplexere Energiesystem- und Markttopologien ausgelegt werden. In dieser Arbeit werden die neuen technischen Anforderungen der Direktvermarktung in einem Mietshaus identifiziert und mit dem Stand aktueller Marktprodukte sowie dem System »OpenMUC« aus der Forschung verglichen.
Der Übergang Schule-Studium wird an der Hochschule Offenburg im Vorbereitungskurs Mathematik per Smartphone bzw. Tablet unterstützt. Eine Mathe-App gibt zu den Trainingsaufgaben bei Bedarf Tipps, Teilschritte und ausführliche Erklärungen und hilft so den Studierenden, die Lösungen in ihrer individuellen Lerngeschwindigkeit zu entwickeln. Der mobile Ansatz erlaubt, die ca. 400 Teilnehmer des Präsenz-Kurses in normalen Klassenräumen ohne PC-Ausstattung mit E-Learning vertraut zu machen und unterstützt die Flexibilisierung von Übungszeit und -ort über die Präsenzzeit hinaus. Durch die inhaltliche Orientierung am hochschulübergreifenden COSH (Cooperation Schule Hochschule) Mindestanforderungskatalog Mathematik entstand eine Lösung, die jedem Studienanfänger zur Vorbereitung auf das Studium nutzen kann, die zu den Brückenkurs-Inhalten vieler Hochschulen passt und für die aktuell schon Kooperationsprojekte mit Schulen starten.