Refine
Year of publication
Document Type
- Conference Proceeding (148)
- Article (unreviewed) (62)
- Bachelor Thesis (55)
- Article (reviewed) (33)
- Contribution to a Periodical (30)
- Book (27)
- Patent (21)
- Part of a Book (18)
- Master's Thesis (11)
- Letter to Editor (2)
Conference Type
- Konferenzartikel (75)
- Konferenzband (56)
- Konferenz-Abstract (15)
- Konferenz-Poster (1)
- Sonstiges (1)
Language
- German (411) (remove)
Keywords
- Mikroelektronik (56)
- Mathematik (10)
- E-Learning (5)
- Kardiale Resynchronisationstherapie (5)
- Medizin (5)
- FPGA (4)
- Götz von Berlichingen (4)
- Hochschule (4)
- Messtechnik (4)
- Sensor (4)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (411) (remove)
Open Access
- Open Access (204)
- Bronze (107)
- Closed Access (100)
- Closed (26)
- Grün (1)
Um Simulationen schnell und kostengünstig sowie ergebnisträchtig durchzuführen, bedarf es einer sorgfältigen Vorbereitung. Der Artikel befaßt sich mit dem automatischen Ablauf einer Simulationstudie zum Materilafluß und erläutert die im Ablauf notwendigen Beiträge der Anwender. In den Einzelheiten wird über die automatische Vorgehensweise und Anwendung der Standard-Simulationsmodelle (SSM) sowie spezieller Simulationsmodule (SimDBC) berichtet. Entscheidend für eine breitere Anwendung von Simulationswerkzeugen ist die einfache Handhabung und leicht verständliche Definition der zu untersuchenden Szenarien.
Durch den digitalen Wandel, sowie durch die an Benutzerfreundlichkeit und Leistung zunehmenden technischen Geräte im Endbenutzer-Bereich beginnt die Bedeutung von Augmented-Reality Applikationen zu wachsen. Daher ist das Ziel dieser Arbeit die Entwicklung einer Engine auf iOS Basis, zur Dastellung von Augmented-Reality Inhalten. Die Engine wurde nach dem Vorbild von Komponenten-basierten Game Engines entworfen, da diese beinahe identische Anforderungen besitzen. Die, im Rahmen dieser Arbeit erstellte Engine wurde mit Unterstützung der 5d lab Gmb entwickelt. Durch die Verwendung des, nach Erfahrungswerten, schnellsten Mobile Augmented Reality SDK und einer gelungenen Engine-Architektur konnte ein Produkt entwickelt werden, dass mit bestehenden Applikationen konkurrenzfähig ist.
Im ASIC Design Center der Hochschule Offenburg wird ein Design Kit für die UMC 0.18μm Faraday Technologie aufbereitet. Dabei werden alle benötigten Dateien, welche für einen zunächst rein digitalen Chipentwurf unter Verwendung der Synopsys, Cadence und Mentor Tools benötigt werden, für den UMC 0.18μm Prozess zusammengestellt.
In den vergangenen Jahren ist das technische Gas Schwefelhexafluorid (SF6) immer wieder Gegenstand von Diskussionen des Klimaschutzes und der technischen Notwendigkeit für den Betrieb von Schaltanlagen gewesen und wird dies wohl auch noch für längere Zeit bleiben. Das Gas, welches sich aus einem Schwefelatom und sechs Fluoratomen zusammensetzt, wird seit Ende der sechziger 1960er Jahre in Schaltanlagen der Mittel- und Hochspannung eingesetzt. So günstig dessen Eigenschaften im technischen Einsatz auch sind, so klimaschädlich ist es beim Entweichen in die Atmosphäre. SF6 ist das Klimagas mit dem größten bekannten Treibhauspotenzial, es weist ein CO2-Äquivalent (GWP) von 23.900 und eine atmosphärische Lebensdauer von ca. 3.200 Jahren auf. Neben nur wenig verbliebenen Anwendungen in Industrie, Militär und Medizin kommt es heute hauptsächlich bei der elektrischen Energieversorgung als Isolier- und Lichtbogenlöschgas in Schaltanlagen von Übertragungs- und Verteilnetzen zum Einsatz. Grund genug die technische Notwendigkeit, mögliche Alternativen und Konsequenzen drohender Verbote zu diskutieren. In diesem Artikel werden zunächst die Grundlagen moderner SF6- Hochspannungsschaltanlagen vorgestellt, die Klimabelastung durch entweichendes SF6 evaluiert, ein Überblick über den Stand der Forschung gegeben und mögliche Konsequenzen eines Verbotes von Schwefelhexafluorid in der Energieversorgung diskutiert.
An der FH Offenburg arbeiten seit Ende 1989 in einem Team die Professoren Dr. Jansen, Dr. Schüssele, die wissenschaftlichen Mitarbeiter Bernd Reinke, Martin Jörger und die Diplomanden Hans Fiesel, Otmar Feißt an dem Entwurf eines Nachrichtenempfängers. Im Rahmen dieses Projekts, genannt GPS-Projekt (GPS = Global Positioning System), wurde im Herbst 1990 ein experimenteller Empfänger in Betrieb genommen. Nachdem die Testergebnisse gezeigt hatten,daß das Konzept der Anlage stimmte, ging es nun um die Miniaturisieriung, Integration und Optimierung der Schaltung. Außerdem sollte der bisher verwendete PC durch einen auf der Platine befindlichen Mikroprozessor ersetzt werden. Im Zusammenhang mit dem GPS-Projekt wurden bisher im Offenburger ASIC-Labor eine Analogschaltung auf einem B500, drei LCA Designs und diverse GAL's entwickelt.
Zur Zeit arbeiten mehrere Diplomanden an der zweiten Generation des Empfängers. Meine Aufgabe besteht darin, die dort noch in drei LCA's untergebrachte digitale Logik sowie einen Teil des bisherigen PC-Interface in einem IMS Gate Forrest zu integrieren. Außerdem muß die Logik von 8 Bit auf einen 16 Bit breiten Datenbus umgestellt und an die neue Peripherie des Mikroprozessors angepasst werden. Damit soll die jetzige Digital-Platine noch weiter verkleinert werden. Wesentlich ist dabei die Umsetzung der zahlreichen Zähler- und Registerstrukturen in einem Gate Forrest. Als Arbeitsmittel stehen Apollo Workstations mit Mentor Software zur Verfügung.
Die direkte Vermarktung von Strom aus Wind und Sonne stellt einen wichtigen Schritt der Energiewende dar. Einerseits kann durch die Marktintegration die Unabhängigkeit von EEG-Subventionen gelingen. Andererseits wird über diese Mechanismen die Stromerzeugung an der Nachfrage orientiert, wodurch zur Stabilität des Stromnetzes beigetragen wird. Ein Beispiel dafür ist die lokale Vermarktung von PV-Strom in einem Mietshaus. Für deren Umsetzung benötigen die Akteure ein Mess- und Steuerungssystem, dass vor Ort Zähler- und Anlagendaten erfasst und die Abrechnung der Mieter vereinfacht. Außerdem sollte es Kennwerte wie beispielsweise den PV-Anteil berechnen und gegebenenfalls ein Blockheizkraftwerk steuern. Weder die Zählersysteme der Messstellenbetreiber noch die Steuerungssysteme von PV- oder Blockheizkraftwerken erfüllen diese Anforderungen ausreichend. In der Forschung ist man währenddessen bereits einen Schritt weiter und arbeitet an technischen Systemen, die für wesentlich komplexere Energiesystem- und Markttopologien ausgelegt werden. In dieser Arbeit werden die neuen technischen Anforderungen der Direktvermarktung in einem Mietshaus identifiziert und mit dem Stand aktueller Marktprodukte sowie dem System »OpenMUC« aus der Forschung verglichen.
Zum aktuellen Zeitpunkt sind alle Sensoren einer Herz-Lungen-Maschine des Unternehmens Getinge kabelgebunden. Dadurch besteht das Risiko, dass sich während einer OP Keime auf den Kabeln sammeln, die Kabel steigern den Zeitaufwand beim Reinigen und Konnektieren und lassen das Gesamtsystem unübersichtlich wirken.
Das Ziel dieser Arbeit ist es, ein Konzept zu entwickeln, wie die Datenübertragung von einem Sensor zu einer Herz-Lungen-Maschine drahtlos erfolgen kann. Dazu wurden elf gewichtete Anforderungen an einen Funkstandard für eine drahtlose Datenübertragung definiert. Bezüglich dieser Anforderungen wurden 15 Funkstandards anhand einer Literaturrecherche analysiert. Es stellte sich heraus, dass sich ZigBee, IEEE 802.15.6, Z-Wave und EnOcean für diese Anwendung eignen, wobei ZigBee im Vergleich zu den anderen Funkstandards als am besten geeignet bewertet wurde.
Um die Eigenschaften von ZigBee bezüglich der definierten Anforderungen zu verifizieren, wurde ein ZigBee-Prototyp implementiert und getestet. Für die Bereitstellung der Mess-Funktionalität für die Tests wurde ein Programm in C++ geschrieben. Mit Hilfe dieser Tests konnte die Erfüllung der Anforderungen von ZigBee bestätigt werden.
Auf dieser Grundlage ist es möglich, die drahtlose Datenübertragung zwischen Sensor und Herz-Lungen-Maschine auf Basis des ZigBee-Funkstandards zu entwickeln. Ausblickend ist es für die Entwicklung von drahtlosen Sensoren einer Herz-Lungen-Maschine ratsam, die Akzeptanz der Anwender zu erfragen und die regulatorischen Anforderungen für Funk bei Medizinprodukten zu erläutern.
Elektrische Antriebssysteme sind in der modernen Welt überall zu finden und sind aus dem Alltag nicht mehr wegzudenken. In vielen industriellen Anwendungen wandeln sie elektrische Energie in mechanische Energie um, womit das Antriebssystem als Motor fungiert. Im umgekehrten Fall, wenn demnach mechanische Energie in elektrische Energie umgewandelt wird, arbeitet das Antriebssystem als Generator. Die dabei umgewandelte Energie soll bei einer Einspeisung in das Versorgungsnetz möglichst sinusförmig verlaufen, damit überwiegend Grundschwingungsleistung fließt. Zusätzlich ist ein geringer Blindanteil wünschenswert, weil diese Stromkomponente dafür sorgt, dass die Versorgungsleitungen unnötig belastet werden.
In dieser Bachelorthesis werden auf die für das Verständnis wichtigen theoretischen Grundlagen der Raumzeiger eingegangen. Bei der Regelung des Netz- oder Ausgangsstroms und der Zwischenkreisspannung werden auf diese Grundlagen zurückgegriffen, weil die Beschreibung von zeitveränderlichen, sinusförmig verteilten dreiphasigen Größen durch Transformationen in andere Bezugssysteme als besonders zweckmäßig erscheint. Damit weitere elektrische Geräte, die am selben Netzanschlusspunkt angeschlossen sind, möglichst wenig beeinflusst werden, sollte der ins Versorgungsnetz zurückgespeiste Strom geringe Oberschwingungen enthalten und somit einen weitestgehend sinusförmigen Verlauf annehmen.
Oberschwingungen sind ganzzahlige Vielfache der Grundschwingung der Netzfrequenz von 50 Hz. Aus regelungstechnischer Sicht ist es daher zweckmäßig, ein nahezu exaktes Modell der Regelung des Netzstroms und der Zwischenkreisspannung zu erstellen. Eine hochdynamische Regelung ist dann gewährleistet.
Entwicklung und Implementierung einer Methode zur Funktions- und Verschleißprüfung von Sägeanlagen
(2019)
Die Firma KASTO Maschinenbau produziert Lagersysteme und Sägemaschinen und möchte in Zukunft mit Hilfe von prädiktiver Wartung einen Mehrwert für den Kunden, die firmeneigenen Servicetechniker und die Inbetriebnehmer generieren. Für diesen Weg in Richtung prädiktive Wartung werden in der vorliegenden Arbeit, zunächst mittels Recherche, Grundlagen definiert. Die anschließende Analyse verschiedener Bauteile und Baugruppen in der Lagertechnik und im Sägemaschinenbau führt zur Konkretisierung der Umsetzungsmöglichkeiten.
Im weiteren Verlauf der Arbeit werden die verschleißkritischen Bauteile eines KASTOwin-Bandsägeautomats behandelt. Durch die Analyse der einzelnen Verschleißformen und -erscheinungen an dessen Komponenten können Parameter zur Verschleiß-überwachung ermittelt werden. Die Überwachung dieser Prozesse soll dabei mit bestehender Sensorik durchgeführt werden und beschränkt sich deshalb hauptsächlich auf die Messeinrichtung der Frequenzumformer. Für die Komponenten Sägebandantrieb, Sägevorschubantrieb, Materialvorschubantrieb, Bandverlaufsensor, sowie das Hydrauliksystem werden entsprechende Methoden zur Funktions- und Verschleiß-prüfung ausgearbeitet.
Auf Basis dieser Methoden wird dann die Implementierung in Form eines SPS-Programms und einer dazu passenden, grafischen Benutzeroberfläche durchgeführt. Das bestehende SPS-Programm und die Benutzeroberfläche werden durch zusätzliche Programmteile ergänzt. Sämtliche Ergänzungen sind portabel und modular ausgelegt, sodass diese problemlos auch in anderen Sägemaschinen ergänzt werden können. Um kritische Verschleißsituationen nach deren Eintritt zu analysieren und daraus Schlüsse im Sinne der prädiktiven Wartung zu ziehen, ist die Sicherung aller Langzeitdaten von enormer Bedeutung. Da der remanente Speicher der SPS jedoch begrenzt ist, werden sämtliche Daten über die Visualisierung gesichert. Alle aufgenommen Daten werden sowohl grafisch als auch in Form von Werten visualisiert und können dem Kunden und Servicetechniker, sowie dem Inbetriebnehmer Aufschluss über den Zustand der Komponenten geben.
Letztlich werden die implementierten Abläufe an einer Vorführmaschine getestet. Es kann dabei die Funktion sämtlicher Prüfungen bestätigt werden
Im Rahmen dieser Arbeit wurde ein Telepräsenzsystem entwickelt, bei dem ein Teleroboter mit beweglicher Kamera zum Einsatz kommt, der seine Ausrichtung über ein Head-mounted Display synchronisiert. Der Anwender des Systems sieht auf dem Display das Abbild der Umgebung des Teleroboters. Jede Kopfbewegung des Anwenders wird in Echtzeit auf die Kamerabewegung umgesetzt. Der Anwender kann sozusagen seinen Sehsinn temporär auf den Roboter auslagern, der ihn in einer entfernten Umgebung repräsentiert.
E-Tutoren-Ausbildung: Lernerfahrungen reflektieren – Lehrhandlungskompetenzen dialogisch aufbauen
(2014)
Der Entwurf von Strukturen zum reflexionsarmen Einbetten von Halbleiterbauteilen in Mikrostreifenleitungsschaltungen gestaltet sich mit steigender Frequenz kritischer. Deshalb wird ein Verfahren vorgestellt, das es ermöglicht, das Streuverhalten solcher Strukturen unter Anwendung der dreidimensionalen Finite-Differenzen-Methode auf die Maxwellschen Gleichungen numerisch zu berechnen. Hierauf aufbauend wurde das Programmpaket F3D entwickelt. Das Streuverhalten einer Verbindung zweier GaAs-Chips durch eine dielektrische Wand wird in Abhängigkeit von Geometrieparametern diskutiert. Außerdem werden Ersatzschaltbilder unterschiedlicher Komplexität für CAD-Anwendungen vorgestellt. Diese ermöglichen zudem eine rechenzeiteffektive Optimierung dieser Struktur, die somit Filteraufgaben übernehmen kann. Dies wird am Beispiel eines Tiefpasses gezeigt.
Die Erfindung betrifft ein Verfahren zum Spektrum-Monitoring eines vorgegebenen Frequenzbandes, bei dem die spektrale Leistungsdichte (S(f)) innerhalb des vorgegebenen Frequenzbandes für alle in dem Frequenzband enthaltenen Rausch- und Signalanteile bestimmt wird und für das Detektieren des Vorhandenseins eines oder mehrerer Signale innerhalb des vorgegebenen Frequenzbandes das Überschreiten eines Schwellenwertes (λ) durch die spektrale Leistungsdichte (S(f)) ausgewertet wird. Erfindungsgemäß wird der Schwellenwert (λ) abhängig von einer Schätzung einer Verteilungsdichte (hR(S)) für den Rauschanteil der spektralen Leistungsdichte (S(f)) innerhalb des vorgegebenen Frequenzbandes und einem vorgegebenen Wert für die Falschalarmwahrscheinlichkeit (Pfa) berechnet.
Die Erfindung betrifft ein Verfahren zur automatischen Klassifikation des Modulationsformats eines digital modulierten Signals, welches die empfangenen I/Q-Datenpunkte zuerst für jedes Modulationsformat mittels eines Clustering-Verfahrens ausgewertet, wobei nach Durchführung des Clustering-Verfahrens für jedes der Modulationsformate jeweils alle I/Q-Datenpunkte jeweils einem ermittelten Cluster-Schwerpunkt zugeordnet sind. Danach wird für jedes Modulationsformat jeweils der Wert einer Nutzenfunktion bestimmt, welche einen umso höheren (niedrigeren) Wert annimmt, je besser die einem Cluster-Schwerpunkt zugeordneten I/Q-Datenpunkte durch den Cluster-Schwerpunkt abgedeckt sind und je geringer die euklidischen Abstände der ermittelten Custer-Schwerpunkte von dem zugeordneten Konstellationspunkt sind. Es wird dann dasjenige Modulationsformat als das für das digital modulierte Signal zutreffende Modulationsformat angenommen, für welche die Nutzenfunktion den höchsten (niedrigsten) Wert annimmt.
Der Übergang Schule-Studium wird an der Hochschule Offenburg im Vorbereitungskurs Mathematik per Smartphone bzw. Tablet unterstützt. Eine Mathe-App gibt zu den Trainingsaufgaben bei Bedarf Tipps, Teilschritte und ausführliche Erklärungen und hilft so den Studierenden, die Lösungen in ihrer individuellen Lerngeschwindigkeit zu entwickeln. Der mobile Ansatz erlaubt, die ca. 400 Teilnehmer des Präsenz-Kurses in normalen Klassenräumen ohne PC-Ausstattung mit E-Learning vertraut zu machen und unterstützt die Flexibilisierung von Übungszeit und -ort über die Präsenzzeit hinaus. Durch die inhaltliche Orientierung am hochschulübergreifenden COSH (Cooperation Schule Hochschule) Mindestanforderungskatalog Mathematik entstand eine Lösung, die jedem Studienanfänger zur Vorbereitung auf das Studium nutzen kann, die zu den Brückenkurs-Inhalten vieler Hochschulen passt und für die aktuell schon Kooperationsprojekte mit Schulen starten.
Die Einhaltung der innerhalb der Designphase festgelegten Architektur eines Softwareprojektes muss w ̈ahrend der Entwicklungsphase sichergestellt werden. Dieses Papier beschreibt eine Erweiterung des Eclipse-Plugins JDepend4Eclipse, die die Verwaltung von Regels ̈atzen erlaubt und die Pr ̈ufung auf in einem Projekt vorhandene, unerlaubte Abh ̈angigkeiten auf Knopfdruck innerhalb der Entwicklungsumgebung vornimmt. Die Erweiterung des Plugins wird bereits erfolgreich in internen Projekten der Hochschule Offenburg eingesetzt und soll demn ̈achst ̈offentlich verf ̈ugbar sein.
In Verbindung mit geeigneten Sensoren, können Korrelatoren aus völlig regellosen Signalströmen hochpräzise Daten gewinnen. Diese Meßgeräte werden zur Messung von Durchflüssen, Mengenströmen und Geschwindigkeiten benötigt. Durch die Geschwindigkeitssteigerung bei Rechnern und deren Preisverfall werden Korrelatoren nicht mehr wie in der Vergangenheit nur im Bereich der Forschung und der Entwicklung eingesetzt, sondern in zunehmendem Maße auch als Betriebsmeßgeräte.
Das in diesem Beitrag beschriebene Meßsystem besteht aus einem Steuerteil zur Eingabe der Befehle, einem digitalen Display zur Anzeige der Meßwerte und einer davon stationierten Sonde, welche die Meßwerte aufnimmt und digitalisiert. Beide Teile sind über zwei Lichtwellenleiter miteinander verbunden. Die zur Versorgung nötige Energie und die Steuersignale zur Meßsonde überträgt einer der beiden Lichtwellenleiter. Eine Laserdiode in der Steuereinheit liefert dazu eine optische Ausgangsleistung, die in die Faser eingekoppelt wird. In der Meßsonde wandelt ein 'Power-Converter' die optische Leistung wieder in elektrische Energie zurück. Über den zweiten Lichtwellenleiter sendet die Meßsonde die aufgenommenen Daten an das Steuergerät. In der Meßsonde sitzt ein Mikrorechner, der die Signale erfaßt, digitalisiert und an die Steuereinheit sendet. Dort ermittelt der andere Mikrorechner daraus die Meßgröße und zeigt sie auf einem LC-Display an.
Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im September 1987 in der Oberpfalz bei Windischeschenbach mit der Vorbohrung begonnen, die im Frühjahr des letzten Jahres bei einer Tiefe von 4000m erfolgreich abgeschlossen wurde. Mit der in diesem Jahr beginnenden Hauptbohrung will man 10 bis 12km tief in das Erdinnere vorstoßen. Nicht nur anhand von Gesteins- und Flüssigkeitsproben, sondern auch mit Hilfe von Meßsonden werden umfangreiche geophysikalische Daten gewonnen. Der Aufsatz beschreibt, wie die magnetische Suszeptibilität von Gesteinen bis ca. 300°C Umgebungstemperatur und einem Druck von 2kbar gemessen wird und die Daten über ein 14km langes Bohrlochkabel von der Sonde zum Steuerrechner übertragen werden.
Wahlweise Lichtleiter oder Zweidraht-Leitungen: Ringbus-System zur flexiblen Messdatenerfassung
(1986)
In diesem Beitrag wird ein Messdatenerfassungssystem vorgestellt, bei dem die Datenuebertragung je nach den Anforderungen entweder auf Zweidrahtleitung oder via Lichtleiter erfolgen kann. Es handelt sich um ein ringfoermiges serielles Bussystem fuer das eine universelle Interfacekarte mit Mikroprozessor aufgebaut wurde. Nach Beschreibung der Struktur des Systems wird auf den Uebertragungscode und das Datenprotokoll eingegangen. Anschliessend wird der Aufbau der Interfacekarte gezeigt. Einige Bemerkungen zu den Software-Modulen fuer die Interfacekarte, zum Programmablauf auf ihr und zur Synchronisierung der Interface-Karte runden den Beitrag ab.
In der vorliegenden Bachelorarbeit wird die Verwendung von persistenten Datenstrukturen in Anwendungen untersucht. Dafür werden zunächst verschiedene Eigenschaften von bestehenden Implementierungen persistenter Datenstrukturen im Vergleich zu ephemeralen Implementierungen der Datenstrukturen untersucht. Hierbei werden Laufzeiten und Speicherverbrauch analysiert. Dabei wird gezeigt, in welchen Fällen die Verwendung von persistenten Datenstrukturen Vorteile gegenüber der Verwendung ephemeralen Datenstrukturen bringt.
Im zweiten Teil wird die Verwendung von persistenten Datenstrukturen in asynchronen Umgebungen untersucht. Hierfür werden die grundlegenden Probleme aufgezeigt, die bei der Erzeugung von Thread lokalen Versionen geteilter Zustände entstehen. Es wird aufgezeigt, wie die verschiedenen Versionen durch ein Zusammenführungsverfahren in einen gemeinsamen Zustand überführt werden können. Als konkrete Implementierung wurde eine Framework in Java entwickelt, welches versucht, dieses Problem wiederverwendbar zu lösen. Das entwickelte Framework wird anhand einer Beispielsdomäne evaluiert, indem die Performanz mit der Verwendung von expliziter Synchronisation verglichen wird. Hierbei wird gezeigt, dass in Situationen, in denen die Modifikationen viel Zeit benötigen, der Ansatz des Zusammenführen Vorteile gegenüber expliziter Synchronisation bietet. Im letzten Teil der Arbeit wird die Verwendung eines geteilten persistenten Zustandes im an der Hochschule Offenburg durchgeführtem A 2 O Projekt untersucht, bei dem Software für eine autonomes Modellauto entwickelt wurde. Es werden die Schwierigkeiten bei der Umsetzung der im Framework entwickelten Techniken in C++, sowie mögliche Lösungswege aufgezeigt.
In einer Vorlesung nicht abgehängt zu werden und die vielen Ergebnisse strukturiert zu sichern, ist für Studienanfänger eine große Herausforderung. Mitschriebe sind sehr oft unvollständig, unstrukturiert oder „zerfläddert“. Mitschreib-Marathon und Mitdenken schließen sich bei vielen aus. Auch aktivierende Lehrmethoden, Medienwechsel, Lehrvideos führen oft dazu, dass eine strukturierte Sicherung der Inhalte des Lehrgesprächs noch erschwert wird.
Es wird ein Best Practice Beispiel gezeigt, Mathematik-Vorlesungen über ein Tablet-basiertes Mitmach-Skript zu gestalten. Dieses dient als Schrittmacher zwischen Input- und Verarbeitungsphasen und unterstützt die strukturierte Verschriftlichung, indem es Vorteile von Tafel, PPT und klassischem Skript vereint. Traditionelle Methoden werden mit technologischen Möglichkeiten kombiniert, um die angesprochenen Herausforderungen bewusster im Lehrstil zu berücksichtigen. Verbindungen zu Virtual Classroom und Video-gestützter Lehre werden aufgezeigt.
Die Heterogenität der Studienanfänger/innen erleben viele Lehrende unmittelbar in den Anfängerveranstaltungen, Heterogenität nicht nur in Bezug auf fachliche Vorbildung, sondern auch bezüglich verfügbaren Lernstrategien, Fertigkeiten, Motivation und
Selbstdisziplin. Schon allein einer 90-minütigen Vorlesung konzentriert zu folgen und die
Ergebnisse strukturiert zu sichern, ist für viele eine sehr große Herausforderung. In diesem Erfahrungsbericht wird das seit dem WS 2015/16
an der Hochschule Offenburg erprobte Potenzial moderner Tablets untersucht, Vorteile
von klassischem handschriftlichen An- und Mitschreiben mit einer Vorstruktur, wie sie
z.B. PPT-Slides ermöglichen, zu vereinen.
Gelingt den Studienanfängern eine strukturierte Ergebnissicherung der Lehrveranstaltungen? Oder sind viele allein schon mit einem vollständigen Mitschrieb überfordert? Laufen aktivierende Methoden, Medienwechsel und der Wunsch nach strukturierter Sicherung der Inhalte des Lehrgesprächs teilweise sogar auseinander? Immer mehr Studierende (möchten) auch per Tablet mitschreiben. Wie könnte man in der Lehre auf diese Aspekte stärker eingehen?
Es wird ein praktischer Ansatz gezeigt, Mathematik-Vorlesungen über ein Tablet-basiertes Mitmach-Skript zu gestalten. Dieses dient als Schrittmacher zwischen Input- und Verarbeitungsphasen und unterstützt die strukturierte Verschriftlichung, indem es Vorteile von Tafel, PPT und klassischem Skript vereint. Traditionelle Methoden werden mit technologischen Möglichkeiten kombiniert, um die angesprochenen Herausforderungen bewusster im Lehrstil zu berücksichtigen. Verbindungen zu Virtual Classroom und Video-gestützter Lehre werden aufgezeigt.
Der Übergang Schule-Studium wird an der Hochschule Offenburg im Vorbereitungskurs Mathematik per Smartphone bzw. Tablet unterstützt. Eine Mathe-App gibt zu den Trainingsaufgaben bei Bedarf Tipps und Teilschritte und hilft so den Studierenden, gemäß individuellem Tempo und Vorkenntnisstand zu arbeiten. Dies fördert eine Aktivierung der Kursteilnehmer auch bei großer Heterogenität. Der mobile Ansatz erlaubt, die ca. 400 Teilnehmer des Präsenz-Kurses in normalen Klassenräumen ohne PC-Ausstattung mit einem eCoach zu unterstützen und ermöglicht die Flexibilisierung von Übungszeit und –Ort über die Präsenzzeit hinaus.
Dieser für die heutige junge Generation attraktive Lernzugang entstand als Kooperationsprojekt zwischen der MassMatics UG und der Hochschule Offenburg. Durch die inhaltliche Orientierung am hochschulübergreifenden Mindestanforderungskatlog Mathematik des cosh-Arbeitskreises entstand eine Lösung, die jedem Studienanfänger zur Vorbereitung auf das Studium nutzen kann (auch ohne Präsenzkurs), die zu den Brückenkurs-Inhalten vieler Hochschulen passt und für die aktuell schon Kooperationsprojekte mit Schulen starten.
Das Projekt MINT-College TIEFE (Talente Individuell, Erfolgreich Fördern und Entwickeln) der Hochschule Offenburg wird im Rahmen des Bund-Länder-Programms Qualitätspakt Lehre aus Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) unter dem Förderkennzeichen 01PL11016 gefördert. Unterstützt wird das Projekt vom Informationszentrum der Hochschule Offenburg.
Deutschland hat nicht zuletzt durch seine zentrale Lage eine führende Rolle im Bereich der Transportlogistik in Europa übernommen. Allerdings stehen die großen Logistikunternehmen in den letzten Jahren zunehmend vor neuen Herausforderungen. Zum einen steigt die Menge zu transportierender Güter jährlich, zum anderen entstanden durch Verschmelzungen großer Logistikunternehmen wie z. B. Deutsche Post, Danzas und Exel, UPS und Fritz riesige Fahrzeugflotten, deren effiziente Planung die Unternehmen vor enorme Probleme stellt. Die einzige Möglichkeit, diese meist heterogenen, also aus vielen verschiedenen Verkehrsmitteln bestehenden Flotten mit herkömmlichen Mitteln effizient zu planen, ist die Aufteilung in (regionale) Geschäftsbereiche. Dadurch können viele Synergieeffekte nicht genutzt werden, was unter anderem zu unnötig hohen Transportkilometerleistungen und Leerfahrten führt. Mit Hilfe agentenbasierter Systeme können heute schon Kosteneinsparungen von 3 – 6 % bei homogenen Verkehrsmitteln erzielt werden. Das Einsparpotenzial dürfte bei heterogenen Flotten ähnlich hoch, wenn nicht noch etwas höher sein. Allerdings liefern derzeit agentenbasierte Systeme für heterogene Flotten noch keine zufriedenstellenden Ergebnisse. Durch die Kombination der beiden vorrangig für die Transportoptimierung eingesetzten Techniken agentenbasierte (bottomup) Optimierung und der klassischen (topdown)Optimierung soll auch das Einsparpotenzial von heterogenen Flotten realisiert werden. Diese Optimierung ist Gegenstand des Attractive Forschungsprojekts, das von August 2009 bis Juli 2012 im Rahmen des Programms ingenieurNachwuchs gefördert wird.
Große Logistikunternehmen stehen in den letzten Jahren zunehmend vor neuen Herausforderungen. Zum einen steigt die Menge zu transportierender Güter jährlich, zum anderen entstanden durch Verschmelzungen großer Logistikunternehmen, wie z. B. Deutsche Post, Danzas und Exel oder UPS und Fritz, riesige Fahrzeugflotten, deren effiziente Planung die Unternehmen vor enorme Probleme stellt. Die einzige Möglichkeit, diese meist heterogenen, also aus vielen verschiedenen Verkehrsmitteln bestehenden Flotten mit herkömmlichen Mitteln effizient zu planen, ist die Aufteilung in (regionale) Geschäftsbereiche. Dadurch können viele Synergieeffekte nicht genutzt werden, was unter anderem zu unnötig hohen Transportkilometerleistungen und Leerfahrten führt. Im Rahmen des Forschungsprojekts Attractive (Programm IngenieurNachwuchs) wurden neue Algorithmen entwickelt, mit deren Hilfe dieOptimierung von Transportaufträgen unter realen Be-dingungen und in realistischen Größenordnungen möglich wird. In diesem Artikel wird kurz auf die Optimierung eingegangen, und dann werden die ersten gewonnenen Ergebnisse zusammengefasst.
Seit 1997 finden jährlich Weltmeisterschaften im Roboterfußball statt. Dabei wird in verschiedenen Ligen teils mit echten, teils mit simulierten Robotern Fußball gespielt. In der small size league spielen fünf gegen fünf Roboter auf einem 5x4,5 m großen Feld. Die Steuerung der Roboter wird von einem externen Rechner übernommen, der seine Information von einer über dem Feld angebrachten Kamera erhält. In der middle size league spielen vier gegen vier Roboter auf einem 8x12 m großen Feld. Hier müssen im Unterschied zur small size league die Roboter vollständig autonom sein, d.h., alle Sensoren und auch die Entscheidungslogik muss auf dem Roboter selbst untergebracht sein. Dasselbe gilt für die four legged robot league, bei der jeweils vier Sony Aibo Roboter gegeneinander antreten (Abbildung 1.11-1), sowie für die Königsklasse, der humanoid league, bei der jeweils drei zweibeinige Roboter gegeneinander spielen. Daneben existieren zwei Simulationsligen: die seit 1997 existierende 2D simulation league, bei der elf gegen elf gespielt wird und die seit 2005 im Programm befindliche 3D simulation league, bei der im Gegensatz zur 2D league tatsächlich existierende zweibeinige Nao-Roboter simuliert werden. In dieser Liga hat sich erstmals eine Mannschaft der Hochschule Offenburg für die Weltmeisterschaft 2009 qualifiziert. Neben Fußballrobotern gibt es auch Ligen für Hausroboter (RoboCup@Home) und Rettungsroboter (RoboCup Rescue). Inzwischen ist die RoboCup WM mit der zugehörigen Konferenz zum größten Robotik-Event weltweit avanciert.
Mit dem Übergang zu immer komplexeren Designs an der Hochschule Offenburg werden DFT-Strukturen wie „Boundary Scan“ und „Scan“ in ASIC-Designs notwendig. Die DFT-Struktur Scan wird hierbei zukünftig bei Implementierung eines speziellen Scan Chain der Core Logic des ASIC-Designs verwendet und danach in der Boundary Scan Architektur integriert.
Zunächst werden die Strukturen im recht einfachen ASIC-Design „Rolling Dice“, entwickelt am IAF der Hochschule Offenburg, implementiert. Nach Verifizierung der Funktionalität der Strukturen durch Emulation erfolgt die Einführung in komplexere ASIC-Design wie Front-End ASIC DQPSK sowie Prozessor-ASIC PDA V.2 (beide ebenfalls entwickelt am IAF der Hochschule Offenburg).
Eine Verifizierung der mit DFT-Strukturen ausgestatteten komplexeren ASIC-Design erfolgt im Rahmen dieser Ausarbeitung nicht, Bezug genommen wird hauptsächlich auf die Einführung der DFT-Strukturen in das ASIC-Design des „Rolling Dice“.
Ein Vergleich von Aufwand gegenüber Nutzen bei Implementierung von DFT-Strukturen in „kleine“ gegenüber „große“ ASIC-Design bildet ein wichtiges Fazit.
Das Buch führt in das umfangreiche Gebiet der digitalen Bildverarbeitung ein. Neben der Hardware wie u.a. Beleuchtung, Kamera und Frame Grabber werden auch Algorithmen und Methoden beschrieben, z.B. zur Rauschunterdrückung, Bildverbesserung, Kantenextraktion und Objekterkennung usw. Die oft anspruchsvollen mathematischen Sachverhalte werden anhand von Bildbeispielen erklärt.
Orthogonal Frequency Division Multiplexing (OFDM) ist ein modernes Mehrträgermodulationsverfahren, das sich gut an die besonderen Eigenschaften eines Mobilfunkkanals mit zeitvarianter Mehrwegeausbreitung anpassen kann. Es eignet sich aufgrund seines Aufbaus vor allem für Breitbandübertragungen und wird in vielen aktuellen Funksystemen wie LTE, WLAN, DVB-T usw. eingesetzt. In DSL wird die Basisbandvariante von OFDM eingesetzt, die „Discrete Multitone Transmission (DMT)“ genannt wird. Viele Aussagen über OFDM lassen sich auch auf DMT übertragen.
Moduliert wird mit Hilfe der inversen Fouriertransformation, die viele Unterträger parallel verarbeitet und am Schluss aufsummiert. Dies hat den Nachteil einer hohen Signalfluktuation, die bei Verstärkern zu Problemen führt.
Reale Verstärker haben eine nichtlineare Verstärkungskennlinie mit einer maximalen Ausgangsamplitude. Wird diese überschritten, wird das Signal abgeschnitten (geclippt). Dies hat sowohl vermehrte Bitfehler aufgrund des Orthogonalitätsverlustets der Unterträgersignale zueinander zur Folge, als auch eine erhöhte Außerbandabstrahlung.
Eine mögliche Lösung besteht darin, die Aussteuerung des Verstärkers klein zu halten. Daraus resultieren jedoch erhöhte Kosten und eine verringerte Energieeffizienz. Man ist daher bemüht die Signalfluktuation möglichst gering zu halten. Eine Maßzahl für die Amplitudenschwankungen ist das Peak-to-Average-Power-Ratio (PAPR).
Um das PAPR zu senken, gibt es eine ganze Reihe unterschiedlicher Verfahren. In dieser Arbeit werden die gängigsten davon vorgestellt und das Interleavingverfahren, die Tone Reservations (TR) und das Active Constellation Expanding (ACE) genauer untersucht.
Zur Erkennung bestimmter Fehler, wie zum Beispiel Ätzfehler, Oberflächen-Fremdkörper, Verschmutzungen, bei der Leiterplattenherstellung ist eine Echtfarben-Bildverarbeitung notwendig, über die hier ein Überblick gegeben wird. Zur Farbsegmentierungs sind verschiedene Methoden geeignet, die einmal im Rot-Grün-Blau-Raum oder im HSI-Raum (Hue, Saturation, Intensity - Färbung, Sättigung, Intensität) untersucht und verglichen werden. Clusterfindungsverfahren und Lookup-Tabelle bereiten Schwierigkeiten bei der Erfassung der Farbkanten, zum Beispiel der Kante zwischen dem Kupfer und dem Beschichtungsmaterial. Hier hilft ein geeigneter Algorithmus, der mit Vorsegmentierung arbeitet. Eine Verfeinerung ist mit Hilfe von Kantenfiltern möglich, zum Beispiel das Color-Sobel-Magnitude-Filter.
Das zweibändige Werk richtet sich an Studierende der Fachrichtungen Elektrotechnik, Maschinenbau, Mathematik und Physik an Fachhochschulen und Universitäten, die sich im Fach Mathematik auf Klausuren oder das Vordiplom vorbereiten wollen.
Im Unterschied zu anderen Mathematik-Lehrbüchern, die die Theorie ausführlich diskutieren, wird hier zu Beginn eines jeden Kapitels die Theorie knapp zusammengefaßt. Der Schwerpunkt liegt auf Aufgaben mit Prüfungsniveau und deren ausführlichen Lösungen. Zu Anfang der Kapitel werden grundlegende Definitionen und Sätze wiederholt und anhand einiger Beispiele erläutert. Anschließend folgen Aufgaben mit Musterlösungen. Wo es immer möglich ist, werden auch alternative Lösungsmöglichkeiten diskutiert.
Band 2 umfaßt die Themen:
- Funktionen mehrerer Veränderlicher
- Integralrechnung
- Gewöhnliche Differentialgleichungen
- Differentialgeometrie
- Die Laplace-Transformation
- Fourierreihe und Fouriertransformation
- Vektoranalysis.
Beide Bände zusammen bilden die ideale Grundlage zur Vorbereitung und zum Bestehen von Mathematik-Prüfungen im Studium.
Lange Erfahrungen der Autoren im Lehrfach Mathematik haben die Notwendigkeit gezeigt, den Studierenden eine praktische Möglichkeit der Prüfungsvorbereitung zu bieten. Die Betroffenen können sich durch die Beschäftigung mit qualifizierten mathematischen Aufgaben auf Klausuren und Prüfungen vorbereiten.
Im Unterschied zu Lehrbüchern, die mit theoretischen Grundlagen ausführlich diskutieren, werden diese in dem vorliegenden Werk zu Beginn eines jeden Kapitels kurz zusammengefaßt. Das Schwergewicht liegt hier auf den Aufgaben mit Prüfungsniveau und deren Lösungswegen, die ausführlich beschrieben werden. Grundlegende Definitionen und Sätze werden kurz wiederholt und anhand einiger Beispiele erläutert. Es folgen Aufgaben mit Musterlösungen. Wo es möglich ist, werden auch alternative Lösungswege diskutiert. So ist dieses Werk eine ideale Ergänzung zu mehr theoretisch ausgerichteten Lehrbüchern.
In letzter Zeit sind einige neue, hochintegrierte Einchip-Radarsensoren auf den Markt gekommen. Die enormen Fortschritte im Bereich des autonomen Fahrens hat diese Sensoren hervorgebracht. Mit ihnen lassen sich diverse Anwendungen, wie zum Beispiel eine Abstandsmessung, Kollisionserkennung oder Geschwindigkeitserfassung realisieren.
Für die Nutzung eines solchen modernen Radarsensors spricht viel, jedoch besitzen alle eine differenzielle Ausgangsschnittstelle, die nicht mit den üblichen Mikrocontrollersystemen eingelesen werden kann. Darum war das Ziel der Arbeit, die Entwicklung eines Schnittstellenwandlers auf einem Low-Power-FPGA, zur Anbindung eines Radarchips an einen klassischen Mikrocontroller.
Der Lösungsweg war demnach schon vorgegeben, es folgte die konkrete Umsetzung mit der Modellierung der Hardware in VHDL. Der FPGA liest die differenzielle Schnittstelle ein, parallelisiert die Daten und speichert sie zwischen. Sobald die Messdaten vollständig sind, können sie über die serielle SPI-Schnittstelle angefordert werden. Als Gegenstelle kommt ein Mikrocontroller zum Einsatz, der die Messdaten wiederum gemäß eines definierten Protokolls zur Auswertung an einen Computer weiterleitet.
Die Machbarkeit dieser Anwendung wurde kontrolliert, indem die Messdaten vom Radarchip, übermittelt durch den FPGA und Mikrocontroller, auf dem Computer mithilfe eines Analyseprogramms bewertet wurden. Die Auswertung der Messergebnisse entspricht in vollem Umfang den Erwartungen. Der Ressourcenverbrauch im FPGA wurde hierbei ebenfalls als kritisch betrachtet, was sich im Nachhinein jedoch nicht bestätigte. Es ist sogar das Gegenteil der Fall, mit den übrigen freien Ressourcen steht einer möglichen Signalverarbeitung nichts im Wege.
Die Erfindung betrifft eine elektronische Pille zur steuerbaren Abgabe einer Substanz, insbesondere eines Medikaments, in einem menschlichen oder tierischen Körper, mit einem Gehäuse (3), in welchem die abzugebende Substanz (17) aufgenommen und in welchem eine Abgabeöffnung (47) zur Abgabe der Substanz (17) vorgesehen ist, wobei die Substanz (17) zur Abgabe aus dem Gehäuse (3) mit einem vorbestimmten Druck beaufschlagbar ist, mit einer elektronischen Steuereinheit (53, 59, 61, 63) und mit einer im Verlauf eines Abgabepfades angeordneten Ventileinheit (33), welche von der Steuereinheit (53, 59, 61, 63) von einer Geöffnet-Stellung in eine Geschlossen-Stellung steuerbar ist. Erfindungsgemäß ist im Gehäuse (3) im Verlauf des Abgabepfades für die abzugebende Substanz (17) eine Drosselstrecke (45) vorgesehen.
Virtual-Reality-Darstellung elektromagnetischer Felder in dreidimensionalen Mikrowellenstrukturen
(2000)
Untersuchungen haben gezeigt, daß der Mensch ein Vielfaches an Informationen in Form von visuellen Eindrücken, im Gegensatz zur textuellen Darstellung, verarbeiten kann. Mit Hilfe des numerischen Feld-Simulationsprogramms F3D können Mikrowellenstrukturen auf die Wechselwirkung mit elektromagnetischen Feldern untersucht werden. Das Programm F3D2VRML stellt die Ergebnisse in einer dreidimensionalen Virtual-Reality-Darstellung (VR) dar.
Damit ist es dem Betrachter möglich, mehr Informationen aufzunehmen, da die Informationen mit Formen und Farben im dreidimensionalen Raum visualisiert werden.
An der Fachhochschule Offenburg wurde im Sept. 93 das Projekt eines implantierbaren 16 Bit Mikroprozessor-Kernels FHOP ins Leben gerufen. Ausgehend von dem in einem Testchip erfolgreich erprobten umstrukturierten Entwurf wurde durch gezielten Einsatz von strukturiertem Routen unter Nutzung der Fähigkeiten zum hierarchischen Arbeiten in der MENTOR-IC-Station eine erheblich verkleinerte und flächenmäßig optimierte Struktur abgeleitet, die sich mit 4 Quadratmilimetern Fläche durchaus mit kommerziellen Mikroprozessor-Kerneln vergleichen läßt.
Im Rahmen dieses Projekts wurde im Labor Telekommunikationstechnik der Hochschule Offenburg ein flexibel konfigurierbares Funknetz nach dem ZigBee-Standard aufgebaut. Mit Hilfe diverser Messgeräte und Analyse-Tools wurden die wesentlichen Performance Parameter dieses Funknetzes unter realen Betriebsbedingungen evaluiert. So wurden z.B. Erkenntnisse über die Empfängerempfindlichkeit, die effektiv erreichbare Datenrate sowie das Interferenzpotential gewonnen, die Voraussetzungen für die optimale Nutzung dieser neuen Funktechnologie sind.
Mehrantennensysteme (MIMO: MultipleInputMultipleOutput) sind seit einigen Jahren ein zentrales Forschungsthema in der Funkkommunikation. Die Analyse der Kanalkapazität solcher MIMOSysteme in [1] hat gezeigt, welches enorme Potenzial in dieser Technologie steckt. Dieses Potenzial kann auf verschiedene Arten genutzt werden. MIMOVerfahren können grundsätzlich in zwei Klassen eingeteilt werden. Die erste Klasse besteht aus Verfahren, die die Zuverlässigkeit der Übertragung über FadingKanäle verbessert. Dies wird entweder durch Verbesserung des jeweils wirksamen mittleren SNR (engl. SignaltoNoise power ratio) z. B. durch Beamforming oder durch Verminderung der Fluktuationen des SNR durch Diversitätstechniken erreicht. Die zweite Klasse bilden Verfahren, bei denen mehrere unabhängige Datenströme parallel über die verschiedenen Antennen durch räumliches Multiplexen (engl. Spatial Multiplexing) übertragen und so die Datenrate vervielfacht wird. Während bei den Diversitätstechniken und den Verfahren des Spatial Multiplexing die Übertragungseigenschaften zwischen den verschiedenen Sende- und Empfangsantennen durch z. B. ausgeprägte Mehrwegeausbreitung möglichst unkorreliert sein sollen, ist dies bei den Beamforming-Verfahren aber gerade nicht dienlich. Im Rahmen dieses Projekts wurde die Übertragungsqualität von Funksystemen mit MIMOArchitektur analysiert, die spezielle blockbasierte Codierungsverfahren verwenden, die nicht nur die zeitliche, sondern auch die räumliche Dimension zu der Informationsübertragung nutzen (SpaceTimeBlockCoding, STBC) und damit auf einen Diversitätsgewinn abzielen.
Im Rahmen dieses Projekts wurde im Labor Telekommunikationstechnik der Hochschule Offenburg die Übertragungsqualität von Mehrantennensystemen durch theoretische Analysen und Simulationen analysiert. Dabei zeigt sich bereits in der ersten Projektphase bei einfachen Mehrantennenkonfigurationen mit einer Sendeantenne und mehreren Empfangsantennen wie aufgrund von Antennendiversität bei verschiedenen Kombinationsstrategien der Empfangssignale sich die Übertragungsqualität bei Rayleigh Fading deutlich verbessert.
Cellular phone antennas are generally designed to have radiation patterns that are as omnidirectional as possible. Omnidirectional antennas allow a phone’s radio to work well for many orientations of the phone with respect to the cellular base station. Recent studies, however, are generating uncertainty about the health effects of prolonged exposure to electromagnetic (EM) radiation from cellular phones. In this paper, an antenna array is designed primarily to minimize users’ exposure to EM radiation. The antenna comprises a beamforming 4 by 3 array of microstrip patch antennas that is controlled by an accelerometer-only inertial navigation system. The proposed design reduces radiated power directed toward the user to below 10% of the total in the worst case.
Im Rahmen eines GPS-Projektes ist an der Fachhochschule Offenburg ein Konzept für einen experimentellen Navigationsempfänger entstanden. Hierfür wurde der digitale Teil entwickelt und aufgebaut. Für die Realisierung der Schaltung sollten benutzerprogrammierbare Gate Arrays von Xilinx (LCAs) verwendet werden, die sich schon bei einer anderen Arbeit an der Fachhochschule bewährt hatten.
Nachfolgend möchte ich dem Leser einen Überblick über das GPS-System und die Entwicklung der LCAs geben.
In sicherheitskritschen Systemen darf kein Stück Code im Produktionsbetrieb ablaufen, ohne vorher intensive Tests durchlaufen zu haben. Aber auch zur Qualitätssicherung muss Software getestet werden. Um die Codeüberdeckung zu prüfen, sind zusätzliche Prüf-Instruktionen im Quellcode erforderlich. Auf kleinen Systemen mit wenig RAM kann sich der Entwickler dann etwas einfallen lassen, damit das funktioniert.
Das Team "magmaOffenburg" nimmt seit 2009 an der 3D-Simulationsliga des RoboCups teil. Wie gut das Laufen auf zwei Beinen in der verwendeten Simulationsumgebung "SimSpark" funktioniert ist einer der zentralen Faktoren für ein erfolgreiches Abschneiden. Bisher wird für das Laufen ausschließlich eine inverskinematische Walk-Engine verwendet.
In dieser Arbeit wird mit genetischen Algorithmen und einer modellfreien Parametrisierung Laufen komplett "from scratch" gelernt. Derselbe Ansatz wurde zuvor bereits erfolgreich für das Lernen von Kicks eingesetzt. Gegenüber der alten Walk-Engine zeichnet diesen Ansatz besonders aus, dass zum ersten Mal die Zehengelenke genutzt werden, welche eines der verfügbaren Robotermodelle besitzt. Dies ermöglicht einen natürlicheren und schnelleren Gang. Zwar ist die Stabilität des gelernten Laufens noch nicht vergleichbar mit dem bisherigen (der Spieler fällt etwa 26% häufiger hin), aber beispielsweise beim Vorwärtslaufen konnten mit einer Geschwindigkeit von 1.3 m/s statt 1 m/s Steigerungen von 30% erzielt werden.
Darüber hinaus wurde untersucht, wie dem Agenten im Anschluss an das gelernte Laufen wieder ein Übergang zur alten Walk-Engine gelingen kann. Der erfolgreichste Ansatz basiert ebenfalls wieder auf einer mit genetischen Algorithmen trainierten Bewegung. Er ist in etwa der Hälfte der Fälle erfolgreich.
Diese Bachelorarbeit untersucht die Möglichkeiten der Persistierung und anschließenden Analyse verschiedener Messwerte in einer geeigneten Software-Architektur. Zunächst wird dazu die genaue Aufgabenstellung betrachtet. Im Anschluss soll die geplante Software-Architektur und die vorgesehene Kommunikationsart erklärt werden. Um das entwickelte Produkt einfach zur Verfügung stellen zu können, sollen die Tools Vagrant, Puppet und Docker gemeinsam genutzt werden. Nachdem im Anschluss auf die eingesetzte Servertechnologie eingegangen wurde, beschäftigt sich die Arbeit mit der Persistierung der Messdaten. Hierzu werden die verschiedenen Arten verfügbarer Datenbanktechnologien erläutert und darauf aufbauend eine Auswahl getroffen. Als letzten Teil der Anwendung wird auf die Demonstrationsapplikation eingegangen. Hier werden wieder die nötigen Anforderungen erörtert und die Umsetzung beschrieben.
Anhand der gewonnenen Erkenntnisse wird abschließend ein Fazit der verwendeten Technologien und der Architektur verfasst. Hier soll die Eignung der verwendeten Technologien zur Lösung des Problems überprüft und bewertet werden.
Abschließend wird noch ein Ausblick auf die zukünftige Entwicklung in diesem Bereich gegeben.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
Der Studienbeginn wird an der Hochschule Offenburg durch Vorbereitungskurse, sogenannte Brückenkurse, unterstützt. Wir stellen vorläufige Ergebnisse beim Einsatz von Smartphones und Tablets im Rahmen des Physik-Brückenkurses vor, bei dem die Studenten Hilfen zum selbständigen Üben durch eine App erhalten. Durch die Überarbeitung des Kurses und den Einsatz der App konnte der Teilnehmerschwund verringert werden. Die Evaluationsergebnisse bestätigen eine hohe Akzeptanz der Neuerungen seitens der Studierenden. Erste Auswertungen von Ein- und Ausgangstests deuten darauf hin, dass durch den Brückenkurs eine Angleichung der Vorkenntnisse der Studienanfänger erreicht wird, da Teilnehmer mit geringeren Vorkenntnissen tendenziell einen größeren Lernfortschritt erreichen. Durch unterschiedliche Schwierigkeitsstufen und selbstregulierte Übungsphasen in individuellem Tempo können aber auch die Erfordernisse der stärkeren Teilnehmer angemessen berücksichtigt werden.
Das Ziel der vorliegenden Bachelorarbeit war es, ein Anforderungsprofil für den Aufbau eines Messsystems im Hochspannungsnetz der DB Energie zu entwickeln. Dieses soll als Basis für den künftigen Aufbau des Systems dienen und die Besonderheiten des 110 kV, 16,7 Hz Netzes berücksichtigen. Die Ziele des Messsystems sind es, Aussagen über den Betriebszustand des Netzes mit resonanter Sternpunkterdung, hinsichtlich der Netzstabilität, der Erdschlusslöschfähigkeit und dem Erzeugerverhalten, treffen zu können.
Dazu wurden Experteninterviews durchgeführt, die die Anforderungen an das Messkonzept definieren. Darauf aufbauend wurden die geforderten Messungen und Auswertungen hinsichtlich der Umsetzbarkeit im Netz der DB Energie überprüft. Besonderes Augenmerk lag auf den verbauten Strom- und Spannungswandler im Netz, an denen die entsprechenden Messgrößen abgegriffen werden sollen. Deren Abbildungstreue, in Bezug auf die Genauigkeit des Messwerts und das Transferverhalten bei unterschiedlichen Frequenzen, wurde eingehender betrachtet.
Ebenfalls wurde die bei den Messungen aufkommenden Datenmengen näher betrachtet. Die Art der Messung und Auswertung der Daten sind hier ausschlaggebend, um die Daten klein zu halten. Die Empfehlung ist ein Kompromiss aus zwei gleichzeitig ablaufenden Auswertungen, um die anfallenden Datenmengen gut und schnell analysieren zu können.
Im ersten Teil der vorliegenden Master-Thesis geht es um die Entwicklung einer Low-Power Wireless-Lichtschranke. Der Hardware-Aufbau wird ausführlich beschrieben und Besonderheiten für die Low-Power-Auslegung, wie beispielsweise Power-Management, werden vorgestellt. Optische Einheiten, Power-Management-Einheiten, System-On-Chip und Funkstufe werden ausführlich angesprochen. Die interrupt-gesteuerte und zeitlich optimierte Programmierung wird im Anschluss an den Hardware-Aufbau vorgestellt. Auch hier werden Low-Power-Eigenschaften diskutiert. Die Anbindung der Lichtschranke an einen Hub im 868 MHz ISM Band (engl.: Industrial, Scientific and Medical Band) und die Datenübertragung mittels Bluetooth an einen Computer, sowie die Programmierung einer Anzeige-GUI zur Visualisierung der Funkdaten mit LabVIEW werden weiterführend behandelt. Ergänzend hierzu wird die entwickelte Hardware vermessen und charakterisiert. Die Messergebnisse werden ausgewertet und vorgestellt.
Im zweiten Teil der Master-Thesis geht es um die Entwicklung eines Schulungskonzepts. In der Sick AG halten sich alle Abteilungen (Divisions) beim Entwickeln eines Produktes an einen vorgegebenen Produktentstehungsprozess. Division 1 hat im Rahmen dieses Produktentstehungsprozesses eine Konkretisierung vorgenommen: den Masterplan. Für die Einführung des Masterplans wurde ein teilnehmerorientiertes Schulungskonzept entwickelt. Es wird zuerst auf die Inhalte eingegangen. Im Anschluss werden die Teilnehmer untersucht und Motive und Lernvoraussetzungen charakterisiert. Nachdem diese und weitere Rahmenbedingungen geklärt sind, wird ein didaktisch durchdachtes Schulungskonzept entwickelt, ausführlich vorgestellt und diskutiert.
Ziel dieser Bachelorarbeit war es, die Motoren einer parallelen Kinematik in Form eines Tripods anzusteuern, um den Endeffektor präzise an bestimmte Positionen zu bewegen. Dadurch wurde getestet, ob sich die Steuerung eines chirurgischen Instrumentes über eine parallele Kinematik prinzipiell für den Einsatz in der klinischen Umgebung eignen würde. Der Tripod umfasst drei Linearachsen, deren Längen und Winkel durch die Motoren geändert werden können. Alle drei Linearachsen sind über Kugelgelenke an den Endeffektor gekoppelt. Für die Ansteuerung der Motoren musste sowohl eine Elektronik, als auch eine Software entwickelt werden, die die Kommunikation zwischen den Motoren und einem Computer ermöglichen. Für die Entwicklung der Software wurde die objektorientierte Programmiersprache C++ genutzt. Durch das implementierte C++-Programm können beliebige Positionen an die Motoren gesendet werden, zu denen der Endeffektor daraufhin bewegt wird. Zudem ermöglicht das Programm die individuelle Echtzeit-Steuerung des Endeffektors über eine 3D-Maus mit sechs Freiheitsgraden. Für die Umrechnung der räumlichen Daten der 3D-Maus in die einzelnen Zielpositionen für die Motoren wurde eine Klasse, speziell für diesen Tripod, implementiert. Aufgrund dieser Klasse und der Optimierung von Geschwindigkeit und Beschleunigung der Motoren lässt sich der Endeffektor präzise und flüssig steuern. Die sensitive Steuerung eines chirurgischen Instrumentes wird dadurch ermöglicht, für den Einsatz in einer klinischen Umgebung ist der Tripod aufgrund der Größe und Handhabung jedoch nicht geeignet. Dafür wäre eine Miniaturisierung dieser parallelen Kinematik erforderlich.
Die hochfrequente, feldnumerische Analyse mit der Finite-Differenzen Methode erfordert die Diskretisierung der zu untersuchenden Struktur in einem nichtäquidistanten Gitter. Vorschriften zur Diskretisierung kreiszylindrischer Strukturen wie sie z.B. bei Durchkontaktierungen auftreten, werden untersucht und eine optimierte Lösung vorgestellt.
Data Mining of the Edge
(2016)
Kleine, intelligente Systeme prägen zunehmend unsere Umwelt, dass sogenannte Internet of Things wird immer mehr Teil unseres Alltages. Diese Geräte sind immer mehr dazu in der Lage Daten aufzunehmen und zu verarbeiten. Doch wie jede Technische Revolution, führt auch der Ausbau des IoT zu neuen Herausforderungen. Das Ziel dieser Arbeit ist die Bewertung der Qualität von verschiedenen Data Mining Frameworks im Edge Bereich, die Erstellung mehrere Demonstatoren eines Edge Szenario Aufbaus sowie deren Evaluation.
Die Mismatch Negativity (MMN) bezeichnet eine Komponente reizkorrelierter Potentiale. Die MMN ist ein negativer Potentialkomplex, der ungefähr 100 bis 300 ms nach Stimuluspräsentation auftritt, wenn ein neuer Stimulus im Vergleich zu zuvor präsen-tierten, gleichartigen Stimuli ausreichend bzgl. Frequenz, Dauer, Ort oder Intensität abweicht. Der MMN zu Grunde liegen Messungen der späten akustisch evozierten Po-tentiale (SAEP). Die von beiden Stimuli hervorgerufenen SAEP werden separat gemittelt. Bei ausreichender Differenz der Stimuli und geeigneter Stimulusabfolge ist eine Potentialdifferenz zwischen den beiden gemittelten Antworten ableitbar, die MMN.
In dieser Arbeit wurde die Ableitung der MMN mit dem Registriersystem Eclipse EP-25 der Firma Interacoustics in Bezug auf zwei Stimulustypen, Tone-Bursts und Sprach-laute, evaluiert.
Der stetige technische Fortschritt in der Strahlentherapie stellt eine erhöhte Herausforderung bei der Bestimmung von dosimetrischen Parametern dar, die besonders in kleinen Bestrahlungsfeldern einen hohen Grad an Unsicherheit aufweisen. Es wurden die Tiefendosiskurve sowie Dosisquerprofile unterschiedlicher Dosimeter in dosimeterabhängigen Ausrichtungen bei Photonenstrahlung von 6 MV gemessen. Parameter wie die relative Oberflächendosis, das Tiefendosismaximum, die relative Dosis in 5 und 10 cm Tiefe sowie die Penumbrabreite verschiedener Dosimeter wurden miteinander verglichen. Die Messungen erfolgten je Dosimeter bei 10, 6, 4, 3, 2, 1 und 0,6 cm Kantenlänge bei quadratischen Bestrahlungsfeldern.
Beim Dosisquerprofil der Semiflex Typ 31013 mit 0,3 cm³ Messvolumen ergeben die Messwerte nicht ausreichend genaue Ergebnisse. Unter denselben Messbedingun-gen mit der Dosimeter-Diode E ergibt die relative Dosis innerhalb des Strahlenfeldes ausreichend genaue Messwerte, die zur Auswertung bereitstehen. Die Penumbrabreite verringert sich mit geringerem Messvolumen sowie auch im kleineren Bestrahlungsfeld. Die relative Dosis in der Tiefe nimmt mit kleiner werdendem Bestrahlungsfeld und ebenso mit entsprechend kleinen Messvolumina ab. Die Überreaktion der PinPoint auf niederenergetische Photonen muss berücksichtigt werden, um ausreichend genaue Messergebnisse zu erhalten. Wird dieser Dosimeter radial bestrahlt, zeigen die Dosisquerprofile aufgrund des Kabeleffekts eine schlechtere Symmetrie der quadratischen Bestrahlungsfläche auf.
Die Wasserenergiedosis weist in kleinen Bestrahlungsfeldern deutliche Unterschiede bei den unterschiedlichen Dosimetern auf. Zwischen dem Dosimeter mit dem größten Messvolumen und dem mit dem kleinsten besteht ein Messwertunterschied von 0,5 Gy.
Hintergrund: Das elektrische interventrikuläre Delay (IVD) und die Lage der linksventrikulären (LV) Elektrode zum Ort der spätesten LV Erregung sind bei Patienten (P) mit Herzinsuffizienz (HF), reduzierter LV Funktion und breiter QRS Dauer (QRSD) von Bedeutung für den Erfolg der kardialen Resynchronisationstherapie (CRT). Die LV Elektrokardiographie ermöglicht eine Abschätzung des elektrischen IVD. Ziel der Studie besteht in der nicht-invasiven Evaluierung des elektrischen IVD bei Patienten (P) mit Vorhofflimmern (AFib) mit und ohne CRT mit biventrikulärer (BV) Stimulation.
Methoden: Bei 49 HF P mit AFib (Alter 63,9 ± 10,8 Jahre; 43 Männer und 6 Frauen) mit New York Heart Association (NYHA) Klasse 2,9 ± 0,4, LV Ejektionsfraktion 26,03 ± 7,99 % und QRS-Dauer (QRSD) 143,69 ± 35,62 ms wurde das elektrische IVD als Intervall zwischen Beginn des QRS-Komplexes im Oberflächen EKG und Beginn des LV Signals im transösophagealen LV EKG bei 31 HF P mit AFib und bei 18 HF P mit AFib und CRT präoperativ bestimmt. Das fokussierte bipolare LV EKG wurde mittels Osypka TO Sonde mit halbkugelförmigen Elektroden in Höhe des maximalen LV Signals registriert.
Ergebnisse: Bei 31 HF P mit AFib betrugen QRSD 135,48 ± 38,78 ms, IVD 49,55 ± 26,38 ms, QRSD-IVD-Verhältnis 3,12 ± 1,11 und das IVD korrelierte mit der QRSD (r=0,75, P<0,001) und dem QRSD-IVD-Verhältnis (r=-0,67, P<0,001) (Fig.). Bei 18 HF P mit AFib und CRT Defibrillator betrugen QRSD 157,83 ± 24,38 ms, IVD 61,94 ± 26,88 ms, QRSD-IVD-Verhältnis 3,12 ± 1,89 und das IVD korrelierte mit der QRSD (r=0,47, P=0,049) und dem QRSD-IVD-Verhältnis (r=-0,73, P<0,001). Bei 72,2 % CRT Responder (R) (n=13) betrugen QRSD 158,15 ± 22,4 ms, IVD 64,23 ± 24,62 ms, QRSD-IVD-Verhältnis 2,82 ± 1,32 und das IVD korrelierte mit der QRSD (r=0,57, P=0,043) und dem QRSD-IVD-Verhältnis (r=-0,76, P=0,0024). Bei 27,8 % CRT Non-Responder (NR) (n=5) betrugen QRSD 157 ± 31,94 ms, IVD 56 ± 34,52 ms, QRSD-IVD-Verhältnis 3,88 ± 2,98 und das IVD korrelierte nicht mit der QRSD (r=0,33, P=0,591) und dem QRSD-IVD-Verhältnis (r=-0,732, P=0,159). Die CRT R verbesserten sich in der NYHA Klasse von 3 ± 0,2 auf 2,2 ± 0,3 (P<0,001) während 15,3 ± 13,1 Monaten BV Stimulation. Bei 15 CRT NR kam es zu keiner Verbesserung der NYHA Klasse von 3 auf 3,3 ± 0,97 (P=0,529) während 18,8 ± 20,7 Monaten BV Stimulation.
Schlussfolgerungen: Das transösophageale LV EKG ermöglicht bei HF-P mit AFib die nichtinvasive Messung des elektrischen IVD präoperativ vor CRT. IVD und QRSD-IVD-Verhältnis sind möglicherweise einfach anwendbare Parameter zur Vorhersage von CRT R und CRT NR bei P mit AFib.
Das Ausmaß der elektrischen ventrikulären Desynchronisation bei reduzierter linksventrikulärer Funktion ist von Bedeutung für den Erfolg der Resynchronisationstherapie der Herzinsuffizienz mit biventrikulärer Stimulation. Das Ziel der Untersuchung besteht in der nichtinvasiven Messung der elektrischen inter-ventrikulären Desynchronisation mit und ohne ischämische Herzerkrankung bei kardialen Resynchronisationstherapie Respondern. Bei Patienten mit 25,3 ± 7,3 % reduzierter linksventrikulärer Ejektionsfraktion und 166,9 ± 38,5 ms QRS-Dauer wurde das transösophageale linksventrikuläre EKG abgeleitet. Die QRS-Dauer korrelierte mit dem interventrikulären und links-ventrikulären Delay bei Resynchronisationstherapie Respondern mit nicht-ischämischer Herzerkrankung.
Transösophageales interventrikuläres Delay bei Vorhofflimmern und kardialer Resynchronisation
(2013)
Die transösophageale linksventrikuläre Elektrokardiographie ermöglicht die Evaluierung der elektrischen ventrikulären Desynchronisation im Rahmen der kardialen Resynchronisationstherapie der Herzinsuffizienz. Das Ziel der Untersuchung besteht in der präoperativen Abschätzung des transösophagealen interventrikulären Delays bei Vorhofflimmern und kardialer Resynchronisationstherapie. Bei Patienten mit Vorhofflimmern, Herzinsuffizienz New York Heart Association Klasse 3,0 ± 0,2 und QRS-Dauer 159,6 ± 23,9 ms wurde das fokusierte transösophageale linksventrikuläre EKG abgeleitet. Die kardiale Resynchronisationstherapie Responder QRS-Dauer korrelierte mit dem transösophagealen interventrikulären Delay bei Vorhofflimmern.
Hintergrund: Richtung und Stärke des elektrischen Feldes (E-Feld) der biventrikulären (BV) Stimulation und elektrische interventrikuläre Desynchronisation sind bei Patienten mit Herzinsuffizienz und verbreitertem QRS Komplex von Bedeutung für den Erfolg der kardialen Resynchronisationstherapie (CRT). Das 3D Herzrhythmusmodell (HRM) ermöglicht die
Simulation von CRT und Hochfrequenz (HF) Ablation. Das Ziel der Studie besteht in der Integration von Schrittmacher- und Ablationselektroden in das HRM zur E-Feld Simulation der BV Stimulation und thermischen Feld (T-Feld) Simulation der HF Ablation von Vorhofflimmern (AF).
Methoden: Es wurden fünf multipolare linksventrikuläre (LV) Elektroden, eine epikardiale LV Elektrode, vier bipolare rechtsatriale (RA) Elektroden, zwei rechtsventrikuläre (RV) Elektroden und ein HF Ablationskatheter mit CST (Computer Simulation Technology, Darmstadt) modelliert und das HRM (Schalk et al: Clin Res Cardiol 106, Suppl 1, April 2017, P1812) um den Koronarvenensinus (CS) erweitert (HRM-CS). E-Feld Simulationen bei vorhofsynchroner BV Stimulation und bei RA Stimulation mit RV und LV Ableitung erfolgten mit den Elektroden Select Secure 3830, Capsure VDD-2 5038 und Attain OTW 4194 im HRM+CS (Fig.). F-Feld Simulationen der HF Ablation von AF bei CRT wurden mit integriertem Ablationskatheter AlCath G FullCircle (Biotronik) simuliert.
Ergebnisse: HRM-CS ermöglichte 3D E-Feld Simulationen bei vorhofsynchroner bipolarer BV Stimulation und bei bipolarer RA Stimulation mit bipolarer RV und LV Ableitung. RV und LV Stimulation erfolgten zeitgleich bei einer Amplitude von 3 V an der LV Elektrode und 1 V an der RV Elektrode mit einer Impulsbreite von jeweils 0,5 ms. Die von der BV Stimulationen erzeugten Fernpotentiale konnten von der RA Elektrode wahrgenommen werden. Das Fernpotential an der RA Elektrodenspitze betrug 32,86 mV und in 1 mm Abstand von der RA Elektrodenspitze ergab sich ein Fernpotential von 185,97 mV. HRM-CS ermöglichte 3D T-Feld Simulationen der HF Ablation von AF bei CRT. Das T-Feld bei HF Ablation des AV-Knotens wurde mit einer anliegenden Leistung von 5 W bei 420 kHz an der distalen 8 mm Ablationselektrode simuliert. Die Temperatur an der Katheterspitze betrug nach 5 s Ablationsdauer 88,66 °C, in 1 mm Abstand von der Katheterspitze im Myokard 42,17 °C und in 2 mm Abstand 37,49 °C.
Schlussfolgerungen: HRM-CS und Elektrodenmodelle ermöglichen die 3D Simulationen von E-Feldern bei vorhofsynchroner BV Stimulation, RA Stimulation mit RV und LV Wahrnehmung und von T-Feldern bei HF Ablation. E-Feld Simulationen von RA, RV und LV Stimulation und Sensing können möglicherweise zur Vorhersage von CRT Respondern genutzt werden.
Hintergrund: Das elektrische interventrikuläre Delay (IVD) ist bei Patienten (P) mit Herzinsuffizienz (HF), reduzierter linksventrikulärer (LV) Funktion und verbreitertem QRS Komplex von Bedeutung für den Erfolg der kardialen Resynchronisationstherapie (CRT). Die transösophageale LV Elektrokardiographie (EKG) ermöglicht die Bestimmung des elektrischen IVD und linksventrikulären Delays (LVD). Das Ziel der Studie besteht in der Untersuchung des transösophagealen elektrischen IVD, LVD und deren Verhältnis zur QRS Dauer bei rechtsventrikulärer (RV) Stimulation vor Aufrüstung auf eine biventrikuläre (BV) Stimulation.
Methoden: Bei 11 HF P (Alter 69,0 ± 7,9 Jahre; 10 Männer und 1 Frau) mit DDD Schrittmacher (n=10), DDD Defibrillator (n=1) und RV Stimulation, New York Heart Association (NYHA) Klasse 3,0 ± 0,2, LV Ejektionsfraktion 24,5 ± 4,9 % und QRS-Dauer 228,2 ± 44,8 ms wurden das elektrische IVD als Intervall zwischen Beginn des QRS-Komplexes im Oberflächen EKG und Beginn des LV Signals im transösophagealen LV EKG und das elektrische LVD als Intervall zwischen Beginn und Ende des LV Signals im transösophagealen LV EKG präoperativ vor Aufrüstung auf CRT Defibrillator (n=8) und CRT Schrittmacher (n=3) bestimmt. Der Anstieg des arteriellen Pulse Pressure (PP) wurde zwischen RV Stimulation und transösophagealer LV Stimulation mit unterschiedlichem AV-Delay (n=5) vor Aufrüstung von RV auf BV Stimulation getestet.
Ergebnisse: Bei RV Stimulation betrugen IVD 86,54 ± 32,80 ms, LVD 94,45 ± 23,80 ms, QRS-IVD-Verhältnis 2,63 ± 0,81 mit negativer Korrelation zwischen IVD und QRS-IVD-Verhältnis (r=-0,668 P=0,0248) (Fig.) und QRS-LVD-Verhältnis 2,33 ± 0,73. Vorhofsynchrone ventrikuläre Stimulation führte zu 63,6 ± 27,7 mmHg PP bei RV Stimulation und 80,6 ± 38,5 mmHg PP bei LV Stimulation und der PP erhöhte sich bei LV Stimulation mit optimalem AV Delay um 17 ± 11,2 mmHg gegenüber RV Stimulation (P<0,001). Nach Aufrüstung von RV Stimulation auf BV Stimulation verbesserten sich die NYHA Klasse von 3,1 ± 0,2 auf 2,2 ± 0,3 während 30,4 ± 29,6 Monaten CRT.
Schlussfolgerungen: Das transösophageale LV EKG ermöglicht die Bestimmung des elektrischen IVD und LVD bei RV Stimulation zur Evaluierung der interventrikulären und linksventrikulären elektrischen Desynchronisation. IVD, LVD und deren Verhältnis zur QRS Dauer können möglicherweise zur Vorhersage einer CRT Response vor Aufrüstung von RV auf BV Stimulation genutzt werden.
Die Erfindung betrifft eine Ösophaguselektrodensonde bzw. einen Ösophaguskatheter 10 zur Bioimpedanzmessung und/oder zur Neurostimulation, eine Vorrichtung 100 zur transösophagealen kardiologischen Behandlung und/oder kardiologischen Diagnose und ein Verfahren zum Steuern oder Regeln einer Ablationseinrichtung zum Durchführen einer Herzablation. Die Ösophaguselektrodensonde 10 umfasst eine Bioimpedanzmesseinrichtung zur Messung der Bioimpedanz von zumindest einem Teil des die Ösophaguselektrodensonde 10 umgebenden Gewebes. Die Bioimpedanzmesseinrichtung umfasst mindestens eine erste Elektrode 12A und mindestens eine zweite Elektrode 12B, wobei die mindestens eine erste Elektrode 12A auf einer dem Herzen zugewandten Seite 14 der Ösophaguselektrodensonde 10 angeordnet ist, und die mindestens eine zweite Elektrode 12B auf einer vom Herzen abgewandten Seite 16 der Ösophaguselektrodensonde 10 angeordnet ist.Die Vorrichtung 100 umfasst die Ösophaguselektrodensonde 10 und eine Steuer- und/oder Auswerteinrichtung 30. Die Steuer- und/oder Auswerteinrichtung 30 ist eingerichtet, ein erstes Bioimpedanzmesssignal von der mindestens einen ersten Elektrode 12A und ein zweites Bioimpedanzmesssignal von der mindestens einen zweiten Elektrode 12B zu empfangen und zu vergleichen, und ein Kontrollsignal auf Basis des Vergleichs zu generieren. Das Kontrollsignal kann ein Signal zum Steuern oder Regeln einer Ablationseinrichtung zum Durchführen einer Herzablation sein.
Die in dieser Arbeit vorgestellte Vorgehensweise erlaubt die Ortung von Schienenfahrzeugen in topologischen Karten allein mit Hilfe eines Wirbelstromsensorsystems (WSS). Zur Ortung primär erforderlich ist die Identifizierung des befahrenen Gleises selbst, wofür unterschiedliche in einer Karte gespeicherte Merkmale herangezogen werden sowie der zurückgelegte Weg, der durch Zählen der passierten Schwellen ermittelt wird. Diese Merkmale werden mittels eigens definierter, virtueller Sensoren aus dem Signal des WSS gewonnen und mittels einem Bayes’schen Formalismus mit den Referenzdaten aus der vorliegenden topologischen Karte abgeglichen. Diese auf virtuellen Sensoren basierende Vorgehensweise erlaubt eine Parallelisierung der Sensorsignalverarbeitung und eine flexible Einbindung von Sensoren in das Ortungssystem. Die Möglichkeit, Weichen mit einer Trefferquote von 99% zu detektieren, erlaubt die Verfolgung der Fahrzeugposition über die gesamte Fahrstrecke hinweg, unter alleiniger Verwendung der vom WSS gelieferten Messdaten.
Für die genaue Positionsbestimmung in Innenräumen, beispielsweise in Bahnhöfen oder Einkaufszentren, soll in dem beschriebenen Projekt untersucht werden, inwiefern lokale Magnetfelder genutzt werden können, um Genauigkeit und Robustheit zu erhöhen. Hierzu wird untersucht, ob und wie kostengünstige Magnetfeldsensoren und mobile Roboterplattformen genutzt werden können, um Karten zu erstellen, die eine spätere Navigation, beispielsweise mit Smartphones oder mit anderen mobilen Geräten.