Refine
Year of publication
- 2018 (69) (remove)
Document Type
- Conference Proceeding (35)
- Article (reviewed) (15)
- Article (unreviewed) (8)
- Letter to Editor (4)
- Book (2)
- Part of a Book (2)
- Doctoral Thesis (1)
- Other (1)
- Patent (1)
Conference Type
- Konferenzartikel (26)
- Konferenz-Abstract (6)
- Sonstiges (3)
Has Fulltext
- no (69) (remove)
Is part of the Bibliography
- yes (69) (remove)
Keywords
- RoboCup (3)
- 5G mobile communication (2)
- Access protocols (2)
- Decoding (2)
- Defibrillator (2)
- Multiuser detection (2)
- Payloads (2)
- Physical layer (2)
- access protocols (2)
- cardiac resynchronization therapy (2)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (69) (remove)
Open Access
- Closed Access (31)
- Open Access (31)
- Bronze (3)
- Closed (1)
In this paper, we present a frame synchronization method which consists of the non-orthogonal superposition of a synchronization sequence and the data. We derive the optimum detection criterion and compare it to the classical sequential concatenation of synchronization and data sequences. Computer simulations confirm the benefits of the non-orthogonal allocation for the case of short frames, which makes this technique particularly suited for the increasingly important regime of low latency and ultra- reliable communication.
Hintergrund: Richtung und Stärke des elektrischen Feldes (E-Feld) der biventrikulären (BV) Stimulation und elektrische interventrikuläre Desynchronisation sind bei Patienten mit Herzinsuffizienz und verbreitertem QRS Komplex von Bedeutung für den Erfolg der kardialen Resynchronisationstherapie (CRT). Das 3D Herzrhythmusmodell (HRM) ermöglicht die
Simulation von CRT und Hochfrequenz (HF) Ablation. Das Ziel der Studie besteht in der Integration von Schrittmacher- und Ablationselektroden in das HRM zur E-Feld Simulation der BV Stimulation und thermischen Feld (T-Feld) Simulation der HF Ablation von Vorhofflimmern (AF).
Methoden: Es wurden fünf multipolare linksventrikuläre (LV) Elektroden, eine epikardiale LV Elektrode, vier bipolare rechtsatriale (RA) Elektroden, zwei rechtsventrikuläre (RV) Elektroden und ein HF Ablationskatheter mit CST (Computer Simulation Technology, Darmstadt) modelliert und das HRM (Schalk et al: Clin Res Cardiol 106, Suppl 1, April 2017, P1812) um den Koronarvenensinus (CS) erweitert (HRM-CS). E-Feld Simulationen bei vorhofsynchroner BV Stimulation und bei RA Stimulation mit RV und LV Ableitung erfolgten mit den Elektroden Select Secure 3830, Capsure VDD-2 5038 und Attain OTW 4194 im HRM+CS (Fig.). F-Feld Simulationen der HF Ablation von AF bei CRT wurden mit integriertem Ablationskatheter AlCath G FullCircle (Biotronik) simuliert.
Ergebnisse: HRM-CS ermöglichte 3D E-Feld Simulationen bei vorhofsynchroner bipolarer BV Stimulation und bei bipolarer RA Stimulation mit bipolarer RV und LV Ableitung. RV und LV Stimulation erfolgten zeitgleich bei einer Amplitude von 3 V an der LV Elektrode und 1 V an der RV Elektrode mit einer Impulsbreite von jeweils 0,5 ms. Die von der BV Stimulationen erzeugten Fernpotentiale konnten von der RA Elektrode wahrgenommen werden. Das Fernpotential an der RA Elektrodenspitze betrug 32,86 mV und in 1 mm Abstand von der RA Elektrodenspitze ergab sich ein Fernpotential von 185,97 mV. HRM-CS ermöglichte 3D T-Feld Simulationen der HF Ablation von AF bei CRT. Das T-Feld bei HF Ablation des AV-Knotens wurde mit einer anliegenden Leistung von 5 W bei 420 kHz an der distalen 8 mm Ablationselektrode simuliert. Die Temperatur an der Katheterspitze betrug nach 5 s Ablationsdauer 88,66 °C, in 1 mm Abstand von der Katheterspitze im Myokard 42,17 °C und in 2 mm Abstand 37,49 °C.
Schlussfolgerungen: HRM-CS und Elektrodenmodelle ermöglichen die 3D Simulationen von E-Feldern bei vorhofsynchroner BV Stimulation, RA Stimulation mit RV und LV Wahrnehmung und von T-Feldern bei HF Ablation. E-Feld Simulationen von RA, RV und LV Stimulation und Sensing können möglicherweise zur Vorhersage von CRT Respondern genutzt werden.
This paper deals with the detection and segmentation of clouds on high-dynamic-range (HDR) images of the sky as well as the calculation of the position of the sun at any time of the year. In order to predict the movement of clouds and the radiation of the sun for a short period of time, the clouds thickness and position have to be known as precisely as possible. Consequently, the segmentation algorithm has to provide satisfactory results regardless of different weather, illumination and climatic conditions. The principle of the segmentation is based on the classification of each pixel as a cloud or as a sky. This classification is usually based on threshold methods, since these are relatively fast to implement and show a low computational burden. In order to predict if and when the sun will be covered by clouds, the position of the sun on the images has to be determined. For this purpose, the zenith and azimuth angles of the sun are determined and converted into XY coordinates.
Solar irradiance prediction is vital for the power management and the cost reduction when integrating solar energy. The study is towards a ground image based solar irradiance prediction which is highly dependent on the cloud coverage. The sky images are collected by using ground based sky imager (fisheye lens). In this work, different algorithms for cloud detection being a preparation step for their segmentation are compared.
The fisheye camera has been widely studied in the field of ground based sky imagery and robot vision since it can capture a wide view of the scene at one time. However, serious image distortion is a major drawback hindering its wider use. To remedy this, this paperproposes a lens calibration and distortion correction method for detecting clouds and forecasting solar radiation. Finally, the radial distortion of the fisheye image can be corrected by incorporating the estimated calibration parameters. Experimental results validate the effectiveness of the proposed method.
Die Hersteller von Cochlea-Implantat (CI)-Systemen sehen für klinische Audiologen die Möglichkeit vor, die Mikrofonleistung der meisten aktuellen CI-Sprachprozessoren mittels anschließbarer Monitorkopfhörer zu prüfen. Nähere Angaben dazu, nach welchem Prozedere diese Prüfung stattfinden soll, z. B. welche Stimuli mit welchen Pegeln verwendet werden sollen, sind nach Wissen der Autoren seitens der CI-Hersteller nicht verfügbar. Auf der Basis dieser subjektiven Prüfung entscheidet dann der Audiologe, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht. Wir haben eine Messbox entwickelt, mit der die Mikrofonleistung aller abhörbaren CI-Sprachprozessoren der Hersteller Advanced Bionics, Cochlear und MED-EL objektiv geprüft werden kann. Die Box wurde im 3-D-Druckverfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen verbauten Lautsprecher mit definierten Prüfsignalen (Sinustönen unterschiedlicher Frequenz) beschallt. Das Signal des Mikronfons bzw. der Mikrofone wird über das in der Audio-/Abhörbuchse des Prozessors eingesteckte Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die A/D-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten D/AWandler die Ausgabe der Prüfsignale über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgt jeweils mit einer Samplingrate von 38,5 kHz. Der frequenzspezifische Effektivwert des abgegriffenen Mikrofonsignals wird mit einem Referenzwert verglichen. Die (frequenzspezifischen) Referenzwerte wurden mit einem neuwertigen Sprachprozessor gleichen Typs ermittelt und im Speicher des Mikrokontrollers abgelegt. Das Ergebnis wird nach Abschluss der Messung grafisch auf einem Touchscreen ausgegeben. Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. Längerfristiges Ziel ist es, die hit und false alarm Raten der subjektiven Prüfung zu ermitteln.
Cardiac resynchronization therapy (CRT) with hemodynamic optimized biventricular pacing is an established therapy for heart failure patients with sinus rhythm, reduced left ventricular ejection fraction and wide QRS complex. The aim of the study was to evaluate electrical right and left cardiac atrioventricular delay and left atrial delay in CRT responder and non-responder with sinus rhythm.
Methods: Heart failure patients with New York Heart Association class 3.0 ± 0.3, sinus rhythm and 27.7 ± 6.1% left ventricular ejection fraction were measured by surface ECG and transesophageal bipolar left atrial and left ventricular ECG before implantation of CRT devices. Electrical right cardiac atrioventricular delay was measured between onset of P wave and onset of QRS complex in the surface ECG, left cardiac atrioventricular delay between onset of left atrial signal and onset of left ventricular signal in the transesophageal ECG and left atrial delay between onset and offset of left atrial signal in the transesophageal ECG.
Results: Electrical atrioventricular and left atrial delay were 196.9 ± 38.7 ms right and 194.5 ± 44.9 ms left cardiac atrioventricular delay, and 47.7 ± 13.9 ms left atrial delay. There were positive correlation between right and left cardiac atrioventricular delay (r = 0.803 P < 0.001) and negative correlation between left atrial delay and left ventricular ejection fraction (r = −0.694 P = 0.026) with 67% CRT responder.
Conclusions: Transesophageal electrical left cardiac atrioventricular delay and left atrial delay may be useful preoperative atrial desynchronization parameters to improve CRT optimization.
Targeting complex fractionated atrial electrocardiograms by automated algorithms during ablation of persistent atrial fibrillation has produced conflicting outcomes in previous electrophysiological studies and catheter ablation of atrial fibrillation and ventricular tachycardia. The aim of the investigation was to evaluate atrial and ventricular high frequency fractionated electrical signals with signal averaging technique.
Methods: Signal averaging electrocardigraphy allows high resolution ECG technique to eliminate interference noise signals in the recorded ECG. The algorithm use automatic ECG trigger function for signal averaged transthoracic, transesophageal and intra-cardiac ECG signals with novel LabVIEW software.
Results: The analysis in the time domain evaluated fractionated atrial signals at the end of the signal averaged P-wave and fractionated ventricular signals at the end of the QRS complex. We evaluated atrial flutter in the time domain with two-to-one atrioventricular conduction, 212.0 ± 4.1 ms atrial cycle length, 426.0 ± 8.2 ms ventricular cycle length, 58.2 ± 1.8 ms P-wave duration, 119.6 ± 6.4 ms PQ duration, 103.0 ± 2.4 ms QRS duration and 296.4 ± 6.8 ms QT duration. The analysis in the frequency domain evaluated high frequency fractionated atrial signals during the P-wave and high frequency fractionated ventricular signals during QRS complex.
Conclusions: Spectral analysis of signal averaging electrocardiography with novel LabVIEW software can be utilized to evaluate atrial and ventricular conduction delays in patients with atrial fibrillation and ventricular tachycardia. Complex fractionated atrial and ventricular electrocardiograms may be useful parameters to evaluate electrical cardiac bradycardia and tachycardia signals in atrial fibrillation and ventricular tachycardia ablation.
In einer Vorlesung nicht abgehängt zu werden und die vielen Ergebnisse strukturiert zu sichern, ist für Studienanfänger eine große Herausforderung. Mitschriebe sind sehr oft unvollständig, unstrukturiert oder „zerfläddert“. Mitschreib-Marathon und Mitdenken schließen sich bei vielen aus. Auch aktivierende Lehrmethoden, Medienwechsel, Lehrvideos führen oft dazu, dass eine strukturierte Sicherung der Inhalte des Lehrgesprächs noch erschwert wird.
Es wird ein Best Practice Beispiel gezeigt, Mathematik-Vorlesungen über ein Tablet-basiertes Mitmach-Skript zu gestalten. Dieses dient als Schrittmacher zwischen Input- und Verarbeitungsphasen und unterstützt die strukturierte Verschriftlichung, indem es Vorteile von Tafel, PPT und klassischem Skript vereint. Traditionelle Methoden werden mit technologischen Möglichkeiten kombiniert, um die angesprochenen Herausforderungen bewusster im Lehrstil zu berücksichtigen. Verbindungen zu Virtual Classroom und Video-gestützter Lehre werden aufgezeigt.
This paper describes the use of the single-linkage hierarchical clustering method in outlier detection for manufactured metal work pieces. The main goal of the study is to group defects that occur 5 mm into a work piece from the edge, i.e., the border of the metal work piece. The goal is to remove defects outside the area of interest as outliers. According to the assumptions made for the performance criteria, the single-linkage method has achieved better results compared to other agglomeration methods.
In public transportation, the motor pool often consists of various different vehicles bought over a duration of many years. Sometimes, they even differ within one batch bought at the same time. This poses a considerable challenge in the storage and allocation of spare parts, especially in the event of damage to a vehicle. Correctly assigning these parts before the vehicle reaches the workshop could significantly reduce both the downtime and, therefore, the actual costs for companies. In order to achieve this, the current software uses a simple probability calculation. To improve the performance, the data of specific companies was analysed, preprocessed and used with several modelling techniques to classify and, therefore, predict the spare parts to be used in the event of a faulty vehicle. We summarize our experience running through the steps of the Cross Industry Standard Process for Data Mining and compare the performance to the previously used probability. Gradient Boosting Trees turned out to be the best modeling technique for this special case.
Data Science gilt als eine der wichtigsten Entwicklungen der letzten
Jahre und viele Unternehmen sehen in Data Science die Möglichkeit,
ihre Daten zusätzlich wertschöpfend zu nutzen. Dabei kann es sich um
die Optimierung von Maintenance-Prozessen handeln, um eine bessere
Steuerung der eigenen Preis- und Lagerhaltungsstrategie oder auch
um völlig neue Services und Produkte, die durch Data Science möglich
werden. Die im Unternehmen vorliegenden Daten, an die so hohe Erwartungen
geknüpft wurden, sollen dazu genutzt werden, um Services
und Prozesse effizienter und passgenauer gestalten zu können. Vielfach
gilt Data Science dabei als Allheilmittel: Daten, die über Jahre hinweg
gesammelt wurden und mit zunehmender Geschwindigkeit und Heterogenität
anfallen, sollen endlich nutzbar gemacht werden. Zwar sind die
eingesetzten Techniken und Algorithmen teilweise schon zehn Jahre und
mehr alt, doch erst jetzt entfalten sie im Zusammenspiel mit Big Data
ihr Potenzial im Unternehmensumfeld. Die Erwartungen sind hoch, doch
der Weg zu den neuen Erkenntnissen ist mit hohem Aufwand verbunden
und wird von einigen Unternehmen noch immer unterschätzt.
Für Unternehmen mit einem traditionellen BI-Ansatz stellt Data Science
ein ergänzendes Set von Methoden und Werkzeugen dar, mit deren Hilfe
die Informationsversorgung der Entscheider auf den verschiedenen
hierarchischen Ebenen noch besser gestaltet werden kann. So zum Beispiel,
wenn man mit Data Science feststellt, dass die Wahrscheinlichkeit
für einen Versicherungsabschluss steigt, wenn bei der Auswahl der
anzusprechenden Kunden zusätzliche Daten herangezogen werden, die
zwar bereits vorliegen, aber noch nicht berücksichtigt worden sind. Im
Extremfall werden auch Entscheidungen vollständig automatisiert, die
bisher von Mitarbeiterinnen und Mitarbeitern getroffen wurden. Ein Algorithmus
legt dann fest, wann Ware nachbestellt oder welcher Preis für
den Endkunden festgesetzt wird.
Im vorliegenden E-Book soll ein Überblick über das Gebiet Data Science
gegeben werden. Dabei wird ein besonderes Augenmerk auf das Zusammenspiel
sowie das Mit- und Nebeneinander von Data Science und vorhandenen
BI-Systemen gelegt.