Refine
Year of publication
- 2014 (23)
- 2018 (21)
- 2016 (18)
- 2017 (18)
- 2013 (17)
- 2019 (16)
- 2012 (14)
- 2015 (13)
- 2010 (12)
- 2009 (11)
- 2021 (10)
- 2023 (10)
- 2004 (9)
- 2011 (9)
- 2022 (9)
- 2005 (8)
- 2006 (8)
- 2008 (8)
- 1995 (7)
- 2007 (7)
- 2020 (7)
- 1993 (6)
- 2001 (6)
- 1990 (5)
- 1991 (5)
- 1997 (5)
- 1998 (5)
- 2003 (5)
- 1992 (4)
- 1994 (4)
- 1996 (4)
- 2002 (4)
- 1999 (3)
- 2000 (3)
- 1989 (2)
- 1988 (1)
Document Type
- Conference Proceeding (317) (remove)
Conference Type
- Konferenzartikel (215)
- Konferenzband (65)
- Konferenz-Abstract (22)
- Konferenz-Poster (10)
- Sonstiges (7)
Language
- German (317) (remove)
Keywords
- Mikroelektronik (62)
- Finite-Elemente-Methode (5)
- Konstruktion (5)
- E-Learning (4)
- Kerbe (4)
- Kühldecke (4)
- Produktentwicklung (4)
- Raumklima (4)
- Hochschuldidaktik (3)
- Klimatechnik (3)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (148)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (90)
- Fakultät Wirtschaft (W) (33)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (21)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (19)
- INES - Institut für nachhaltige Energiesysteme (8)
- Zentrale Einrichtungen (6)
- WLRI - Work-Life Robotics Institute (5)
- CRT - Campus Research & Transfer (3)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (3)
Open Access
- Open Access (198)
- Bronze (109)
- Closed Access (79)
- Closed (38)
- Diamond (3)
- Grün (2)
Industrie 4.0 bedeutet nicht nur einen Wandel der technischen Möglichkeiten und Arbeitsbedingungen, sondern auch einen Bedarf an neuen, sich kontinuierlich weiterentwickelnden Kompetenzen und die Bereitschaft der Beschäftigten, Veränderungen mitzugestalten. Spielerische Ansätze der Kompetenzentwicklung können v.a. bei weiterbildungsfernen Mitarbeitern hilfreich sein, um das komplexe Thema verständlich zu vermitteln. Der Beitrag beschreibt ein Seminarkonzept mit integriertem Brettspiel, mit dem Teilnehmer anhand eines fiktiven Unternehmens (Müller GmbH) die Transformation eines Unternehmens in die Industrie 4.0 spielerisch nachvollziehen. Dieses Konzept erweist sich in einer ersten Evaluation als durchaus vielversprechend.
Den Hauptbestandteil des Operationssystems stellt der Zugriff auf SD-Karten mit dem Dateisystem FAT16 von Microsoft dar. Für die Bedienung wurde ein Kommandozeileninterpreter implementiert. Als Ein- und Ausgabegerät dient ein PC mit einem speziellen Terminalprogramm, welcher über USB mit dem Emulationsboard des SIRIUS Softcores verbunden ist. Das System wird über die Eingabe von Befehlen am Terminal gesteuert.
Der SIRIUS Softcore kann nur vom Flash des Emulationsboards booten. Da das Betriebssystem selbst jedoch auf der SD-Karte gespeichert werden soll, ist ein Basis-Betriebssystem erforderlich, welches im Flash abgelegt ist. Das Basis-Betriebssystem lädt gleich nach dem Start das eigentliche Betriebssystem von der SD-Karte. Falls jedoch keine SD-Karte gesteckt ist, ermöglicht das Basis-Betriebssystem mit einem Kommandozeileninterpreter einige Grundfunktionen.
Der Cache-Speicher für den Softprozessor SIRIUS ist ein 4-fach assoziativer Cache-Speicher, der mit einem DDR-Interface auf einen externen Speicher zugreifen kann. Er verwaltet und beschleunigt Zugriffe vom Prozessor auf diesen Speicher. Der Cache-Speicher arbeitet intern mit 32 Bit und der doppelten Prozessortaktfrequenz und ermöglicht Systeme mit größeren Speicheranforderungen ohne signifikante Performanceverluste. Der Cache-Speicher wurde mit der Hardwarebeschreibungssprache VHDL erstellt und mit dem bestehenden Mikrocontrollersystem verbunden.
Das Gesamtsystem wurde zunächst simuliert und anschließend mit dem Cyclone III FPGA Starter Kit von Altera, welches ein 32 MB DDR-RAM-Modul zur Verfügung stellt, durch Ausführen eines Testprogramms erfolgreich verifiziert. Für den kompletten Cache-Speicher werden inklusive der Pins für den externen Oszillator und des Reset-Tasters 3805 Logik-Zellen, 27 M9K-Blöcke, 44 Pins und eine PLL benötigt.
Die drei großen Hersteller von Cochlea-Implantat (CI)-Systemen ermöglichen es klinischen Audiologen, die Mikrofoneigenschaften der meisten CI-Sprachprozessoren zu prüfen. Dazu können bei diesen Sprachprozessoren Monitorkopfhörer angeschlossen und das/die Mikrofon(e) inklusive eines Teils der Signalvorverarbeitung abgehört werden. Präzise Angaben dazu, mit welchen Stimuli, bei welchem Pegel und nach welchem Kriterium diese Prüfung stattfinden soll, machen die CI-Hersteller nicht. Auf Basis dieser Prüfung soll der Audiologe dann über die Funktion der Mikrofone und damit darüber entscheiden, ob der betreffende Sprachprozessor an den Hersteller eingeschickt wird oder nicht.
Zur Objektivierung der CI-Sprachprozessor-Mikrofon-Prüfung haben wir eine Testbox entwickelt, mit der alle abhörbaren aktuellen CI-Sprachprozessoren der drei großen Hersteller geprüft werden können. Die Box wurde im 3D-Druck-Verfahren hergestellt. Der zu prüfende Sprachprozessor wird in die Messbox eingehängt und über einen darin verbauten Lautsprecher mit definierten Prüfsignalen (Sinustöne unterschiedlicher Frequenz) beschallt. Das Mikrofonsignal wird über das Kabel der Monitorkopfhörer herausgeführt und mit einer Shifting- and Scaling-Schaltung in einen Spannungsbereich transformiert, der für die AD-Wandlung mit einem Mikrokontroller (ATmega1280 verbaut auf einem Arduino Mega) geeignet ist. Derselbe Mikrokontroller übernimmt über einen eigens gebauten DA-Wandler die Ausgabe der Sinustöne über den Lautsprecher. Signalaufnahme und –wiedergabe erfolgen mit jeweils 38,5 kHz Samplingrate. Der für jede Frequenz über mehrere Perioden des Prüfsignals ermittelte Effektivwert wird mit dem Effektivwert, der mit einem neuwertigen Referenzprozessor für diese Frequenz gemessen wurde, verglichen. Die Messergebnisse werden graphisch auf einem Display ausgegeben.
Derzeit läuft eine erste Datenerhebung mit in der Klinik subjektiv auffällig gewordenen CI-Sprachprozessoren, die anschließend in der Messbox untersucht werden. So sollen realistische Schwellen für kritische Abweichungen von den Referenz-Effektivwerten ermittelt werden. Im weiteren Verlauf sollen dann Hit und False Alarm-Raten der subjektiven Prüfung bestimmt werden.
Zeitliche Anpassung führt zu verbesserter Schalllokalisation bei bimodal versorgten CI-/HG-Trägern
(2021)
Bei bimodal versorgten Cochlea-Implantaten (CI) / Hörgerät (HG)-Trägern entsteht durch die unterschiedliche Signalverarbeitung der Geräte eine konstante interaurale Zeitverzögerung in der Größenordnung von mehreren Millisekunden. Für MED-EL CI-Systeme in Kombination mit verschiedenen HG-Typen haben wir den jeweiligen Device-Delay-Mismatch quantifiziert. In der aktuellen Studie untersuchen wir den Einfluss der Device-Delay-Mismatch bei simulierten und tatsächlichen bimodalen Hörern auf die Genauigkeit der Schalllokalisation.
Um den Device-Delay-Mismatch bei bimodal versorgten Patienten zu verringern, haben wir die CI-Stimulation um die gemessene HG-Signallaufzeit und zwei weitere Werte verzögert. Nach einer Angewöhnungsphase war der effektive Winkelfehler bei Verzögerung um die HG-Signallaufzeit hochsignifikant reduziert im Vergleich zu der Testkondition ohne CI-Verzögerung (mittlere Verbesserung: 11 % ; p < .01, Wilcoxon Signed Rank Test). Aber auch mit den beiden weiteren Verzögerungswerten wurden Verbesserungen erreicht. Anhand der Ergebnisse lässt sich der optimale patientenspezifische Verzögerungswert näher eingrenzen.
Das normalhörende auditorische System ist in der Lage, interaurale Zeit- bzw. Phasendifferenzen zur verbesserten Signaldetektion im Störgeräusch zu nutzen. Dieses Phänomen wird häufig als binaurale Entmaskierung bezeichnet und ist sowohl bei einfachen Signalen wie Sinustönen, als auch bei Sprachsignalen im Störgeräusch wirksam. Vorangegangene Studien haben gezeigt, dass binaurale Entmaskierung eingeschränkt auch bei bilateralen CI-Trägern beobachtbar ist (Zirn et al., 2016).
Aktuelle Ergebnisse zeigen, dass die binaurale Entmaskierung sensitiv gegenüber der bilateralen CI-Anpassung ist. So lässt sich der Effekt durch tonotopen Abgleich und Herausstellen eines apikalen Feinstrukturkanals modulieren. Steigerungen der binauralen Entmaskierung um bis zu 1,5 dB sind auf diese Weise gegenüber der konventionellen CI-Anpassung möglich. Allerdings variiert der Einfluss der CI-Anpassung interindividuell erheblich.
Für die Implementation in ASIC's wurde ein kompakter Mikroprozessor-Kernel als Standardzellen-Makro entworfen. Durch konsequenten Einsatz von Hochsprachen und CAE-Werkzeugen (VHDL, Synthese) konnte ein vollständiges Design in nur vier Monaten durchgeführt werden. Der Prozessor wird in einem Testchip erprobt.
Vorgestellt wird ein Konzept zur biologischen Methanisierung von Wasserstoff direkt in Biogasreaktoren, mit dem durch Membranbegasung der Methangehalt des Biogases auf > 96 % erhöht werden kann. Essentiell zum Erreichen solch hoher Methanwerte sind die Einhaltung eines optimalen pH-Bereichs und die Vermeidung von H2-Akkumulation. Im Falle einer Limitierung der Methanbildungsrate durch den eigentlichen anaeroben Abbauprozess der Biomasse ist auch eine externe Zufuhr von CO2 zur weiteren Methanbildung denkbar. Das Verfahren soll weiter optimiert und in einem von der Deutschen Bundesstiftung Umwelt geförderten Projekt in der Biogasanlage einer regionalen Käserei in der Praxis getestet werden. Die hier angestrebte Kombination aus dezentraler Abfallverwertung und Eigenenergieerzeugung eines lebensmittelverarbeitenden Betriebs unter Einbindung in ein intelligentes Erneuerbare Energien - Konzept soll einen zusätzlichen Mehrwert liefern.
Durch eine stetige Preissteigerung der fossilen Energieträger werden auch im Bereich der mobilen Arbeitsmaschinen neben einer hohen Zuverlässig u.a. Forderungen nach steigenden Gesamtwirkungsgraden, mit der hierdurch einhergehenden Energieeffizienz, forciert. Auch bei mobilen Arbeitsmaschinen ist der häufig eingeschränkt zur Verfügung stehende Bauraum für Traktionsantriebe eine Herausforderung. Ziel dieser Veröffentlichung ist ein allgemeingültiger Vergleich verschiedener elektrischer Antriebsarten als Traktionsantrieb für mobile Arbeitsmaschinen.
Having 22 GW of nominal power installed Germany is the leading nation in wind energy conversion. While the number of suitable installation sites ashore is limited, and the average windspeed and thus the utilization level offshore is significantly higher, more and more offshore wind farms are planned. In order to reduce the cost of building the foundations and of connecting the wind turbines to the power grid, the single plant is designed as powerful as possible and therefore the components become huge and weighty. For instance: In order to lift the nacelle with around 500 tons of weight up on the tower - which can be up to 120 m above the water level - at the time special ships and cranes are designed and built. But those firstly will be very expensive and secondly will be available only on a limited scale. Hence the installation cost of those huge wind turbines significantly influence the rentability of a wind farm. Against this background a joint research project supported by the German Federal Ministry for the Environment, Nature Conservation and Nuclear Safety (BMU) was started comprising the project partners Ed. Züblin AG, Berg-idl GmbH (an engineering company and a maker of special purpose machines in Altlußheim, Germany), the IPEK (institute for product development) at the university of Karlsruhe and the Hochschule Offenburg, university of applied science. Project target is the conceptual design of a heavy-duty elevator, which can be used to install the tower segments and the nacelle of a wind turbine offshore without a crane. The most relevant challenges in this context result of holding up extreme loads by means of comparatively filigree carrying structures. The paper shows some examples of structural analysis and optimization work accomplished during the project. For the structural analysis of the heavy loaded components ANSYS workbench was used. The development process was also supported by optimization tools like TOSCA and OPTIMUS. The linking of the FE solver and the optimizer provides important hints concerning improvement of the topology and the dimensions of the components. Examples of designs illustrate the development process and the methods applied.
Mathematik lässt sich in vielen Objekten finden. Sei es die lineare Steigung eines Handlaufs zum Schulgebäude oder die nahezu zylindrische Form einer Litfaßsäule in der Innenstadt. Das Bestreben, Schüler*innen diese Zusammenhänge entdecken zu lassen, steht im Zentrum des MathCityMap Projekts (Ludwig et al., 2013). Auf sogenannten mathematischen Wanderpfaden (bzw. Mathtrails) werden Schüler*innen durch eine App zu Mathematikaufgaben an realen Objekten bzw. in realen Situationen ihrer Umwelt geleitet. Um die Aufgaben zu lösen, werden Daten erhoben, z. B. durch Messungen oder Zählen. Entscheidend ist, dass die Aufgaben so gestellt sind, dass der Schritt der Datenbeschaffung nur vor Ort stattfinden kann und somit direkt mit dem Objekt bzw. der Situation verknüpft wird.
The identification and quantification of compounds in the gas phase becomes of increasing interest in the context of environmental protection, as well as in the analytical field. In this respect, the high extinction coefficients of vapours and gases in the ultraviolet wavelength region allow a very sensitive measurement system. In addition, the increased performance of the components necessary for setting up a measurement system, such as fibres, light sources and detectors has been improved. In particular the light sources and detectors offer improved stability, and the deep UV performance and solarisation resistance of fused silica fibres allow have been significantly optimized in the past years. Therefore a compact and reliable detection system with high measuring accuracy is developed. Within this paper possible applications of the system under development and recent results will be discussed.
Die angestrebten Klimaschutzziele erfordern, dass Erneuerbare Energien längerfristig zur Hauptenergiequelle der Energieversorgung werden. Um dieses ehrgeizige Ziel zu erreichen, ist es angebracht konventionelle und erneuerbare Energie oder noch besser nachhaltige Einzelprozesse intelligent miteinander zu verknüpfen.
Das Projekt EBIPREP wird von einer interdisziplinären Forschergruppe bestehend aus Chemikern, Prozessingenieuren und Bioprozessingenieuren sowie Physikern, die auf Sensoren und Prozesssteuerung spezialisiert sind durchgeführt. Das Ziel ist es, neue Lösungen für die Nutzungswege von Holzhackschnitzeln und den bei der mechanischen Trocknung anfallenden Holzpresssaft zu entwickeln. Neben der Hackschnitzelvergasung und der katalytischen Reinigung des Holzgases steht die Nutzung des Holzpresssafts in Biogasanlagen und bei der biotechnologischen Wertstofferzeugung, z.B. bei der Enzymherstellung, im Vordergrund.
Was wir tun?
Das EBIPREP-Projekt wird von einer interdisziplinären Forschungsgruppe durchgeführt, die sich aus Chemikern, Prozessingenieuren, Bioprozessingenieuren und Physikern zusammensetzt. Ziel ist es, neue Lösungen für den Einsatz von Hackschnitzeln und Holzpresssaft zu entwickeln, die durch ein innovatives mechanisches Trocknungsverfahren gewonnen werden. Neben der Holzvergasung und katalytischen Reinigung des Holzgases ist der Einsatz von Holzpresssaft in Biogasanlagen und in biotechnologischen Produktionsprozessen von Wertstoffen vorgesehen. Holzhackschnitzel werden thermisch vergast. Es werden Online-Sensoren entwickelt, um die relevanten Parameter der stabilisierten und optimierten Einzelprozesse auszuwerten. Die Verknüpfung von thermischen und biotechnologischer Konversionsprozessen könnte dazu beitragen, die Dimension von Biogasreaktoren erheblich zu reduzieren. Diese Tatsache wird folglich zu einer spürbaren Kostensenkung führen.
Ziele des EBIPREP-Projekts
• die Vorteile der thermischen und biologischen Umwandlung von Biomasse zu kombinieren;
• Entwicklung eines Verfahrens zur Reduzierung von Schadstoffemissionen mit innovativen Sensoren und katalytische Behandlung von Synthesegasen;
• nachhaltige Produktion biotechnologischer wertvoller Produkte
• wirtschaftliche und ökologische Analyse des Gesamtprozesses im Vergleich zu den Einzelprozessen
• Einsatz von Prozessabwässern zur Erzeugung regenerativer Energie oder biotechnologischer Wertstoffe
• Erwerb neuer Kenntnisse auf dem Gebiet der Rückgewinnungstechnik von Rückständen
• und Energieerzeugung;
• Erweiterung neuer Anwendungsfelder für innovative Sensoren und Keramik
• Schäume für Katalysatoren;
• Senkung der Kosten für die Biogasproduktion
Im geplanten Übersichtsvortrag werden die vernetzten Strukturen des Projekts EBIPREP und deren zentralen Ergebnisse vorgestellt.
Qualitative Wissenschaft, künstlerisches Forschen und forschendes Lernen verbinden Erkenntnis aus Praxis und Erfahrung. In der Autoethnographie der eigenen Werkstatt des Hörens wie der Kultur in Studios anderer, wird die noch neue Interdisziplin Sound (Studies) erprobt und vertieft, mit Impulsen für die Praxis und Theorie, von der noch wenig bekannten A/r/t ographie heute, hin zu einer künftig A/R/Tophonie, dem künstlerischen Forschen in der Musik, ebenso wie durch Klang Komposition, Radio Kunst und visuelle Musik.
Implementierung von Softcore-Prozessoren und/oder weiteren IPs (Intellectual Property) in FPGAs
(2018)
Die zunehmende Integration von kompletten Systemen auf einem Chip (System-on-Chip, SoC) erfordert auch immer die Integration einer Recheneinheit bzw. eines Prozessorkerns. Möchte man insbesondere Low-Power-SoC-Systeme entwickeln, z.B. drahtlose Sensor-SoC-Systeme für Anwendungen im Rahmen von Industrie 4.0, ist die Implementierung eines solchen Prozessorkerns mit hohen Herausforderungen verbunden. Prinzipiell können hierfür verschiedene Ansätze verfolgt werden, nämlich die Implementierung einer Hardcore Prozessor-IP (IP = Intellectual Property) oder einer Softcore-Prozessor-IP. Im vorliegenden Beitrag wird zunächst auf den derzeitigen Stand der Technik verfügbarer Hardcore- oder Softcore-Prozessoren unter den Randbedingungen der Low-Power-Anforderungen und der weiten Verbreitung des Cores in industriellen Anwendungen eingegangen. Schließlich werden die Ergebnisse der Implementierung und Evaluierung eines derzeit frei verfügbaren 16-bit MSP430-kompatiblen Softcore Prozessors auf einem Altera-Cyclon-FPGA vorgestellt. Aus den Ergebnissen wird ein entsprechendes Fazit für die Implementierung von Low-Power-SoC-Systeme gegeben.
Sichere Detektion von Menschen in der Mensch-Roboter-Kollaboration mit Time-of-Flight Kameras
(2017)
Dieser Beitrag stellt die Möglichkeiten des 3D-Druckes unter der Berücksichtigung von Mensch-Roboter-Kollaborations-Anforderungen dar. Dabei werden die Vorteile mit besonderem Fokus auf die zusätzliche Gestaltungsfreiheit erläutert. Anhand von Beispielen wird der Stand der Technik bereits eingesetzter Sensorik sowie deren Notwendigkeit in Greifsystemen erläutert. Im weiteren Verlauf dieses Beitrags werden allgemeine Verfahren für die additive Verarbeitung von leitfähigen Materialien vorgestellt. Daran angeknüpft sind Beispiele speziell zur 3D-gedruckten Sensorik. Abgerundet wird der Beitrag mit einem Ausblick bezüglich 3D-gedruckter Sensorik in MRK-Greifsystemen.
This paper presents the development of an energy harvesting solution for a driven tool holder. The tool holder environment was analysed, a test stand built and the designed electromagnetic rotation harvester was evaluated. The reported harvester is based on low cost off-the-shelf components and 3D printed parts. The utilisation of SMD coils allows easy adaptation to changing parameters of the integration area. Energy harvesting in tool holders enables predictive maintenance or condition monitoring in the industrial production. These capabilities are mandatory nowadays in regards of IIoT. A reliable energy source is key for continuous monitoring. Changing batteries becomes obsolete. The results provide useful insight for future harvesters.
iSign - internet based simulation of guided wave propagation - ist eine Lernumgebung für Online-Laborversuche. Die Client-Serverarchitektur nutzt server-seitig das Tool F3D, das elektromagnetische Felder in 3D-Strukturen berechnet. Ein Apache-Webserver (unter Linux) bedient den Theorie-/Aufgaben-Teil und die Lernsystemadministration. Ein HPUX Simulationsserver steuert und kontrolliert den mehrstufigen Simulationsvorgang. Eine MySQL-Datenbank erlaubt dynmaische Webseiten-Generierung und Simulations-, Projekt- und Userdatenhaltung. Java-Applets, JavaServer Pages und JavaBeans erzeugen die interaktive Client-Oberfläche zur Eingabe, Ergebnisdarstellung und für Online-Virtual Reality. Die einheitlich gestaltete Benutzeroberfläche verbirgt die Systemkomplexität.
Als Fortsetzung des FHOP-Projektes wurde an der Fachhochschule Offenburg auf Basis des bestehenden Mikroprozessorkerns im Rahmen einer Diplomarbeit ein Mikrocontroller in ES2-0.7 μm-Technologie entworfen. Der Controller wurde modular aufgebaut mit den Komponenten: FHOP-Mikroprozessor, Buscontroller, Waitstate-Chipselect-Einheit, 16x16 Bit Multiplizierer, 2KB ROM, 256 Byte RAM, Watchdog, PIO mit 16 konfigurierbaren Ports, SIO, 2 Timer und ein Interruptcontroller für 8 Interrputquellen.
Der Chip benötigt bei einer Komplexität von ca. 65400 Transistoren eine Siliziumfläche von etwa 27 mm². Er wurde im September 1996 zur Fertigung gegeben und mittlerweile erfolgreich getestet. Das interne ROM des Mikrocontrollers enthält das BIOS sowie ein Testprogramm. Zur Erstellung der Software steht eine komplette Entwicklungsumgebung zur Verfügung. Sämtliche Komponenten stehen im FHOP-Design-Kit in Kürze zur Verfügung.
RFID- Frontend ISO 15693
(2008)
During the coronavirus crisis, labs had to be offered in digital form in mechanical engineering at short notice. For this purpose, digital twins of more complex test benches in the field of fluid energy machines were used in the mechanical engineering course, with which the students were able to interact remotely to obtain measurement data. The concept of the respective lab was revised with regard to its implementation as a remote laboratory. Fortunately, real-world labs were able to be fully replaced by remote labs. Student perceptions of remote labs were mostly positive. This paper explains the concept and design of the digital twins and the lab as well as the layout, procedure, and finally the results of the accompanying evaluation. However, the implementation of the digital twins to date does not yet include features that address the tactile experience of working in real-world labs.
Agile Business Intelligence als Beispiel für ein domänenspezifisch angepasstes Vorgehensmodell
(2016)
Business-Intelligence-Systeme stellen durch ihre Unterstützung bei der Entscheidungsfindung für Unternehmen eine wichtige Rolle dar. Mit einer stetig dynamischeren Unternehmensumwelt geht daher die Anforderung nach der agilen Entwicklung dieser Systeme einher, so dass in der BI-Domäne zunehmend erfolgreich agile Methoden und Vorgehensmodelle eingesetzt werden. Die Weiterentwicklung und Anpassung von BI-Systemen ist dahingehend besonders, dass diese in der Regel langjährig gewachsenen Systemen und Strukturen betreffen, die strengen regulatorischen Rahmenbedingungen unterliegen, was eine Herausforderung für agile Vorgehensweisen darstellt. Wurden die Werte und Prinzipien des agilen Manifests [AM01] und die daraus abgeleiteten Methoden zu Beginn meist eins zu eins auf den Bereich BI übertragen, so hat sich das Verständnis von BI- Agilität als ganzheitliche Eigenschaft der BI im deutschsprachigen Raum etabliert, und agile Me- thoden wurden auf die Besonderheiten der BI-Domäne adaptiert. In diesem Beitrag werden BI-Agilität und Agile BI erläutert, ein Ordnungsrahmen für Maßnahmen zur Steigerung der BI-Agilität eingeführt sowie Herausforderungen bei Agile BI erläutert.
Im Projekt bwLehrpool wurde ein verteiltes System für die flexible Nutzung von Rechnerpools durch Desktop-Virtualisierung entwickelt. Auf Basis eines zentral gebooteten Linux- Grundsystems können beliebige virtualisierbare Betriebssysteme für Lehrund Prüfungszwecke zentral bereitgestellt und lokal auf den Maschinen aus-gewählt werden. Die verschiedenen Ar- beitsumgebungen müssen nicht mehr auf den PCs installiert werden und erlauben so eine multifunktionale Nutzung von PCs und Räumen für vielfältige Lehrund Lernszenarien sowie für elektronische Prüfungen. bwLehrpool abstrahiert von der PC-Hardware vor Ort und ermöglicht den Dozenten die eigene Gestaltung und Verwaltung ihrer Softwareumgebungen als Self-Service. Darüber hinaus fördert bwLehrpool den hochschulübergreifenden Austausch von Kursumgebungen.
Das hier vorgestellte System verbindet das neue Konzept der Peer-to-Peer-Navigation mit dem Einsatz von Augmented Reality zur Unterstützung von bettseitig durchgeführten externen Ventrikeldrainagen. Das sehr kompakte und genaue Gesamtsystem beinhaltet einen Patiententracker mit integrierter Kamera, eine Augmented-Reality-Brille mit Kamera und eine Punktionsnadel bzw. einen Pointer mit zwei Trackern, mit dessen Hilfe die Anatomie des Patienten aufgenommen wird. Die exakte Position und Richtung der Punktionsnadel wird unter Zuhilfenahme der aufgenommenen Landmarken berechnet und über die Augmented-Reality-Brille für den Chirurgen sichtbar auf dem Patienten dargestellt. Die Methode zur Kalibrierung der statischen Transformationen zwischen Patiententracker und daran befestigter Kamera beziehungsweise zwischen den Trackern der Punktionsnadel sind für die Genauigkeit sehr wichtig und werden hier vorgestellt. Das Gesamtsystem konnte in vitro erfolgreich getestet werden und bestätigt den Nutzen eines Peer-to-Peer-Navigationssystems.
Optische Navigationssysteme weisen bisher eine eindeutige Trennung zwischen nachverfolgendem Gerät (Tool Tracker) und nachverfolgten Geräten (Tracked Tools) auf. In dieser Arbeit wird ein neues Konzept vorgestellt, dass diese Trennung aufhebt: Jedes Tracked Tool ist gleichzeitig auch Tool Tracker und besteht aus Marker-LEDs sowie mindestens einer Kamera, mit deren Hilfe andere Tracker in Lage und Orientierung nachverfolgt werden können. Bei Verwendung von nur einer Kamera geschieht dies mittels Pose Estimation, ab zwei Kameras werden die Marker-LEDs trianguliert. Diese Arbeit beinhaltet die Vorstellung des neuen Peer-To-Peer-Tracking-Konzepts, einen sehr schnellen Pose-Estimation-Algorithmus für beliebig viele Marker sowie die Klärung der Frage, ob die mit Pose Estimation erreichbare Genauigkeit vergleichbar mit der eines Stereo-Kamera-Systems ist und den Anforderungen an die chirurgische Navigation gerecht wird.
An der Fachhochschule Offenburg wird der Design-Kit FHO_MTC_CMOS_035_v1.0 erstellt. Mit Hilfe dieses Kits lassen sich Designs in der AMI O.35 Mikrometer Technologie entwerfen. Alle durchgeführten Arbeiten werden durch den Entwurf eines Lottozahlengenerator-Chips verifiziert, der gefertigt wird. Damit sind alle wesentlichen Schritte bekannt, die für die Aufbereitung eines Design-Kits für beliebige Technologien für die Mentor-Tools erforderlich sind. Der Design-Kit wird für alle MPC-Mitglieder freigegen, die eine NDA für AMI bei Europractice unterzeichnet haben.
In den Unternehmen der Automobilbranche herrscht ein beträchtlicher Rationalisierungsdruck mit einem daraus folgenden hohen Automatisierungsgrad. Den erheblichen Investitionen in modernste Fertigungstechnologien und Montageanlagen steht zunehmend die Forderung eines Return of Investment mit zweistelligen Prozentsätzen gegenüber. Betriebliche Abläufe und Fertigungsprozesse werden daher sehr detailliert geplant, wobei 'minutiöse' Planungen oftmals nur die Beherrschung komplexer Prozeßabläufe vortäuschen. Ungeplante Einflußfaktoren und Störungen lassen manche Planung schnell zu Makulatur verkommen.
Geschäftsprozeßmodellierung und dynamische Simulationen von Fertigungsprozessen mittels zeitbewerteter Petri-Netze, bieten ausgezeichnete Möglichkeiten, komplexe Zusammenhänge transparenter zu machen und neue Erkenntnisse über die Einflüsse von Störungen oder Qualitätsschwankungen auf die Produkt- und Prozeßqualität zu erhalten. In einem Teilbereich der Produktion der Daimler-Benz AG in Gaggenau wurden Qualitätsstörungen und ihre Wirkungen auf den Fertigungsprozeß von Drehmomentwandlern untersucht. Die im Fertigungsverlauf auftretenden qualitätsbeeinflussenden Störungen wurden in Petri-Netz-Modellen abgebildet und in diversen Szenerien simuliert. Die Auswirkungen auf die Anlagenverfügbarkeit, Durchlaufzeiten, Lagerstrategien und die Kostensituationen wurden verdeutlicht und erste Maßnahmen mit den zugehörigen Voraussetzungen aufgezeigt.
Quantitative Bestimmung von Clozapin im Serum mittels Dioden-Array Dünnschichtchromatographie
(2003)
Ein besonderes Merkmal mobiler Dienste ist die Möglichkeit, kontextuelle Gegebenheiten, wie etwa die individuelle Benutzungssituation, bei der Diensterbringung zu berücksichtigen. Mit der Entkoppelung von Lernort und -zeit lässt sich eine Flexibilisierung des Lernprozesses und zugleich eine Integration in reale Arbeitsprozesse, wie z.B. Fertigungsprozesse, erreichen. Durch dieVerwendung mobiler Geräte sind Lernmaterialien direkt am Ort des Geschehens verfügbar. Ziel des kontextbezogenen Lernens ist es daher einen unmittelbaren Zusammenhang zwischen den angebotenen Lernmedien und der Situation, in der sich der Lernende befindet, herzustellen. Existierende Kategorie-Systeme zurKlassifizierung von Kontext genügen dieser Anforderung in der Regel nicht. In diesem Beitrag beschreiben wir Szenarien für kontextbezogenes mobile Learning am Beispiel von Fertigungsprozessen sowie Lösungsansätze für kontextbezogene mobile Dienste.
Die neueste Generation von programmierbaren Logikbausteinen verfügt neben den konfigurierbaren Logikzellen über einen oder mehrere leistungsfähige Mikroprozessoren. In dieser Arbeit wird gezeigt, wie ein bestehendes Zwei-Chip-System auf einen Xilinx Zynq 7000 mit zwei ARM A9-Cores migriert wird. Bei dem System handelt es sich um das „GPS-gestützte Kreisel-system ADMA“ des Unternehmens GeneSys. Die neue Lösung verbessert den Datenaustausch zwischen dem ersten Mikroprozessor zur digitalen Signalverarbeitung und dem zweiten Prozessor zur Ablaufsteuerung durch ein Shared Memory. Für die schnelle und echtzeitfähige Datenübertragung werden zahlreiche hochbitratige Schnittstellengenutzt.
Die immer weitreichenderen Anwendungen des Smart Metering und des Smart Grid stellen immer höhere Anforderungen an Kommunikationstechnologien, die die Zielkonflikte aus Echtzeitfähige, Stabilität, Kosten und Energieeffizienz möglichst anwendungsoptimiert und auf einem immer höheren Niveau lösen. Insbesondere im Bereich der so genannten Primärkommunikation zwischen einem Sensor- oder Aktorknoten und einem Datensammler mit Gatewayfunktionalität konnten in den vergangenen Jahren wesentliche Fortschritte erzielt werden. Zu nennen sind hierbei insbesondere die Aktivitäten der ZigBee Alliance rund um den offenen Spezifikationsprozess des ZigBee Smart Energy Profiles (SEP) und der OMS-Gruppe beim ZVEI, die auf dem Wireless M-Bus nach EN13757-4 aufbauen, der sich seinerseits lebhaft und zielgerichtet weiter entwickelt. Der Beitrag diskutiert die vorhandenen Einschränkungen und die verfügbaren Lösungsansätze. Er illustriert diese anhand einiger öffentlich geförderter Projekte, an denen das Team des Autors beteiligt ist.
Immer mehr Anwendungen der Heim- und der Gebäudeautomatisierung werden vernetzt, weil damit erweiterte Funktionen ermöglicht oder Kosten gespart werden können. Dabei führt eine Reihe von Aspekten zu einem erhöhten Risiko für diese vernetzten Systeme. Gegenwärtig arbeiten verschiedene Gruppen an Sicherheitslösungen für die vernetzte Heim- und Gebäudeautomatisierung. Der Beitrag gibt einen Überblick über diese Aktivitäten und zeigt die wesentlichen Entwicklungsrichtungen auf.
Systematische Erfassung von Einflussfaktoren für das Additive Tooling von Spritzgusswerkzeugen
(2021)
Additive tooling is a quick and cost-effective way of producing injection molded products and high fidelity prototypes using the injection molding process. As part of product development, additive tooling is integrated into a complex process. A lack of design and application knowledge represents a barrier in its use. The present work shows how a Design-Structure-Matrix (DSM) can be used to systematically record and analyze influencing factors and their interrelationships. A systematic literature search is carried out to identify the factors and relationships.
Für die solarunterstützte CO2-neutrale Nahwärmeversorgung des Neubaugebiets Hülben in Holzgerlingen wurden Holzpelletskessel mit einer 249m²-großen Solaranlage kombiniert. Im ersten Intensivmessjahr vom 01.03.2007 bis 29.02.2008 wurde eine Gesamt-Wärmeabgabe ins Nahwärmenetz von 920.606 kWh gemessen, wobei der solare Anteil bei 84.033 kWh lag. Es wurden ein Systemnutzungsgrad von 23,8 % und ein solarer Deckungsanteil von 9,5% gemessen. Die vom Lieferanten abgegebene Energiegarantie wurde in der ersten Intensivmessphase nicht erreicht.
Blockchain frameworks enable the immutable storage of data. A still open practical question is the so called "oracle" problem, i.e. the way how real world data is actually transferred into and out of a blockchain while preserving its integrity. We present a case study that demonstrates how to use an existing industrial strength secure element for cryptographic software protection (Wibu CmDongle / the "dongle") to function as such a hardware-based oracle for the Hyperledger blockchain framework. Our scenario is that of a dentist having leased a 3D printer. This printer is initially supplied with an amount of x printing units. With each print action the local unit counter on the attached dongle is decreased and in parallel a unit counter is maintained in the Hyperledger-based blockchain. Once a threshold is met, the printer will stop working (by means of the cryptographically protected invocation of the local print method). The blockchain is configured in such a way that chaincode is executed to increase the units again automatically (and essentially trigger any payment processes). Once this has happened, the new unit counter value will be passed from the blockchain to the local dongle and thus allow for further execution of print jobs.
Zerstörungsfreie Verfahren zur Messung von Eigenspannungen erfordern, abhängig vom gewählten Verfahren, die Kenntnis gewisser Kopplungskonstanten. Im Falle von Ultraschallmessverfahren sind das neben den elastischen Konstanten zweiter Ordnung (SOEC) vor allem die Konstanten dritter Ordnung (TOEC). Elastische Konstanten fester, metallischer Bauteile werden in der Regel in Zugversuchen bestimmt. Zur Ermittlung der TOEC werden diese mit Ultraschallmessmethoden kombiniert. Durch äußere Einflüsse, wie etwa mechanische Nachbehandlungen der zu untersuchenden Bauteile können sich diese Konstanten jedoch ändern und müssen folglich direkt am veränderten Material bestimmt werden. Mithilfe von Simulationen wird die Ausbreitung der zweiten Harmonischen und der nichtlinear erzeugten Oberflächenwellen in Wellenmischexperimenten analysiert und der akustische Nichtlinearitätsparameter (ANP) bzw. der Kopplungsparameter aus der Amplitudenentwicklung berechnet. Insbesondere wird untersucht, welchen Einfluss ein gegebenes Tiefenprofil der TOEC auf den ANP hat (Vorwärtsproblem) und inwiefern sich aus den Messungen des ANP auf ein vorliegendes Tiefenprofil der TOEC schließen lässt (inverses Problem). Außerdem wird diskutiert, welchen Einfluss lokale Änderungen der SOEC auf den ANP haben können und wie groß diese Änderungen sein dürfen, um die TOEC dennoch bestimmen zu können. Die Untersuchungen hierzu wurden auf der Basis eines 3D-FEM Modells mit zufällig orientierten Mikrorissen durchgeführt. Die numerischen Rechnungen zeigen dabei auch eine gute Übereinstimmung mit einem aus der Literatur bekannten und für dieses Problem erweiterten, analytischen Modell. Neben der rissinduzierten Nichtlinearität kann bei diesem auch die Gitternichtlinearität berücksichtigt werden.
Aufgrund der zunehmenden Bedeutung von E-Prüfungen an Hochschulen und Universitäten werden Lösungen benötigt, die eine einfache, schnelle und sichere Nutzung von bestehenden Poolräumen für verschiedene Prüfungsszenarien ermöglichen. Das Projekt bwLehrpool hat in der Vergangenheit gezeigt, dass mit Hilfe von Virtualisierung eine große Anzahl an unterschiedlichen, individualisierten Lehrumgebungen flexibel und räumlich unabhängig verteilt werden kann. Im nächsten Schritt sollen nun Erweiterungen entwickelt werden, die diese Flexibilität auch für elektronische Prüfungen nutzbar macht. Dabei gilt es vor allem, die Vorteile, wie z.B. die Nutzung von Softwareunterstützung für realitätsnahe Aufgabenstellungen, mit der Notwendigkeit nach größtmöglicher Sicherheit und schneller Umrüstzeit der Infrastruktur in Einklang zu bringen. Um den aktuellen Entwicklungsstand zu testen, wurde im Wintersemester 2015/2016 an der Hochschule Offenburg eine E-Prüfung unter bwLehrpool durch über 140 Studierende durchgeführt. Die Ergebnisse zeigen, dass die Anforderungen bisher erfolgreich umgesetzt werden konnten, allerdings noch mehr manueller Aufwand nötig ist, als gewünscht. Der Ablauf soll in Zukunft weiter vereinfacht und verstetigt werden.
Projektmanagement entwickelt sich kontinuierlich, auch in qualitativen Sprüngen und Zyklen. Planungsiterationen aus der Agilität und die coronabedingte Digitalisierung der Kommunikation sind nicht die einzigen aktuellen Entwicklungen. Nicht einmal die Wichtigsten. Es wird ein Überblick vermittelt, der nicht nur verstehen, sondern gestalten hilft.
Die Fachhochschule Offenburg bietet den Studenten des Fachbereichs Nachrichtentechnik seit Ende 1990 das Wahlfach "Entwicklung integrierter Anwenderschaltkreise (ASIC)" an. Ziel des Wahlfachs ist es, den Studenten Grundkenntnisse im Entwurf eines ASIC's zu vermitteln, und wie im folgenden Beitrag aufgezeigt, die Möglichkeit zu bieten, den gesamten Entwurfszyklus von der Schaltungsentwicklung bis hin zur Fertigungsmaske zu durchlaufen.
Die Elektronikindustrie bietet für die Realisierung digitaler Logik eine Vielzahl integrierter Bausteine an, die ein Höchstmaß an Zuverlässigkeit als auch Integrationsdichte ermöglichen.
Je nach Integrationsdichte unterscheidet man hierbei zwischen Standardlogik (TTL,CMOS,DTL...), programmierbarer Logik (PLA, GAL...), Gate Arrays und ASIC-Bausteinen. Mit steigender Integrationsdichte werden Systemeigenschaften verbessert, wie Leistungsverbrauch, Platzbedarf, und Zuverlässigkeit.
Jedoch steht ihr auch ein stark erhöhter Kosten- und Entwicklungsaufwand gegenüber, der den Einsatz hochintegrierter Bausteine in Einzelfertigung bzw. Kleinserien verhindert.
Xilinx bietet nun mit seiner LCA-Produktreihe (logic cell array) eine Alternative zu bestehender hochintegrierbarer Logik an, mit der es möglich sein soll, Vorteile der genannten Einzelproduktgruppen zu übernehmen, und deren Nachteile zu beseitigen.
Im Rahmen einer Diplomarbeit wurde ein solcher LCA-Baustein (XC3020) eingesetzt. Anhand der gegebenen konkreten Anwendung konnte hierbei untersuch twerden, wie schnell sich ein solcher Baustein in bestehende Hardware eingliedern läßt, und welche Integrationsdichte er ermöglicht.
Im Folgenden sollen nun als Schwerpunkte das Einsatzgebiet, die Entwicklung und die Simulation des LCA bei vorliegender Aufgabenstellung aufgezeigt werden.
Die Fachhochschule Offenburg bietet seit dem Wintersemester 1990/91 den Studenten des Fachbereichs Nachrichtentechnik das Wahlpflichtfach ASIC-Design an. Schon kurz nach der Errichtung des ASIC-Design-Centers im Frühjahr 1990 ermöglicht sie damit künftigen Ingenieuren eine Ausbildung in einem Bereich, der in der modernen Schaltungsentwicklung nicht mehr wegzudenken ist.
Die Verarbeitung analoger Signale durch digitale Techniken ist durch die enorme Leistungsfähigkeit der Prozessoren zwischenzeitlich zum Standard geworden. Eine hinreichende Genauigkeit der digitalen Verarbeitung kann durch Wahl der notwendigen Wortbreite relativ einfach bewerkstelligt werden, wobei der Aufwand mit zunehmender Wortbreite linear, teilweise auch quadratisch steigt. Zum Flaschenhals in der Verarbeitung wird aber häufig die Wandlung der analog vorliegenden Signale in digitale Signale, ebenso die Rückwandlung der digitalen Signale in analoge Spannungs- oder Stromverläufe. Der Aufwand für diese teils analogen, teils digitalen Systeme steigt oft exponentiell mit der geforderten Genauigkeit bzw. Auflösung der Systeme und erfordert in konventioneller Technik bei hoher Auflösung aufwendige Maßnahmen auf dem Chip. Oversampling- und Rauschfärbungs-Methoden sind in der Verarbeitung von Audio-Signalen schon seit langem probate Mittel, um die Auflösung mit moderatem Aufwand zu erhöhen. Derartige Techniken werden zwischenzeitlich auch gerne im Bereich der Antriebstechnik, wo die Anforderungen an die erforderliche Positioniergenauigkeit zunehmen, eingesetzt. Ziel des Vortrags ist eine leicht verständliche Einführung in die Themengebiete der Überabtastung und der Rauschfärbung und ihre Anwendung im Hinblick auf Rundungsvorgänge im digitalen Bereich, in D/A-Wandlern und A/D-Wandlern vom Delta-Sigma-Typ.
Konstrukteure im Maschinenbau stehen häufig vor der Problemstellung, hochfest vorgespannte Schraubenverbindungen und einen durchgehenden Korrosionsschutz zu vereinen. Die Normen und Richtlinien bieten hierzu Stand heute keine ausreichenden Antworten. Die Hochschule Offenburg befasst sich im Rahmen einer industriellen Gemeinschaftsforschung mit der Fragestellung, welchen Einfluss organische Beschichtungen auf die Vorspannkraft insbesondere bei erhöhten Umgebungstemperaturen haben. In dieser Arbeit werden die ersten Ergebnisse zum Einfluss der Einzelschichtstärke des Beschichtungssystems präsentiert.
Die Wichtigkeit des Faches FEM ist sicher unumstritten. Um in der gegebenen Zeit eine ausreichende Einarbeitung in die Methode und die Uebung am Rechner durchfuehren zu koennen, ist der Einsatz eines auf PC lauffaehigen FE-Lernprogramms eine gute Hilfe. Sind die Grundlagen da, weiss der Student, welche Eingaben bei einem FE-Programm zu machen sind. Fuer manche Fachgebiete genuegt schon die Arbeit mit einem solchen Programm. Sind entsprechende Uebungen mit dem Lernprogramm erfolgt, kann auf professionellen Programmen wie z.B. CAEDS das Zusammenspiel CAD/FEM ernsthaft betrieben werden. Es sollte ein Fachsemester ausgesucht werden, in dem CAD und FE angeboten wird. Dieses Fachsemester sollte, um den Nutzen der FEM in moeglichst vielen Fachgebieten zu haben, zum Ende des Grundstudiums, spaetestens aber zu Beginn des Hauptstudiums liegen.
Vom Tragverhalten und von der Geometrie (eben oder gekrümmt, linien- oder flächenhaft ausgeprägt) her unterscheidet man Sandwich-Balken, Sandwich-Platten, -Scheiben und -Schalen. Im Normalfall hat man ein Zusammenwirken aus drei Schichten: Den zug- bzw. druckaufnehmenden Deckschichten und der schubbelasteten Kernschicht. Die Klebverbindung von Kern- und der jeweiligen Deckschicht hat mindestens die kraftübertragende Eigenschaft der schwächsten Schicht (d.h. der Schicht mit dem kleinsten E-Modul) aufzuweisen. Dies ist in der Regel die Kernschicht. Diese Eigenschaft der Verklebung muss über die Lebensdauer des Tragwerkes erhalten bleiben. Bei rein statischer Belastung sind die Verklebung in ihrer Zeitfestigkeit und das Lastkriechen der schubaufnehmenden Kernschicht zu beachten. Bei dynamischer Belastung sind die entsprechenden Wöhler-Kurven zu beachten. Viele Klebstoffe sind dynamisch belastbar. Wenn man die Festigkeits- und Steifigkeitsberechnung durchführen möchte, kann die so genannte exakte Berechnungsmethode über gekoppelte partielle Differenzialgleichungen zum Ziel führen. Neben der Berechnung der Verformungen und Spannungen infolge Platten- und Scheibenwirkung kommen bei hochbelasteten gekrümmten Sandwich-Bauteilen auch die Koppelgleichungen von Platte und Scheibe zur Schale hinzu. Außerdem kommt bei dünnen, unter Druck stehenden Deckschichten die Abschätzung der Knitterspannungen hinzu, die ja nach der Bettung der Deckschicht auf der Kernschicht weitestgehend von der Dehnsteifigkeit der Kernschicht abhängt. Seit den 60-er Jahren hat sich die Finite-Elemente-Methode als eine computergestützte Berechnungsmethode etabliert, die zwar als Näherungsmethode definiert ist aber eine hervorragende Genauigkeit in der Spannungs- und Steifigkeitsberechnung bietet.
Erstellen von Hardmakros und Aufbau einer Zellbibliothek unter Verwendung des ES2-Library-Kits
(1993)
Es wird eine Anleitung zur Erstellung von Hardmakros mit der Mentor-Graphics-Software gegeben. Die Hardmakros werden mit Standardzellen aus der ES2-Bibliothek der Firma EUROCHIP aufgebaut. Die Hardmakros werden in eine eigenständige Bibliothek abgelegt und können in neuen Chip-Designs verwendet werden.
Die Geschäftsleitung und Führungskräfte von Eller Repro+Druck beschlossen im Juli 1994 die Teilnahme am damls noch neuen EU-Öko-Audit. Die Durchführung des Audits ist für 1996 geplant. Zwei Diplomanden der FH Offenburg wurde die Möglichkeit gegeben, als externe Berater für Eller Repro+Druck ihre Diplomarbeit über die Vorbereitung zum Öko-Audit zu schreiben. Der Betrieb (170 Mitarbeiter) verfügt über elektronische Bildverarbeitung auf Scitex- und Mac-Schiene, derzeit noch konventionelle Plattenkopie und -entwicklung, fünf Offsetrotationen sowie Weiterverarbeitung mit Sammelheftern und Falzmaschinen. Der Referent berichtet über die Erfahrungen, die sein Unternehmen bis zum Herbst 1995 mit der Vorbereitung zum Öko-Audit gemacht hat, und gibt Praxistips. Zusammen mit den Beratern wurden eine Aufnahme der betrieblichen Situation durchgeführt, Maßnahmen geplant und zum Teil durchgeführt.
Das fortwährende Streben nach Steigerung der Genauigkeit und Effizienz von industriellen Bearbeitungs- und Prüfprozessen führt bei elektrischen Antrieben zu immer höheren Forderungen an ihre dynamischen Eigenschaften. Hierbei kommt dem Stromregelkreis als dem am weitesten unterlagerten Regelkreis eines elektrischen Antriebs eine entscheidende Bedeutung zu. Mit zunehmender Dynamikerhöhung des Stromregelkreises treten jedoch aufgrund von Parameterunsicherheiten und von Messfehlem immer deutlicher Probleme der Regelkreisrobustheit und der Geräuschemission in den Vordergrund, die es oft nicht gestatten, die theoretisch erhaltenen Lösungen in vollem Umfang zu realisieren. Gegenüber der optimalen Lösung müssen dann Abstriche hinsichtlich der erreichbaren Dynamik gemacht werden. Wie diese Abstriche durch das Ausschöpfen verborgener Freiheitsgrade reduziert werden können, wird im vorliegenden Beitrag gezeigt. Als Lösungsansatz wird hierfür ein achsenunsymmetrischer Statorstromzustandsregler gewählt, der es erlaubt, in der d- und q-Achse eine unterschiedliche Dynamik einzustellen. Hierbei wird zunächst im Kapitel 2 ein kurzer Überblick über die Entwicklungsgeschichte und den Stand der Technik von pulsweitenmodulierten Stromregelverfahren für Drehstromantriebe in den zurückliegenden Jahrzehnten gegeben. Anschließend wird am Beispiel einer frequenzumrichtergespeisten Asynchronmaschine das zeitdiskrete Modell der Statorstromregelstrecke vorgestellt, das dem hier erläuterten Verfahren zugrunde liegt. Wegen des Zusammenhangs zwischen Dynamikerhöhung und Empfindlichkeitszunahme ist es naheliegend, die Dynamik des Statorstromregelkreises nur so weit zu steigern, wie es erforderlich ist. Diesbezüglich ist insbesondere zu gewährleisten, dass ein angefordertes Drehmoment möglichst schnellst eingeprägt wird. Die Änderungsgeschwindigkeit des Flusses spielt hingegen eine untergeordnetere Rolle. Demzufolge sollte die drehmomentbildende Statorstrom-q-Komponente in der Praxis eine höhere Dynamik aufweisen als die flussbildende Statorstrom-d-Komponente. Um hierbei die aufwändige reelle Rechnung so weit wie möglich zu vermeiden, wird der Reglerentwurf in zwei Schritten durchgeführt. Im ersten Schritt wird ein schiefsymmetrisches, komplex beschreibbares Regelgesetz entworfen, das zwar zu einer möglichst einfachen Darstellbarkeit des geschlossenen Statorstromregelkreises führt, das jedoch noch nicht die endgültige Dynamik zur Folge haben muss. Insbesondere muss nach Abschluss dieses ZwischenSchritts bereits eine vollständige Entkopplung der d- und der q-Komponente des Statorstromraumzeigers vollzogen sein. Im zweiten Schritt wird dann ein weiterer Regler entworfen, der auf der Grundlage des im ersten Schritt erhaltenen entkoppelten Systems jeder Stromkomponente eine separate Dynamik zuweisen kann. Die Verkettung beider Teilregler führt schließlich zum gesuchten Statorstromregler, der zum einen relativ einfach berechenbar ist und der zum anderen alle an ihn gestellten Dynamikanforderungen erfüllt. Im vierten Kapitel wird schließlich der Entwurf des achsenunsymmetrischen Statorstromzustandsreglers skizziert und die daraus hervorgehenden Regelalgorithmen vorgestellt. Die Leistungsfähigkeit des beschriebenen Zustandsreglers wird anhand von aufgenommenen Zeitverläufen eines Laborantriebs demonstriert, mit dem der Drehmomentverlauf von Verbrennungsmotoren nachgebildet wird.
An international study summarizes the threat situation in the OT environment under the heading "Growing security threats" [1]. According to this study, attacks on automation systems are likely to increase in the future. Accordingly, an automation system must be able to protect the integrity of the transmitted information in the future. This requirement is motivated, among other things, by the fact that the network-side isolation of industrial communication systems is no longer considered sufficient as the sole protective measure. This paper uses the example of PROFINET to show how the future requirements for a real-time communication protocol can be met and how they can be derived from the IEC 62443 standard.
Hintergrund: Die Pulmonalvenenisolation (PVI) mit Hilfe von Kryoballonkathetern ist eine anerkannte Methode zur Behandlung von Vorhofflimmern (AF). Diese Methode bietet eine kürzere Behandlungsdauer als die klassische Therapie durch die Hochfrequenzablation (HF). Ziel dieser Studie war es, verschiedene Kryoballonkatheter, HF-Katheter und Ösophaguskatheter in ein Herzrhythmusmodell zu integrieren und mittels statischer und dynamischer Simulation elektrische und thermische Felder bei PVI unter Vorhofflimmern zu untersuchen.
Methodik: Die Modellierung und Simulation erfolgte mit der elektromagnetischen und thermischen Simulationssoftware CST (CST Darmstadt). Zwei Kryoballons, ein HF-Ablationskatheter und ein Ösophaguskatheter wurden auf der Grundlage der technischen Handbücher der Hersteller Medtronic und Osypka modelliert. Der 23 mm Kryoballon und ein kreisförmiger Mappingkatheter wurden in das Offenburger Herzrhythmusmodell integriert, insbesondere die left inferior pulmonary vein (LIPV) zur Simulation der thermischen Feldausbreitung während einer PVI. Die Simulation einer PVI mit HF-Energie wurde mit dem integrierten HF-Ablationskatheter in der Nähe der LIPV durchgeführt. Der im Herzrhythmusmodell platzierte TO8 Ösophaguskatheter ermöglichte die Ableitung linksatrialer elektrischer Felder bei AF und die Analyse thermischer Felder während PVI.
Ergebnisse: Elektrische Felder konnten bei Sinusrhythmus und AF mit einem AF-Fokus in der LIVP statisch und dynamisch im Herzen und Ösophagus simuliert werden. Bei einer simulierten 20 Sekunden Applikation eines Kryoballon-Katheters bei -50°C wurde eine Temperatur von -24°C in einer Tiefe von 0,5 mm im Myokard gemessen. In einer Tiefe von 1 mm betrug die Temperatur -3°C, bei 2 mm Tiefe 18°C und bei 3 mm Tiefe 29°C. Unter der 15 sekündigen Anwendung eines HF-Katheters mit einer 8-mm-Elektrode und einer Leistung von 5 W bei 420 kHz betrug die Temperatur an der Spitze der Elektrode 110°C. In einer Tiefe von 0,5 mm im Myokard betrug die Temperatur 75°C, in einer Tiefe von 1 mm 58°C, in einer Tiefe von 2 mm 45°C und in einer Tiefe von 3 mm 38°C. Im Ösophagus konnte bei den meisten Simulationen eine konstante Temperatur von 37°C gemessen und die Gefahr einer Ösophagus-Fistel ausgeschlossen werden. Bei Kryoablation der LIPV wurde eine Abkühlung des Ösophagus auf 30°C gemessen.
Schlussfolgerungen: Die Herzrhythmussimulation elektrischer und thermaler Felder ermöglichen mit Anwendung unterschiedlicher Herzkatheter eine statische und dynamische Simulation von PVI durch Kryoablation, HF-Ablation und Temperaturanalyse im Ösophagus. Unter Einbeziehung von MRT- oder CT-Daten können elektrische und thermale Simulationen möglicherweise zur Optimierung von PVIs genutzt werden.
Kleinstlebewesen vorgestellt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops oder durch Smartphones über die NFC-Schnittstelle geändert werden. Das vollständige Aufladen des nur 3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 21 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
Im Rahmen des Forschungsprojekts Professional UX entwickelt die Hochschule Offenburg gemeinsam mit dem Softwarehaus Dr. Hornecker in Freiburg eine innovative Systemlösung, die es ermöglicht, anhand von Mimik, Stimme und Blickverlauf beim Nutzer entstehende Emotionen bei der Nutzung interaktiver Anwendungen zu erfassen und zu interpretieren. Ziel der Untersuchung ist es, Indikatoren zu identifizieren, die eine exakte Zuordnung von wahrgenommenen Reizen zu den jeweils ausgelösten Emotionen erlauben. Sobald negative Emotionen wie Ärger oder Unsicherheit auftreten, kann dieser erfasst und im Nachgang der jeweils irritierende Reiz eliminiert werden. Das Projektteam hat einen ersten Prototyp für die Professional UX Systemlösung in Form von Hard- und Software entwickelt, mit dem es möglich ist, UX-Messungen während der User Interaktion durchzuführen und automatisiert mithilfe von KI auswerten zu lassen.
Hochspannungs-Mischstrom-Übertragung (HMÜ) - Eine Ergänzung zu bestehenden Übertragungstechnologien?
(2019)
Bei der Mischstromübertragung wird einem Wechselstrom direkt ein Gleichstrom überlagert. Wechselstrom und Gleichstrom werden also auf dem gleichen Seil geführt.
Dadurch könnten die bereits bestehenden Drehstrom-Übertragungs-Strecken des Übertragungsnetzes genutzt werden.
Durch eine Aufschaltung des Gleichstromes auf vorhandene Freileitungen kann theoretisch bei kurzen Leitungen (<150km) bis zu 50% mehr Wirkleistung und bei großen Übertragungsstrecken (>300km) in etwa eine Verdopplung der übertragbaren Wirkleistung erwartet werden.
Theoretisch betrachtet ist die Mischstrom-Übertragung eine geometrische Addition aller Strom- und Spannungskomponenten, was zu einer Erhöhung der Leiter-Erde-Spannung führt, ohne dabei Einfluss auf die verkettete Spannung zu nehmen.
Außerdem wird die Übertragung von Blindströmen unnötig, da ein natürlicher Betrieb von Leitungen des HDÜ-Netzes empfehlenswert ist.
Die theoretischen Betrachtungen konnten mathematisch bewiesen und die technische Umsetzung mit einem 1:1000-Modellsystem demonstriert und bestätigt werden.
Die Veränderungen in der Energieversorgung führen zu einer neuen Systemarchitektur der Stromversorgung, die nur durch einen massiven Einsatz von Informations- und Kommunikationstechnologien (IKT) bewältigt werden kann und meist als „Smart Grid“ bezeichnet wird. Während es bereits umfangreiche Forschungsarbeiten und Demonstrationsprojekte zu einzelnen technologischen Komponenten gibt, existieren noch wenige Überlegungen, in welchen technologischen Schritten eine Migration hin zu Smart Grids durchgeführt werden sollte, die sowohl betriebstechnisch zukunftssicher ist, als auch marktgetriebene Innovationen begünstigt. Der Beitrag veranschaulicht die Herleitung solcher Migrationspfade im Rahmen eines schrittweisen Vorgehens. Zunächst werden Zukunftsszenarien für das Jahr 2030 konstruiert, um die maßgeblichen, oft auch nichttechnischen Einflussfaktoren auf das Smart Grid zu identifizieren. Darauf aufbauend werden die wesentlichen IKT-bezogenen Technologiefelder und ihre Zuordnung zu den Domänen der Energiewirtschaft beschrieben. Für jedes Technologiefeld werden die in den nächsten zwei Jahrzehnten denkbaren Entwicklungsstufen ermittelt und deren Abhängigkeit untereinander analysiert. Die gemeinsame Betrachtung von Szenarien, der Entwicklungsstufen der Technologiefelder und deren Interdependenzen führen schließlich zu einer Roadmap, welche die Migrationspfade in das Smart Grid beschreiben. Es lassen sich drei Entwicklungsphasen erkennen: Die Konzeptionsphase, die Integrationsphase und die Fusionsphase. Die präsentierten Ergebnisse entstammen dem Projekt „Future Energy Grid – Migrationspfade ins Internet“, welches vom Bundesministerium für Wirtschaft und Technologie im Rahmen des E-Energy-Programms (Förderkennzeichen 01ME10012A und 01ME10013) gefördert wurde.
Mit Gendering Marteloskope stellen wir Entwicklungsprozess dar: Entstanden ist videografisches Material in Marteloskopen, die im Wald Bäume, Tablets und Menschen in Dialog zueinander setzen. Die Videografie und die Erfahrungen vor Ort werden mit Ansätzen aus Gender in Science and Technlogy Studies reflektiert sowie mit digital unterstützter kollaborativer Didaktik über interaktive Webdokumentationen zu Open Science Modulen zusammengeführt.
Die Vielfalt der Protokolle, die praktisch auf allen Ebenen der Netzwerkkommunikation zu berücksichtigen ist, stellt eine der großen Herausforderungen bei der fortschreitenden Automatisierung des intelligenten Hauses dar. Unter dem Überbegriff Internet der Dinge (Internet of Things) entstehen gegenwärtig zahlreiche neue Entwicklungen, Standards, Allianzen und so genannte Ökosysteme. Diese haben die Absicht einer horizontalen Integration gewerkeübergreifender Anwendungen und verfolgen fast alle das Ziel, die Situation zu vereinfachen, die Entwicklungen zu beschleunigen und Markterfolge zu erreichen. Leider macht diese Vielfalt momentan die Welt aber eher noch komplexer und bringt damit das Risiko mit sich, genau das Gegenteil der ursprünglichen Absichten zu erreichen. Dieser Beitrag versucht, die Entwicklungen möglichst systematisch zu kategorisieren und mögliche Lösungsansätze zu beschreiben.
Smart Home-/Smart-Building-Anwendungen sind ein stetig wachsender Markt. Smart Gardening ist ein Beispiel dafür, Nutzern mehr Komfort und eine bessere Lebensqualität zu Hause oder in Bürogebäuden zu ermöglichen. Im Rahmen dieses Beitrags wird die Entwicklung eines Indoor-Smart-Gardening-Systems mit dem Fokus auf energieautarkes Arbeiten vorgestellt. Herzstück des Systems ist ein 3D-gedruckter Blumentopf für einzelne Pflanzen mit integrierter Elektronik zum Monitoring der wichtigsten Pflanzenparameter und einem integrierten Wasserreservoir mit Tauchpumpe für das automatisierte Bewässern der Pflanze. Energy Harvesting per Solarzellen ermöglicht ein energieautarkes Arbeiten des Blumentopfes. Eine selbstentwickelte Low-Power-Funkschnittstelle im Blumentopf und ein externes Gateway ermöglichen die drahtlose Vernetzung mehrerer Pflanzen. Das Gateway dient zur Auswertung der Pflanzenparameter, der Ansteuerung der im Netzwerk vorhandenen Blumentöpfe und als Benutzerinterface.
Der Entwurf und die Realisierung gedruckter Schaltungen oder Elektronikkomponenten stellt ein intensives Thema der Forschung dar. Forschungsgruppen beschäftigen sich zunehmend mit der Entwicklung von gedruckten Energy Harvestern, weil diese kostengünstig und einfach herstellbar sind. Das Energy Harvesting (EH) oder auch das ”Mikro Energy Harvesting“ (MEH) bezeichnet die Gewinnung von elektrischer Energie aus der Umgebung, um elektronische Verbraucher zu versorgen, kontinuierliche Leistungen zu erzeugen, das System energieeffizienter zu machen, sowie die Energiespeicherung im Mikrowattbereich zu gewährleisten. Energy Harvesting-Systeme stellen eine Alternative gegenüber der Energieversorgung autarker Low-Power-Elektronik mit Batterien dar. Das Energiemanagement solcher EH-Systeme ist jedoch eine Herausforderung aufgrund der Energieverfügbarkeit und der im Zeitablauf nicht konstanten Verlustleistung. Dieser Beitrag gibt einen Überblick über die derzeit existierenden ultra low-power Energiemanagement Schaltungen für Energy Harvester. Dabei wird insbesondere der Fokus auf gedruckte Energy Harvester gelegt. Es soll aufgezeigt werden, welche Aspekte der vorgestellten Energieversorgungsschaltungen bei der Entwicklung eines Energieversorgungschips für gedruckte Energy Harvester berüucksichtigt werden sollen.
Mit zunehmend komplexer werdenden Schaltungen wachsen auch die Anforderungen an die Entwicklung einer entsprechenden Leiterplatte. Mit der BOARD-Station von MENTOR-Graphics können professionelle Leiterplatten entwickelt werden.
Im Rahmen dreier Entwicklungsprojekte an der Fachhochschule Offenburg wurden mehrere aufwendige Layoutentwürfe mit der BOARD-Station in verschiedenen Diplomarbeiten durchgeführt. Im Folgenden wird über die dabei gewonnenen Erfahrungen berichtet.
Als Einstieg in den Diskurs über zivile Netzwerktechnologien, mobile Geräte, Onlinedienste und die Frage, wie sich die „Kirche der Zukunft“ (zumindest aus medienwissenschaftlicher Sicht) positionieren kann, dienen drei Zitate. Die Gegenüberstellung der darin vertretenen Positionen soll den Nutzen und die Folgen der zunehmend vollständigen Durchdringung (fast) aller Lebensbereiche mit Digitaltechnik für den Einzelnen wie für die Gesellschaft aufzeigen.
Gehören Sie zur „generation upload“? Laden Sie ihre privaten Bilder auf Flickr hoch und stellen Videos bei YouTube ein? Downloaden Sie MPEG-Files auf ihr Handheld oder spielen Sie ständig neue, echt witzige Apps auf ihr SmartPhone? Klicken Sie sich ihre Freunde in Facebook, MySpace oder StudiVZ zusammen, um rund um die Uhr zu chatten und zu bloggen? Oder twittern Sie eher und haben für Ihren Tweed schon Follower? Gruscheln Sie Menschen, deren Foto ihnen gefällt und sperren den Kontakt per Mausklick, wenn er oder sie doch nicht so nett ist? Software und Filme besorgen Sie sich von ihren Peers über Bit-Torrent-Tracker wie Pirate Bay? Lustig finden Sie „flash mobs“, weniger witzig „cyber mobs“? Oder sind Sie der eher rabiate Typ, der fremde Rechner hackt, spammt und „Google bombs“ platziert? Oder fragen Sie sich gerade, von was ich hier überhaupt rede? Willkommen in der „brave new world – of media”.
Die Frage nach der Struktur und Funktion von „Hochschulen“ kann man sinnvoll nicht isoliert betrachten ohne einen Blick auf Schulen. Hochschulen sind Teil des gesamten Schulsystems und eingebunden in eine (momentan noch) sehr differenzierte und vielfältige, bundesdeutsche „Bildungslandschaft“, die sich über Jahrhunderte herauskristallisiert hat. Tradition und evolutionäre Genese sind eine Konstante von Bildungseinrichtungen, der ständige Wandel und der stetige Reformdruck eine weitere. Es scheint, das an Schulen und Hochschulen immer von neuem laboriert werden muss, auch wenn das mögliche Spektrum von Einstellungen und Methoden – zumindest was Lernen und Lehrkonzepte betrifft, – seit der Antike bekannt sind.
Daher gliedert sich dieser Text in drei Abschnitte:
• Ein kurzer Blick zurück leitet zentrale Begriffe her.
• Die Analyse des Ist-Zustandes unter Berücksichtigung der seit 1998 unter dem Namen „Bologna“ realisierten Reformen (Vereinheitlichung der europäischen Studiengänge, Umstellung der Studiengänge auf andere Abschlüsse (Bachelor, Master) u.v.m.) zeigt aktuelle Fehlentwicklungen, nennt Gründe und Protagonisten .
• Der abschließend Blick nach vorn zeigt, was aus (Hoch)Schulen (wieder) werden könnten, wenn Lehrende und Studierende mutiger werden.
Controlling ist ein Begriff aus der Wirtschaftslehre und bezeichnet nicht Kontrollle, sondern Prozeßsteuerung. Definierte Ziele werden durch kleinteilige Messungen und permanente Überwachung aller Arbeitsschritte und Handlungen der beteiligten Personen protokolliert und stetig optimiert. Dieses Konzept der Planungs-, Koordinations- und Kontrollaufgaben wird beim „Bildungs-Controlling“ auf Schulen und Hochschulen übertragen. Ziel ist dabei, entsprechend der Gary Beckerschen Humankapitaltheorie, die Produktion von Humankapital mit validierten Kompetenzen. Zwei Probleme gibt es dabei: Lernen und vor allem Verstehen lassen sich nicht automatisieren und auch nicht automatisiert prüfen. Und: Sozialsysteme unter dem Regime der Kennzahlen des Quality Management (QM) oder Total Quality Management (TQM) verlieren ihre Eigenschaft als soziale Systeme
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.
Die Studienanfänger in den technischen Studiengängen der Hochschulen für angewandte Wissenschaften haben nicht nur in Mathematik sondern auch in Physik sehr unterschiedliche Vorkenntnisse. Obwohl diese Fächer für das grundlegende Verständnis technischer Vorgänge von großer Bedeutung sind, kann die Ausbildung in diesen Bereichen angesichts der begrenzten dafür im Verlauf des Studiums zur Verfügung stehenden Zeitfenster nicht bei Null anfangen. Für Mathematik wurde daher von der Arbeitsgruppe cosh ein Mindestanforderungskatalog zusammengestellt und 2014 veröffentlicht. Er beschreibt Kenntnisse und Fertigkeiten, die Studienanfänger zur erfolgreichen Aufnahme eines WiMINT-Studiums (Wirtschaft, Mathematik, Informatik, Naturwissenschaft, Technik) an einer Hochschule benötigen. Inzwischen hat sich nun eine Arbeitsgruppe von Physikerinnen und Physikern an Hochschulen in Baden-Württemberg gebildet, deren Ziel es ist, einen analogen Mindestanforderungskatalog für den Bereich Physik zu erstellen. Hier wird der aktuell erreichte Stand der Arbeiten vorgestellt.
In dieser Arbeit wurde eine USB-Schnittstelle für ein bestehendes Mikrocontroller System FHOP realisiert. Im aktuellen Stand funktioniert das Design zuverlässig in Low Speed Konfiguration. Im Full Speed gibt es noch einige Schwierigkeiten, denn die Kommunikation bricht nach einigen Paket-Transfers zusammen. Durch das Emulieren des Designs auf FPGA wurde die Funktion nachgewiesen. Die nächste Aufgabe wird sein, die Hardware zu optimieren, damit das USB-Modul auch im Full Speed zuverlässig funktioniert. Zusätzlich wird die Software auf der PC Seite optimiert, um höhere Übertragungsraten zu erzielen.
Der Bericht beschreibt die Vorgehensweise für die Entwicklung von Hochleistungszweitaktmotoren beim Institut für Transportwesen und Motorentechnik (ITM). Die gezielte Auswertung von motorischen Daten bietet die Möglichkeit, Motorenentwicklungsprozesse in wichtigen Fragestellung zu unterstützen. Für die Auslegung von Bauteilen und Prozessen werden Simulationsprogramme eingesetzt. Diese Entwicklungswerkzeuge können effizienter angewandt werden, wenn die Berechnungsergebnisse einer Qualitätskontrolle unterliegen. Wichtig hierfür sind Bewertungskriterien, die aus der Erfahrung einer Vielzahl von Versuchen bestehen. Da in Produktion gegangene Motoren üblicherweise schon einen Evolutionsprozeß durchlaufen haben, kann vermutet werden, daß solche Kriterien von erfolgreichen und weniger erfolgreichen Produkten in der Weise abgeleitet werden können, wie dies hier vorgestellt wurde. Die Angabe von Trendfunktionen für konstruktive Merkmale und Betriebsparameter ist notwendig um eine bedarfsorientierte Vorauslegung von Antrieben durchführen zu können. Alle hier vorgestellten Ergebnisse sind natürlich von der Datenmenge abhängig, die zu den jeweiligen Fragestellungen ausgewertet werden kann. Dazu müssen alle durchgeführten Versuchsreihen in die Datenbank eingeführt und mit Ergebnissen der Simulationsrechnungen in Beziehung gesetzt werden.
About 20% of those heart failure patients receiving cardiac resynchronization therapy (CRT) are in atrial fibrillation (AF). Current guidelines apply for patients in sinus rhythm only. Recent studies have shown again, that successful resynchronization is closely linked to a pre-existent ventricular desynchronization. In those studies, the interventricular conduction delay (IVCD) was determined prior to device implantation by ultrasound in patients with sinus rhythm (SR)only. In patients with AF this method ́s use is limited.
To implement left-heart electrogram (LHE) into standard programmers and to simplify IVCD measurement in heart failure patients with AF, LHE was recorded in 11 AF patients with heart failure by Biotronik ICS3000 programmer via a15Hz Butterworth high-pass filter. Therefore, TOslim esophageal electrode (Dr. Osypka GmbH, Rheinfelden, Germany) was perorally applied and fixed in position of maximal left ventricular defection. IVCD was measured between onset of QRS in surface ECG and left ventricular defection (LV) in LHE. In addition, intra-left ventricular conduction delay (ILVCD) was measured as duration of LV in LHE.
In all of the 11 AF patients, desynchronization was quantifiable by LHE. Mean QRS of 162 ± 27ms (120-206ms) was linked with IVCD of 62ms ± 27ms (37-98ms) and ILVCD of 110 ± 20ms (80-144ms), at mean. Correlation between IVCD and QRS was 0.39 (n. s.) with IVCD/QRS ratio of 0.38 ± 0.11 (0.22-0.81).
A 15Hz high-pass filtered LHE feature of the Biotronik ICS3000 programmer is feasible to quantify ventricular dyssynchrony in heart failure patients with AF in order to clearly indicate implantation of CRT systems. As relations between QRS duration, IVCD and ILVCD considerably differ interindividually, the predictive values of IVCD, ILVCD and IVCD/QRS ratio for individual CRT response or non-response shall be identified in follow-up studies.