Open Access
Refine
Year of publication
Document Type
- Conference Proceeding (560)
- Article (reviewed) (277)
- Contribution to a Periodical (203)
- Article (unreviewed) (131)
- Bachelor Thesis (119)
- Working Paper (104)
- Report (65)
- Patent (59)
- Periodical Part (51)
- Master's Thesis (33)
Conference Type
- Konferenzartikel (342)
- Konferenz-Abstract (104)
- Konferenzband (68)
- Sonstiges (32)
- Konferenz-Poster (18)
Language
- German (856)
- English (833)
- French (1)
- Other language (1)
- Multiple languages (1)
- Russian (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- RoboCup (33)
- COVID-19 (26)
- Export (19)
- E-Learning (18)
- Machine Learning (14)
- Marketing (14)
- Social Media (14)
- Offenburg / Fachhochschule (13)
- Corona (12)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (416)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (381)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (296)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (251)
- Fakultät Wirtschaft (W) (173)
- INES - Institut für nachhaltige Energiesysteme (113)
- Fakultät Medien (M) (ab 22.04.2021) (78)
- Zentrale Einrichtungen (72)
- IMLA - Institute for Machine Learning and Analytics (56)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (41)
Die zunehmende Anzahl von Transistoren mit immer kleineren Strukturgrößen führt zu einer zunehmenden Leistungsaufnahme in modernen Prozessoren. Das gilt insbesondere für High-End Prozessoren, die mit einer hohen Taktfrequenz betrieben werden. Die aufgenommene Leistung wird in Wärme umgewandelt, die in einer Temperaturerhöhung der Prozessoren resultiert. Hohe Betriebstemperaturen verursachen u.a. eine verringerte Rechenleistung, eine kürzere Lebensdauer des Prozessors und höhere Leckströme. Aus diesen Gründen wird aktives, dynamisches thermisches Management immer wichtiger. Dieser Beitrag stellt eine Erweiterung zu dem Standard- Linux-Scheduler in der Kernel-Version 3.0 für eingebettete Systeme vor: einen PID-Regler, der unter Angabe einer Solltemperatur eine dynamische Frequenz- und Spannungsskalierung durchführt. Die Experimente auf dem Freescale LMX6 Quadcore-Prozessor zeigen, dass der PID-Regler die Betriebstemperatur des Prozessors an die Solltemperatur regeln kann. Er ist die Grundlage für eine in Zukunft zu entwickelnde prädiktive Regelung.
Transcatheter aortiv valve implantation is a new safe strategy treatment for patients with symptomatic severe aortic stenosis and high operative risk. The aim of the study was to compare the pre-and post- muiscatheter aortiv valve implantation procedures to determine the atrioventricuktr conduction time as a potential predictor of permanent pacemaker therapy requirement after transcatheter aortiv valve implantation. The transcatheter aortiv valve implantation patients were divided into groups without pacemaker and with dual or single chamber pacemEtker with diffent atrioventrieular conduction time disturbance before and after transcatheter aortiv valve implantation. In heart failure, patients without permanent pacemaker therapy after transcatheter aortiv valve implantation, atrioventricular conduction time was prolonged after transcatheter aortiv valve implantation. In patients with permanent dual chamber pacemaker therapy after transcatheter aortiv valve implantation, atrioventricular conduction time was normalised with dual chaniber atrioventrieuku pacing mode. Atrioventricular conduction time may be a useful parameter to evaluate the risk of post-procedural atrioventricular conduction block and permanent pacemaker therapy in transcatheter north, valve implantation patients.
An der Fachhochschule Offenburg wird der Design-Kit FHO_MTC_CMOS_035_v1.0 erstellt. Mit Hilfe dieses Kits lassen sich Designs in der AMI O.35 Mikrometer Technologie entwerfen. Alle durchgeführten Arbeiten werden durch den Entwurf eines Lottozahlengenerator-Chips verifiziert, der gefertigt wird. Damit sind alle wesentlichen Schritte bekannt, die für die Aufbereitung eines Design-Kits für beliebige Technologien für die Mentor-Tools erforderlich sind. Der Design-Kit wird für alle MPC-Mitglieder freigegen, die eine NDA für AMI bei Europractice unterzeichnet haben.
In dieser Arbeit wurde eine USB-Schnittstelle für ein bestehendes Mikrocontroller System FHOP realisiert. Im aktuellen Stand funktioniert das Design zuverlässig in Low Speed Konfiguration. Im Full Speed gibt es noch einige Schwierigkeiten, denn die Kommunikation bricht nach einigen Paket-Transfers zusammen. Durch das Emulieren des Designs auf FPGA wurde die Funktion nachgewiesen. Die nächste Aufgabe wird sein, die Hardware zu optimieren, damit das USB-Modul auch im Full Speed zuverlässig funktioniert. Zusätzlich wird die Software auf der PC Seite optimiert, um höhere Übertragungsraten zu erzielen.
Das übergeordnete Ziel dieser Arbeit ist die Entwicklung einer Lernanwendung für die Theorieausbildung von Gleitschirm- und Drachenfliegern. Daraus abgeleitete Ziele sind eine Überprüfung der Tätigkeit auf ihre Wirtschaftlichkeit sowie eine vollständige Analyse der Anforderungen von Nutzern und anderen Stakeholdern.
Die Analyse von Markt, Anforderungen und Technologien liefert wertvolle und hilfreiche Erkenntnisse für die Umsetzung der Lernanwendung. Die Berechnungen in der Marktanalyse zeigen, dass eine Umsetzung der Anwendung grundsätzlich wirtschaftlich möglich ist. Die bestehende und potentielle Konkurrenz wurde ermittelt und ihr Angebot detailliert verglichen und analysiert. Die Ermittlung der notwendigen Kennzahlen zur Berechnung der Wirtschaftlichkeit der unternehmerischen Tätigkeit ergeben sich durch die Berechnung von Marktvolumen Marktsättigungsgrad und Marktpotential. Im Kapitel Anforderungsmanagement wird zunächst eine umfangreiche Anforderungsermittlung durchgeführt. Diese besteht aus einem Interview und der Durchführung und Auswertung einer Online-Umfrage. Die Ergebnisse der Anforderungsermittlung werden analysiert und anschließend in Form eines Lasten- und eines Pflichtenhefts dokumentiert. Es zeigt sich, dass die ermittelten und analysierten Daten eine solide Grundlage für die weiteren Arbeiten bilden. Ein Experten-Interview und die Umfrage unter Gleitschirmfliegern ergeben keine in Konflikt stehenden Anforderungen und die aus der Auswertung der Umfrage ermittelten Anforderungen bestätigen viele bereits aus dem Interview ermittelten Anforderungen. Die ausgewertete Umfrage bietet außerdem wichtige Erkenntnisse über gewünschte Funktionen und die Zahlungsbereitschaft der Ziel- gruppe. Diese Erkenntnisse sind besonders in Anbetracht der anzustrebenden Marktpositionierung hilfreich. Die Spezifikation von Anforderungen im Lastenheft ermöglicht es, ein passendes Konzept zu erstellen und den Anforderungen gerecht werdende Technologien auszuwählen. Für die Konzeption der Anwendung wurden Personas, Wireframes und Strukturdiagramme erstellt, die den Anforderungen aus dem Lastenheft gerecht werden. Der Konzeption der Anwendung wurde, verglichen mit den anderen Arbeits- schritten, weniger Platz eingeräumt, da erstens kaum restriktive Anforderungen an das Design bestehen und zweitens die Anwendungsentwicklung mit UI-Frameworks kein fotorealistisches Layout voraussetzt, um ästhetische und benutzerfreundliche Anwendungen zu konzipieren. Es zeigt sich, dass für die gegebenen Anforderungen die Erstellung von Wireframes ausreichend ist. Im Kapitel „Technologieauswahl“ wird eine umfangreiche analytische Arbeit betrieben, um eine optimale Auswahl von passenden Technologien zu erhalten. Die analytische Arbeit besteht dabei aus dem Vergleich verschiedener Systemumgebungen, App-Technologien und Frameworks. Dabei wird deutlich, dass eine Progressive Web-App in einer cloudbasierten Systemumgebung mit einem Backend-as-a-Service Modell die Anforderungen am besten erfüllt. Im Kapitel „Umsetzung“ wird dokumentiert, wie die Anwendung realisiert wurde. Für die Umsetzung der Lernanwendung und des dazugehörigen Administrationsbereiches wurden etwa 6000 Zeilen Code geschrieben. Sowohl den Administrationsbereich als auch die Lernanwendung konnte zu großen Teilen fertig gestellt werden.
Zusammenfassend lässt sich festhalten, dass die Zielsetzung dieser Arbeit erfüllt wurde, indem die wichtigsten Grundlagen zur späteren vollständigen Umsetzung erarbeitet wurden. Mit Spannung zu erwarten ist, wie sich die gewählte BaaS-System-umgebung in Zukunft entwickelt und ob diese auch weiterhin den Anforderungen gerecht wird. Neben den noch ausstehenden Arbeiten bei der Umsetzung sind auch mögliche Erweiterungen denkbar. So konnte das Lernsystem noch weiter optimiert werden, zum Beispiel durch automatische Erstellung eines Lernplans, basierend auf dem Prüfungstermin oder durch Implementierung von Push-Benachrichtigungen, die den Nutzer zum Öffnen der Anwendung auffordern. Denkbar ist auch eine Übertragung des Anwendungskonzepts auf andere Sportarten oder Ausbildungen. Dabei müsste überlegt werden, ob sich die jeweilige Prüfungsform zum Lernen mit einer Lernkartei eignet oder welche Aufwände für eine Anpassung an andere Sportarten notwendig wären.
Turbinen aus der Tragetasche
(2014)
Am Karlsruher Institut für Technologie wurde der Prototyp eines Kleinwindkraftwerks zur autarken Stromversorgung entwickelt. Das "Energypack" genannte System besteht aus einem 1,10 m langen PVC-Gehäuse mit dreieckigem Querschnitt, Generator, Seilen sowie Funkgerät und kostet ab 50 Euro. Mit dem Energypack kann ein Dynamo mit 2,5 W angetrieben werden. An der Dualen Hochschule BW Heidenheim wurde das System "Anemotec" entworfen, das anstelle von Windflügeln über ein schraubenähnliches Gewinde verfügt. Der Rotor und die Windführung bestehen aus glasfaserverstärkten Werkstoffen. Die erzeugte Leistung liegt bei 365 W, die Stromgestehungskosten liegen bei 23 Cent pro kWh. Die von der Hochschule Offenburg entwickelte Windturbine "Windzip" arbeitet mit einem H-Rotor und besteht aus neun leicht gekrümmten Blechen, die wie Planeten in unterschiedlichem Abstand und in unterschiedlicher Höhe um einen vertikalen Stab kreisen. Bei einer Windgeschwindigkeit von 10 Meter pro Sekunde wurde damit eine Leistung von 40 W erzeugt.
In der Wertanalyse ist die Methodik TRIZ (Theorie der Lösung erfinderischer Problemstellungen) seit vielen Jahren als Werkzeug zur Kostensenkung oder zur Steigerung der Funktionalität von Produkten bekannt. Seit ihrem ersten Bekanntwerden in Westeuropa hat sich auch TRIZ weiterentwickelt. So wurden Methoden zur Modellierung von Systemen inzwischen erweitert und um Werkzeuge zur schnellen Lösungsfindung, zur Fehlervoraussage und zur Produktplanung neu entwickelt. Durch den weltweiten wissenschaftlichen Fortschritt, die Verwendung unterschiedlicher Sprachen und neue Literatur ist andererseits auch die verwendete Terminologie angewachsen und nicht mehr eindeutig. Die neue VDI-Richtlinie 4521, von deren erstem Teil nun der Gründruck vorliegt, zielt deswegen auf eine Standardisierung der Terminologie und eine vereinheitlichte Beschreibung der Methoden ab. Mit ihrer Hilfe sollen das Studium der Methodik erleichtert, die Benutzung von Literatur vereinfacht und Inhalte der TRIZ klarer darstellbar werden.
Systemic Constellations are a phenomenological approach to resolving personal, professional and organizational issues. They offer a way of mapping a present reality, working at the source of the hidden dynamics and moving to a resolution. This systemic approach often delivers surprising and unexpected insights while also offering the possibility to analyze and solve organizational problems. Rational analysis provides the whole picture of the problem which often turns out to be too complex for a decision making. Systemic constellations can help to simplify and clarify the situation and inform what has to happen next [8], [17]. The outcomes of systemic constellations as an additional resource for solving comprehensive technical problems have not yet been sufficiently investigated. In structural constellation work dealing with technical problems, the individuals who are involved in the problem situation are used to represent different system components, substances or fields. A moderator voices the feedback from the representatives concerning their feelings or intuitive movements, and points to possible solutions. For example, a moderator places the representatives somewhere in the room, develops a three-dimensional picture of the constellation of the analyzed situation and tries to expose the factors empowering or blocking the way towards constructive solutions [13]. This paper explores the theoretical background and practical outcomes of the systemic constellation method for technical problem solving. It presents some case study work which has been conducted in recent years, and then discusses its findings and implications. The research outlined in this paper demonstrates that the noteworthy contribution of structural constellation work for problem solving is typically the result of a combination of functional analysis and the feeling-as-information principle. The constellation work helps, at first, to reveal the subjective experiences, such as feelings, moods, emotions, and bodily sensations, and then to accept them as a source of objective information relevant to the decision making process. In accordance with the latest research [19], the use of feelings as a source of information follows the same principles as the use of any other information. This paper provides the structures of some standard templates and types of constellation work for technical problems, and discusses the preconditions for their application.
The effective executing innovation projects requires multiple estimation of market success of new product features in the early stages of customer-centered innovation process such as strategy formulation, evaluation of ideas and concepts and also at a stage close to the market launch. The attempts to integrate customers for estimation of the market success often result in time-consuming customer interviews or lengthy field research. For this reason, industrial companies usually try to skip customer surveys even if they risk that their innovations will fail to bring the anticipated economic outcomes. In many practical cases, the customer surveys are simply not feasible or too expensive. As a result, the internal assessments within companies are frequently the only resource available in innovation process in the industrial environment. The paper discusses the possibilities of the fast identification of promising innovation opportunities and new product features based on the internal competences of companies. It compares the results of customer surveys with the estimation of internal company-experts and analyses the accuracy and validity of the expert assessments. The presented case studies demonstrate the accuracy rate between 43% and 77% for prediction of new product features with high market potential by company-internal experts. The paper proposes the evaluation methods to increase the accuracy rate and outlines that one of the essential requirements for reliable forecasting by the experts is their profound understanding of the customer working process, the ability to estimate the importance of customer needs and to assess the level of customer satisfaction with current products on the market.
The formation of secondary phases in the porous electrodes is a severe mechanism affecting the lifetime of solid oxide fuel cells (SOFC). It can occur via various chemical mechanisms and it has a significant influence on cell performance due to pore clogging and deactivation of active surfaces and triple-phase boundary (TPB). We present a modeling and simulation study of nickel oxide formation (reoxidation) and carbon formation (coking) within the SOFC anode. We use a 2D continuum model based on a multi-phase framework [Neidhardt et al., J. Electrochem. Soc., 159, 9 (2012)] that allows the introduction of arbitrary solid phases (here: Ni, YSZ, NiO, Carbon) plus gas phase. Reactions between the bulk phases are modeled via interface-adsorbed species and are described by an elementary kinetic approach. Published experimental data are used for parameterization and validation. Simulations allow the prediction of cell performance under critical operation conditions, like (i) a non-fuel operation test, where NiO formation is taking place (Figure 1a), or (ii) an open circuit voltage (OCV) stability test under hydrocarbon atmosphere, where solid carbon is formed (Figure 1b). Results are applied for enhanced interpretation of experimental data and for prediction of safe operation conditions.
Non-fluoroscopic Imaging with MRT/CT Image Integration - Catheter Positioning with Double Precision
(2014)
Introduction: When antiarrhythmic drug therapy has failed, different approaches of pulmonary vein isolation are considered a reasonable option in the treatment of atrial fibrillation. It will be performed predominantly by radiofrequency catheter ablation. As the individual anatomy of left atrium and the pulmonary veins differs considerably, accurate visualization of these structures is essential during catheter positioning. Using non-fluoroscopic electroanatomic mapping system with image integration, electroanatomic mapping can be combined with highly detailed anatomical MRT or CT information on complex left atrial structures. This may facilitate catheter navigation during ablation for atrial fibrillation.
Methods: The CARTO XP electroanatomic system was used in a project during biomedical engineering study to practice image integration of anonymized real patients that underwent pulmonary vein isolation by CARTO XP and a MRT/CT procedure. Using the image integration software, MRT or CT images were imported into the CARTO XP system. The next process was segmentation of the acquired images. It involves dividing the images into different regions in order to select the structures of interest. In clinical routine, this segmentation has to be performed before catheter ablation. Then, the segmented images were aligned with the reconstructed electroanatomic maps. This consists of several steps, including selection of the left atrium, scaling of the reconstructed geometry, fusion of the structures using landmarks, and optimization of the integration by adjusting the reconstructed geometry of the left atrium.
Results: In the 3 months lasting period of the project, image integration was trained in 13 patients undergoing catheter ablation for atrial fibrillation. Within this period, time consumption for the process decreased from about 90 minutes at the beginning to about 35 minutes at the end for one patient.
Conclusion: Image integration into non-fluoroscopic electroanatomic map is a sophisticated tool in cardiac radiofrequency catheter ablation. Intensive training is necessary to control the procedure.
Die Energiewende ist ein elementares Thema, für Deutschland wie auch für viele andere Regionen weltweit. Bei der Bereitstellung effizienter und stabiler Verteilnetze stellen Kommunikationslösungen einen zentralen Baustein dar, um auf der Grundlage eines zeitnahen Monitorings koordinierte Regelalgorithmen zu realisieren. Dies gilt für alle Ebenen der Versorgung, wobei aus Sicht der Kommunikationstechnik die unterste Ebene der Verteilnetze am interessantesten ist: Hier sind die anspruchsvollsten Anforderungen im Hinblick auf die Kosten- und die Energieoptimierung der Kommunikationsknoten sowie die Administrierbarkeit, die Stabilität und die Skalierbarkeit der Gesamtlösung zu berücksichtigen. Das Steinbeis-Transferzentrum Embedded Design und Networking an der Hochschule Offenburg unter der Leitung von Prof. Dr.-Ing. Axel Sikora hat in verschiedenen Projekten mit renommierten Partnern umfangreiche Lösungen für diese sogenannte Primärkommunikation entwickelt.
Automatic Meter Reading (AMR) is a major enabler for the upcoming smart grid. Potentially, it will be one of the first really large-scale M2M-communication solutions for sensor applications.
To date, the definition of the standardized communication stacks for Local Metrological Network (LMN) in AMR is still ongoing. This holds true both for ZigBee Smart Energy Profile and for Wireless M-Bus according to EN 13757. During this process, there is the necessity for flexible, albeit optimized solutions, which support the different existing and upcoming versions of the communication protocols. In the case of Wireless M-Bus, the major contender for European and possibly Asian installations, this is valid not only for the different operation modes (C-, N-, P-, Q-, R-, S-, and T-modes), which work in different frequencies (i.e. 868 MHz, 433 MHz, and 169 MHz) but also for the application layer, where additional bodies, like EN137575, Open Metering System (OMS) Group, or national bodies follow their approaches.
This contribution describes requirements, design techniques and experiences from the development of highly efficient Wireless M-Bus protocol stacks with support of good flexibility and portability between microcontroller platforms and RF-transceivers. The presented approach is not limited to the use of modern software engineering design processes, as such, but also includes essential additional features like testing or simulation, as well as tools for commissioning and monitoring.
The communication technologies for automatic me-ter reading (smart metering) and for energy production and distribution networks (smart grid) have the potential to be one of the first really highly scaled machine-to-machine-(M2M)-applications. During the last years two very promising devel-opments around the wireless part of smart grid communication were initialized, which possibly have an impact on the markets far beyond Europe and far beyond energy automation. Besides the specifications of the Open Metering System (OMS) Group, the German Federal Office for Information Security (Bundesamt für Sicherheit in der Informationstechnik, BSI) has designed a protection profile (PP) and a technical directive (TR) for the communication unit of an intelligent measurement sys-tem (smart meter gateway), which were released in March 2013. This design uses state-of-the-art technologies and prescribes their implementation in real-life systems. At first sight the expenditures for the prescribed solutions seem to be significant. But in the long run, this path is inevitable and comes with strategic advantages.
Virtual-Reality hat in den letzten Jahren zunehmend an Bedeutung gewonnen. Insbesondere die Verfügbarkeit günstiger (End-)Geräte (z. B. Samsung Gear, Google Cardboard) haben diesen Trend weiter verstärkt. Dabei bietet Virtual-Reality für Unternehmen vielfältige Anwendungsmöglichkeiten. So lassen sich etwa erklärungsbedürftige Produkte oder Dienstleistungen wesentlich besser präsentieren als mit klassischen Formen der Produktpräsentation. Virtual-Reality und die hiermit verbundenen Eigenschaften, wie etwa die Immersion (das Gefühl des Nutzers, sich an einem anderen Ort zu befinden), bietet nicht nur für Unternehmen aus der Gaming- oder Entertainmentbranche zahlreiche Möglichkeiten, sondern wird in Zukunft auch im (Online-)Handel immer wichtiger.
Allerdings zeigt sich auch, das die Konzeption von Virtual-Reality-Produktionen durchaus komplex ist. Neben den technischen Herausforderungen bei der Aufnahme von geeignetem Bildmaterial und dessen digitaler Weiterverarbeitung müssen auch die Herausforderungen des VR-spezifischen Storytelling berücksichtigt werden.
Die Autoren der vorliegenden Veröffentlichung geben einen Überblick über einige zentrale Aspekte dieser neuen Technologie.
Die Veröffentlichung richtet sich an Unternehmer, die planen Virtual-Reality einzusetzen und sich einen ersten Überblick über zentrale Aspekte machen möchten.
Multi-agent systems are a subject of continuously increasing interest in applied technical sciences. Smart grids are one evolving field of application. Numerous smart grid projects with various interpretations of multi-agent systems as new control concept arose in the last decade. Although several theoretical definitions of the term ‘agent’ exist, there is a lack of practical understanding that might be improved by clearly distinguishing the agent technologies from other state-of-the-art control technologies. In this paper we clarify the differences between controllers, optimizers, learning systems, and agents. Further, we review most recent smart grid projects, and contrast their interpretations with our understanding of agents and multi-agent systems. We point out that multi-agent systems applied in the smart grid can add value when they are understood as fully distributed networks of control entities embedded in dynamic grid environments; able to operate in a cooperative manner and to automatically (re-)configure themselves.
Components of rocket engines as actively cooled combustion chambers must withstand high pressure as well as severe and complex thermal transients. While the thermal transients result in temperature gradients and, thus, in constraint thermal strains, the pressure load induces mean stresses. To assess the mechanical behaviour of such components during design via finite-element calculations, constitutive models are necessary that describe the time- and temperature-dependent plasticity of the material appropriately.
Advanced models account for viscoplastic deformations including isotropic and kinematic hardening, recovery and ratcheting. However, the models contain a relatively large number of temperature-dependent material properties that must be determined on the basis of data of material tests. The determination of the properties is a non-trivial task because it is not clear which loading history must be applied in the tests for a certain material to obtain stable and robust (i.e. objective) material properties. Consequently, the determined properties are depending on the underlying loading history in the tests as well as on the experience and valuation of the person that determined the properties. This results in uncertainties during the assessment of the components that must be faced with conservative designs leading to negative consequences in terms of mass and costs.
It is the aim of this work funded by the European Space Agency ESA to derive a procedure to determine stable and robust material properties of an advanced viscoplastic constitutive model for aerospace materials. To this end, a special loading history is applied in isothermal material tests conducted with copper at different temperatures in the temperature range from 300 to 700 K. To determine the material properties and to assess stability and robustness methods for numerical optimization as well as analytical and statistical methods are used. The determined material properties are validated on the basis of results of thermomechanical material tests also conducted in the temperature range from 300 to 700 K.