Refine
Year of publication
- 2017 (239) (remove)
Document Type
- Conference Proceeding (87)
- Article (reviewed) (43)
- Article (unreviewed) (32)
- Part of a Book (23)
- Book (17)
- Other (11)
- Contribution to a Periodical (6)
- Letter to Editor (6)
- Report (6)
- Patent (5)
Conference Type
- Konferenzartikel (58)
- Konferenz-Abstract (22)
- Konferenz-Poster (3)
- Sonstiges (3)
- Konferenzband (1)
Has Fulltext
- no (239) (remove)
Is part of the Bibliography
- yes (239)
Keywords
- CST (7)
- HF-Ablation (7)
- CRT (5)
- Ermüdung (4)
- Games (4)
- Gamification (4)
- Computer Games (3)
- Computerspiele (3)
- Controlling (3)
- Game Design (3)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (76)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (63)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (57)
- Fakultät Wirtschaft (W) (43)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (10)
- INES - Institut für nachhaltige Energiesysteme (9)
- ACI - Affective and Cognitive Institute (8)
- IfTI - Institute for Trade and Innovation (6)
- WLRI - Work-Life Robotics Institute (5)
- Zentrale Einrichtungen (4)
Open Access
- Closed Access (105)
- Open Access (75)
- Bronze (5)
- Closed (5)
- Diamond (1)
- Gold (1)
- Grün (1)
Objective: This paper deals with the design and the optimization of mechatronic devices.
Introduction: Comparing with existing works, the design approach presented in this paper aims to integrate optimization in the design phase of complex mechatronic systems in order to increase the efficiency of this method.
Methods: To solve this problem, a novel mechatronic system design approach has been developed in order to take the multidisciplinary aspect and to consider optimization as a tool that can be used within the embodiment design process to build mechatronic solutions from a set of solution concepts designed with innovative or routine design methods.
Conclusions: This approach has then been applied to the design and optimization of a wind turbine system that can be implemented to autonomously supply a mountain cottage.
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.
In diesem Beitrag werden die Bereitstellungskosten flexibler Systemkomponenten im deutschen Stromsystem analysiert, zu deren Quantifizierung eine einheitliche Methodik entwickelt wird. Dabei ist das Ziel des Beitrags, zeitlich differenzierte Kostenpotenzialkurven für die Jahre 2015 und 2030 zu erarbeiten, anhand derer die energiespezifischen Kosten der markt- und systemdienlichen Flexibilitätsbereitstellung verglichen und die einzelnen Flexibilitätsoptionen in einen Gesamtkontext eingeordnet werden können.
Der Einsatz flexibler Systemkomponenten wird hierzu in die drei Hauptphasen (1) Vorhaltung, (2) Abruf und (3) Einsatzfolgen unterteilt, woraus sich drei kongruente Kostengruppen ableiten lassen, nach denen die einzelnen Kostenbestandteile identifiziert und als Ergebnis die Bereitstellungskosten quantifiziert werden. Neben fossil-thermischen Kraftwerken werden dabei bspw. die Kraft-Wärme-Kopplung, Biogasanlagen, Pumpspeicher- und Laufwasserkraftwerke sowie steuerbare Lasten untersucht.
Zur anschließenden Abbildung der teils negativen Bereitstellungskosten wird die herkömmliche Darstellungsform der Merit Order entlang der Ordinate um die Abbildung negative Werte erweitert und die Abszisse für die Abbildung negativer Flexibilität in umgekehrter Reihenfolge angeordnet. Das Ergebnis sind zwei zusammenhängende Graphen, mittels derer sich die Bereitstellungskosten verschiedener Flexibilitätsoptionen gegenüberstellen und anschaulich vergleichen lassen.
Durch die Festlegung eines Rahmenszenarios zur Entwicklung des deutschen Stromsystems bis zum Jahr 2030 wird anschließend auch die zukünftige Perspektive der Flexibilitätsbereitstellung in Deutschland analysiert. Aus den Ergebnissen lässt sich ableiten, dass der deutsche Kraftwerkspark mit einem fortschreitenden Rückbau der Kohlekraftwerke nur dann zunehmend flexibler wird und auf höhere Schwankungen im Stromnetz reagieren kann, wenn von einem gleichzeitigen Zubau moderner erdgasbetriebener Kraftwerke ausgegangen wird. In diesem Fall steigen die Bereitstellungskosten positiver Flexibilität, was sich beispielsweise durch zukünftig steigende Brennstoffpreise bergründen lässt. Jedoch kann bspw. durch die Transformation der Kraft-Wärme-Kopplung hin zu einer grundsätzlich stromgeführten Fahrweise zukünftig eine vergleichsweise kostengünstige Flexibilitätsbereitstellung erschlossen und somit auch ein gleichbleibendes oder oftmals sogar höheres Flexibilitätsniveau am Markt erreicht werden.
Qualitative Wissenschaft, künstlerisches Forschen und forschendes Lernen verbinden Erkenntnis aus Praxis und Erfahrung. In der Autoethnographie der eigenen Werkstatt des Hörens wie der Kultur in Studios anderer, wird die noch neue Interdisziplin Sound (Studies) erprobt und vertieft, mit Impulsen für die Praxis und Theorie, von der noch wenig bekannten A/r/t ographie heute, hin zu einer künftig A/R/Tophonie, dem künstlerischen Forschen in der Musik, ebenso wie durch Klang Komposition, Radio Kunst und visuelle Musik.
Automatic Identification of Travel Locations in Rare Books - Object Oriented Information Management
(2017)
The digital content of the Internet is growing exponentially and mass digitization of printed media opens access to literature, in particular the genre of travel literature from the 18th and 19th century, which consists of diaries or travel books describing routes, observations or inspirations. The identification of described locations in the digital text is a long-standing challenge which requires information technology to supply dynamic links to sources by new forms of interaction and synthesis between humanistic texts and scientific observations.
Using object oriented information technology, a prototype of a software tool is developed which makes it possible to automatically identify geographic locations and travel routes mentioned in rare books. The information objects contain properties such as names and classification codes for populated places, streams, mountains and regions. Together, with the latitudes and longitudes of every single location, it is possible to geo-reference this information in order that all processed and filtered datasets can be displayed by a map application. This method has already been used in the Humboldt Digital Library to present Alexander von Humboldt’s maps and was tested in a case study to prove the correctness and reliability of the automatic identification of locations based on the work of Alexander von Humboldt and Johann Wolfgang von Goethe.
The results reveal numerous errors due to misspellings, change of location names, equality of terms and location names. But on the other hand it becomes very clear that results of the automatic object detection and recognition can be improved by error-free and comprehensive sources. As a result an increase in quality and usability of the service can be expected, accompanied by more options to detect unknown locations in the descriptions of rare books.
Technology and computer applications influence our daily lives and questions arise concerning the role of artificial intelligence and decision-making algorithms. There are warning voices, that computers can, in theory, emulate human intelligence-and exceed it. This paper points out that a replacement of humans by computers is unlikely, because human thinking is characterized by cognitive heuristics and emotions, which cannot simply be implemented in machines operating with algorithms, procedural data processing or artificial neural networks. However, we are going to share our responsibilities with superior computer systems, which are tracking and surveying all of our digital activities, whereas we have no idea of the decision-making processes inside the machines. It is shown that we need a new digital humanism defining rules of computer responsibilities to avoid digital totalism and comprehensive monitoring and controlling of individuals within the planet Earth.
This paper describes the Sweaty II humanoid adult size robot trying to qualify for the RoboCup 2017 adult size humanoid competition. Sweaty came 2nd in RoboCup 2016 adult size league. The paper describes the main characteristics of Sweaty that made this success possible, and improvements that have been made or are planned to be implemented for RoboCup 2017.
In this TDP we describe a new tool created for testing the strategy layer of our soccer playing agents. It is a complete 2D simulator that simulates the games based on the decisions of 22 agents. With this tool, debugging the decision and strategy layer of our agents is much more efficient than before due to various interaction methods and complete control over the simulation.
In the future, the tool could also serve as a measure to run simulations of game series much faster than with the 3D simulator. This way, the impact of different play strategies could be evaluated much faster than before.
In the present work, nonlinearities in temperature compensating (TC) SAW devices are investigated. The materials used are LiNbO₃-rot128YX as the substrate and Copper electrodes covered with a SiO₂-layer as the compensating layer. In order to understand the role of these materials for the nonlinearities in such acoustic devices, a FEM simulation model in combination with a perturbation approach is applied. The nonlinear tensor data of the different materials involved in TC-SAW devices have been taken from literature, but were partially modified to fit experimental data by introducing scaling factors. An effective nonlinearity constant is determined by comparison of nonlinear P-matrix simulations to IMD3 measurements of test filters. By employing these constants in nonlinear periodic P-matrix simulations a direct comparison to nonlinear periodic FEM-simulations yields the scaling factors for the material used. Thus, the contribution of different materials to the nonlinear behavior of TC-SAW devices is obtained and the role of metal electrodes is discussed in detail.
Das Ziel des Vorhabens TempOLadung war die Entwicklung von optimierten Ladeverfahren für eine Lithium-Ionen-Batterie. Die Optimierung erfolgte unter besonderer Berücksichtigung des Temperaturverhaltens. Es wurden Methoden der mathematischen Modellierung und numerischen Simulation sowie der experimentellen Diagnostik eingesetzt. Kooperationspartner war das mittelständische Unternehmen Leclanché, ein traditioneller Batteriehersteller mit Produktionsstandort in Willstätt/Baden-Württemberg.
In dieser Arbeit werden die außentemperaturgeführte Vorlauftemperaturregelung (Standard-TABS-Strategie), ein Verfahren das auf einer multiplen linearen Regression basiert (AMLR-Strategie) und ein Verfahren, das unter dem Obergriff der modellprädiktiven Regelung (MPC-Strategie) zusammengefasst werden kann, untersucht. Anhand der Simulationsergebnisse und des Integrationsaufwandes in die Gebäudeautomation des Seminargebäudes wurde eine Fokussierung auf die AMLR-Strategie vorgenommen.
Im vorliegenden Bericht werden die Arbeiten und Ergebnisse der Hochschule Offenburg (HSOG) des Teilvorhabens 3 (TV3) dargestellt. Im Rahmen dieses Teilvorhabens war die HSOG direkt in das Teilprojekt 3 – berufsbegleitender Bachelorstudiengang Informatik/IT-Sicherheit – involviert. Für dieses Teilprojekt wurden Studieninhalte entwickelt und die Pilotierung für ausgewählte Jahrgänge durchgeführt.
Am Buffet des Lebens
(2017)
Message co chairmen
(2017)
In this study, a high-performance controller is proposed for single-phase grid-tied energy storage systems (ESSs). To control power factor and current harmonics and manage time-shifting of energy, the ESS is required to have low steady-state error and fast transient response. It is well known that fast controllers often lack the required steady-state accuracy and trade-off is inevitable. A hybrid control system is therefore presented that combines a simple yet fast proportional derivative controller with a repetitive controller which is a type of learning controller with small steady-state error, suitable for applications with periodic grid current harmonic waveforms. This results in an improved system with distortion-free, high power factor grid current. The proposed controller model is developed and design parameters are presented. The stability analysis for the proposed system is provided and the theoretical analysis is verified through stability, transient and steady-state simulations.
Exploiting Dissent: Towards Fuzzing-based Differential Black Box Testing of TLS Implementations
(2017)
The Transport Layer Security (TLS) protocol is one of the most widely used security protocols on the internet. Yet do implementations of TLS keep on suffering from bugs and security vulnerabilities. In large part is this due to the protocol's complexity which makes implementing and testing TLS notoriously difficult. In this paper, we present our work on using differential testing as effective means to detect issues in black-box implementations of the TLS handshake protocol. We introduce a novel fuzzing algorithm for generating large and diverse corpuses of mostly-valid TLS handshake messages. Stimulating TLS servers when expecting a ClientHello message, we find messages generated with our algorithm to induce more response discrepancies and to achieve a higher code coverage than those generated with American Fuzzy Lop, TLS-Attacker, or NEZHA. In particular, we apply our approach to OpenssL, BoringSSL, WolfSSL, mbedTLS, and MatrixSSL, and find several real implementation bugs; among them a serious vulnerability in MatrixSSL 3.8.4. Besides do our findings point to imprecision in the TLS specification. We see our approach as present in this paper as the first step towards fully interactive differential testing of black-box TLS protocol implementations. Our software tools are publicly available as open source projects.
Proton Exchange Membrane Fuel Cell (PEMFC) is one of the most promising technologies for sustainable energy production due to the high power density, low operative temperature and more convenient use for several applications. Nevertheless, the high generated current that characterizes PEMFC requires a specific power conditioning. In addition, specific controller must be designed to fit with system operative points changing associated with the variation of this high current. To deal with this challenge, in this paper, an electrochemical system composed of a Proton Exchange Membrane Fuel Cell (PEMFC) feeding via two phases IBC has been proposed and investigated. For robustness, the used IBC for fuel cell voltage regulation is controlled by linear quadratic regulator (LQR). Then, genetic algorithms technique is applied to optimize the LQR controller parameters giving optimal control coefficients and can if necessary be adjusted according to each working situation change. The model of the entire system is studied using Matlab/Simulink environment. The simulation’s comparative standard and robustness results both demonstrate that the proposed GA-based LQR controller outperforms the conventional PI in terms of performance metrics (overshoot reduction: between 58.93% and 97.09%; response time reduction: between 56.40% and 77.00% and ripple reduction: between 84.00% and 94.86%).
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Die Erfindung betrifft eine Vorrichtung mit deren Hilfe ein Gas, vorzugsweise Luft, erwärmt und dem Gas Feuchtigkeit und Schadstoffpartikel entzogen werden können. Die vorliegende Erfindung betrifft auch eine Speicherpatrone zum Speichern von thermischer Energie, die in einer erfindungsgemäßen Vorrichtung verwendet werden kann. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung der erfindungsgemäßen Vorrichtung bzw. der erfindungsgemäßen Speicherpatrone zum Erwärmen von Gas oder zum Entfernen von Feuchtigkeit aus einem Gas. Ein Verfahren zum Erwärmen von Gas bzw. dem Entfernen von Feuchtigkeit aus einem Gas sowie ein Verfahren zum Regenerieren einer entladenen erfindungsgemäßen Speicherpatrone sind ebenso Gegenstand der vorliegenden Erfindung.
In der Planungs- und Betriebspraxis herrscht im Bereich der Betriebsführung von thermisch aktivierten Bauteilsystemen und insbesondere der thermisch trägen Bauteilaktivierung noch große Unsicherheit. Trotz einer weiten Verbreitung dieser Systeme im Neubau von Nichtwohngebäuden hat sich bis heute keine einheitliche Betriebsführungsstrategie durchgesetzt. Vielmehr kritisieren Bauherren und Nutzer regelmäßig zu hohe bzw. niedrige Raumtemperaturen in den Übergangsjahreszeiten und bei Wetterwechsel sowie generell eine mangelhafte Regelbarkeit. Demgegenüber weisen Monitoringprojekte immer wieder einen hohen thermischen Komfort in diesen Gebäuden nach. Offensichtlich unterscheiden sich hier subjektiv empfundene Behaglichkeit und objektiv gemessener Komfort. Gleichzeitig sind Heiz- und Kühlkonzepte mit Flächentemperierung dann besonders energieeffizient, wenn das Regelkonzept auf deren thermische Trägheit angepasst ist. Eine gute Regelung gewährleistet also einen hohen thermischen Komfort und sorgt für einen möglichst niedrigen Energieeinsatz. Das Rechenverfahren mit Anlagenaufwandszahlen (in Anlehnung an DIN V 18599) bietet eine gute Möglichkeit, Anlagenkonzepte inklusive deren Betriebsführungsstrategie zu bewerten. Damit ist es möglich, eine auf das Gebäude angepasste Betriebsführungsstrategie für die Bauteilaktivierung zu finden und einheitlich zu bewerten.
The Bluetooth community is in the process to develop mesh technology. This is highly promising as Bluetooth is widely available in Smart Phones and Tablet PCs, allowing an easy access to the Internet of Things. In this paper work, we investigate the performance of Bluetooth enabled mesh networking that we performed to identify the strengths and weaknesses. A demonstrator for this protocol has been implemented by using the Fruity Mesh protocol implementation. Extensive test cases have been executed to measure the performance, the reliability, the power consumption and the delay. For this, an Automated Physical Testbed (APTB), which emulates the physical channels has been used. The results of these measurements are considered useful for the real implementation of Bluetooth; not only for home and building automation, but also for industrial automation.
Erfinderisches Problemlösen mit TRIZ : Zielbeschreibung, Problemdefinition und Lösungspriorisierung
(2017)
Die Theorie des erfinderischen Problemlösens, TRIZ, ist eine Systematik von Annahmen, Regeln, Methoden und Werkzeugen zur innovativen Systemverbesserung z.B. von Produkten, Prozessen, Dienstleistungen oder Organisationen. Diese Richtlinie erläutert TRIZ-Werkzeuge und -Methoden, die insbesondere in den Phasen "Zielbeschreibung", "Problemdefinition" und "Lösungspriorisierung" des Problemlösungsprozesses eingesetzt werden. Die Detailtiefe der Beschreibung erlaubt eine Einschätzung der Werkzeuge und Methoden hinsichtlich Einsatzzwecken, Ergebnissen und Funktionsweise. Die jeweilige Beschreibung der Methoden und Werkzeuge enthält konkrete Aussagen über Zielsetzung und Ergebnis ihres Einsatzes.
Background: R-wave synchronised atrial pacing is an effective temporary pacing
therapy in infants with postoperative junctional ectopic tachycardia. In the technique
currently used, adverse short or long intervals between atrial pacing and ventricular
sensing (AP–VS) may be observed during routine clinical practice.
Objectives: The aim of the study was to analyse outcomes of R-wave synchronised
atrial pacing and the relationship between maximum tracking rates and AP–VS
intervals.
Methods: Calculated AP–VS intervals were compared with those predicted by experienced
pediatric cardiologist.
Results: A maximum tracking rate (MTR) set 10 bpm higher than the heart rate (HR)
may result in undesirable short AP–VS intervals (minimum 83 ms). A MTR set 20 bpm
above the HR is the hemodynamically better choice (minimum 96 ms). Effects of either
setting on the AP–VS interval could not be predicted by experienced observers. In our
newly proposed technique the AP–VS interval approaches 95 ms for HR > 210 bpm
and 130 ms for HR < 130 bpm. The progression is linear and decreases strictly
(− 0.4 ms/bpm) between the two extreme levels.
Conclusions: Adjusting the AP–VS interval in the currently used technique is complex
and may imply unfavorable pacemaker settings. A new pacemaker design is advisable
to allow direct control of the AP–VS interval.
Critical theory and philosophy across many fields in the humanities has become awash with what has been characterised as ‘the material turn’. This material turn, which seems to involve varying combinations of what is known as Object Orientated Ontology (Harman), Actor-Network Theory (Latour), process philosophy (Whitehead), speculative realism (Bryant), or agential realism (Barad), emphasises some move toward a posthuman understanding of what the world is, and our relation to it.
Die in diesem Aufsatz angesprochenen drei Skype-Performances, die wir im Zeitraum von 2010 bis 2013 durchgeführt haben, fokussieren nicht auf die trennenden Momente der handelnden Subjekte und ihrer Medien, sondern verfolgen eine radikal verkörperte, techno-ökologische Sichtweise. Im Kern untersuchen wir erweiterte Phänotypen , die durch das fortlaufende Parasitiert-Werden unserer Organismen durch die elektronischen Kanäle entstehen. So gesehen verbinden sich via Skype keine getrennten Personen und Orte, sie bilden vielmehr über die Präsenzerfahrung u.a. von Stimme, Haut und Rhythmus eine gemeinsame Umwelt und öffnen temporär einen ‚Dritten Raum‘ bzw. einen ‚Dritten Körper‘. Mensch, Maschine und Umwelt entwickeln durch die Medialisierung eine emergente Bezogenheit organischer und anorganischer Milieus, eine taktil/haptisch-mediale, verkörperte Ökologie. Das ist eine zentrale Annahme unserer Versuchsreihen.
The Advanced Innovation Design Approach is a holistic methodology for enhancing innovative and competitive capability of industrial companies. AIDA can be considered as an open mindset, an individually adaptable range of strongest innovation techniques such as comprehensive front-end innovation process, advanced innovation methods, best tools and methods of the TRIZ methodology, organizational measures for accelerating innovation, IT-solutions for Computer-Aided Innovation, and other innovation methods, elaborated in the recent decade in the industry and academia
The European TRIZ Association ETRIA acts as a connecting link between scientific institutions, universities and other educational organizations, industrial companies and individuals concerned with conceptual and practical questions relating to organization of innovation process, invention methods, and innovation knowledge. In the meantime, more than TFC 1000 papers or presentation of scientists, educators, and practitioners from all over the world are available at the official ETRIA website. Numerous research projects were supported or funded by the European Commission.
Produkt-Controlling
(2017)
Zentraler Baustein des Marketing ist die „facettenreiche“ Produktpolitik. Im nachstehenden Beitrag wird zunächst die Einordnung der Produktpolitik in den Zielkatalog des Marketing und des Unternehmens skizziert. Das Produkt-Controlling wird verstanden als zielgerichtete Unterstützung der Managementaufgaben im Kontext der Produktpolitik mittels passender Instrumente – Instrumente, die der Phase der Produktentstehung wie der Marktzyklusphase zuzuordnen sind. Erkennbar wird: es gibt ein umfangreiches Set an Methoden, die das Marketing-Management unterstützen und die Sicherstellung der Marketing-Effektivität und Marketing-Effizienz gewährleisten. Die Komplexität des Produkt-Controllings bedingt sich auch durch den ausreichenden Einbezug preis-, qualitäts- und markenpolitischer Informationen in die Zielkontrolle.
Computing Aggregates on Autonomous, Self-organizing Multi-Agent System: Application "Smart Grid"
(2017)
Decentralized data aggregation plays an important role in estimating the state of the smart grid, allowing the determination of meaningful system-wide measures (such as the current power generation, consumption, etc.) to balance the power in the grid environment. Data aggregation is often practicable if the aggregation is performed effectively. However, many existing approaches are lacking in terms of fault-tolerance. We present an approach to construct a robust self-organizing overlay by exploiting the heterogeneous characteristics of the nodes and interlinking the most reliable nodes to form an stable unstructured overlay. The network structure can recover from random state perturbations in finite time and tolerates substantial message loss. Our approach is inspired from biological and sociological self-organizing mechanisms.
With increasing flexible AC transmission system (FACTS) devices in operation, like the most versatile unified power flow controller (UPFC), the AC/DC transmission flexibility and power system stability have been suffering unprecedented challenge. This paper introduces the user-defined modeling (UDM) method into the UPFC dynamic modeling process, to deal with the challenging requirements of power system operation. This has also been verified using a leading-edge stability analysis software named DSATools TM in the IEEE-39 bus benchmark system. The characteristics of steady-state and dynamic responses are compared and analyzed under different conditions. Furthermore, simulation results prove the feasibility and effectiveness of the proposed UPFC in terms of both the independent regulation of power flow and the improvement of transient stability.
Process engineering focuses on the design, operation, control and optimization of chemical, physical and biological processes and has applications in many industries. Process Intensification is the key development approach in the modern process engineering. The proposed Advanced Innovation Design Approach (AIDA) combines the holistic innovation process with the systematic analytical and problem solving tools of the theory of inventive problem solving TRIZ. The present paper conceptualizes the AIDA application in the field of process engineering and especially in combination with the Process Intensification. It defines the AIDA innovation algorithm for process engineering and describes process mapping, problem ranking, and concept design techniques. The approach has been validated in several industrial case studies. The presented research work is a part of the European project “Intensified by Design® platform for the intensification of processes involving solids handling”.
The collection of selected papers of the TRIZ Future Conference 2017 is in open access and is included to the Innovator, the journal of the European TRIZ Assocation.
In the course of the last few years, our students are becoming increasingly unhappy. Sometimes they stop attending lectures and even seem not to know how to behave correctly. It feels like they are getting on strike. Consequently, drop-out rates are sky-rocketing. The lecturers/professors are not happy either, adopting an “I-don’t-care” attitude.
An interdisciplinary, international team set in to find out: (1) What are the students unhappy about? Why is it becoming so difficult for them to cope? (2) What does the “I-don’t-care” attitude of professors actually mean? What do they care or not care about? (3) How far do the views of the parties correlate? Could some kind of mutual understanding be achieved?
The findings indicate that, at least at our universities, there is rather a long way to go from “Engineering versus Pedagogy” to “Engineering Pedagogy”.
We present a two-dimensional (2D) planar chromatographic separation method for phytoestrogenic active compounds on RP-18 W (Merck, 1.14296) phase. It could be shown that an ethanolic extract of liquorice (Glycyrrhiza glabra) roots contains four phytoestrogenic active compounds. As solvent, in the first direction, the mix of hexane, ethyl acetate, and acetone (45:15:10, v/v) was used, and, in the second direction, that of acetone and water (15:10, v/v) was used. After separation, a modified yeast estrogen screen (YES) test was applied, using the yeast strain Saccharomyces cerevisiae BJ3505. The test strain (according to McDonnell) contains the estrogen receptor. Its activation by estrogen active compounds is measured by inducing the reporter gene lacZ which encodes the enzyme β-galactosidase. This enzyme activity is determined on plate by using the fluorescent substrate MUG (4-methylumbelliferyl-β-d-galactopyranoside). The enzyme can also hydrolyse X-β-Gal (5-bromo-4-chloro-3-indoxyl-β-d-galactopyranosid) into β-galactose and 5-bromo-4-chloro-3-indoxyl. The indoxyl compound is oxidized by oxygen forming the deep-blue dye 5,5β-dibromo-4,4β-dichloro-indigo which allows to detect phytoestrogenic activity more specific in the presence of native fluorescing compounds.
Viele hochbeanspruchte Bauteile müssen zur Erfüllung ihres konstruktiven Zwecks mit Durchdringungskerben versehen werden. Infolge der gegenseitigen Wechselwirkung gelten für die Kerbwirkung dieser Art von Mehrfachkerben andere Gesetzmäßigkeiten als bei Einzelkerben. Die Weiterentwicklung der Lehre von der Tragfähigkeitsberechnung höchstbeanspruchter Maschinenelemente macht es notwendig, sich mit der Durchdringungskerbwirkung eingehend zu befassen. Thum und Svenson [1] entwickelten im Jahr 1949 ein Näherungsverfahren zur Abschätzung der Formzahl an einem zugbelasteten Stab mit Durchdringungskerben. In vielen Lehrbüchern findet dieses Verfahren Anwendung. Aus heutiger Sicht erscheint die Eignung der aus diesem Ansatz erzielten Ergebnisse als dringend überprüfungswürdig. Das thum’sche Verfahren wird unter die Lupe genommen. Der hier vorliegende Beitrag präsentiert mit Hilfe der Finiten-Elemente-Methode (FEM) neue Untersuchungsergebnisse an zugbeanspruchten Stäben mit Halbkreisnut und überlagerter Querbohrung. Diese ergaben, dass die Berechnung nach [1] Lücken aufweist. Ihr Ansatz stellt für den heutigen Entwicklungsstand eine mit zu großen Abweichungen behaftete Näherungshypothese dar.
Comparison of Time Warping Algorithms for Rail Vehicle Velocity Estimation in Low Speed Scenarios
(2017)
Cellular phone antennas are generally designed to have radiation patterns that are as omnidirectional as possible. Omnidirectional antennas allow a phone’s radio to work well for many orientations of the phone with respect to the cellular base station. Recent studies, however, are generating uncertainty about the health effects of prolonged exposure to electromagnetic (EM) radiation from cellular phones. In this paper, an antenna array is designed primarily to minimize users’ exposure to EM radiation. The antenna comprises a beamforming 4 by 3 array of microstrip patch antennas that is controlled by an accelerometer-only inertial navigation system. The proposed design reduces radiated power directed toward the user to below 10% of the total in the worst case.
Background: The electrical field (E-field) of the biventricular (BV) stimulation is important for the success of cardiac resynchronization therapy (CRT) in patients with cardiac insufficiency and widened QRS complex. The 3D modeling allows the simulation of CRT and high frequency (HF) ablation.
Purpose: The aim of the study was to model different pacing and ablation electrodes and to integrate them into a heart model for the static and dynamic simulation of atrial and BV stimulation and high frequency (HF) ablation in atrial fibrillation (AF).
Methods: The modeling and simulation was carried out using the electromagnetic simulation software CST (CST Darmstadt). Five multipolar left ventricular (LV) electrodes, one epicardial LV electrode, four bipolar right atrial (RA) electrodes, two right ventricular (RV) electrodes and one HF ablation catheter were modeled. Selected electrodes were integrated into the Offenburg heart rhythm model for the electrical field simulation. The simulation of an AV node ablation at CRT was performed with RA, RV and LV electrodes and integrated ablation catheter with an 8 mm gold tip.
Results: The right atrial stimulation was performed with an amplitude of 1.5 V with a pulse width of 0.5. The far-field potentials generated by the atrial stimulation were perceived by the right and left ventricular electrode. The far-field potential at a distance of 1 mm from the right ventricular electrode tip was 36.1 mV. The far-field potential at a distance of 1 mm from the left ventricular electrode tip was measured with 37.1 mV. The RV and LV stimulation were performed simultaneously at amplitude of 3 V at the LV electrode and 1 V at the RV electrode with a pulse width of 0.5 ms each. The far-field potentials generated by the BV stimulations could be perceived by the RA electrode. The far-field potential at the RA electrode tip was 32.86 mV. AV node ablation was simulated with an applied power of 5 W at 420 kHz and 10 W at 500 kHz at the distal 8 mm ablation electrode.
Conclusions: Virtual heart and electrode models as well as the simulations of electrical fields and temperature profiles allow the static and dynamic simulation of atrial synchronous BV stimulation and HF ablation at AF. The 3D simulation of the electrical field and temperature profile may be used to optimize the CRT and AF ablation.
Three real-lab trigeneration microgrids are investigated in non-residential environments (educational, office/administrational, companies/production) with a special focus on domain-specific load characteristics. For accurate load forecasting on such a local level, à priori information on scheduled events have been combined with statistical insight from historical load data (capturing information on not explicitly-known consumer behavior). The load forecasts are then used as data input for (predictive) energy management systems that are implemented in the trigeneration microgrids. In real-world applications, these energy management systems must especially be able to carry out a number of safety and maintenance operations on components such as the battery (e.g. gassing) or CHP unit (e.g. regular test runs). Therefore, energy management systems should combine heuristics with advanced predictive optimization methods. Reducing the effort in IT infrastructure the main and safety relevant management process steps are done on site using a Smart & Local Energy Controller (SLEC) assisted by locally measured signals or operator given information as default and external inputs for any advanced optimization. Heuristic aspects for local fine adjustment of energy flows are presented.
In der genossenschaftlichen FinanzGruppe werden neben Verbundunternehmen wie zum Beispiel der DZ Bank rund 45 bis 50 Genossenschaftsbanken von der künftigen Berichtspflicht nach der sogenannten CSR-Richtlinie betroffen sein. Dieser Artikel gibt Hinweise zu Auswirkungen der neuen Gesetzeslage, aber auch zu Chancen und Potenzialen. Diskutiert wird insbesondere, was das neue Gesetz bzw. der Regierungsentwurf von 2016 besagt, und was die Vorgaben konkret für Genossenschaftsbanken bedeuten. Der Beitrag diskutiert zudem Synergien, Chancen und Potenziale: Das Thema Nachhaltigkeit kann wertvolle Impulse für eine zielgerichtete Weiterentwicklung des eigenen Geschäftsmodells bieten, beispielsweise wie neue Kundengruppen und/oder neue Ertragspotenziale mit Hilfe von neuen Produkten beziehungsweise Geschäftsfeldern erschlossen werden können.
Im Jahr 1504 verlor der deutsche Ritter Gottfried („Götz“) von Berlichingen seine
rechte Hand. Schon während seiner Genesung dachte er daran, die Hand zu ersetzen,
und beauftragte bald darauf die erste Handprothese, die sogenannte „Eiserne Hand“.
Jahre später wurde die aufwändigere zweite „Eiserne Hand“ gebaut. Wir haben die erste
Prothese auf der Basis früherer Literaturdaten von
Quasigroch (1982) mit Hilfe von 3-D
Computer-Aided Design (CAD) rekonstruiert. Dazu mussten einige Abmessungen angepasst
und ein paar Annahmen für das CAD-Modell gemacht werden. Die historische passive
Prothese des Götz von Berlichingen ist für die moderne Neuroprothetik interessant, da sie
eine Alternative zu komplexen invasiven Brain-Machine-Interface-Konzepten darstellen
könnte, wo diese Konzepte nicht notwendig, möglich oder vom Patienten gewünscht sind.
Streustrahlung in der Ultraschall-Computertomographie zur Verifizierung der Echtheit von Perlen
(2017)
This paper describes a new analysis method developed to distinguish real from fake
pearls using non-ionizing, non-destructive ultrasound computed tomography (USCT): In the USCT Shepp-Logan-filtered time-of-flight image, a fake pearl shows irregular, asymmetric
scattering of ultrasound, whereas the pattern in a natural pearl is regular and symmetric.
We strongly assume that pattern recognition of the scattering of ultrasound cannot only
play an important role in verifying pearls, but also in testing other materials and tissues in
(bio-)medical engineering. Furthermore, and most importantly, this new approach could
be helpful for a variety of clinical diagnoses using high-resolution 3D-USCT, such as the
detection of X-ray-negative micro-calcifications in early breast cancer. Moreover looking
at scattering patterns in dedicated positron emission tomography systems may promote
new developments in nuclear medicine diagnostics.
eLetter zum Artikel "How hair can reveal a history" von Hanae Armitage & Nala Rogers, veröffentlicht in Science, Vol. 351, Issue 6278, Seite 1134 (doi.org/10.1126/science.351.6278.1134)
eLetter zum Artikel "Hybrid EEG/EOG-based brain/neural hand exoskeleton restores fully independent daily living activities after quadriplegia" von Surjo R. Soekadar et al., veröffentlicht in Science Robotics, Vol. 1, No. 1 (DOI: 10.1126/scirobotics.aag3296)
The electrical field (E-field) of the biventricular (BV) stimulation is important for the success of cardiac resynchronization therapy (CRT) in patients with cardiac insufficiency and widened QRS complex.
The aim of the study was to model different pacing and ablation electrodes and to integrate them into a heart model for the static and dynamic simulation of BV stimulation and HF ablation in atrial fibrillation (AF).
The modeling and simulation was carried out using the electromagnetic simulation software CST. Five multipolar left ventricular (LV) electrodes, four bipolar right atrial (RA) electrodes, two right ventricular (RV) electrodes and one HF ablation catheter were modelled. A selection were integrated into the heart rhythm model (Schalk, Offenburg) for the electrical field simulation. The simulation of an AV node ablation at CRT was performed with RA, RV and LV electrodes and integrated ablation catheter with an 8 mm gold tip.
The BV stimulation were performed simultaneously at amplitude of 3 V at the LV electrode and 1 V at the RV electrode with a pulse width of 0.5 ms each. The far-field potential at the RA electrode tip was 32.86 mV and 185.97 mV at a distance of 1 mm from the RA electrode tip. AV node ablation was simulated with an applied power of 5 W at 420 kHz at the distal ablation electrode. The temperature at the catheter tip was 103.87 °C after 5 s ablation time and 37.61 °C at a distance of 2 mm inside the myocardium. After 15 s, the temperature was 118.42 °C and 42.13 °C.
Virtual heart and electrode models as well as the simulations of electrical fields and temperature profiles allow the static and dynamic simulation of atrial synchronous BV stimulation and HF ablation at AF and could be used to optimize the CRT and AF ablation.
Spectral analysis of signal averaging electrocardiography in atrial and ventricular tachyarrhythmias
(2017)
Background: Targeting complex fractionated atrial electrograms detected by automated algorithms during ablation of persistent atrial fibrillation has produced conflicting outcomes in previous electrophysiological studies. The aim of the investigation was to evaluate atrial and ventricular high frequency fractionated electrical signals with signal averaging technique.
Methods: Signal averaging electrocardiography (ECG) allows high resolution ECG technique to eliminate interference noise signals in the recorded ECG. The algorithm uses automatic ECG trigger function for signal averaged transthoracic, transesophageal and intracardiac ECG signals with novel LabVIEW software (National Instruments, Austin, Texas, USA). For spectral analysis we used fast fourier transformation in combination with spectro-temporal mapping and wavelet transformation for evaluation of detailed information about the frequency and intensity of high frequency atrial and ventricular signals.
Results: Spectral-temporal mapping and wavelet transformation of the signal averaged ECG allowed the evaluation of high frequency fractionated atrial signals in patients with atrial fibrillation and high frequency ventricular signals in patients with ventricular tachycardia. The analysis in the time domain evaluated fractionated atrial signals at the end of the signal averaged P-wave and fractionated ventricular signals at the end of the QRS complex. The analysis in the frequency domain evaluated high frequency fractionated atrial signals during the P-wave and high frequency fractionated ventricular signals during QRS complex. The combination of analysis in the time and frequency domain allowed the evaluation of fractionated signals during atrial and ventricular conduction.
Conclusions: Spectral analysis of signal averaging electrocardiography with novel LabVIEW software can utilized to evaluate atrial and ventricular conduction delays in patients with atrial fibrillation and ventricular tachycardia. Complex fractionated atrial electrograms may be useful parameters to evaluate electrical cardiac arrhythmogenic signals in atrial fibrillation ablation.
Heart rhythm model and simulation of electrophysiological studies and high-frequency ablations
(2017)
Background: Target of the study was to create an accurate anatomic CAD heart rhythm model, and to show its usefulness for cardiac electrophysiological studies and high-frequency ablations. The method is more careful for the patients’ health and has the potential to replace clinical studies due to its high efficiency regarding time and costs.
Methods: All natural heart components of the new HRM were based on MRI records, which guaranteed electronic functionality. The software CST was used for the construction, while CST’s material library assured genuine tissue properties. It should be applicable to simulate different heart rhythm diseases as well as various diffusions of electromagnetic fields, caused by electrophysiological conduction, inside the heart tissue.
Results: It was achievable to simulate sinus rhythm and fourteen different heart rhythm disturbance with different atrial and ventricular conduction delays. The simulated biological excitation of healthy and sick HRM were plotted by simulated electrodes of four polar right atrial catheter, six polar His bundle catheter, ten polar coronary sinus catheter, four polar ablation catheter and eight polar transesophageal left cardiac catheter. Accordingly, six variables were rebuilt and inserted into the anatomic HRM in order to establish heart catheters for ECG monitoring and HF ablation. The HF ablation catheters made it possible to simulate various types of heart rhythm disturbance ablations with different HF ablation catheters and also showed a functional visualisation of tissue heating. The use of tetrahedral meshing HRM made it attainable to store the results faster accompanied by a higher degree of space saving. The smart meshing function reduced unnecessary high resolutions for coarse structures.
Conclusions: The new HRM for EPS simulation may be additional useful for simulation of heart rhythm disturbance, cardiac pacing, HF ablation and for locating and identification of complex fractioned signals within the atrium during atrial fibrillation HF ablation.
The building sector is one of the main consumers of energy. Therefore, heating and cooling concepts for renewable energy sources become increasingly important. For this purpose, low-temperature systems such as thermo-active building systems (TABS) are particularly suitable. This paper presents results of the use of a novel adaptive and predictive computation method, based on multiple linear regression (AMLR) for the control of TABS in a passive seminar building. Detailed comparisons are shown between the standard TABS and AMLR strategies over a period of nine months each. In addition to the reduction of thermal energy use by approx. 26% and a significant reduction of the TABS pump operation time, this paper focuses on investment savings in a passive seminar building through the use of the AMLR strategy. This includes the reduction of peak power of the chilled beams (auxiliary system) as well as a simplification of the TABS hydronic circuit and the saving of an external temperature sensor. The AMLR proves its practicality by learning from the historical building operation, by dealing with forecasting errors and it is easy to integrate into a building automation system.
Entwicklung und Evaluierung eines adaptiv-prädiktiven Algorithmus für thermoaktive Bauteilsysteme
(2017)
Der Gebäudesektor ist einer der Hauptverbraucher von Energie und somit mitverantwortlich für einen wesentlichen Anteil an CO2-Emissionen. Heiz- und Kühlkonzepte, die erneuerbare Energiequellen nutzen können, gewinnen daher immer mehr an Bedeutung. Hierfür besonders geeignet sind Niedertemperatursysteme, wie beispielsweise Thermoaktive Bauteilsysteme (TABS). Die große thermische Trägheit und die geringe Leistung dieser Systeme verhindern eine schnelle Reaktion auf Raumtemperaturänderungen. Bisherige Steuer- und Regelstrategien für TABS können nur sehr schlecht mit der thermischen Trägheit umgehen, da diese in der Regel keine Prädiktionen verwenden. Hinzu kommt eine aufwändige Parametrierung dieser TABS-Strategien, was in der Praxis zu Inbetriebnahmephasen von oft mehreren Jahren führt. Die Möglichkeit TABS als einen Kurzzeitenergiespeicher für das durch die wachsende Einspeisung aus fluktuierenden erneuerbaren Energiequellen belastete Stromnetz nutzbar zu machen, spielt bei diesen Standard-TABS-Strategien bisher keine Rolle.
In dieser Arbeit wurde ein neuartiger Algorithmus für die Steuerung von TABS entwickelt, der hier durch die Abkürzung AMLR gekennzeichnet wird. Die AMLR nutzt Vorhersagen der Hauptstörgrößen einer TABS-Zone zur Berechnung eines innerhalb des nächsten Tages zuzuführenden Energiepaketes. Zu den Hauptstörgrößen zählen die tagesgemittelte Außentemperatur, die tagesgemittelte globale Einstrahlung sowie ein Belegungsplan jeder TABS-Zone. Die AMLR verwendet ein dynamisches und ein stationäres Widerstands-Kapazitäten(RC)-Modell mit einem Verzögerungsglied erster Ordnung (PT1). Das stationäre TABS- und Raummodell wird für eine Adaptionsfähigkeit und das dynamische Modell für die zeitdiskrete Berechnung von Leistungen genutzt. Es wird gezeigt, dass die Genauigkeit eines Modells mit PT1-Glied für die Steuerung von TABS ausreichend ist. Durch die Adaptionfähigkeit kann sich der Algorithmus automatisiert an unterschiedliche Gebäude, Standorte und Nutzungsprofile anpassen. Auf die Erstellung eines Gebäudemodells inklusive dessen technischer Gebäudeausrüstung (TGA), der Wärmelasten sowie der Wettereinflüsse kann somit verzichtet werden. Weiterhin können mit der AMLR mittlere Soll-Raumtemperaturen pro TABS-Zone vorgegeben werden, was bei Standard-TABS-Strategien nicht möglich ist. Dem Autor stehen als Testumgebungen zur Evaluierung der AMLR die Triple-Klimakammer des Instituts für Energiesystemtechnik (INES) der Hochschule Offenburg sowie zwei reale Gebäude und deren Simulationsmodelle zur Verfügung. Bei den Gebäuden handelt es sich um das in Basel befindliche IWB CityCenter sowie das Seminargebäude der Hochschule Offenburg.
Mit Hilfe der Triple-Klimakammer werden die verwendeten RC-Modelle sowie das TRNSYS-Simulationsmodell der Kammer selbst validiert. Durch den direkten Vergleich der AMLR zu Standard-TABS-Strategien kann in Model-in-the-Loop (MiL) Simulationen, Laborversuchen und Pilotanlagen gezeigt werden, dass die AMLR insbesondere dann thermische Energie einsparen kann, wenn es bei der Standardstrategie zu Überhitzungen im Heizfall und Unterkühlungen im Kühlfall kommt. Des Weiteren zeigen sich Energieeinsparpotenziale durch die Möglichkeit der zonenspezifischen Beladung der TABS. Anhand von Messdaten einer Pilotanlage kann eine Reduktion des thermischen TABS-Energiebedarfs von über 41 % belegt werden. In allen Testumgebungen kann eine Einsparung an Hilfsenergie von bis zu 86 % für die TABS-Pumpen bei gleichzeitiger Verbesserung des thermischen Komforts nachgewiesen werden. Neben Energieeinsparungen sind durch den Einsatz der AMLR Investitionseinsparungen durch eine vereinfachte TABS-Hydraulik möglich, da keine konstanten Vorlauftemperaturen notwendig sind. Weiterhin kann gezeigt werden, dass die Leistung eines Zusatzkühlsystems durch den Einsatz der AMLR im Vergleich zur Standard-TABS-Strategie reduziert werden kann, ohne den thermischen Komfort zu beeinträchtigen. Anhand von Simulationsrechnungen wird das Potenzial von TABS für Lastverschiebemaßnahmen quantifiziert. Durch die Verwendung der AMLR mit dynamischen Strompreisen ist im gezeigten Beispiel eine Einsparung an monetären Kosten von 38 % möglich. Weiterhin konnten Anfragen zur Abschaltung der Beladung der TABS zum Ausgleich fluktuierender erneuerbarer Energieerzeuger durch die AMLR unter Einhaltung des thermischen Komforts durchgeführt werden.
Polygeneration systems are a key technology for the reduction of primary energy usage and emissions. High costs, lack of flexibility and effort for parameterization hinder the wide usage of modeling tools during their conceptual design. This paper describes how planning tools can be structured for the conceptual design phase where only little information is available to the planner. A library concept was developed using the principles of object-oriented modeling to address the flexibility issue. With respect to cost and expandability, the open-source modeling language Modelica was chosen. Furthermore, easy-to-parameterize component models were developed. In addition to the improved library concept and novel component models, an easy-to-adapt control concept is proposed. The component models were validated and the applicability of the library was demonstrated by means of an example. It was shown that the data usually obtained from spec sheets are sufficient to parameterize the models. In addition to this, the control concept was approved.
Micro gas turbines (MGTs) are regarded as combined heat and power (CHP) units which offer high fuel utilization and low emissions. They are applied in decentralized energy neration.
To facilitate the planning process of energy systems, namely in the context of the increasing application of optimization techniques, there is a need for easy-to-parametrize component models with sufficient accuracy which allow a fast computation. In this paper, a model is proposed where the non-linear part load characteristics of the MGT are linearized by means of physical insight of the working principles of turbomachinery. Further, it is shown that the model can be parametrized by the data usually available in spec sheets. With this model a uniform description of MGTs from several manufacturers
covering an electrical power range from 30kW to 333kW can be obtained. The MGT model was
implemented by means of Modelica/Dymola. The resulting MGT system model, comprising further heat exchangers and hydraulic components, was validated using the experimental data of a 65kW MGT from a trigeneration energy system.
In this paper we present the implementation of a model-predictive controller (MPC) for real-time control of a cable-robot-based motion simulator. The controller computes control inputs such that a desired acceleration and angular velocity at a defined point in simulator’s cabin are tracked while satisfying constraints imposed by working space and allowed cable forces of the robot. In order to fully use the simulator capabilities, we propose an approach that includes the motion platform actuation in the MPC model. The tracking performance and computation time of the algorithm are investigated in computer simulations. Furthermore, for motion simulation scenarios where the reference trajectories are not known beforehand, we derive an estimate on how much motion simulation fidelity can maximally be improved by any reference prediction scheme compared to the case when no prediction scheme is applied.
Radiation is an important means of heat transfer inside an electric arc furnace (EAF).
To gain insight into the complex processes of heat transfer inside the EAF vessel, not only radiation from the surfaces but also emission and absorption of the gas phase and the dust cloud need to be considered.
Furthermore, the radiative heat exchange depends on the geometrical configuration which is continuously changing throughout the process.
The present paper introduces a system model of the EAF which takes into account the radiative heat transfer between the surfaces
and the participating medium. This is attained by the development of a simplified geometrical model,
the use of a weighted-sum-of-gray-gases model, and a simplified consideration of dust radiation.
The simulation results were compared with the data of real EAF plants available in literature.
The following contribution deals with the growth of cracks in low-cycle fatigue (LCF) and thermomechanical fatigue (TMF) tested specimens of Inconel 718 measured by using the replica method. The specimens are loaded with different strain rates. The material shows a significantly higher crack growth rate if the strain rate is decreased. Electron backscatter diffraction (EBSD) is adopted to identify the failure mechanism and the misorientation relationship of failed grain boundaries in secondary cracks. The analyzed cracks propagated mainly transgranular but also intergranular failure can be observed in some areas. It is found that grain boundaries with coincidence site lattice (CSL) boundary structure are generally less susceptible for intergranular failure than grain boundaries with random misorientation. For modeling the experimentally identified crack behavior an existing model for fatigue crack growth based on the mechanism of time dependent elastic–plastic crack tip blunting is enhanced to describe environmental effects based on the mechanism of oxygen diffusion at the crack tip. For the diffusion process the temperature dependent parabolic diffusion law is assumed. As a result, the time dependent cyclic crack tip opening displacement (DCTOD) is used as representative value to describe both mechanisms. Thus, most
of the included model parameters characterize the deformation behavior of the material and can be determined by independent material tests. With the determined material properties, the proposed model describes the experimentally measured crack growth curves very well. The model is validated based on predictions of the number of cycles to failure of LCF as well as in-phase and out-of-phase TMF tests in the temperature range between room temperature and 650 °C.
Cast iron materials are used as materials for cylinder heads for heavy duty internal combustion engines. These components must withstand severe cyclic mechanical and thermal loads throughout their service life. While high-cycle fatigue (HCF) is dominant for the material in the water jacket region, the combination of thermal transients with mechanical load cycles results in thermomechanical fatigue (TMF) of the material in the fire deck region, even including superimposed TMF and HCF loads. Increasing the efficiency of the engines directly leads to increasing combustion pressure and temperature and, thus, lower safety margins for the currently used cast iron materials or alternatively the need for superior cast iron materials. In this paper (Part I), the TMF properties of the lamellar graphite cast iron GJL250 and the vermicular graphite cast iron GJV450 are characterized in uniaxial tests and a mechanism-based model for TMF life prediction is developed for both materials. The model can be used to estimate the fatigue life of components by means of finite-element calculations (Part II of the paper) and supports engineers in finding the appropriate material and design. Furthermore, the effect of the elastic, plastic and creep properties of the materials on the fatigue life can be evaluated with the model. However, for a material selection also the thermophysical properties, controlling to a high level the thermal stresses in the component, must be considered. Hence, the need for integral concepts for material characterization and selection from a multitude of existing and soon-to-be developed cast iron materials is discussed.
A complete thermomechanical fatigue (TMF) life prediction methodology is developed for predicting the TMF life of cast iron cylinder heads for efficient heavy duty internal combustion engines. The methodology uses transient temperature fields as thermal loads for the non-linear structural finite-element analysis (FEA). To obtain reliable stress and strain histories in the FEA for cast iron materials, a time and temperature dependent plasticity model which accounts for viscous effects, non-linear kinematic hardening and tensioncompression asymmetry is required. For this purpose a unified elasto-viscoplastic Chaboche model coupled with damage is developed and implemented as a user material model (USERMAT) in the general purpose FEA program ANSYS. In addition, the mechanismbased DTMF model for TMF life prediction developed in Part I of the paper is extended to three-dimensional stress states under transient non-proportional loading conditions. The material properties of the plasticity model are determined for lamellar graphite cast iron GJL250 and vermicular graphite cast iron GJV450 from isothermal and non-isothermal uniaxial tests. The methodology is applied to obtain a TMF life prediction on two cast iron cylinder heads for heavy duty diesel engine applications made from both cast iron materials. It is shown that the life predictions using the developed methodology correlate very well with observed lives from two bench tests in terms of location as well as number of cycles to failure.
Warmumformwerkzeuge unterliegen während des Betriebes komplexen thermischen und mechanischen Beanspruchungen. In kritischen Bereichen können dadurch lokal Spannungen entstehen, die die Fließgrenze überschreiten. Bei der Serienproduktion führt dies zu zyklischen plastischen Verformungen und zur thermomechanischen Ermüdung, welche die Lebensdauer der Warmumformwerkzeuge maßgeblich bestimmen kann. Zur Bewertung der thermomechanischen Ermüdung der Warmumformwerkzeuge gibt es jedoch heute keine etablierten Konzepte, da dieser Aspekt erst durch die Notwendigkeit einer höheren Ressourcen- und Energieeffizienz und optimierter Produktionsprozesse (beispielsweise im Rahmen von Industrie 4.0) eine höhere Aufmerksamkeit erreicht. In dieser Arbeit wird zum einen die aktuell industriell angewandte Vorgehensweise zur Auslegung von Warmumformwerkzeugen hinsichtlich der Lebensdauer erläutert. Des Weiteren wird ein Überblick über existierende Plastizitätsmodelle und Lebensdauermodelle gegeben. Dabei wird zwischen rein phänomenologischen und mechanismenbasierten Modellen unterschieden. Aus der betriebenen Recherche wird ersichtlich, dass weiterer Forschungsbedarf auf diesem Gebiet notwendig ist.
Das Buch enthält Fallstudien zur deskriptiven und induktiven Statistik, welche auf die Bachelor-Ausbildung in der Betriebswirtschaft ausgerichtet sind. Für die fachlichen Grundlagen wird auf eine prägnante Liste einschlägiger Werke verwiesen. Ziel der Fallstudien ist es, den gesamten in einer Lehrveranstaltung erlernten Stoff adäquat anzuwenden. Hiermit soll ein fundiertes, nachhaltiges Gesamtverständnis erreicht und die Einübung von Transfers realisiert werden. Den Fallstudien liegen, zum Download vorgehaltene, realistische Datensets in einem Umfang zugrunde, der die Anwendung von Unterstützungssystemen erforderlich macht. Dazu ist die Verwendung von Microsoft Excel vorgesehen. In jeder Fallstudie werden sukzessive Lösungshinweise angeboten, um einen möglichst großen Lerneffekt zu erzielen. Das Lehrbuch richtet sich in erster Linie an Studierende in der Examensvorbereitung und kann auch als Klausurenkurs genutzt werden. Einzelne Fallstudien können aber auch veranstaltungsbegleitend zum Abschluss eines Themenbereiches, wie z. B. der deskriptiven Statistik bearbeitet werden.
Musik und Neurophysiologie
(2017)
The need to measure basic aerosol parameters has increased dramatically in the last decade. This is due mainly to their harmful effect on the environment and on public health. Legislation requires that particle emissions and ambient levels, workplace particle concentrations and exposure to them are measured to confirm that the defined limits are met and the public is not exposed to harmful concentrations of aerosols.
Die in dieser Arbeit vorgestellte Vorgehensweise erlaubt die Ortung von Schienenfahrzeugen in topologischen Karten allein mit Hilfe eines Wirbelstromsensorsystems (WSS). Zur Ortung primär erforderlich ist die Identifizierung des befahrenen Gleises selbst, wofür unterschiedliche in einer Karte gespeicherte Merkmale herangezogen werden sowie der zurückgelegte Weg, der durch Zählen der passierten Schwellen ermittelt wird. Diese Merkmale werden mittels eigens definierter, virtueller Sensoren aus dem Signal des WSS gewonnen und mittels einem Bayes’schen Formalismus mit den Referenzdaten aus der vorliegenden topologischen Karte abgeglichen. Diese auf virtuellen Sensoren basierende Vorgehensweise erlaubt eine Parallelisierung der Sensorsignalverarbeitung und eine flexible Einbindung von Sensoren in das Ortungssystem. Die Möglichkeit, Weichen mit einer Trefferquote von 99% zu detektieren, erlaubt die Verfolgung der Fahrzeugposition über die gesamte Fahrstrecke hinweg, unter alleiniger Verwendung der vom WSS gelieferten Messdaten.
Für die genaue Positionsbestimmung in Innenräumen, beispielsweise in Bahnhöfen oder Einkaufszentren, soll in dem beschriebenen Projekt untersucht werden, inwiefern lokale Magnetfelder genutzt werden können, um Genauigkeit und Robustheit zu erhöhen. Hierzu wird untersucht, ob und wie kostengünstige Magnetfeldsensoren und mobile Roboterplattformen genutzt werden können, um Karten zu erstellen, die eine spätere Navigation, beispielsweise mit Smartphones oder mit anderen mobilen Geräten.
Climate change and resultant scarcity of water are becoming major challenges for countries around the world. With the advent of Wireless Sensor Networks (WSN) in the last decade and a relatively new concept of Internet of Things (IoT), embedded systems developers are now working on designing control and automation systems that are lower in cost and more sustainable than the existing telemetry systems for monitoring. The Indus river basin in Pakistan has one of the world's largest irrigation systems and it is extremely challenging to design a low-cost embedded system for monitoring and control of waterways that can last for decades. In this paper, we present a hardware design and performance evaluation of a smart water metering solution that is IEEE 802.15.4-compliant. The results show that our hardware design is as powerful as the reference design, but allows for additional flexibility both in hardware and in firmware. The indigenously designed solution has a power added efficiency (PAE) of 24.7% that is expected to last for 351 and 814 days for nodes with and without a power amplifier (PA). Similarly, the results show that a broadband communication (434 MHz) over more than 3km can be supported, which is an important stepping stone for designing a complete coverage solution of large-scale waterways.
The IEEE 1588 precision time protocol (PTP) is a time synchronization protocol with sub-microsecond precision primarily designed for wired networks. In this letter, we propose wireless precision time protocol (WPTP) as an extension to PTP for multi-hop wireless networks. WPTP significantly reduces the convergence time and the number of packets required for synchronization without compromising on the synchronization accuracy.
Due to climate change and scarcity of water reservoirs, monitoring and control of irrigation systems is now becoming a major focal area for researchers in Cyber-Physical Systems (CPS). Wireless Sensor Networks (WSNs) are rapidly finding their way in the field of irrigation and play the key role as data gathering technology in the domain of IoT and CPS. They are efficient for reliable monitoring, giving farmers an edge to take precautionary measures. However, designing an energy-efficient WSN system requires a cross-layer effort and energy-aware routing protocols play a vital role in the overall energy optimization of a WSN. In this paper, we propose a new hierarchical routing protocol suitable for large area environmental monitoring such as large-scale irrigation network existing in the Punjab province of Pakistan. The proposed protocol resolves the issues faced by traditional multi-hop routing protocols such as LEACH, M-LEACH and I-LEACH, and enhances the lifespan of each WSN node that results in an increased lifespan of the whole network. We used the open-source NS3 simulator for simulation purposes and results indicate that our proposed modifications result in an average 27.8% increase in lifespan of the overall WSN when compared to the existing protocols.
Dieses Buch beschreibt die regelungstechnische Modellbildung und die darauf basierende Regelung der gebräuchlichsten, in industriellen Anwendungen eingesetzten elektrischen Maschinen.
Hinsichtlich des Reglerentwurfs wird eine sehr leistungsfähige Methodik angewendet, mit der alle analysierten Beispiele einheitlich behandelt werden können. Sie basiert auf der zeitdiskreten Zustandsraumbeschreibung stromrichtergespeister elektrischer Antriebe. Durch die leicht verständliche einführende Beschreibung der Methodik wird es auch Lesern, denen die Zustandsraummethodik nicht geläufig ist, möglich, dynamisch sehr hochwertige Regelungen zu implementieren.
Eine weitere Besonderheit ist die Einbeziehung von rückspeisefähigen Netzstromrichtern in die Betrachtungen.
Neben einigen Umgestaltungen und Erweiterungen wurden für die Neuauflage auch zahlreiche interessante Ergänzungen vorgenommen, etwa hinsichtlich Rückschlussmöglichkeiten aus Typenschildangaben einer Drehstrommaschine auf die in den zugehörigen Differentialgleichungen verwendeten Maschinenparameter sowie auf Möglichkeiten zu deren Identifikation im Betrieb.
Nachweise für die Stabilität von Regelkreisen, deren Stellgrößen an ihre Begrenzungen gelangen können und bei denen die Regler Integratoren oder andere dynamische Glieder sowie Anti-Windup-Maßnahmen enthalten, sind gewöhnlich sehr aufwändig zu führen. Bei PI-Zustandsreglern, die mittels der in [1] vorgestellten Methode in einem mehrstufigen Verfahren für Regelstrecken entworfen wurden, die bis auf die Stellgrößenbegrenzungen linear sind, lassen sich jedoch äußerst hilfreiche allgemeine Stabilitätsaussagen treffen, die den konkreten Stabilitätsnachweis für das Gesamtsystem– selbst unter Einbeziehung von Beobachtern – erheblich vereinfachen. Im vorliegenden Beitrag werden die diesbezüglichen, auf Steuerbarkeitsbetrachtungen beruhenden, Zusammenhänge für zeitdiskrete Regelkreise aufgezeigt sowie daraus exemplarisch mittels Ljapunow-Funktionen eine einfache Reglerformel für Zustandsregler abgeleitet, die auch im Begrenzungsfall stabil arbeiten. Ein Beispielaus der elektrischen Antriebstechnik illustriert die Anwendbarkeit der vorgestellten Methode.
eTPL: An Enhanced Version of the TLS Presentation Language Suitable for Automated Parser Generation
(2017)
The specification of the Transport Layer Security (TLS) protocol defines its own presentation language used for the purpose of semi-formally describing the structure and on-the-wire format of TLS protocol messages. This TLS Presentation Language (TPL) is more expressive and concise than natural language or tabular descriptions, but as a result of its limited objective has a number of deficiencies. We present eTPL, an enhanced version of TPL that improves its expressiveness, flexibility, and applicability to non-TLS scenarios. We first define a generic model that describes the parsing of binary data. Based on this, we propose language constructs for TPL that capture important information which would otherwise have to be picked manually from informal protocol descriptions. Finally, we briefly introduce our software tool etpl-tool which reads eTPL definitions and automatically generates corresponding message parsers in C++. We see our work as a contribution supporting sniffing, debugging, and rapid-prototyping of wired and wireless communication systems.
The paper describes the hardware and software architecture of the developed multi MEMS sensor prototype module, consisting of ARM Cortex M4 STM32F446 microcontroller unit, five 9-axis inertial measurement units MPU9255 (3D accelerometer, 3D gyroscope, 3D magnetometer and temperature sensor) and a BMP280 barometer. The module is also equipped with WiFi wireless interface (Espressif ESP8266 chip). The module is constructed in the form of a truncated pyramid. Inertial sensors are mounted on a special basement at different angles to each other to eliminate hardware sensors drifts and to provide the capability for self-calibration. The module fuses information obtained from all types of inertial sensors (acceleration, rotation rate, magnetic field and air pressure) in order to calculate orientation and trajectory. It might be used as an Inertial Measurement Unit, Vertical Reference Unit or Attitude and Heading Reference System.
The low cost and small size of MEMS inertial sensors allows their combination into a multi sensor module in order to improve performance. However the different linear accelerations measured on different places on a rotating rigid body have to be considered for the proper fusion of the measurements. The errors in measurement of MEMS inertial sensors include deterministic imperfection, but also random noise. The gain in accuracy of using multiple sensors depends strongly on the correlation between these errors from the different sensors. Although for sensor fusion it usually assumed that the measurement errors of different sensors are uncorrelated, estimation theory shows that for the combination of the same type of sensors actually a negative correlation will be more beneficial. Therefore we describe some important and often neglected considerations for the combination of several sensors and also present some preliminary results with regard to the correlation of measurements from a simple multi sensor setup.
For the RoboCup Soccer AdultSize League the humanoid robot Sweaty uses a single fully convolutional neural network to detect and localize the ball, opponents and other features on the field of play. This neural network can be trained from scratch in a few hours and is able to perform in real-time within the constraints of computational resources available on the robot. The time it takes to precess an image is approximately 11 ms. Balls and goal posts are recalled in 99 % of all cases (94.5 % for all objects) accompanied by a false detection rate of 1.2 % (5.2 % for all). The object detection and localization helped Sweaty to become finalist for the RoboCup 2017 in Nagoya.
One of the challenges in humanoid robotics is motion control. Interacting with humans requires impedance control algorithms, as well as tackling the problem of the closed kinematic chains which occur when both feet touch the ground. However, pure impedance control for totally autonomous robots is difficult to realize, as this algorithm needs very precise sensors for force and speed of the actuated parts, as well as very high sampling rates for the controller input signals. Both requirements lead to a complex and heavy weight design, which makes up for heavy machines unusable in RoboCup Soccer competitions.
A lightweight motor controller was developed that can be used for admittance and impedance control as well as for model predictive control algorithms to further improve the gait of the robot.
Die Entwicklung von neuartigen Elektrodentypen und die Weiterentwicklung bestehender Produkten machen einen großen Teil der entstehenden Kosten für ein Unternehmen aus. Mithilfe geeigneter Software können Änderungen der Konstruktionen erfasst und bestimmte Simulationen, bspw. das Auftreten von Wechselwirkungen im elektrischen Feld, vor der eigentlichen Prototypenerstellung durchgeführt werden. Das Ziel der Studie besteht in der Modellierung unterschiedlicher Schrittmacher- und Ablationselektroden und deren Integration in das Offenburger Herzrhythmusmodell (HRM) zur statischen und dynamischen Simulation der biventrikulären Stimulation und HF Ablation bei Vorhofflimmern (AF).
Simulation-based degradation assessment of lithium-ion batteries in a hybrid electric vehicle
(2017)
The insufficient lifetime of lithium-ion batteries is one of the major cost driver for mobile applications. The battery pack in vehicles is one of the most expensive single components that practically must be excluded from premature replacement (i.e., before the life span of the other components end). Battery degradation is a complex physicochemical process that strongly depends on operating condition and environment. We present a simulation-based analysis of lithium-ion battery degradation during operation with a standard PHEV test cycle. We use detailed multiphysics (extended Newman-type) cell models that allow the assessment of local electrochemical potential, species and temperature distributions as driving forces for degradation, including solid electrolyte interphase (SEI) formation [1]. Fig. 1 shows an exemplary test cycle and the predicted resulting spatially-averaged SEI formation rate. We apply a time-upscaling approach to extrapolate the degradation analysis over long time scales, keeping physical accuracy while allowing end-of-life assessment [2]. Results are presented for lithium-ion battery cells with graphite/LFP chemistry. The behavior of these cells in terms of degradation propensity, performance, state of charge and other internal states is predicted during long-term cycling. State of health (SOH) is quantified as capacity fade and internal resistance increase as function of operation time.
Practical bottlenecks associated with commercialization of Lithium-air cells include capacity limitation and low cycling efficiency. The origin of such losses can be traced to complex electrochemical side reactions and reactant mass transport losses[1]. The efforts to minimize such losses include exploration of various electrolytes with additives[2], and cell component geometry and material design. Given the wide range of options for such materials, it is almost impractical to experimentally setup and characterize all those cells. Consequently, modeling and simulation studies are efficient alternatives to analyze spatially and temporally resolved cell behavior for various combinations of materials[3]. In this study, with the help of a two-dimensional multi physics model, we have focused on the effect of electrode and electrolyte interaction (electrochemistry), choice of electrolyte (species transport), and electrode geometry (electrode design) on the performance of a lithium-air button cell. Figure1a shows the schematics of the 2D axisymmetric computational domain. A comparative analysis of five different electrolytes was performed while focusing on the 2D distribution of local current density and the concentration of electro-chemically active species in the cell, that is, O2and Li+. Using two different cathode configurations, namely, flooded electrode and gas diffusion electrode (GDE)[4] at different cathode thickness, the effect of cell geometry and electrolyte saturation on cell performance was explored. Further, a detailed discussion on electrode volume utilization (cf. Figure1b) is presented via changes in the active volume of cathode that produces 90% of the total current with the cell current density for different combinations of electrolyte saturations and cathode thickness.