Refine
Year of publication
- 2017 (274) (remove)
Document Type
- Conference Proceeding (91)
- Article (reviewed) (46)
- Article (unreviewed) (33)
- Part of a Book (23)
- Working Paper (18)
- Book (17)
- Other (11)
- Contribution to a Periodical (9)
- Report (9)
- Letter to Editor (6)
Conference Type
- Konferenzartikel (62)
- Konferenz-Abstract (22)
- Konferenz-Poster (3)
- Sonstiges (3)
- Konferenzband (1)
Is part of the Bibliography
- yes (274) (remove)
Keywords
- CST (7)
- HF-Ablation (7)
- CRT (5)
- Ermüdung (4)
- Games (4)
- Gamification (4)
- Social Media (4)
- Computer Games (3)
- Computerspiele (3)
- Controlling (3)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (86)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (80)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (61)
- Fakultät Wirtschaft (W) (44)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (13)
- INES - Institut für nachhaltige Energiesysteme (12)
- ACI - Affective and Cognitive Institute (8)
- IfTI - Institute for Trade and Innovation (6)
- WLRI - Work-Life Robotics Institute (5)
- Zentrale Einrichtungen (5)
Open Access
- Open Access (110)
- Closed Access (105)
- Bronze (6)
- Closed (5)
- Diamond (1)
- Gold (1)
- Grün (1)
Objective: This paper deals with the design and the optimization of mechatronic devices.
Introduction: Comparing with existing works, the design approach presented in this paper aims to integrate optimization in the design phase of complex mechatronic systems in order to increase the efficiency of this method.
Methods: To solve this problem, a novel mechatronic system design approach has been developed in order to take the multidisciplinary aspect and to consider optimization as a tool that can be used within the embodiment design process to build mechatronic solutions from a set of solution concepts designed with innovative or routine design methods.
Conclusions: This approach has then been applied to the design and optimization of a wind turbine system that can be implemented to autonomously supply a mountain cottage.
Im vorliegenden Beitrag wird ein Strommarktsimulationsmodell entwickelt, mit dessen Hilfe die Bereitstellung von Flexibilität auf dem Strom- und Regelleistungsmarkt in Deutschland modell-gestützt analysiert werden soll. Das Modell bildet dabei zwei parallel verlaufende, zentrale Wettbewerbsmärkte ab, an denen Akteure durch die individuelle Gebotsermittlung handeln können. Die entsprechend hierzu entwickelte Gebotslogik wird detailliert erläutert, wobei der Fokus auf der Flexibilität fossil-thermischer Kraftwerke liegt. In der anschließenden Gegen-überstellung mit realen Marktpreisen zeigt sich, dass die verwendete Methodik und die Ge-botslogik den bestehenden Markt und dessen Marktergebnis in geeigneter Form wiederspie-geln, wodurch zukünftig unterschiedlichste Flexibilitätsszenarien analysiert und Aussagen zu deren Auswirkungen auf den Markt und seine Akteure getroffen werden können.
In diesem Beitrag werden die Bereitstellungskosten flexibler Systemkomponenten im deutschen Stromsystem analysiert, zu deren Quantifizierung eine einheitliche Methodik entwickelt wird. Dabei ist das Ziel des Beitrags, zeitlich differenzierte Kostenpotenzialkurven für die Jahre 2015 und 2030 zu erarbeiten, anhand derer die energiespezifischen Kosten der markt- und systemdienlichen Flexibilitätsbereitstellung verglichen und die einzelnen Flexibilitätsoptionen in einen Gesamtkontext eingeordnet werden können.
Der Einsatz flexibler Systemkomponenten wird hierzu in die drei Hauptphasen (1) Vorhaltung, (2) Abruf und (3) Einsatzfolgen unterteilt, woraus sich drei kongruente Kostengruppen ableiten lassen, nach denen die einzelnen Kostenbestandteile identifiziert und als Ergebnis die Bereitstellungskosten quantifiziert werden. Neben fossil-thermischen Kraftwerken werden dabei bspw. die Kraft-Wärme-Kopplung, Biogasanlagen, Pumpspeicher- und Laufwasserkraftwerke sowie steuerbare Lasten untersucht.
Zur anschließenden Abbildung der teils negativen Bereitstellungskosten wird die herkömmliche Darstellungsform der Merit Order entlang der Ordinate um die Abbildung negative Werte erweitert und die Abszisse für die Abbildung negativer Flexibilität in umgekehrter Reihenfolge angeordnet. Das Ergebnis sind zwei zusammenhängende Graphen, mittels derer sich die Bereitstellungskosten verschiedener Flexibilitätsoptionen gegenüberstellen und anschaulich vergleichen lassen.
Durch die Festlegung eines Rahmenszenarios zur Entwicklung des deutschen Stromsystems bis zum Jahr 2030 wird anschließend auch die zukünftige Perspektive der Flexibilitätsbereitstellung in Deutschland analysiert. Aus den Ergebnissen lässt sich ableiten, dass der deutsche Kraftwerkspark mit einem fortschreitenden Rückbau der Kohlekraftwerke nur dann zunehmend flexibler wird und auf höhere Schwankungen im Stromnetz reagieren kann, wenn von einem gleichzeitigen Zubau moderner erdgasbetriebener Kraftwerke ausgegangen wird. In diesem Fall steigen die Bereitstellungskosten positiver Flexibilität, was sich beispielsweise durch zukünftig steigende Brennstoffpreise bergründen lässt. Jedoch kann bspw. durch die Transformation der Kraft-Wärme-Kopplung hin zu einer grundsätzlich stromgeführten Fahrweise zukünftig eine vergleichsweise kostengünstige Flexibilitätsbereitstellung erschlossen und somit auch ein gleichbleibendes oder oftmals sogar höheres Flexibilitätsniveau am Markt erreicht werden.
Qualitative Wissenschaft, künstlerisches Forschen und forschendes Lernen verbinden Erkenntnis aus Praxis und Erfahrung. In der Autoethnographie der eigenen Werkstatt des Hörens wie der Kultur in Studios anderer, wird die noch neue Interdisziplin Sound (Studies) erprobt und vertieft, mit Impulsen für die Praxis und Theorie, von der noch wenig bekannten A/r/t ographie heute, hin zu einer künftig A/R/Tophonie, dem künstlerischen Forschen in der Musik, ebenso wie durch Klang Komposition, Radio Kunst und visuelle Musik.
Automatic Identification of Travel Locations in Rare Books - Object Oriented Information Management
(2017)
The digital content of the Internet is growing exponentially and mass digitization of printed media opens access to literature, in particular the genre of travel literature from the 18th and 19th century, which consists of diaries or travel books describing routes, observations or inspirations. The identification of described locations in the digital text is a long-standing challenge which requires information technology to supply dynamic links to sources by new forms of interaction and synthesis between humanistic texts and scientific observations.
Using object oriented information technology, a prototype of a software tool is developed which makes it possible to automatically identify geographic locations and travel routes mentioned in rare books. The information objects contain properties such as names and classification codes for populated places, streams, mountains and regions. Together, with the latitudes and longitudes of every single location, it is possible to geo-reference this information in order that all processed and filtered datasets can be displayed by a map application. This method has already been used in the Humboldt Digital Library to present Alexander von Humboldt’s maps and was tested in a case study to prove the correctness and reliability of the automatic identification of locations based on the work of Alexander von Humboldt and Johann Wolfgang von Goethe.
The results reveal numerous errors due to misspellings, change of location names, equality of terms and location names. But on the other hand it becomes very clear that results of the automatic object detection and recognition can be improved by error-free and comprehensive sources. As a result an increase in quality and usability of the service can be expected, accompanied by more options to detect unknown locations in the descriptions of rare books.
Technology and computer applications influence our daily lives and questions arise concerning the role of artificial intelligence and decision-making algorithms. There are warning voices, that computers can, in theory, emulate human intelligence-and exceed it. This paper points out that a replacement of humans by computers is unlikely, because human thinking is characterized by cognitive heuristics and emotions, which cannot simply be implemented in machines operating with algorithms, procedural data processing or artificial neural networks. However, we are going to share our responsibilities with superior computer systems, which are tracking and surveying all of our digital activities, whereas we have no idea of the decision-making processes inside the machines. It is shown that we need a new digital humanism defining rules of computer responsibilities to avoid digital totalism and comprehensive monitoring and controlling of individuals within the planet Earth.
This paper describes the Sweaty II humanoid adult size robot trying to qualify for the RoboCup 2017 adult size humanoid competition. Sweaty came 2nd in RoboCup 2016 adult size league. The paper describes the main characteristics of Sweaty that made this success possible, and improvements that have been made or are planned to be implemented for RoboCup 2017.
In this TDP we describe a new tool created for testing the strategy layer of our soccer playing agents. It is a complete 2D simulator that simulates the games based on the decisions of 22 agents. With this tool, debugging the decision and strategy layer of our agents is much more efficient than before due to various interaction methods and complete control over the simulation.
In the future, the tool could also serve as a measure to run simulations of game series much faster than with the 3D simulator. This way, the impact of different play strategies could be evaluated much faster than before.
In the present work, nonlinearities in temperature compensating (TC) SAW devices are investigated. The materials used are LiNbO₃-rot128YX as the substrate and Copper electrodes covered with a SiO₂-layer as the compensating layer. In order to understand the role of these materials for the nonlinearities in such acoustic devices, a FEM simulation model in combination with a perturbation approach is applied. The nonlinear tensor data of the different materials involved in TC-SAW devices have been taken from literature, but were partially modified to fit experimental data by introducing scaling factors. An effective nonlinearity constant is determined by comparison of nonlinear P-matrix simulations to IMD3 measurements of test filters. By employing these constants in nonlinear periodic P-matrix simulations a direct comparison to nonlinear periodic FEM-simulations yields the scaling factors for the material used. Thus, the contribution of different materials to the nonlinear behavior of TC-SAW devices is obtained and the role of metal electrodes is discussed in detail.
Das Projektvorhaben "Energienetzmanagement dezentraler KWK‐Anlagen mit diversen Verbraucherstrukturen", das vom Innovationsfonds der badenova AG & Co KG von Mai 2012 bis Juli 2016 unter der Fördernummer 2012‐09 gefördert wurde kann aus Sicht des Projektnehmers Hochschule Offenburg und seiner Partner Stadt Offenburg und G. und M. Zapf Energie GbR mbH als sehr erfolgreich umgesetztes Fördervorhaben bezeichnet werden. Während der ca. vier Jahre Projektlaufzeit konnten mehrere Reallabore geschaffen werden, die an die Eigenschaften eines Subnetzes in einem Smart Grid sehr nah herangeführt wurden. Alle Objekte bzw. Netzstrukturen verfügen über typische Komponenten eines Microgrids mit Energiequellen, Speichern und Senken. Auch wurde die Trigeneration als Netzvariante mit Strom‐ Wärme und Kältebereitstellung aufgegriffen und für Verteilnetzmodelle der Niederspannungsebene beschrieben. Ausgehend von einem Mikronetzmodell für jede Energieart kann hinter jeder Trafostation eine beliebig komplexe Energieversorgungsstruktur aufgespannt werden.
Das Ziel des Vorhabens TempOLadung war die Entwicklung von optimierten Ladeverfahren für eine Lithium-Ionen-Batterie. Die Optimierung erfolgte unter besonderer Berücksichtigung des Temperaturverhaltens. Es wurden Methoden der mathematischen Modellierung und numerischen Simulation sowie der experimentellen Diagnostik eingesetzt. Kooperationspartner war das mittelständische Unternehmen Leclanché, ein traditioneller Batteriehersteller mit Produktionsstandort in Willstätt/Baden-Württemberg.
In dieser Arbeit werden die außentemperaturgeführte Vorlauftemperaturregelung (Standard-TABS-Strategie), ein Verfahren das auf einer multiplen linearen Regression basiert (AMLR-Strategie) und ein Verfahren, das unter dem Obergriff der modellprädiktiven Regelung (MPC-Strategie) zusammengefasst werden kann, untersucht. Anhand der Simulationsergebnisse und des Integrationsaufwandes in die Gebäudeautomation des Seminargebäudes wurde eine Fokussierung auf die AMLR-Strategie vorgenommen.
Im vorliegenden Bericht werden die Arbeiten und Ergebnisse der Hochschule Offenburg (HSOG) des Teilvorhabens 3 (TV3) dargestellt. Im Rahmen dieses Teilvorhabens war die HSOG direkt in das Teilprojekt 3 – berufsbegleitender Bachelorstudiengang Informatik/IT-Sicherheit – involviert. Für dieses Teilprojekt wurden Studieninhalte entwickelt und die Pilotierung für ausgewählte Jahrgänge durchgeführt.
Spätestens nach den erfolgreichen Wahlkämpfen 2008 und 2012 in den USA des zweimaligen US-Präsidenten Barack Obama, ist Social Media als Schlüsselmedium für die politische Kommunikation angekommen. Nach der Wahl von Donald Trump als 45. Präsidenten der Vereinigten Staaten ist zudem deutlich geworden: Social Media erreicht in der Politik eine nie dagewesene Dimension und hat insbesondere im Wahlkampf eine sehr wichtige Bedeutung. Im vorliegenden Arbeitspapier sollen die folgenden Aspekte näher beleuchtet werden: Welche Auswirkungen haben Social Media auf die Politik und wie können sie in der politischen Kommunikation eingesetzt werden? Wie können mit Social Media Wähler gewonnen werden? Welche Möglichkeiten bieten Social Media für die Bürger, um sich in der politisch zu beteiligen? Welche Risiken können durch Social Media in der Politik entstehen?
In der heutigen, vielschichtigen und komplexen Geschäftswelt werden die meisten Unternehmen nicht als Personengesellschaften, sondern als Kapitalgesellschaften geführt. Wie das Wort Kapitalgesellschaft bereits nahelegt, stehen bei dieser Gesellschaftsform nicht natürliche Personen im Mittelpunkt, sondern vielmehr ein Mindestmaß an Kapital, welches von den Gesellschaftern in Form von Einlagen aufgebracht werden muss. Die Kapitaleinlage ist somit der persönliche Risikobeitrag der Gesellschafter und zudem die Voraussetzung für ein wirtschaftliches Tätigwerden im Geschäftsbereich, für das die Gesellschafter eine persönliche Haftung nicht übernehmen wollen und grundsätzlich auch nicht müssen.
Die Virtual Reality (VR) ist eine spannende technische Lösung, um virtuelle Welten zu erschaffen. Die dabei simulierten Immersionen faszinieren die Menschen im privaten Leben, in der Forschung und in der Wirtschaft gleichermaßen. Im monatlichen Zyklus präsentieren namhafte Hersteller neue VR‐Geräte und Softwarelösungen, um die virtuelle Welt noch flüssiger und noch hochauflösender darzustellen. Die Einsatzgebiete hierbei zeigen sich unendlich vielseitig und verteilen sich unter anderem auf den privaten Medienkonsum, die innovative Gaming‐Branche und auf unternehmerische Anwendungsmöglichkeiten. Virtuelle Rundgänge durch Hallen und Betriebe schaffen dem Verkäufer und dem Kunden die Möglichkeit, Produkte schon vor ihrer Fertigstellung gemeinsam als visuelles Objekt im Raum zu betrachten. Die Gestaltung virtueller Erlebnistouren oder Rundgänge durch das geplante Eigenheim sind schon seit ein paar Jahren fester Bestandteil in der Marketingkommunikation.
Um sicherzustellen, dass vom Unternehmen keine Verstöße gegen gesetzliche Vorschriften und Regeln erfolgen, ist es unabdingbar, dass die Mitarbeiter des Unternehmens den aufgestellten Pflichten nachkommen und diese befolgen. Dabei kann dies nur verwirklicht werden, wenn die Regelungen für die Arbeitnehmer verbindlich werden und bei Fehlverhalten auch arbeitsrechtliche Sanktionen als Konsequenz durchgesetzt werden können. Damit die Verhaltensrichtlinien und -grundsätze für die Arbeitnehmer verbindlich werden, müssen diese arbeitsrechtlich im Unternehmen implementiert werden. Die Implementierung kann dabei grundsätzlich durch unterschiedliche arbeitsrechtliche Instrumente umgesetzt werden, wobei sowohl das Individual- als auch das Kollektivarbeitsrecht verschiedene Optionen anbietet, welche im Folgenden näher erläutert werden.
Deutsche Banken begleiten vielfältige Geschäfte mit Auslandsbezug. Vor allem Kreditgeschäfte und Akkreditive sind die häufigsten Geschäftsarten, an denen deutsche Banken als Finanzierungspartei gemeinschaftlich mit anderen ausländischen Finanzinstituten auftreten. Im Rahmen solcher Geschäfte verlangen ausländische Geschäftspartner häufig die Einhaltung von ausländischen Sanktionsvorschriften und verankern dies in den vertraglichen Dokumenten. Beteiligen sich Finanzinstitute, beispielsweise als Kreditnehmer, so wird die Einhaltung der ausländischen Sanktionsvorschriften direkt von den Finanzinstituten verlangt. Treten jedoch Finanzinstitute als Kreditgeber auf, was eher häufiger der Fall ist, so fordern die Finanzinstitute den Kreditnehmer auf, ausländisches Sanktionsrecht einzuhalten. Die Verpflichtung zur Einhaltung von ausländischen Sanktionsvorschriften widerspricht den Anti-Boykott-Regelungen auf nationaler und gegebenenfalls auf europäischer Ebene.
Die Digitalisierung der Gesellschaft betrifft nicht nur einzelne Lebensbereiche, sondern beeinflusst und verändert enorm die Arbeitswelt. In diesem Sinne wird oft im Rahmen des Zukunftsprojekts Industrie 4.0 von Arbeiten 4.0, Arbeitswelt 4.0 und Arbeitsrecht 4.0 berichtet. Komplexe Produktionsprozesse lassen sich durch die Vernetzung von Systemen zu unterschiedlichen Zeiten und an nahezu jedem Ort steuern. Diese neuen Freiheiten können wiederum von den Arbeitnehmern positiv genutzt werden, um die persönliche Arbeitsgestaltung weiter zu individualisieren. Somit können beispielsweise die Arbeitszeiten und der Arbeitsort an die eigenen Bedürfnisse angepasst werden. Außerdem können diese sich neu ergebenden Möglichkeiten die Beschäftigten in ihrer Arbeitstätigkeit entlasten. Durch die Einführung neuer Technologien ergeben sich somit neue Chancen, aber auch Herausforderungen für das Arbeitsrecht. Infolgedessen sind diverse Handlungsfelder beziehungsweise Problemfelder betroffen, die es in diesem neuen Arbeitspapier darzustellen gilt. Es bezieht sich dabei speziell auf die Arbeitszeit, den Arbeitsort, die Arbeitnehmerqualifikation und die Datensicherheit. In diesem Zusammenhang werden die derzeit bestehenden Gesetze und Richtlinien aufgezeigt, die im Rahmen der Industrie 4.0 eine Rolle spielen. Auch die Herausforderungen, die durch die Interaktion der Digitalisierung in der Arbeitswelt aufkommen, gilt es, in diesem Arbeitspapier hervorzuheben.
Compliance Due Diligence
(2017)
Nahezu jedes Unternehmen hat heute auf seiner Homepage einen eigenen Bereich integriert, in welchem Compliance- und Integrity-Maßnahmen vorgestellt werden. Auslöser hierfür dürften wohl nicht nur die immer strengeren Gesetze sein, sondern vielmehr Unternehmensskandale, welche in den Unternehmen für Unruhe sorgten. Man denke hierbei beispielsweise an die Korruptionsskandale bei MAN oder Siemens sowie aktuell der Volkswagen Abgas-Skandal. Die Folgen können weitreichend sein. Schadensersatzzahlungen, Auftragsverluste oder auch große Image-Schäden sind die Folgen. Zu erkennen ist ebenfalls, dass auch immer mehr mittelständische Unternehmen das Thema Compliance für sich entdecken. Es ist also keinesfalls davon auszugehen, dass nur die großen Unternehmen hohen Haftungsrisiken ausgesetzt sind. Dennoch sind konkrete Compliance-Programme in diesen meist eher vorhanden und konkret ausgestaltet.
In den 1980er Jahren begann die Normengruppe die DIN EN ISO 9000 ff. sich zunächst in der Fertigungsindustrie zu etablieren. Anschließend, begleitet von einigen Revisionen, schlossen sich weitere Branchen an, sodass sie immer wichtiger wurde. Anfangs hatten die Unternehmen bei der Umsetzung der Zertifizierung noch erhebliche Probleme. Diese entstanden vornehmlich dadurch, dass man unter dem Druck der Zertifizierung vermied, die Norm genau zu lesen und sich eine für die Umsetzung angemessene Zeitvorgabe zu geben. Das Ergebnis der Zertifizierung lag in diesen Fällen viel zu oft in der Erstellung einer „Papierorganisation“. Diese Schwächen haben sich mit der Zeit zum Teil erübrigt. Das hing mit der Vereinheitlichung beziehungsweise der Annäherung mehrerer Normen zusammen. Außerdem war die starke Begrenzung des Umfangs der Normenreihe ein großer Fortschritt. Ein weiterer Nachteil des Umfangs der älteren Versionen war die Praxis, die Organisation an die Norm anzugleichen. Dies hört sich zunächst nachvollziehbar an, allerdings sollte die Herangehensweise doch eher aus der entgegengesetzten Richtung geschehen, denn das Qualitätsmanagement sollte auf bestehende Prozesse des Unternehmens angepasst werden. Demnach soll die Norm an das Unternehmen angepasst werden, da diese Herangehensweise die innerhalb des Unternehmens funktionierenden Prozesse beachtet und optimiert. Ein weiterer Kritikpunkt an den älteren Versionen war die Konzentration auf Fertigungsbetriebe; so standen andere Industriezweige vor Schwierigkeiten der Umsetzung, insbesondere weil die Begriffe der Norm dort auf Gegenwehr bei Mitarbeitern und dem Management stießen. Somit war die Auswahl der Begrifflichkeiten kontraproduktiv, da sich eine Norm grundsätzlich für alle Branchen eignen muss. Zu dem Optimierungsprozess der ISO 9000 ff. haben auch Diskussionen beigetragen, in denen der Inhalt teilweise stark attackiert wurde. Dabei ging es darum, dass die Kundenbedürfnisse in der Norm keine Beachtung finden würden.
Die digitale Transformation beeinflusst nicht nur unsere Gesellschaft, sondern schreitet vor allem in unserer Arbeitswelt zügig voran. Bereits in den letzten Jahrzehnten haben sich die Kommunikation und die Zusammenarbeit in Unternehmen durch den Einsatz von Informationstechnologie stark gewandelt. E-Mails, Newsletter, Intranet und Extranet vernetzen die Unternehmen seit Jahren und gehören schon lange zum Standard in der Unternehmenskommunikation. Den nächsten Schritt in dieser Entwicklung bringen nun Social Media Anwendungen, die sich im privaten Umfeld bereits seit einigen Jahren von der neuartigen Innovation zu etablierten Tools entwickelt haben und aus dem Alltag unserer Gesellschaft nicht mehr wegzudenken sind. Das Web 2.0 hat die Kommunikation grundlegend verändert: Sie wurde bi- und multidirektional. Es ist möglich, Wissen und Informationen zu jedem Zeitpunkt an jedem Ort abzurufen sowie als Anwender aktiv zu partizipieren, wodurch dieser nicht mehr nur Empfänger ist, sondern selbst zum Sender und zum Publizisten wird. Es entsteht eine neue Art der Kommunikation, in der der Nutzer stärker eingebunden wird, mehr Transparenz entsteht und aus der sich schließlich viele neue Möglichkeiten des Austausches und der Zusammenarbeit ergeben. Diese Veränderung bringt zahlreiche Vorteile mit sich, die nicht nur im privaten Umfeld, sondern auch für Organisationen interessant sind. Deshalb hat das Web 2.0 schon von Beginn an mit seinen Charakteristiken und Möglichkeiten Aufmerksamkeit bei Unternehmen erlangt und Social Media Funktionen werden seitdem auch für Unternehmensaktivitäten genutzt.
Die Globalisierung, der technische Fortschritt, sowie die politischen Entwicklungen weltweit führen dazu, dass heute kaum ein Unternehmen existiert, das nicht internationale Geschäftsbeziehungen mit ausländischen Unternehmen aufrecht erhält, unabhängig davon, ob als Exporteur oder Importeur. Grenzüberschreitend tätige Unternehmen sehen sich dabei fremden Rechtsordnungen gegenüberstehend. Dies kann Konflikte mit sich bringen und den Handelsverkehr beeinträchtigen. Dabei stellen neben unterschiedlichen Rechtssystemen auch die kulturellen Differenzen und die räumliche Distanz der beteiligten Länder Hindernisse dar. Zumindest auf dem Gebiet der Gesetzgebung gab es Bemühungen nach Vereinheitlichung. So kam das Übereinkommen der Vereinten Nationen über Verträge über den internationalen Warenkauf, kurz UN-Kaufrecht, das den internationalen Warenhandel vereinfachen soll, zustande. Dieses Regelwerk, sowie die Analyse möglicher Vorteile für den deutschen Exporteur sind Thema dieses Arbeitspapieres. Dabei soll die Analyse nicht nur auf der Literaturrecherche beruhen, sondern sich auch damit auseinandersetzen, wie die Handhabung des UN-Kaufrechts in der Praxis durch Unternehmen erfolgt.
Die Insolvenzzahlen in Deutschland sind das sechste Jahr in Folge rückläufig. Im Jahr 2016 gab es in Deutschland insgesamt 21.700 Unternehmensinsolvenzen. Dies ist der niedrigste Stand seit Einführung der Insolvenzordnung im Jahre 1999. Das weiter rückläufige Insolvenzgeschehen lässt sich auf das grundsätzlich sehr gute Konjunkturumfeld zurückführen. Die gute Binnenkonjunktur und Finanzierungssituation sorgen für steigende Umsätze und Erträge und verbessern die Stabilität der Unternehmen.1 Mit 30,3 % entfiel der zweitgrößte Anteil der Unternehmensinsolvenzen auf die Rechtsform der GmbH, am häufigsten von Insolvenzen betroffen waren mit 48,3 % nach wie vor die Kleingewerbetreibenden.2 Ca. 98 % aller Unternehmen in Deutschland sind kleine und mittlere Unternehmen (KMU).
Kleine Unternehmen haben weniger als zehn Mitarbeiter und einen Jahresumsatz oder eine Jahresbilanzsumme von höchstens zehn Millionen Euro. Mittlere Unternehmen hingegen verfügen über weniger als 250 Mitarbeiter und einen Jahresumsatz von höchstens 50 Millionen Euro oder eine Jahresbilanzsumme von höchstens 43 Millionen Euro. Diese Unternehmen sind überdurchschnittlich oft von Insolvenzen betroffen.3 Eine Auswertung des Statistischen Bundesamtes aus dem Jahr 2014 zeigt, dass die GmbH als gewählte Rechtsform bei den eingetragenen Betriebsgründungen mit 39,3 % weiterhin hoch im Kurs liegt und verdeutlicht somit deren Bedeutung im deutschen Wirtschaftsverkehr.4 Die GmbH ist die typische Gesellschaftsform für kleine und mittlere Unternehmen und wird als Unternehmensträger gewählt, wenn keiner der Beteiligten eine volle persönliche Haftung übernehmen möchte und wenn die Form einer Kapitalgesellschaft zwar gewollt, aber aufgrund der geringen Unternehmensgröße sowie der überschaubaren Gesellschafterzahl die AG nicht geeignet ist.5 Die folgenden Ausführungen beziehen sich daher auf Kapitalgesellschaften in der Rechtsform der GmbH und richten sich vor allem an die Geschäftsführer mittelständischer Unternehmen, in denen z. B. häufig eine fundierte Unternehmensplanung fehlt.
Durch die fortschreitende Globalisierung der Märkte verschiebt sich der Schwerpunkt der Nachfrage nach Investitionsgütern deutlich in die Emerging Markets, welche mittelfristig an Bedeutung die stagnierenden westlichen Märkte übertreffen werden. In letzter Zeit zeichnet sich dabei eine konjunkturelle Erholung, ein sogenanntes Comeback, in diesen Schwellenländern ab. Im Mittelpunkt steht dabei vor allem auch Indien. Indien ist mittelfristig einer der größten Investitionsgütermärkte und damit ein erfolgversprechender Standort bei der im deutschen Maschinenbau notwendigen Internationalisierung. Allerdings sind deutsche Unternehmen in Indien auch mit Herausforderungen konfrontiert, die in der unternehmerischen Praxis oftmals zum Scheitern einer Markterschließung geführt haben. Vor diesem Hintergrund stellt sich die Frage nach denjenigen Faktoren, die den Erfolg einer Erschließung des indischen Marktes durch den deutschen Maschinenbau bestimmen.
Die Unternehmenslandschaft, nicht nur in Deutschland, sondern weltweit, wird aktuell gerade in all ihren Bereichen vor allem von der stetig wachsenden Welle der Digitalisierung nachhaltig geprägt. Die ganzen Auswirkungen davon in der Zukunft lassen sich im Augenblick oft noch nicht einmal ansatzweise erahnen. Das hier zu beobachtende Collingridge-Dilemma besteht darin, dass Wirkungen nicht leicht prognostiziert werden können, solange die betreffenden Technologien noch nicht ausreichend entwickelt und in Folge entsprechend weit verbreitet sind. Deren Gestalten beziehungsweise gewünschtes Ändern und Anpassen werden jedoch umso schwieriger, je intensiver die Technologien bereits verwurzelt sind. Die Digitalisierung stellt dabei nur einen, wenn auch wohl gravierendsten Aspekt derartiger Veränderungserscheinungen beziehungsweise -herausforderungen dar. Der Wandel des wirtschaftlichen und politischen Umfeldes auf globaler Ebene ist unumstritten. Zugleich ist eine zunehmende Komplexität festzustellen, die es erschwert, im Sinne einer verlässlichen Planung heute solide fundierte Entscheidungen für die zukünftige Entwicklung zu treffen.
Das vorliegende Arbeitspapier gibt einen Überblick über das Thema Web-Usability Optimierung und der nutzerorientierten Gestaltung von Internetpräsenzen. Aktuell gibt es weltweit mehr als 1,1 Milliarde Websites und über 3,5 Milliarden Internet Nutzer. Bei der hieraus resultierenden Informationsflut ist es für die Websitebetreiber eine besonders große Herausforderung, Informationen konzentriert zusammenzufassen, um benutzerfreundliche und nutzerorientierte Inhalte anzubieten. Ein zentraler Aspekt in diesem Zusammenhang ist die Web-Usability. Allerdings zeigt sich insbesondere bei kleinen und mittleren Unternehmen, dass diese häufig vernachlässigt wird. Merkmale für fehlende oder mangelnde Web-Usability lassen sich in verschiedene Kategorien einordnen. Dabei gibt es zum einen viele unstrukturierte Websites, die kaum einen Mehrwert für den Nutzer bieten und eine unübersichtliche Navigation aufweisen, die keine Orientierung bietet. Zum anderen hängen Usability-Probleme häufig mit einer fehlenden Informations-Architektur, hohen Ladezeiten, schlechter Zugänglichkeit sowie einer schlechten Suchfunktion zusammen. Ein zentrales Element der Usability ist die Ausrichtung der Inhalte an die Bedürfnisse der Zielgruppe. Häufig wird diesem Aspekt bei der Umsetzung lediglich geringe Aufmerksamkeit geschenkt. Mögliche Gründe für die fehlende Fokussierung auf Usability-Aspekte sind vielseitig: fehlende Zeit, geringes Budget, Komplexität, vernachlässigte Usability-Evaluierung sowie mangelnder Einsatz von Usability-Experten beim Relaunch oder Erstellen einer Website. Das Ziel des Arbeitspapieres ist es daher, zentrale Komponenten und Prozesse der Web-Usability aufzuzeigen und so einen Orientierungsrahmen zur Optimierung für Unternehmen zu schaffen. Ergänzt werden diese Ausführungen um einen umfangreichen Leitfaden, der Online frei verfügbar ist.
Die Nachrichtenübermittlung im professionellen Mobilfunk hat sich vom Analog- hin zum Digitalfunk entwickelt und dadurch die gesamte Arbeitsweise der Branche verändert. Wurde diese früher vom Handwerk geprägt, so geht es nun hauptsächlich noch um Programmierung und Beratung. Für die Unternehmen des professionellen Mobilfunks ergeben sich durch die vielen Veränderungen neue Risiken, welche Haftungsansprüche auslösen können. Dieses Arbeitspapier konzentriert sich auf Unternehmen des professionellen Mobilfunkhandels und speziell auf die hier weit verbreitete Gesellschaft mit beschränkter Haftung. Im Zuge der Digitalisierung und der damit einhergehenden weitreichenden Veränderungen in der Branche des professionellen Mobilfunkhandels hat der Geschäftsführer Entscheidungen zu treffen, welche mit Risiko behaftet sind und sogar den Fortbestand der Gesellschaft gefährden können. Um nicht gegen seine Rechte und Pflichten als Geschäftsführer zu verstoßen und einer persönlichen Haftung aus dem Weg zu gehen, sollen die auftretenden Risiken benannt und Wege aufgezeigt werden, diese zu minimieren bzw. ganz zu vermeiden. Geschäftsführer sind sich oftmals ihren persönlichen Haftungsrisiken nicht bewusst.
Am Buffet des Lebens
(2017)
Forschung im Fokus 2017
(2017)
Campus Sommer 2017
(2017)
Campus Winter 2017/2018
(2017)
Message co chairmen
(2017)
In this study, a high-performance controller is proposed for single-phase grid-tied energy storage systems (ESSs). To control power factor and current harmonics and manage time-shifting of energy, the ESS is required to have low steady-state error and fast transient response. It is well known that fast controllers often lack the required steady-state accuracy and trade-off is inevitable. A hybrid control system is therefore presented that combines a simple yet fast proportional derivative controller with a repetitive controller which is a type of learning controller with small steady-state error, suitable for applications with periodic grid current harmonic waveforms. This results in an improved system with distortion-free, high power factor grid current. The proposed controller model is developed and design parameters are presented. The stability analysis for the proposed system is provided and the theoretical analysis is verified through stability, transient and steady-state simulations.
Exploiting Dissent: Towards Fuzzing-based Differential Black Box Testing of TLS Implementations
(2017)
The Transport Layer Security (TLS) protocol is one of the most widely used security protocols on the internet. Yet do implementations of TLS keep on suffering from bugs and security vulnerabilities. In large part is this due to the protocol's complexity which makes implementing and testing TLS notoriously difficult. In this paper, we present our work on using differential testing as effective means to detect issues in black-box implementations of the TLS handshake protocol. We introduce a novel fuzzing algorithm for generating large and diverse corpuses of mostly-valid TLS handshake messages. Stimulating TLS servers when expecting a ClientHello message, we find messages generated with our algorithm to induce more response discrepancies and to achieve a higher code coverage than those generated with American Fuzzy Lop, TLS-Attacker, or NEZHA. In particular, we apply our approach to OpenssL, BoringSSL, WolfSSL, mbedTLS, and MatrixSSL, and find several real implementation bugs; among them a serious vulnerability in MatrixSSL 3.8.4. Besides do our findings point to imprecision in the TLS specification. We see our approach as present in this paper as the first step towards fully interactive differential testing of black-box TLS protocol implementations. Our software tools are publicly available as open source projects.
Proton Exchange Membrane Fuel Cell (PEMFC) is one of the most promising technologies for sustainable energy production due to the high power density, low operative temperature and more convenient use for several applications. Nevertheless, the high generated current that characterizes PEMFC requires a specific power conditioning. In addition, specific controller must be designed to fit with system operative points changing associated with the variation of this high current. To deal with this challenge, in this paper, an electrochemical system composed of a Proton Exchange Membrane Fuel Cell (PEMFC) feeding via two phases IBC has been proposed and investigated. For robustness, the used IBC for fuel cell voltage regulation is controlled by linear quadratic regulator (LQR). Then, genetic algorithms technique is applied to optimize the LQR controller parameters giving optimal control coefficients and can if necessary be adjusted according to each working situation change. The model of the entire system is studied using Matlab/Simulink environment. The simulation’s comparative standard and robustness results both demonstrate that the proposed GA-based LQR controller outperforms the conventional PI in terms of performance metrics (overshoot reduction: between 58.93% and 97.09%; response time reduction: between 56.40% and 77.00% and ripple reduction: between 84.00% and 94.86%).
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Die vorliegende Erfindung betrifft ein Verfahren zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes erwärmt wird. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung eines Laserstrahls in einer Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, wobei der Laserstrahl die Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik simultan zu dem Aufbringen der Keramikfarbe auf ein Substrat mittels eines Druckkopfes der Vorrichtung erwärmt. Die vorliegende Erfindung betrifft weiterhin auch eine Vorrichtung zum digitalen Drucken einer Keramikfarbe auf einem Substrat, die einen Druckkopf zum Aufbringen einer Keramikfarbe auf ein Substrat sowie einen Laser zum Erwärmen der Keramik der Keramikfarbe auf mindestens den Schmelzpunkt der Keramik mittels eines Laserstrahls umfasst.
Die Erfindung betrifft eine Vorrichtung mit deren Hilfe ein Gas, vorzugsweise Luft, erwärmt und dem Gas Feuchtigkeit und Schadstoffpartikel entzogen werden können. Die vorliegende Erfindung betrifft auch eine Speicherpatrone zum Speichern von thermischer Energie, die in einer erfindungsgemäßen Vorrichtung verwendet werden kann. Weiterhin betrifft die vorliegende Erfindung auch die Verwendung der erfindungsgemäßen Vorrichtung bzw. der erfindungsgemäßen Speicherpatrone zum Erwärmen von Gas oder zum Entfernen von Feuchtigkeit aus einem Gas. Ein Verfahren zum Erwärmen von Gas bzw. dem Entfernen von Feuchtigkeit aus einem Gas sowie ein Verfahren zum Regenerieren einer entladenen erfindungsgemäßen Speicherpatrone sind ebenso Gegenstand der vorliegenden Erfindung.
In der Planungs- und Betriebspraxis herrscht im Bereich der Betriebsführung von thermisch aktivierten Bauteilsystemen und insbesondere der thermisch trägen Bauteilaktivierung noch große Unsicherheit. Trotz einer weiten Verbreitung dieser Systeme im Neubau von Nichtwohngebäuden hat sich bis heute keine einheitliche Betriebsführungsstrategie durchgesetzt. Vielmehr kritisieren Bauherren und Nutzer regelmäßig zu hohe bzw. niedrige Raumtemperaturen in den Übergangsjahreszeiten und bei Wetterwechsel sowie generell eine mangelhafte Regelbarkeit. Demgegenüber weisen Monitoringprojekte immer wieder einen hohen thermischen Komfort in diesen Gebäuden nach. Offensichtlich unterscheiden sich hier subjektiv empfundene Behaglichkeit und objektiv gemessener Komfort. Gleichzeitig sind Heiz- und Kühlkonzepte mit Flächentemperierung dann besonders energieeffizient, wenn das Regelkonzept auf deren thermische Trägheit angepasst ist. Eine gute Regelung gewährleistet also einen hohen thermischen Komfort und sorgt für einen möglichst niedrigen Energieeinsatz. Das Rechenverfahren mit Anlagenaufwandszahlen (in Anlehnung an DIN V 18599) bietet eine gute Möglichkeit, Anlagenkonzepte inklusive deren Betriebsführungsstrategie zu bewerten. Damit ist es möglich, eine auf das Gebäude angepasste Betriebsführungsstrategie für die Bauteilaktivierung zu finden und einheitlich zu bewerten.
The Bluetooth community is in the process to develop mesh technology. This is highly promising as Bluetooth is widely available in Smart Phones and Tablet PCs, allowing an easy access to the Internet of Things. In this paper work, we investigate the performance of Bluetooth enabled mesh networking that we performed to identify the strengths and weaknesses. A demonstrator for this protocol has been implemented by using the Fruity Mesh protocol implementation. Extensive test cases have been executed to measure the performance, the reliability, the power consumption and the delay. For this, an Automated Physical Testbed (APTB), which emulates the physical channels has been used. The results of these measurements are considered useful for the real implementation of Bluetooth; not only for home and building automation, but also for industrial automation.
Erfinderisches Problemlösen mit TRIZ : Zielbeschreibung, Problemdefinition und Lösungspriorisierung
(2017)
Die Theorie des erfinderischen Problemlösens, TRIZ, ist eine Systematik von Annahmen, Regeln, Methoden und Werkzeugen zur innovativen Systemverbesserung z.B. von Produkten, Prozessen, Dienstleistungen oder Organisationen. Diese Richtlinie erläutert TRIZ-Werkzeuge und -Methoden, die insbesondere in den Phasen "Zielbeschreibung", "Problemdefinition" und "Lösungspriorisierung" des Problemlösungsprozesses eingesetzt werden. Die Detailtiefe der Beschreibung erlaubt eine Einschätzung der Werkzeuge und Methoden hinsichtlich Einsatzzwecken, Ergebnissen und Funktionsweise. Die jeweilige Beschreibung der Methoden und Werkzeuge enthält konkrete Aussagen über Zielsetzung und Ergebnis ihres Einsatzes.
Background: R-wave synchronised atrial pacing is an effective temporary pacing
therapy in infants with postoperative junctional ectopic tachycardia. In the technique
currently used, adverse short or long intervals between atrial pacing and ventricular
sensing (AP–VS) may be observed during routine clinical practice.
Objectives: The aim of the study was to analyse outcomes of R-wave synchronised
atrial pacing and the relationship between maximum tracking rates and AP–VS
intervals.
Methods: Calculated AP–VS intervals were compared with those predicted by experienced
pediatric cardiologist.
Results: A maximum tracking rate (MTR) set 10 bpm higher than the heart rate (HR)
may result in undesirable short AP–VS intervals (minimum 83 ms). A MTR set 20 bpm
above the HR is the hemodynamically better choice (minimum 96 ms). Effects of either
setting on the AP–VS interval could not be predicted by experienced observers. In our
newly proposed technique the AP–VS interval approaches 95 ms for HR > 210 bpm
and 130 ms for HR < 130 bpm. The progression is linear and decreases strictly
(− 0.4 ms/bpm) between the two extreme levels.
Conclusions: Adjusting the AP–VS interval in the currently used technique is complex
and may imply unfavorable pacemaker settings. A new pacemaker design is advisable
to allow direct control of the AP–VS interval.
Critical theory and philosophy across many fields in the humanities has become awash with what has been characterised as ‘the material turn’. This material turn, which seems to involve varying combinations of what is known as Object Orientated Ontology (Harman), Actor-Network Theory (Latour), process philosophy (Whitehead), speculative realism (Bryant), or agential realism (Barad), emphasises some move toward a posthuman understanding of what the world is, and our relation to it.
Die in diesem Aufsatz angesprochenen drei Skype-Performances, die wir im Zeitraum von 2010 bis 2013 durchgeführt haben, fokussieren nicht auf die trennenden Momente der handelnden Subjekte und ihrer Medien, sondern verfolgen eine radikal verkörperte, techno-ökologische Sichtweise. Im Kern untersuchen wir erweiterte Phänotypen , die durch das fortlaufende Parasitiert-Werden unserer Organismen durch die elektronischen Kanäle entstehen. So gesehen verbinden sich via Skype keine getrennten Personen und Orte, sie bilden vielmehr über die Präsenzerfahrung u.a. von Stimme, Haut und Rhythmus eine gemeinsame Umwelt und öffnen temporär einen ‚Dritten Raum‘ bzw. einen ‚Dritten Körper‘. Mensch, Maschine und Umwelt entwickeln durch die Medialisierung eine emergente Bezogenheit organischer und anorganischer Milieus, eine taktil/haptisch-mediale, verkörperte Ökologie. Das ist eine zentrale Annahme unserer Versuchsreihen.
The Advanced Innovation Design Approach is a holistic methodology for enhancing innovative and competitive capability of industrial companies. AIDA can be considered as an open mindset, an individually adaptable range of strongest innovation techniques such as comprehensive front-end innovation process, advanced innovation methods, best tools and methods of the TRIZ methodology, organizational measures for accelerating innovation, IT-solutions for Computer-Aided Innovation, and other innovation methods, elaborated in the recent decade in the industry and academia
The European TRIZ Association ETRIA acts as a connecting link between scientific institutions, universities and other educational organizations, industrial companies and individuals concerned with conceptual and practical questions relating to organization of innovation process, invention methods, and innovation knowledge. In the meantime, more than TFC 1000 papers or presentation of scientists, educators, and practitioners from all over the world are available at the official ETRIA website. Numerous research projects were supported or funded by the European Commission.
Produkt-Controlling
(2017)
Zentraler Baustein des Marketing ist die „facettenreiche“ Produktpolitik. Im nachstehenden Beitrag wird zunächst die Einordnung der Produktpolitik in den Zielkatalog des Marketing und des Unternehmens skizziert. Das Produkt-Controlling wird verstanden als zielgerichtete Unterstützung der Managementaufgaben im Kontext der Produktpolitik mittels passender Instrumente – Instrumente, die der Phase der Produktentstehung wie der Marktzyklusphase zuzuordnen sind. Erkennbar wird: es gibt ein umfangreiches Set an Methoden, die das Marketing-Management unterstützen und die Sicherstellung der Marketing-Effektivität und Marketing-Effizienz gewährleisten. Die Komplexität des Produkt-Controllings bedingt sich auch durch den ausreichenden Einbezug preis-, qualitäts- und markenpolitischer Informationen in die Zielkontrolle.
Computing Aggregates on Autonomous, Self-organizing Multi-Agent System: Application "Smart Grid"
(2017)
Decentralized data aggregation plays an important role in estimating the state of the smart grid, allowing the determination of meaningful system-wide measures (such as the current power generation, consumption, etc.) to balance the power in the grid environment. Data aggregation is often practicable if the aggregation is performed effectively. However, many existing approaches are lacking in terms of fault-tolerance. We present an approach to construct a robust self-organizing overlay by exploiting the heterogeneous characteristics of the nodes and interlinking the most reliable nodes to form an stable unstructured overlay. The network structure can recover from random state perturbations in finite time and tolerates substantial message loss. Our approach is inspired from biological and sociological self-organizing mechanisms.
With increasing flexible AC transmission system (FACTS) devices in operation, like the most versatile unified power flow controller (UPFC), the AC/DC transmission flexibility and power system stability have been suffering unprecedented challenge. This paper introduces the user-defined modeling (UDM) method into the UPFC dynamic modeling process, to deal with the challenging requirements of power system operation. This has also been verified using a leading-edge stability analysis software named DSATools TM in the IEEE-39 bus benchmark system. The characteristics of steady-state and dynamic responses are compared and analyzed under different conditions. Furthermore, simulation results prove the feasibility and effectiveness of the proposed UPFC in terms of both the independent regulation of power flow and the improvement of transient stability.
Process engineering focuses on the design, operation, control and optimization of chemical, physical and biological processes and has applications in many industries. Process Intensification is the key development approach in the modern process engineering. The proposed Advanced Innovation Design Approach (AIDA) combines the holistic innovation process with the systematic analytical and problem solving tools of the theory of inventive problem solving TRIZ. The present paper conceptualizes the AIDA application in the field of process engineering and especially in combination with the Process Intensification. It defines the AIDA innovation algorithm for process engineering and describes process mapping, problem ranking, and concept design techniques. The approach has been validated in several industrial case studies. The presented research work is a part of the European project “Intensified by Design® platform for the intensification of processes involving solids handling”.
The collection of selected papers of the TRIZ Future Conference 2017 is in open access and is included to the Innovator, the journal of the European TRIZ Assocation.
The paper is addressing the needs of the universities regarding qualification of students as future R&D specialists in efficient techniques for successfully running innovation process. In comparison with the engineers, the students often demonstrate lower motivation in learning systematic inventive techniques, like for example TRIZ methodology, and prefer random brainstorming for idea generation. The quality of obtained solutions also depends on the level of completeness of the problem analysis, which is more complex and time consuming in the case of interdisciplinary systems. The paper briefly describes one-semester-course of 60 hours in new product development with the Advanced Innovation Design Approach and TRIZ methodology, in which a typical industrial innovation process for one selected interdisciplinary mechatronic product is modelled.
In the course of the last few years, our students are becoming increasingly unhappy. Sometimes they stop attending lectures and even seem not to know how to behave correctly. It feels like they are getting on strike. Consequently, drop-out rates are sky-rocketing. The lecturers/professors are not happy either, adopting an “I-don’t-care” attitude.
An interdisciplinary, international team set in to find out: (1) What are the students unhappy about? Why is it becoming so difficult for them to cope? (2) What does the “I-don’t-care” attitude of professors actually mean? What do they care or not care about? (3) How far do the views of the parties correlate? Could some kind of mutual understanding be achieved?
The findings indicate that, at least at our universities, there is rather a long way to go from “Engineering versus Pedagogy” to “Engineering Pedagogy”.
We present a two-dimensional (2D) planar chromatographic separation method for phytoestrogenic active compounds on RP-18 W (Merck, 1.14296) phase. It could be shown that an ethanolic extract of liquorice (Glycyrrhiza glabra) roots contains four phytoestrogenic active compounds. As solvent, in the first direction, the mix of hexane, ethyl acetate, and acetone (45:15:10, v/v) was used, and, in the second direction, that of acetone and water (15:10, v/v) was used. After separation, a modified yeast estrogen screen (YES) test was applied, using the yeast strain Saccharomyces cerevisiae BJ3505. The test strain (according to McDonnell) contains the estrogen receptor. Its activation by estrogen active compounds is measured by inducing the reporter gene lacZ which encodes the enzyme β-galactosidase. This enzyme activity is determined on plate by using the fluorescent substrate MUG (4-methylumbelliferyl-β-d-galactopyranoside). The enzyme can also hydrolyse X-β-Gal (5-bromo-4-chloro-3-indoxyl-β-d-galactopyranosid) into β-galactose and 5-bromo-4-chloro-3-indoxyl. The indoxyl compound is oxidized by oxygen forming the deep-blue dye 5,5β-dibromo-4,4β-dichloro-indigo which allows to detect phytoestrogenic activity more specific in the presence of native fluorescing compounds.
Viele hochbeanspruchte Bauteile müssen zur Erfüllung ihres konstruktiven Zwecks mit Durchdringungskerben versehen werden. Infolge der gegenseitigen Wechselwirkung gelten für die Kerbwirkung dieser Art von Mehrfachkerben andere Gesetzmäßigkeiten als bei Einzelkerben. Die Weiterentwicklung der Lehre von der Tragfähigkeitsberechnung höchstbeanspruchter Maschinenelemente macht es notwendig, sich mit der Durchdringungskerbwirkung eingehend zu befassen. Thum und Svenson [1] entwickelten im Jahr 1949 ein Näherungsverfahren zur Abschätzung der Formzahl an einem zugbelasteten Stab mit Durchdringungskerben. In vielen Lehrbüchern findet dieses Verfahren Anwendung. Aus heutiger Sicht erscheint die Eignung der aus diesem Ansatz erzielten Ergebnisse als dringend überprüfungswürdig. Das thum’sche Verfahren wird unter die Lupe genommen. Der hier vorliegende Beitrag präsentiert mit Hilfe der Finiten-Elemente-Methode (FEM) neue Untersuchungsergebnisse an zugbeanspruchten Stäben mit Halbkreisnut und überlagerter Querbohrung. Diese ergaben, dass die Berechnung nach [1] Lücken aufweist. Ihr Ansatz stellt für den heutigen Entwicklungsstand eine mit zu großen Abweichungen behaftete Näherungshypothese dar.
Comparison of Time Warping Algorithms for Rail Vehicle Velocity Estimation in Low Speed Scenarios
(2017)
Cellular phone antennas are generally designed to have radiation patterns that are as omnidirectional as possible. Omnidirectional antennas allow a phone’s radio to work well for many orientations of the phone with respect to the cellular base station. Recent studies, however, are generating uncertainty about the health effects of prolonged exposure to electromagnetic (EM) radiation from cellular phones. In this paper, an antenna array is designed primarily to minimize users’ exposure to EM radiation. The antenna comprises a beamforming 4 by 3 array of microstrip patch antennas that is controlled by an accelerometer-only inertial navigation system. The proposed design reduces radiated power directed toward the user to below 10% of the total in the worst case.
Background: The electrical field (E-field) of the biventricular (BV) stimulation is important for the success of cardiac resynchronization therapy (CRT) in patients with cardiac insufficiency and widened QRS complex. The 3D modeling allows the simulation of CRT and high frequency (HF) ablation.
Purpose: The aim of the study was to model different pacing and ablation electrodes and to integrate them into a heart model for the static and dynamic simulation of atrial and BV stimulation and high frequency (HF) ablation in atrial fibrillation (AF).
Methods: The modeling and simulation was carried out using the electromagnetic simulation software CST (CST Darmstadt). Five multipolar left ventricular (LV) electrodes, one epicardial LV electrode, four bipolar right atrial (RA) electrodes, two right ventricular (RV) electrodes and one HF ablation catheter were modeled. Selected electrodes were integrated into the Offenburg heart rhythm model for the electrical field simulation. The simulation of an AV node ablation at CRT was performed with RA, RV and LV electrodes and integrated ablation catheter with an 8 mm gold tip.
Results: The right atrial stimulation was performed with an amplitude of 1.5 V with a pulse width of 0.5. The far-field potentials generated by the atrial stimulation were perceived by the right and left ventricular electrode. The far-field potential at a distance of 1 mm from the right ventricular electrode tip was 36.1 mV. The far-field potential at a distance of 1 mm from the left ventricular electrode tip was measured with 37.1 mV. The RV and LV stimulation were performed simultaneously at amplitude of 3 V at the LV electrode and 1 V at the RV electrode with a pulse width of 0.5 ms each. The far-field potentials generated by the BV stimulations could be perceived by the RA electrode. The far-field potential at the RA electrode tip was 32.86 mV. AV node ablation was simulated with an applied power of 5 W at 420 kHz and 10 W at 500 kHz at the distal 8 mm ablation electrode.
Conclusions: Virtual heart and electrode models as well as the simulations of electrical fields and temperature profiles allow the static and dynamic simulation of atrial synchronous BV stimulation and HF ablation at AF. The 3D simulation of the electrical field and temperature profile may be used to optimize the CRT and AF ablation.
Three real-lab trigeneration microgrids are investigated in non-residential environments (educational, office/administrational, companies/production) with a special focus on domain-specific load characteristics. For accurate load forecasting on such a local level, à priori information on scheduled events have been combined with statistical insight from historical load data (capturing information on not explicitly-known consumer behavior). The load forecasts are then used as data input for (predictive) energy management systems that are implemented in the trigeneration microgrids. In real-world applications, these energy management systems must especially be able to carry out a number of safety and maintenance operations on components such as the battery (e.g. gassing) or CHP unit (e.g. regular test runs). Therefore, energy management systems should combine heuristics with advanced predictive optimization methods. Reducing the effort in IT infrastructure the main and safety relevant management process steps are done on site using a Smart & Local Energy Controller (SLEC) assisted by locally measured signals or operator given information as default and external inputs for any advanced optimization. Heuristic aspects for local fine adjustment of energy flows are presented.
In der genossenschaftlichen FinanzGruppe werden neben Verbundunternehmen wie zum Beispiel der DZ Bank rund 45 bis 50 Genossenschaftsbanken von der künftigen Berichtspflicht nach der sogenannten CSR-Richtlinie betroffen sein. Dieser Artikel gibt Hinweise zu Auswirkungen der neuen Gesetzeslage, aber auch zu Chancen und Potenzialen. Diskutiert wird insbesondere, was das neue Gesetz bzw. der Regierungsentwurf von 2016 besagt, und was die Vorgaben konkret für Genossenschaftsbanken bedeuten. Der Beitrag diskutiert zudem Synergien, Chancen und Potenziale: Das Thema Nachhaltigkeit kann wertvolle Impulse für eine zielgerichtete Weiterentwicklung des eigenen Geschäftsmodells bieten, beispielsweise wie neue Kundengruppen und/oder neue Ertragspotenziale mit Hilfe von neuen Produkten beziehungsweise Geschäftsfeldern erschlossen werden können.
Im Jahr 1504 verlor der deutsche Ritter Gottfried („Götz“) von Berlichingen seine
rechte Hand. Schon während seiner Genesung dachte er daran, die Hand zu ersetzen,
und beauftragte bald darauf die erste Handprothese, die sogenannte „Eiserne Hand“.
Jahre später wurde die aufwändigere zweite „Eiserne Hand“ gebaut. Wir haben die erste
Prothese auf der Basis früherer Literaturdaten von
Quasigroch (1982) mit Hilfe von 3-D
Computer-Aided Design (CAD) rekonstruiert. Dazu mussten einige Abmessungen angepasst
und ein paar Annahmen für das CAD-Modell gemacht werden. Die historische passive
Prothese des Götz von Berlichingen ist für die moderne Neuroprothetik interessant, da sie
eine Alternative zu komplexen invasiven Brain-Machine-Interface-Konzepten darstellen
könnte, wo diese Konzepte nicht notwendig, möglich oder vom Patienten gewünscht sind.
Streustrahlung in der Ultraschall-Computertomographie zur Verifizierung der Echtheit von Perlen
(2017)
This paper describes a new analysis method developed to distinguish real from fake
pearls using non-ionizing, non-destructive ultrasound computed tomography (USCT): In the USCT Shepp-Logan-filtered time-of-flight image, a fake pearl shows irregular, asymmetric
scattering of ultrasound, whereas the pattern in a natural pearl is regular and symmetric.
We strongly assume that pattern recognition of the scattering of ultrasound cannot only
play an important role in verifying pearls, but also in testing other materials and tissues in
(bio-)medical engineering. Furthermore, and most importantly, this new approach could
be helpful for a variety of clinical diagnoses using high-resolution 3D-USCT, such as the
detection of X-ray-negative micro-calcifications in early breast cancer. Moreover looking
at scattering patterns in dedicated positron emission tomography systems may promote
new developments in nuclear medicine diagnostics.
eLetter zum Artikel "How hair can reveal a history" von Hanae Armitage & Nala Rogers, veröffentlicht in Science, Vol. 351, Issue 6278, Seite 1134 (doi.org/10.1126/science.351.6278.1134)
eLetter zum Artikel "Hybrid EEG/EOG-based brain/neural hand exoskeleton restores fully independent daily living activities after quadriplegia" von Surjo R. Soekadar et al., veröffentlicht in Science Robotics, Vol. 1, No. 1 (DOI: 10.1126/scirobotics.aag3296)
The electrical field (E-field) of the biventricular (BV) stimulation is important for the success of cardiac resynchronization therapy (CRT) in patients with cardiac insufficiency and widened QRS complex.
The aim of the study was to model different pacing and ablation electrodes and to integrate them into a heart model for the static and dynamic simulation of BV stimulation and HF ablation in atrial fibrillation (AF).
The modeling and simulation was carried out using the electromagnetic simulation software CST. Five multipolar left ventricular (LV) electrodes, four bipolar right atrial (RA) electrodes, two right ventricular (RV) electrodes and one HF ablation catheter were modelled. A selection were integrated into the heart rhythm model (Schalk, Offenburg) for the electrical field simulation. The simulation of an AV node ablation at CRT was performed with RA, RV and LV electrodes and integrated ablation catheter with an 8 mm gold tip.
The BV stimulation were performed simultaneously at amplitude of 3 V at the LV electrode and 1 V at the RV electrode with a pulse width of 0.5 ms each. The far-field potential at the RA electrode tip was 32.86 mV and 185.97 mV at a distance of 1 mm from the RA electrode tip. AV node ablation was simulated with an applied power of 5 W at 420 kHz at the distal ablation electrode. The temperature at the catheter tip was 103.87 °C after 5 s ablation time and 37.61 °C at a distance of 2 mm inside the myocardium. After 15 s, the temperature was 118.42 °C and 42.13 °C.
Virtual heart and electrode models as well as the simulations of electrical fields and temperature profiles allow the static and dynamic simulation of atrial synchronous BV stimulation and HF ablation at AF and could be used to optimize the CRT and AF ablation.
Spectral analysis of signal averaging electrocardiography in atrial and ventricular tachyarrhythmias
(2017)
Background: Targeting complex fractionated atrial electrograms detected by automated algorithms during ablation of persistent atrial fibrillation has produced conflicting outcomes in previous electrophysiological studies. The aim of the investigation was to evaluate atrial and ventricular high frequency fractionated electrical signals with signal averaging technique.
Methods: Signal averaging electrocardiography (ECG) allows high resolution ECG technique to eliminate interference noise signals in the recorded ECG. The algorithm uses automatic ECG trigger function for signal averaged transthoracic, transesophageal and intracardiac ECG signals with novel LabVIEW software (National Instruments, Austin, Texas, USA). For spectral analysis we used fast fourier transformation in combination with spectro-temporal mapping and wavelet transformation for evaluation of detailed information about the frequency and intensity of high frequency atrial and ventricular signals.
Results: Spectral-temporal mapping and wavelet transformation of the signal averaged ECG allowed the evaluation of high frequency fractionated atrial signals in patients with atrial fibrillation and high frequency ventricular signals in patients with ventricular tachycardia. The analysis in the time domain evaluated fractionated atrial signals at the end of the signal averaged P-wave and fractionated ventricular signals at the end of the QRS complex. The analysis in the frequency domain evaluated high frequency fractionated atrial signals during the P-wave and high frequency fractionated ventricular signals during QRS complex. The combination of analysis in the time and frequency domain allowed the evaluation of fractionated signals during atrial and ventricular conduction.
Conclusions: Spectral analysis of signal averaging electrocardiography with novel LabVIEW software can utilized to evaluate atrial and ventricular conduction delays in patients with atrial fibrillation and ventricular tachycardia. Complex fractionated atrial electrograms may be useful parameters to evaluate electrical cardiac arrhythmogenic signals in atrial fibrillation ablation.
Heart rhythm model and simulation of electrophysiological studies and high-frequency ablations
(2017)
Background: Target of the study was to create an accurate anatomic CAD heart rhythm model, and to show its usefulness for cardiac electrophysiological studies and high-frequency ablations. The method is more careful for the patients’ health and has the potential to replace clinical studies due to its high efficiency regarding time and costs.
Methods: All natural heart components of the new HRM were based on MRI records, which guaranteed electronic functionality. The software CST was used for the construction, while CST’s material library assured genuine tissue properties. It should be applicable to simulate different heart rhythm diseases as well as various diffusions of electromagnetic fields, caused by electrophysiological conduction, inside the heart tissue.
Results: It was achievable to simulate sinus rhythm and fourteen different heart rhythm disturbance with different atrial and ventricular conduction delays. The simulated biological excitation of healthy and sick HRM were plotted by simulated electrodes of four polar right atrial catheter, six polar His bundle catheter, ten polar coronary sinus catheter, four polar ablation catheter and eight polar transesophageal left cardiac catheter. Accordingly, six variables were rebuilt and inserted into the anatomic HRM in order to establish heart catheters for ECG monitoring and HF ablation. The HF ablation catheters made it possible to simulate various types of heart rhythm disturbance ablations with different HF ablation catheters and also showed a functional visualisation of tissue heating. The use of tetrahedral meshing HRM made it attainable to store the results faster accompanied by a higher degree of space saving. The smart meshing function reduced unnecessary high resolutions for coarse structures.
Conclusions: The new HRM for EPS simulation may be additional useful for simulation of heart rhythm disturbance, cardiac pacing, HF ablation and for locating and identification of complex fractioned signals within the atrium during atrial fibrillation HF ablation.
The building sector is one of the main consumers of energy. Therefore, heating and cooling concepts for renewable energy sources become increasingly important. For this purpose, low-temperature systems such as thermo-active building systems (TABS) are particularly suitable. This paper presents results of the use of a novel adaptive and predictive computation method, based on multiple linear regression (AMLR) for the control of TABS in a passive seminar building. Detailed comparisons are shown between the standard TABS and AMLR strategies over a period of nine months each. In addition to the reduction of thermal energy use by approx. 26% and a significant reduction of the TABS pump operation time, this paper focuses on investment savings in a passive seminar building through the use of the AMLR strategy. This includes the reduction of peak power of the chilled beams (auxiliary system) as well as a simplification of the TABS hydronic circuit and the saving of an external temperature sensor. The AMLR proves its practicality by learning from the historical building operation, by dealing with forecasting errors and it is easy to integrate into a building automation system.
Entwicklung und Evaluierung eines adaptiv-prädiktiven Algorithmus für thermoaktive Bauteilsysteme
(2017)
Der Gebäudesektor ist einer der Hauptverbraucher von Energie und somit mitverantwortlich für einen wesentlichen Anteil an CO2-Emissionen. Heiz- und Kühlkonzepte, die erneuerbare Energiequellen nutzen können, gewinnen daher immer mehr an Bedeutung. Hierfür besonders geeignet sind Niedertemperatursysteme, wie beispielsweise Thermoaktive Bauteilsysteme (TABS). Die große thermische Trägheit und die geringe Leistung dieser Systeme verhindern eine schnelle Reaktion auf Raumtemperaturänderungen. Bisherige Steuer- und Regelstrategien für TABS können nur sehr schlecht mit der thermischen Trägheit umgehen, da diese in der Regel keine Prädiktionen verwenden. Hinzu kommt eine aufwändige Parametrierung dieser TABS-Strategien, was in der Praxis zu Inbetriebnahmephasen von oft mehreren Jahren führt. Die Möglichkeit TABS als einen Kurzzeitenergiespeicher für das durch die wachsende Einspeisung aus fluktuierenden erneuerbaren Energiequellen belastete Stromnetz nutzbar zu machen, spielt bei diesen Standard-TABS-Strategien bisher keine Rolle.
In dieser Arbeit wurde ein neuartiger Algorithmus für die Steuerung von TABS entwickelt, der hier durch die Abkürzung AMLR gekennzeichnet wird. Die AMLR nutzt Vorhersagen der Hauptstörgrößen einer TABS-Zone zur Berechnung eines innerhalb des nächsten Tages zuzuführenden Energiepaketes. Zu den Hauptstörgrößen zählen die tagesgemittelte Außentemperatur, die tagesgemittelte globale Einstrahlung sowie ein Belegungsplan jeder TABS-Zone. Die AMLR verwendet ein dynamisches und ein stationäres Widerstands-Kapazitäten(RC)-Modell mit einem Verzögerungsglied erster Ordnung (PT1). Das stationäre TABS- und Raummodell wird für eine Adaptionsfähigkeit und das dynamische Modell für die zeitdiskrete Berechnung von Leistungen genutzt. Es wird gezeigt, dass die Genauigkeit eines Modells mit PT1-Glied für die Steuerung von TABS ausreichend ist. Durch die Adaptionfähigkeit kann sich der Algorithmus automatisiert an unterschiedliche Gebäude, Standorte und Nutzungsprofile anpassen. Auf die Erstellung eines Gebäudemodells inklusive dessen technischer Gebäudeausrüstung (TGA), der Wärmelasten sowie der Wettereinflüsse kann somit verzichtet werden. Weiterhin können mit der AMLR mittlere Soll-Raumtemperaturen pro TABS-Zone vorgegeben werden, was bei Standard-TABS-Strategien nicht möglich ist. Dem Autor stehen als Testumgebungen zur Evaluierung der AMLR die Triple-Klimakammer des Instituts für Energiesystemtechnik (INES) der Hochschule Offenburg sowie zwei reale Gebäude und deren Simulationsmodelle zur Verfügung. Bei den Gebäuden handelt es sich um das in Basel befindliche IWB CityCenter sowie das Seminargebäude der Hochschule Offenburg.
Mit Hilfe der Triple-Klimakammer werden die verwendeten RC-Modelle sowie das TRNSYS-Simulationsmodell der Kammer selbst validiert. Durch den direkten Vergleich der AMLR zu Standard-TABS-Strategien kann in Model-in-the-Loop (MiL) Simulationen, Laborversuchen und Pilotanlagen gezeigt werden, dass die AMLR insbesondere dann thermische Energie einsparen kann, wenn es bei der Standardstrategie zu Überhitzungen im Heizfall und Unterkühlungen im Kühlfall kommt. Des Weiteren zeigen sich Energieeinsparpotenziale durch die Möglichkeit der zonenspezifischen Beladung der TABS. Anhand von Messdaten einer Pilotanlage kann eine Reduktion des thermischen TABS-Energiebedarfs von über 41 % belegt werden. In allen Testumgebungen kann eine Einsparung an Hilfsenergie von bis zu 86 % für die TABS-Pumpen bei gleichzeitiger Verbesserung des thermischen Komforts nachgewiesen werden. Neben Energieeinsparungen sind durch den Einsatz der AMLR Investitionseinsparungen durch eine vereinfachte TABS-Hydraulik möglich, da keine konstanten Vorlauftemperaturen notwendig sind. Weiterhin kann gezeigt werden, dass die Leistung eines Zusatzkühlsystems durch den Einsatz der AMLR im Vergleich zur Standard-TABS-Strategie reduziert werden kann, ohne den thermischen Komfort zu beeinträchtigen. Anhand von Simulationsrechnungen wird das Potenzial von TABS für Lastverschiebemaßnahmen quantifiziert. Durch die Verwendung der AMLR mit dynamischen Strompreisen ist im gezeigten Beispiel eine Einsparung an monetären Kosten von 38 % möglich. Weiterhin konnten Anfragen zur Abschaltung der Beladung der TABS zum Ausgleich fluktuierender erneuerbarer Energieerzeuger durch die AMLR unter Einhaltung des thermischen Komforts durchgeführt werden.
Polygeneration systems are a key technology for the reduction of primary energy usage and emissions. High costs, lack of flexibility and effort for parameterization hinder the wide usage of modeling tools during their conceptual design. This paper describes how planning tools can be structured for the conceptual design phase where only little information is available to the planner. A library concept was developed using the principles of object-oriented modeling to address the flexibility issue. With respect to cost and expandability, the open-source modeling language Modelica was chosen. Furthermore, easy-to-parameterize component models were developed. In addition to the improved library concept and novel component models, an easy-to-adapt control concept is proposed. The component models were validated and the applicability of the library was demonstrated by means of an example. It was shown that the data usually obtained from spec sheets are sufficient to parameterize the models. In addition to this, the control concept was approved.
Micro gas turbines (MGTs) are regarded as combined heat and power (CHP) units which offer high fuel utilization and low emissions. They are applied in decentralized energy neration.
To facilitate the planning process of energy systems, namely in the context of the increasing application of optimization techniques, there is a need for easy-to-parametrize component models with sufficient accuracy which allow a fast computation. In this paper, a model is proposed where the non-linear part load characteristics of the MGT are linearized by means of physical insight of the working principles of turbomachinery. Further, it is shown that the model can be parametrized by the data usually available in spec sheets. With this model a uniform description of MGTs from several manufacturers
covering an electrical power range from 30kW to 333kW can be obtained. The MGT model was
implemented by means of Modelica/Dymola. The resulting MGT system model, comprising further heat exchangers and hydraulic components, was validated using the experimental data of a 65kW MGT from a trigeneration energy system.
Schriftliche Stellungnahme Lankau zu:
a) Dringlicher Antrag der Fraktion der FDP betreffend Hessen 4.0 – Agenda Digitales Hessen (Drucksache 19/4111)
b) Großen Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/2896) und
c) Antwort der Landesregierung auf die Große Anfrage der Abg. Eckert, Barth, Decker, Degen, Faeser, Frankenberger, Geis, Gremmels, Grüger, Lotz, Dr. Sommer, Weiß (SPD) und Fraktion betreffend Auswirkungen der Digitalisierung auf Arbeit und Wirtschaft in Hessen (Drucksache 19/4357)
Das Thema des Forschungsprojekts ist Digitaltechnik im Spannungsfeld von Freiheitsversprechen und Totalüberwachung. Das Projekt „futur iii“ ist nicht nur der Name, sondern zugleich der Logo und URL für Publikationen.
Dieses Projekt wird im intensiven Dialog und z.T. in Kooperationen mit Kolleginnen und Kollegen verschiedener Hochschulen und Bildungseinrichtungen realisiert. Das übergreifende Thema ist bereits seit dem letzten Forschungssemester 2010 die Veränderung des Web durch Kommerzialisierung und Monopolisierung sowie die kritisch-reflektierende Auseinandersetzung mit Digitaltechnik bzw. Geräten und Diensten unter besonderer Berücksichtigung der konkreten Technikfolgeabschätzung (TA) für den Einsatz digitaler Bildschirmmedien und -dienste im Kontext von Lehre und Lernen.
In this paper we present the implementation of a model-predictive controller (MPC) for real-time control of a cable-robot-based motion simulator. The controller computes control inputs such that a desired acceleration and angular velocity at a defined point in simulator’s cabin are tracked while satisfying constraints imposed by working space and allowed cable forces of the robot. In order to fully use the simulator capabilities, we propose an approach that includes the motion platform actuation in the MPC model. The tracking performance and computation time of the algorithm are investigated in computer simulations. Furthermore, for motion simulation scenarios where the reference trajectories are not known beforehand, we derive an estimate on how much motion simulation fidelity can maximally be improved by any reference prediction scheme compared to the case when no prediction scheme is applied.
Radiation is an important means of heat transfer inside an electric arc furnace (EAF).
To gain insight into the complex processes of heat transfer inside the EAF vessel, not only radiation from the surfaces but also emission and absorption of the gas phase and the dust cloud need to be considered.
Furthermore, the radiative heat exchange depends on the geometrical configuration which is continuously changing throughout the process.
The present paper introduces a system model of the EAF which takes into account the radiative heat transfer between the surfaces
and the participating medium. This is attained by the development of a simplified geometrical model,
the use of a weighted-sum-of-gray-gases model, and a simplified consideration of dust radiation.
The simulation results were compared with the data of real EAF plants available in literature.