Refine
Year of publication
- 2021 (436) (remove)
Document Type
- Bachelor Thesis (97)
- Conference Proceeding (85)
- Article (reviewed) (74)
- Part of a Book (37)
- Contribution to a Periodical (23)
- Master's Thesis (22)
- Working Paper (22)
- Article (unreviewed) (20)
- Other (12)
- Book (11)
Conference Type
- Konferenzartikel (76)
- Konferenz-Abstract (6)
- Konferenz-Poster (2)
- Konferenzband (1)
Keywords
- Datenqualität (6)
- Kundendaten (6)
- Künstliche Intelligenz (6)
- COVID-19 (5)
- Chromatography (5)
- Datenmanagement (5)
- Export (5)
- Gamification (5)
- Laboratory Medicine (5)
- Marketing (5)
Institute
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (121)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (119)
- Fakultät Medien (M) (ab 22.04.2021) (90)
- Fakultät Wirtschaft (W) (58)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (51)
- INES - Institut für nachhaltige Energiesysteme (32)
- IMLA - Institute for Machine Learning and Analytics (19)
- POIM - Peter Osypka Institute of Medical Engineering (17)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (14)
- IfTI - Institute for Trade and Innovation (11)
Open Access
- Closed Access (259)
- Open Access (170)
- Bronze (13)
- Hybrid (6)
- Closed (4)
- Diamond (2)
- Grün (2)
- Gold (1)
In recent years, physically unclonable functions (PUFs) have gained significant attraction in IoT security applications, such as cryptographic key generation and entity authentication. PUFs extract the uncontrollable production characteristics of different devices to generate unique fingerprints for security applications. When generating PUF-based secret keys, the reliability and entropy of the keys are vital factors. This study proposes a novel method for generating PUF-based keys from a set of measurements. Firstly, it formulates the group-based key generation problem as an optimization problem and solves it using integer linear programming (ILP), which guarantees finding the optimum solution. Then, a novel scheme for the extraction of keys from groups is proposed, which we call positioning syndrome coding (PSC). The use of ILP as well as the introduction of PSC facilitates the generation of high-entropy keys with low error correction costs. These new methods have been tested by applying them on the output of a capacitor network PUF. The results confirm the application of ILP and PSC in generating high-quality keys.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
Most recently, the federal government in Germany published new climate goals in order reach climate neutrality by 2045. This paper demonstrates a path to a cost optimal energy supply system for the German power grid until the year 2050. With special regard to regionality, the system is based on yearly myopic optimization with the required energy system transformation measures and the associated system costs. The results point out, that energy storage systems (ESS) are fundamental for renewables integration in order to have a feasible energy transition. Moreover, the investment in storage technologies increased the usage of the solar and wind technologies. Solar energy investments were highly accompanied with the installation of short-term battery storage. Longer-term storage technologies, such as H2, were accompanied with high installations of wind technologies. The results pointed out that hydrogen investments are expected to overrule short-term batteries if their cost continues to decrease sharply. Moreover, with a strong presence of ESS in the energy system, biomass energy is expected to be completely ruled out from the energy mix. With the current emission reduction strategy and without a strong presence of large scale ESS into the system, it is unlikely that the Paris agreement 2° C target by 2050 will be achieved, let alone the 1.5° C.
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
Germany was considered the world's export champion for a long time, until it was overtaken by China in 2009. Both nations provide officially supported export credits to national exporting organizations, but the two systems operate differently. German export credit guarantees serve as a substitute when the private market is unable to assume the risks of exporting companies. The German Export Credit Agency Euler Hermes is responsible for processing applications on behalf of the Federal Government. China belongs to the largest providers of export finance with the institutions China EXIM and Sinosure. While Germany is bound by the OECD consensus, which defines the level playing field, Chinese export credit agencies have greater flexibility not being bound by international rules or agreements.
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
Die vorliegende Bachelorarbeit befasst sich mit den Marketing-Kommunikationsstrategien im zweiseitigen Markt am Beispiel einer Immobilienplattform.
Das primäre Ziel dieser Arbeit besteht darin, auf Grundlage der Netzwerkeffekte im zweiseitigen Markt und durch Anwendung von Onlinemarketingmaßnahmen die Positionierung der Plattform Immobilien Rith in den Internetsuchergebnissen zu optimieren.
MINT-College TIEFE
(2021)
Das Projekt MINT-College TIEFE konnte in der zweiten Förderperiode die verschiedenen Maßnahmen der vorangegangenen Förderperiode weiter ausbauen und verstetigen. Die Angebote im Rahmen des Projekts MINT-College TIEFE begleiteten die Studierenden über den Student-Life-Cycle hinweg über das komplette Studium der technischen Studiengänge, beginnend in der Schule und endend beim Übergang in den Beruf. Um die Qualität der Lehre an der Hochschule Offenburg zu verbessern, wurden darüber hinaus verschiedene digital unterstützte Lehrformate weiterentwickelt und ausgebaut. Zentrale Angebote des MINT-College, das 2019 zentrale Einrichtung der Hochschule Offenburg wurde, sind die für die Studieneingangsphase entwickelten Angebote der Einführungstage, des Mentorenprogramms, der Brückenkurse, des Lernzentrums und Angebote für den Übergang in den Beruf, wie das Gründerbüro. Die mediendidaktischen Unterstützungsangebote für Lehrende unterstützten den Lernkulturwandel an der Hochschule. Es wurden systematisch nachhaltige Strukturen aufgebaut, um Innovationen für das Lehren und das Lernen auch künftig entwickeln, erproben und etablieren zu können.
Fifth-generation (5G) cellular mobile networks are expected to support mission-critical low latency applications in addition to mobile broadband services, where fourth-generation (4G) cellular networks are unable to support Ultra-Reliable Low Latency Communication (URLLC). However, it might be interesting to understand which latency requirements can be met with both 4G and 5G networks. In this paper, we discuss (1) the components contributing to the latency of cellular networks and (2) evaluate control-plane and user-plane latencies for current-generation narrowband cellular networks and point out the potential improvements to reduce the latency of these networks, (3) present, implement and evaluate latency reduction techniques for latency-critical applications. The two elements we detected, namely the short transmission time interval and the semi-persistent scheduling are very promising as they allow to shorten the delay to processing received information both into the control and data planes. We then analyze the potential of latency reduction techniques for URLLC applications. To this end, we develop these techniques into the long term evolution (LTE) module of ns-3 simulator and then evaluate the performance of the proposed techniques into two different application fields: industrial automation and intelligent transportation systems. Our detailed evaluation results from simulations indicate that LTE can satisfy the low-latency requirements for a large choice of use cases in each field.
Elektronische Türschilder zur Darstellung von Informationen sind insbesondere in öffentlichen Gebäuden zwischenzeitlich weit verbreitet. Die Varianz dieser elektronischen Türschilder reicht vom Tablet-basierten Türschild bis hin zum PC-basierten Türschild mit externem Bildschirm. Zumeist werden die Systeme mit 230 V betrieben. Bei einer großen Summe von Türschildern in öffentlichen Gebäuden kann dies zu einem signifikanten Umsatz an Energie führen. Im Rahmen dieses Papers wird die Entwicklung eines energieautarken arbeiten Türschildes vorgestellt, bei dem ein E-Paper-Display zum Einsatz kommt. Das Türschild lässt sich per Smartphone-App und NFC-Schnittstelle konfigurieren. Es wird insbesondere auf das Low-Power-Hardware-Design der Elektronik und energetische Aspekte eingegangen.
Users of a cochlear implant (CI) in one ear, who are provided with a hearing aid (HA) in the contralateral ear, so-called bimodal listeners, are typically affected by a constant and relatively large interaural time delay offset due to differences in signal processing and differences in stimulation. For HA stimulation, the cochlear travelling wave delay is added to the processing delay, while for CI stimulation, the auditory nerve fibers are stimulated directly. In case of MED-EL CI systems in combination with different HA types, the CI stimulation precedes the acoustic HA stimulation by 3 to 10 ms. A self-designed, battery-powered, portable, and programmable delay line was applied to the CI to reduce the device delay mismatch in nine bimodal listeners. We used an A-B-B-A test design and determined if sound source localization improves when the device delay mismatch is reduced by delaying the CI stimulation by the HA processing delay (τ HA ). Results revealed that every subject in our group of nine bimodal listeners benefited from the approach. The root-mean-square error of sound localization improved significantly from 52.6° to 37.9°. The signed bias also improved significantly from 25.2° to 10.5°, with positive values indicating a bias toward the CI. Furthermore, two other delay values (τ HA –1 ms and τ HA +1 ms) were applied, and with the latter value, the signed bias was further reduced in some test subjects. We conclude that sound source localization accuracy in bimodal listeners improves instantaneously and sustainably when the device delay mismatch is reduced.
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Im Rahmen dieser Masterarbeit soll ein Radträger für ein Leichtbaufahrzeug entwickelt werden. Dieser soll ein niedriges Gewicht sowie eine hohe Steifigkeit aufweisen und fertigbar sein.
Dabei wird über einen iterativen Prozess aus Simulation, Topologieoptimierung und Neukonstruktion ein neues Radträgerdesign entwickelt.
Zu Beginn der Arbeit wird auf die wissenschaftlichen Grundlagen eingegangen. Dabei spielen vor allem das Thema Leichtbau sowie die finite Elemente Methode eine Rolle. Es wird auf Prinzipien der Konstruktion eingegangen, um das Bauteil fertigungsgerecht und auch effizient zu gestalten.
Im nächsten Kapitel wird der aktuelle Stand der Technik genauer untersucht. Hierbei wird der Entwicklungsprozess der aktuellen Radträger-Varianten untersucht und diese mittels FEM nachgerechnet. Zuvor werden noch die für die Simulation benötigten wirkenden Kräfte berechnet und Plausibilitätstests durchgeführt, bei denen Computersimulationen mit realen Messwerten auf deren Richtigkeit überprüft werden.
In den letzten Kapiteln geht es um die Entwicklung des Radträgers. Hier werden einige Konzepte entwickelt und mittels FEM-Simulationen getestet. Durch den Einsatz von Topologieoptimierungen wird versucht, das Gewicht des Radträgers bei gleichbleibender Steifigkeit zu senken.
The three lines of defense model (TLoD) aims to provide a simple and effective way to improve coordination and enhance communications on risk management and control by clarifying the essential roles and duties of different governance functions. Without effective coordination of these governance functions, work can be duplicated or key risks may be missed or misjudged. To address these challenges, professional standards recommend that the chief audit executive (CAE) coordinates activities with other internal and external governance stakeholders (assurance providers). We consider survey responses from 415 CAEs from Austria, Germany, and Switzerland to analyze determinants that help to implement the TLoD without any challenges and to explore the extent of (coordination) challenges between the internal audit function and the respective governance stakeholders. Our results show a great variance in the extent of coordination challenges dependent on different determinants and the respective governance stakeholder.
Synthesizing voice with the help of machine learning techniques has made rapid progress over the last years [1]. Given the current increase in using conferencing tools for online teaching, we question just how easy (i.e. needed data, hardware, skill set) it would be to create a convincing voice fake. We analyse how much training data a participant (e.g. a student) would actually need to fake another participants voice (e.g. a professor). We provide an analysis of the existing state of the art in creating voice deep fakes and align the identified as well as our own optimization techniques in the context of two different voice data sets. A user study with more than 100 participants shows how difficult it is to identify real and fake voice (on avg. only 37 percent can recognize a professor’s fake voice). From a longer-term societal perspective such voice deep fakes may lead to a disbelief by default.
Ziel der folgenden Bachelorarbeit ist es, eine Steuerung für einen Motorenprüfstand zu entwickeln. Dieser wurde von Aaron Maier geplant und konstruiert. Die Steuerung soll es ermöglichen, die Motoren des Prüfstands sowohl manuell als auch automatisiert anzusteuern. Dabei sollen die Parameter Drehmoment, Drehzahl, Spannung, Strom sowie die Temperatur der Motoren automatisiert, oder auf Knopfdruck erfasst und abgelegt werden. Die Arbeit umfasst die Auswahl der benötigten Hardwarekomponenten, das Verbauen dieser Komponenten in einem Bedienpult, die elektrische Verschaltung dieser Komponenten, die Programmierung des Microkontrollers und das Erstellen einer Dokumentation.
Sowohl die Entwicklung neuer als auch die Weiterentwicklung bestehender Quartiere sind mit vielfältigen Herausforderungen verbunden. Durch weitere Klimaschutzmaßnahmen und ein zunehmendes Umweltbewusstsein steigen die energetischen Anforderungen an Wohn- und Gewerbeimmobilien. Die besonders für Deutschland ungünstige demografische Entwicklung bedingt eine weiter zunehmende Urbanisierung, bedingt durch Migration und Zuzug älterer Menschen in Städte, die künftig noch mehr altersgerechte Wohnungen und Pflegeeinrichtungen etablieren müssen. Hinzu kommen die steigenden Anforderungen aus der digitalen Transformation und einer Informationsgesellschaft, die sich mit Konnektivität, Schnelllebigkeit, Individualisierungstendenzen und veränderten Konsumgewohnheiten auseinandersetzen muss.
Im Projekt MOBCOM wird ein neues Verfahren zur Zustandsüberwachung von elektrischen Betriebsmitteln in Niederspannungsnetzen und Anlagen entwickelt. Mittels PLC (power line communication) Technologie werden hochfrequente transiente Vorgänge auf dem Stromkanal und dessen Übertragungseigenschaften erfasst und bewertet. Durch Ableiten bestimmter Parameter soll zustandsbedingte Wartung vorhergesagt und so der Ausfall von Betriebsmittel vermieden werden.
The increasing use of artificial intelligence (AI) technologies across application domains has prompted our society to pay closer attention to AI’s trustworthiness, fairness, interpretability, and accountability. In order to foster trust in AI, it is important to consider the potential of interactive visualization, and how such visualizations help build trust in AI systems. This manifesto discusses the relevance of interactive visualizations and makes the following four claims: i) trust is not a technical problem, ii) trust is dynamic, iii) visualization cannot address all aspects of trust, and iv) visualization is crucial for human agency in AI.
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
Ziel der Investitionsmaßnahme Enerlab 4.0 war die Bereitstellung einer umfangreichen in-operando und post-mortem Diagnostik für dezentrale Energieerzeuger und -Speicher, z. B. Batteriezellen und Photovoltaikzellen. Diese sind wichtige Komponenten für verschiedene Bereiche der Industrie 4.0 – von autonomen Sensoren über energieautarke Produktion bis hin zur Qualitätskontrolle. Zu diesem Zweck wurde die apparative Ausstattung der Hochschule Offenburg erweitert, und zwar sowohl für in-operando Diagnostik (elektrische Zyklierer, Impedanzspektrometer, Temperaturprüfschränke) als auch für post-mortem Diagnostik (Glovebox, Probenpräparationen für vorhandene Werkstoffanalytik und chemische Analytik). Be-reits vorhandene Geräte aus anderen laufenden oder abgeschlossenen Projekten wurden in die neue Infrastruktur integriert. Im Ergebnis entstand ein modernes und leistungsfähiges Batterie- und Photovoltaiklabor, welches in zahlreichen laufenden und neuen Vorhaben genutzt wird.
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des Ladezustandes (SOC) einer aufladbaren Batterie (106) eines vorgegebenen Batterietyps oder eines damit in einem physikalischen Zusammenhang stehenden Parameters, insbesondere einer in der Batterie enthaltenen Restladungsmenge Q, wobei das Verfahren mittels eines spannungsgeführten Batteriemodells (102) arbeitet, welches für die betreffende Batterie (106) oder einen entsprechenden Batterietyp parametriert wird. Es muss lediglich die Batteriespannung Umess gemessen und dem Batteriemodell (102) als Eingangsgröße zur Verfügung gestellt werden. Weiterhin betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Bestimmung des Gesundheitszustandes (SOH) einer Batterie (102), wobei das Batteriemodell (102), das auch zur Bestimmung des SOC verwendet wird, einen modellierten Batteriestrom Imodliefert. Aus diesem können modellierte Ladungsmengen während Lade- und Entladephasen der Batterie (106) bestimmt und mit gemessenen Ladungsmengen, die aus dem gemessenen Batteriestrom Imessbestimmt werden, verglichen werden. Da das Batteriemodell (102) nicht altert, kann hierdurch der SOH der Batterie bestimmt werden.
Im Batterielabor der Hochschule Offenburg wurde ein neues Verfahren zur Bestimmung von Ladezustand und Gesundheitszustand von Lithium-Ionen-Batterien entwickelt. Es beruht auf der Auswertung von Spannungs- und Strommessungen mit einem mathematischen Batteriemodell. Das Verfahren ist genauer und robuster als Standardverfahren, die auf Ladungszählung beruhen. Zudem ist es numerisch einfacher umzusetzen als andere modellbasierte Verfahren. Wir demonstrieren die Methode mit einer Heimspeicherzelle und einer Elektrofahrzeugzelle.
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des Ladezustandes (SOC) einer aufladbaren Batterie (106) eines vorgegebenen Batterietyps oder eines damit in einem physikalischen Zusammenhang stehenden Parameters, insbesondere einer in der Batterie enthaltenen Restladungsmenge Q, wobei das Verfahren mittels eines spannungsgeführten Batteriemodells (102) arbeitet, welches für die betreffende Batterie (106) oder einen entsprechenden Batterietyp parametriert wird. Es muss lediglich die Batteriespannung Umess gemessen und dem Batteriemodell (102) als Eingangsgröße zur Verfügung gestellt werden. Weiterhin betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Bestimmung des Gesundheitszustandes (SOH) einer Batterie (102), wobei das Batteriemodell (102), das auch zur Bestimmung des SOC verwendet wird, einen modellierten Batteriestrom Imodliefert. Aus diesem können modellierte Ladungsmengen während Lade- und Entladephasen der Batterie (106) bestimmt und mit gemessenen Ladungsmengen, die aus dem gemessenen Batteriestrom Imessbestimmt werden, verglichen werden. Da das Batteriemodell (102) nicht altert, kann hierdurch der SOH der Batterie bestimmt werden.
The invention relates to a method and to a device for determining the state of charge (SOC) of a rechargeable battery (106) of a specified battery type or a parameter physically related thereto, in particular a remaining charge amount Q contained in the battery, the method operating by means of a voltage-controlled battery model (102), which is parameterized for the battery (106) in question or a corresponding battery type. It is merely necessary to measure the battery voltage Umess and to provide said battery voltage to the battery model (102) as an input variable. The invention further relates to a method and to a device for determining the state of health (SOH) of a battery (102), wherein the battery model (102) also used to determine the SOC provides a modeled battery current Imod. Modeled charge amounts during charging and discharging phases of the battery (106) can be determined from said modeled battery current and can be compared with measured charge amounts, which are determined from the measured battery current Imess. Because the battery model (102) does not age, the SOH of the battery can thereby be determined.
Passive hybridization refers to a parallel connection of photovoltaic and battery cells on the direct current level without any active controllers or inverters. We present the first study of a lithium-ion battery cell connected in parallel to a string of four or five serially-connected photovoltaic cells. Experimental investigations were performed using a modified commercial photovoltaic module and a lithium titanate battery pouch cell, representing an overall 41.7 W-peak (photovoltaic)/36.8 W-hour (battery) passive hybrid system. Systematic and detailed monitoring of this system over periods of several days with different load scenarios was carried out. A scaled dynamic synthetic load representing a typical profile of a single-family house was successfully supplied with 100 % self-sufficiency over a period of two days. The system shows dynamic, fully passive self-regulation without maximum power point tracking and without battery management system. The feasibility of a photovoltaic/lithium-ion battery passive hybrid system could therefore be demonstrated.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
This paper describes the authors' first experiments in creating an artificial dancer whose movements are generated through a combination of algorithmic and interactive techniques with machine learning. This approach is inspired by the time honoured practice of puppeteering. In puppeteering, an articulated but inanimate object seemingly comes to live through the combined effects of a human controlling select limbs of a puppet while the rest of the puppet's body moves according to gravity and mechanics. In the approach described here, the puppet is a machine-learning-based artificial character that has been trained on motion capture recordings of a human dancer. A single limb of this character is controlled either manually or algorithmically while the machine-learning system takes over the role of physics in controlling the remainder of the character's body. But rather than imitating physics, the machine-learning system generates body movements that are reminiscent of the particular style and technique of the dancer who was originally recorded for acquiring training data. More specifically, the machine-learning system operates by searching for body movements that are not only similar to the training material but that it also considers compatible with the externally controlled limb. As a result, the character playing the role of a puppet is no longer passively responding to the puppeteer but makes movement decisions on its own. This form of puppeteering establishes a form of dialogue between puppeteer and puppet in which both improvise together, and in which the puppet exhibits some of the creative idiosyncrasies of the original human dancer.
Strings P
(2021)
Strings is an audiovisual performance for an acoustic violin and two generative instruments, one for creating synthetic sounds and one for creating synthetic imagery. The three instruments are related to each other conceptually , technically, and aesthetically by sharing the same physical principle, that of a vibrating string. This submission continues the work the authors have previously published at xCoAx 2020. The current submission briefly summarizes the previous publication and then describes the changes that have been made to Strings. The P in the title emphasizes, that most of these changes have been informed by experiences collected during rehearsals (in German Proben). These changes have helped Strings to progress from a predominantly technical framework to a work that is ready for performance.
Im Rahmen des Forschungsvorhabens GeoSpeicher.bw wurden mehrere Demostandorte in Baden-Württemberg intensiv durch die Projektpartner untersucht bzw. begleitet. Die Forschungsergebnisse zeigen, dass bestehende Geothermieanlagen gut funktionieren und durch den Betrieb auch klimaschädliche Gasemissionen eingespart werden können. Leider konnte im Rahmen des Vorhabens kein Demoprojekt für einen Aquiferspeicher am städtischen Klinikum Karlsruhe oder auch am Campus Nord des Karlsruhe Instituts für Technologie (KIT) trotz des Nachweises der effektiven Kostenersparnisse und CO2-Einsparungen verwirklicht werden.
Sollte sich die Aquiferspeichertechnologie in Baden-Württemberg etablieren, müsste unbedingt ein Demoprojekt für einen flachen Niedrigtemperatur-Aquiferspeicher entwickelt und gefördert werden. Die Rahmenbedingungen für solch einen Aquiferspeicher wären am Campus Nord grundsätzlich gegeben. Dieser Nachweis wurde durch zahlreiche Untersuchungen im Rahmen von GeoSpeicher.bw eindeutig erbracht.
Energiemanagement im Betrieb
(2021)
Dieses Fachbuch gibt einen vertieften Einblick in das dynamische Verhalten von thermoaktiven Bauteilsystemen. Es wird eine neu entwickelte und vielfach erprobte, selbstlernende und vorausschauende TABS-Steuerung vorgestellt. Dazu wird auf die Erfordernisse einer effektiven TABS-Steuerung eingegangen und die Grundlagen und Funktionsweise der neu entwickelten AMLR-Steuerung erläutert. Anhand mehrerer Anwendungsbeispiele wird die Umsetzung in die bauliche Praxis erläutert und mit Hilfe von umfangreichen Messergebnissen die Funktion der neuen AMLR-Steuerung nachgewiesen. Abschließend werden Empfehlungen für die Anwendung von AMLR in der baulichen TABS-Praxis hinsichtlich Anlagenhydraulik und Umsetzung in der Gebäudeautomation gegeben.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg im Umfeld von Professor Elmar Bollin eine Forschungsgruppe etabliert, die die Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführten. Anfänglich ging es darum die Potenziale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte schließlich ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg eine Forschungsgruppe etabliert, die die beiden Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführte. Anfangs ging es darum, Potentiale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
The transition from college to university can have a variety of psychological effects on students who need to cope with daily obligations by themselves in a new setting, which can result in loneliness and social isolation. Mobile technology, specifically mental health apps (MHapps), have been seen as promising solutions to assist university students who are facing these problems, however, there is little evidence around this topic. My research investigates how a mobile app can be designed to reduce social isolation and loneliness among university students. The Noneliness app is being developed to this end; it aims to create social opportunities through a quest-based gamified system in a secure and collaborative network of local users. Initial evaluations with the target audience provided evidence on how an app should be designed for this purpose. These results are presented and how they helped me to plan the further steps to reach my research goals. The paper is presented at MobileHCI 2020 Doctoral Consortium.
Loneliness, an emotional distress caused by the lack of meaningful social connections, has been increasingly affecting university students who need to deal with everyday situations in a new setting, especially those who have come from abroad. Currently there is little work on digital solutions to reduce loneliness. Therefore, this work describes the general design considerations for mobile apps in this context and outlines a potential solution. The mobile app Noneliness is used to this end: it aims to reduce loneliness by creating social opportunities through a quest-based gamified system in a secure and collaborative network of local users. The results of initial evaluations with the target audience are described. The results informed a user interface redesign as well as a review of the features and the gamification principles adopted.
The findings presented in this article were obtained through a preliminary exploratory study conducted at the Offenburg University as part of the Fighting Loneliness project promoted by the institution’s Affective & Cognitive Institute (ACI) from October 2019 to February 2020. The initiative’s main objective was to answer the research question “How should an app be designed to reduce loneliness and social isolation among university students?” with the collaboration of the institution’s students.
Analyse domänenseitiger Optimierungen für Deep Reinforcement Learning in der RoboCup Umgebung
(2021)
Mit dem Team "magmaOffenburg" nimmt die Hochschule Offenburg seit 2009 am internationalen Wettbewerb "RoboCup" in der 3D-Simulationsliga für Fußball teil. Dabei kommt es vor allem auf den Einsatz guter Lauf- und Kickverhalten an. Seit 2019 ist es dem Team magmaOffenburg möglich auch Deep Reinforcement Learning für die Weiterentwicklung der Verhalten einzusetzen. Während auf diese Weise schon verwendbare Ergebnisse für das Kicken produziert wurden, so fehlt noch ein Fortschritt beim Laufen lernen. Diese Arbeit beschäftigt sich mit den nötigen Optimierungen auf der Domänenseite, um das gelernte Laufen zu verbessern. Das beinhaltet die Optimierung des Observation- und Actionspaces, sowie auch eine Optimierung der Rewardfunktion. Dabei wurde versucht, die einzelnen Einflüsse verschiedener Parameter und Techniken innerhalb dieser drei Bereiche zu evaluieren. So konnte zum Schluss eine Verbesserung in der Laufgeschwindigkeit von etwas unter einem Meter pro Sekunde auf bis zu 1,8 Metern pro Sekunde erreicht werden. Ausschlaggebend für dieses Ergebnis waren vor allem der Verbesserungen in der Rewardfunktion.
In die neuen Verfahren, wie Big Data, Machine Learning und Predictive Analytics, werden von Marketing und Vertrieb hohe Erwartungen gesetzt. Doch dem „Garbage in – Garbage out“-Prinzip folgend lassen die Ergebnisse zu wünschen übrig. Grund hierfür ist häufig eine nicht ausreichende Qualität in den zugrunde liegenden Kundendaten. Dieser Beitrag beleuchtet diese Problematik anhand der Wert-Pyramide. Je weiter oben die Daten in der Wertschöpfungskette angesiedelt sind, desto höher ist deren Qualität und umso mehr Wert haben sie für das Unternehmen. Darüber hinaus wird aufgezeigt, wie sich mit Hilfe von Monitoring-Systemen, wie einer Datenqualitäts-Scorecard, Aussagen zur Datenqualität treffen und Verbesserungen derselben messen lassen. So wird der tatsächliche Wert von Daten für Unternehmen ersichtlich.
Duplikaterkennung, -suche und -konsolidierung für Kunden- und Geschäftspartnerdaten, sog. „Identity Resolution“, ist die Voraussetzung für erfolgreiches Customer Relationship Management und Customer Experience Management, aber auch für das Risikomanagement zur Minimierung von Betrugsrisiken und Einhaltung regulatorischer Vorschriften und viele weitere Anwendungsfälle. Diese Systeme sind jedoch hochkomplex und müssen individuell an die kundenspezifischen Anforderungen angepasst werden. Der Einsatz lernbasierter Verfahren bietet großes Potenzial zur automatisierten Anpassung. In diesem Beitrag präsentieren wir für ein KMU praxisfähige, lernbasierte Verfahren zur automatischen Konfiguration von Business-Regeln in Duplikaterkennungssystemen. Dabei wurden für Fachanwender Möglichkeiten entwickelt, um beispielgetrieben das Match-System an individuelle Business-Regeln (u.a. Umzugserkennung, Sperrlistenabgleich) anzupassen und zu konfigurieren. Die entwickelten Verfahren wurden evaluiert und in einer prototypischen Lösung integriert. Wir konnten zeigen, dass unser Machine-Learning-Verfahren, die von einem Domainexperten erstellten Business-Regeln für das Duplikaterkennungssystem „identity“ verbessern konnte. Zudem konnte der hierzu erforderliche Zeitaufwand verkürzt werden.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Datenanalyse mithilfe von Künstlicher Intelligenz (KI) – für 70 Prozent der von den Beratern von PWC befragten Unternehmen ist dies das vielversprechendste Einsatzszenario. Doch so attraktiv die Vision erscheint, mittels KI das eigene Geschäft oder gar eine ganze Branche zu revolutionieren, so handfest sind die Herausforderungen, die sich in der Praxis ergeben. Ein häufiges Problem ist ein bereits beim Start eines Projekts mangelhafter Datenbestand. Die KI mit qualitativ schlechten Daten zu trainieren, macht keinen Sinn, da sie falsche Informationen lernt. Ohne den Einsatz gewisser Automatisierungen und KI ist es wiederum mühsam, die unzureichende Datenbasis zu verbessern.
Eine Frage der Qualität
(2021)
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.
Onlineshops in Deutschland verschenken sehr viel Potenzial im Registrierungs- und Bestellprozess. Dabei lässt sich mit wenigen gezielten Verbesserungen der Checkout barrierefrei und smart gestalten. Zu diesem Ergebnis kommt eine heuristische Untersuchung der Top 100 Onlineshops von Uniserv gemeinsam mit der Hochschule Offenburg. Die Eingabe und Qualität von Adressdaten spielen dabei eine besondere Rolle.
Technologie spielt im Sport schon immer eine große Rolle. Mit steigender Leistungsdichte im Spitzensport wird versucht mithilfe technischer Hilfsmittel dem Sportler die optimalen Umstände zu ermöglichen. Dazu gehört nicht nur Technik im Sportequiptment, sondern auch Sportuntersuchungen wie Leistungsdiagnostiken. Im Laufsport zählen dazu Ausdauer- und Krafttests. Bei Ausdauertests werden physiologische Parameter wie Laktat, Herzfrequenz oder Sauerstoffaufnahme gemessen. Zusätzlich wird die Lauftechnik für einen kurzen Zeitpunkt analysiert. Wie sich diese unter anhaltender Belastung verhält, wird nicht untersucht. Mit neuen Technologien im Bereich Bewegungsanalyse, können immer schneller größere Datensätze ausgewertet werden. Aus diesem Grund wird in dieser Studie die Lauftechnik über mehrere Zeitpunkte aufgezeichnet und nach Ermüdungserscheinungen untersucht.
Dazu wurde am Institut für angewandte Trainingswissenschaften (IAT) während einer komplexen Leistungsdiagnostik im März 2021 bei einem Laufbandstufentest (4x2000m oder 4x3000m) die Lauftechnik von 15 Elite- und Elitenachwuchsläufer:innen (m=8, w=7) mithilfe eines 3D-Bewegungsanalyse Systems nach Veränderungen in Winkelstellung und Bodenreaktionskraft untersucht. Als physiologische Vergleichsparameter wurde Herzfrequenz und Laktat aufgenommen.
Bei der Analyse der Daten wurden diese in der Gruppe betrachtet. Dabei haben sich schwach signifikante Veränderungen (p=0,047) der vertikalen Bodenreaktionskraft links am Ende der Stufe aufgezeigt. Weitere signifikante Unterschiede (p=0,020) sind im maximalen Kniehub links zu einem größerer Hüftwinkel am Ende sichtbar. Da sonst keine signifikanten Unterschiede zu sehen sind, lässt sich, bei dem hier durchgeführten Protokoll, nicht statistisch gesichert feststellen, ob auftretende Ermüdungserscheinungen die Lauftechnik beeinflussen und verändern. Um festzustellen, ob es geschlechts- oder protokollanhängige Effekte hinsichtlich einer ermüdungsbedingte Lauftechnikveränderung gibt, wurde auch dies statistisch untersucht.
Hier zeigten sich jeweils in einzelnen Parametern signifikante Unterschiede (Parameter TO\_knee\_left; p=0,026) in der Geschlechtsspezifik und in der protokollabhängigen Untersuchung (Parameter TSw\_hip\_left; p=0,04)
Für weitere Studien zur Untersuchung von Lauftechnikveränderung sollten umfangreichere physiologische Daten zur genaueren Betrachtung der Ermüdung verwendet werden. Grundsätzlich müsste das Protokoll auf eine maximale Ausbelastung (beispielsweise Dauerstufentest von 10-15km oder Ausbelastungs-/Abbruchtest) ausgelegt sein.
Grundlegend ist festzustellen, dass sich Simi-Shape als 3D-Bewegungsanalyse-Methode eignet, um spezifische Parameter in der Lauftechnik zu diagnostizieren, gerade hinsichtlich der Effizienz im Auswerteprozess.
In this work, an implementation of the somewhat homomorphic BV encryption scheme is presented. During the implementation, care was taken to ensure that the resulting program will be as efficient as possible i.e. fast and resource-saving. The basis for this is the work of Arndt Bieberstein, who implemented the BV scheme with respect to functionality. The presented implementation supports the basics of the BV scheme, namely (symmetric and asymmetric) encryption, decryption and evaluation of addition as well as multiplication. Additionally, it supports the encoding of positive and negative numbers, various gaussian sampling methods, basically infinitely large polynomial coefficients, the generation of suitable parameters for a use case, threading and relinearization to reduce the size of a ciphertext after multiplications. After presenting the techniques used in the implementation, it’s actual efficiency is determined by measuring the timings of the operations for various parameters.
SchulverwaltungSpezial
(2021)
Die Corona-Krise ist eine Herausforderung, bei der Schulleitungen nicht nur im Rahmen des Krisenmanagements und insbesondere der Krisenkommunikation gefordert sind, sondern darüber hinaus, ausgehend von der akuten Krisenbewältigung, auch ein proaktives Risikomanagement vornehmen müssen. Die Prinzipien Klarheit, Transparenz und Partizipation sowie die günstige Kombination von Zentralität und Dezentralität im Rahmen des Krisenmanagements sind die Voraussetzung für den Übergang in ein strategisch orientiertes proaktives Transformationsmanagement.
Die Corona-Pandemie stellte nicht nur die Gesellschaft und Politik, sondern viele Organisationen aus dem Feld der Unternehmen, der Kultur und des Bildungswesens vor neue Herausforderungen. Branchenunabhängig wurde deutlich, wo etwa im Bereich der digitalen Transformation Nachholbedarf besteht. Dies erfordert von den Verantwortlichen ein klares Transformationsmanagement, das neben dem Krisen- und Risikomanagement unterschiedliche Elemente aus der Organisationsentwicklung und dem Changemanagement kombiniert und in ein Managementsystem integriert.
Im Jahr 2020 sollten für den Zeitungssektor im Rahmen der coronabedingten Neuordnung der Bundesförderungen40 Mio. Euro für die Zustellförderung bereitgestellt werden. Im Rahmen der kontroversen Diskussion um diese direkte staatliche Förderung der Zeitungsbranche wandelte sich die geplante Förderung in ein 220 Mio. Euro-Pogramm zur Unterstützung der digitalen Transformation von Presseverlagen (Deutscher Bundestag 2020c). Im April 2021 erklärte das Bundeswirtschaftsministerium die geplante 220-Millionen-Presseförderung für gescheitert – es wolle das Hilfspaket „nach intensiver Prüfung“ nicht weiterverfolgen. Der vorliegende Beitrag gibt Einblick in die kontroverse Diskussion um die Frage einer direkten staatlichen Pressförderung und stellt sie in den Kontext der wirtschaftlichen und medienpolitischen Kernfrage, „wie sich publizisitsche Inhalte in Zeiten der Disruption etablierter Geschäftsmodelle noch finanzieren lassen“ (Jarren, Künzler & Puppis 2019: 421).
Social Media und die Kommentarmöglichkeiten auf lokalen, redaktionellen digitalen Plattformen sind nicht nur eine Chance für die zielgerichtete Kommunikation von Städten und Gemeinden, sondern auch eine Herausforderung, insbesondere im kontroversen kommunalpolitischen Alltag. Die Dialogmöglichkeiten haben die Möglichkeiten der Bürger*innen gestärkt, sich mit ihren Interessen, Anliegen und Meinungen Gehör zu verschaffen und die von der Verwaltung und den politischen Akteuren gesetzten Themen zu diskutieren und zu hinterfragen. Nicht immer findet hier in der kommunalen Praxis jedoch ein positiver und sachorientierter Dialog statt, so dass es gerade in der Kleinräumigkeit des kommunalen Geschehens auch zu sehr unangenehmen Szenarien kommen kann. Dies beruht dann meist auf einem unterschiedlichen Rollenkonzept der Akteure bis hin zu Abweichungen im Demokratieverständnis. Daher soll hier zunächst das Prinzip der repräsentativen Demokratie in Abgrenzung zu populistischen Rollenverständnissen dargestellt werden, bevor die konkreten Kommunikationsthemen analysiert werden.
Social-Media-Kanäle spielen nicht nur für die Kommunikation von kommunalen Gremien, sondern vor allem im Wahlkampf für kommunale Spitzenämter eine besondere Rolle und erfordern die Berücksichtigung der Grundsätze authentischer Kommunikation.
Bevor man der Frage nachgeht, wie und in welcher Form am besten unterschiedliche Social-Media-Kanäle für die Kommunikation kommunaler Themen eingesetzt werden und somit ein wirksames Tool für die Interaktion der Kommunen mit ihren spezifischen Zielgruppen darstellen können, muss man sich ein paar generelle Gedanken machen, welche Stakeholder und Zielgruppen überhaupt auf diesem Weg bei welchen Themenkategorien erreichbar sind. Gerade aktuelle Fälle wie die Kommunikation während der Corona-Krise zeigen, wie man im Rahmen der Mediaplanung digitale Kanäle in das Gesamtspektrum der Kommunikationskanäle einordnen kann.
Medienmarketing-Controlling
(2021)
Dieses Kapitel beschäftigt sich mit dem Controlling im Rahmen des Medienmarketings und zeigt damit die Strukturen auf, mit denen im Medienunternehmen Marketingprozesse verankert sind und nach welchen Zielgruppen, Märkten und Kennzahlen die Steuerung dieser Marketingaufgaben erfolgt. In Medienunternehmen ist Marketing in der Regel einer der erfolgsentscheidenden Funktionsbereiche, der daher einer detaillierten und permanenten Begleitung und Steuerung nicht nur durch die Fachinstanzen, sondern auch durch das Top-Management bedarf. Gleichzeitig sind Medienunternehmen in vielen Fällen auch publizistische Unternehmen, die neben der kennzahlenorientierten Ausrichtung an den Markt- und Kundenbedürfnissen einer inhaltlichen Leitidee folgen und dadurch in vielen Fällen erst in der Lage sind, tatsächlich neue und überdurchschnittlich erfolgreiche Produkte zu etablieren. Zugleich wird es seit der Jahrtausendwende durch die Transformation und Disruption der Medienmärkte zunehmend schwieriger, Marktsegmente und Medienunternehmen von anderen Branchensegmenten abzugrenzen. Die medienökonomischen Besonderheiten führen zu einer Steigerung der Marktdynamik (beispielsweise durch die Interdependenz von Werbe- und Rezipientenmarkt), sodass den unterschiedlichen Performance-Kennziffern in den vier Hauptfeldern des klassischen Marketingmixes hier eine besondere Bedeutung zukommt.
Grey-box modelling combines physical and data-driven models to benefit from their respective advantages. Neural ordinary differential equations (NODEs) offer new possibilities for grey-box modelling, as differential equations given by physical laws and neural networks can be combined in a single modelling framework. This simplifies the simulation and optimization and allows to consider irregularly-sampled data during training and evaluation of the model. We demonstrate this approach using two levels of model complexity; first, a simple parallel resistor-capacitor circuit; and second, an equivalent circuit model of a lithium-ion battery cell, where the change of the voltage drop over the resistor-capacitor circuit including its dependence on current and State-of-Charge is implemented as NODE. After training, both models show good agreement with analytical solutions respectively with experimental data.
IoT-Plattformen stellen ein zentrales Element für die Vernetzung von physischen Objekten und die Bereitstellung deren Daten für digitale Zwillinge dar. Der Markt für solche Plattformen ist in den vergangenen Jahren stark gewachsen. Bei inzwischen über 600 Anbietern ist die Wahl der „richtigen“ Plattform für das eigene Unternehmen keine triviale Aufgabe mehr. Dieser Beitrag soll Unternehmen im Auswahlprozess unterstützen, indem gängige Funktionen von IoT-Plattformen und Kriterien für die Auswahl von IoT-Plattformen aufgezeigt werden.
Die neue EU-Medizinprodukteverordnung 2017/745, die Medical Device Regulation (MDR), wird nach einer vierjährigen Übergangsphase zum 26. Mai 2021 für sämtliche Medizintechnikhersteller rechtswirksam (Vgl. Europäische-Kommission, 2020). Die MDR ersetzt die bis dato geltende Medical Device Directive (MDD). Ein wesentlicher Bestandteil der MDR für Medizintechnikhersteller ist die verpflichtende Konzeption und Einführung eines Qualitätsmanagementsystems. Die R&E Stricker Reha-Entwicklungen GmbH hat bis zu Beginn dieses Projektes noch kein Qualitätsmanagementsystem in ihrer Unternehmensstruktur implementiert. Da dies allerdings mit der MDR verpflichtend wird, soll durch diese Arbeit ein auf die Firma Stricker angepasstes Qualitätsmanagementsystem erarbeitet werden. Zusätzlich werden durch die MDR erweiternde wie auch neue Anforderungen an die verschiedenen Unternehmensbereiche der Medizintechnikhersteller gestellt (Vgl. Johner Institut GmbH, 2020a). Durch neu konzipierte und implementierte Prozesse sollen jene Anforderungen bzw. der gesamte Bereich des Qualitätsmanagements der Firma Stricker ausgebaut werden.
Herzfehler sind weltweit die häufigste Form von angeborenen Organdefekten. In unterschiedlichen Studien wird die Inzidenz zumeist zwischen vier und elf von 1.000 Lebendgeburten angegeben (1–5). Im Rahmen der multizentrischen PAN-Studie (PAN: Prävalenz angeborener Herzfehler bei Neugeborenen), welche die Häufigkeit angeborener Herzfehler bei Neugeborenen in Deutschland zwischen Juli 2006 und Juni 2007 untersuchte, ergab sich eine Gesamtprävalenz von 107,6 pro 10.000 Lebendgeburten. Gegenstand dieser Arbeit sind Untersuchungen an Implantaten zur Behandlung von Atriumseptumdefekten (ASD). Vorhofseptumdefekte machen mit 17,0%, nach den Ventrikelseptumdefekten (VSD) mit 48,9%die zweithäufigste Art von Herzfehlern aus (6, 7).Als Vorhofseptumdefekte werden Öffnungen in der Scheidewand zwischen den Herzvorhöfen bezeichnet. Bei der Therapie eines ASD ist der minimalinvasive Verschluss mittels sogenannter Okkluder heute das Mittel der Wahl. Diese werden über einen femoralen Zugang im Rahmen einer Herzkatheteruntersuchung unter Ultraschallkontrolle und Durchleuchtung an die Implantationsstelle vorgeschoben und dort platziert(8). Die Okkluder bestehen in der Regel aus einem Drahtgeflecht aus Nitinol und haben die typische Form eines sogenannten Doppelschirmchens. Dabei weichen die unterschiedlichen Okkluder der einzelnen Firmen hinsichtlich Form und Beschaffenheit oft erheblich voneinander ab. Derzeit gibt es keine Untersuchungsmethode, die die auf dem Markt befindlichen Okkluder hinsichtlich ihrer mechanischen Eigenschaften vergleichbar macht. Diese Arbeit solleinen Beitrag erbringen, um grundlegende, die Okkludermodelle charakterisierende Parameter zu schaffen, um so deren interindividuelle Vergleichbarkeit zu ermöglichen. Hierzu werden in-vitro Messungen durchgeführt, welche geeignet sind das Verhalten der untersuchten Modelle unter unterschiedlichen Bedingungen und bei variierenden Defektgrößen zu charakterisieren.
Die Serie Kurzes Tutorium Statistik bemüht sich primär um die Vermittlung des Sinnes statistischer Methoden. Die Gestaltung der auf YouTube veröffentlichten Lernvideos folgt der Idee, dass anhand einer einfachen, alltäglichen Problemstellung ein praktisches Verständnis konkreter quantitativer Lösungsansätze besonders gut erzeugt werden kann. Studierende sollen hierdurch motiviert werden, sich intensiv mit den behandelten Verfahren auseinanderzusetzen. In dem Beitrag werden die Rahmenbedingungen und die grundlegende Konzeption des „Kurzen Tutoriums Statistik“ erläutert sowie die konkrete Umsetzung des Videos zu Streumaßen exemplarisch vorgestellt.
Der Fokus dieser Arbeit liegt auf den Bewegtbildstrategien von Tageszeitungen in Baden-Württemberg. Es sollte aufgezeigt werden welche strategischen Vorgehensweisen die Lokalzeitungen in Baden-Württemberg verwenden und wie sie diese Umsetzen. Weiter sollten Faktoren extrahiert werden, die als erfolgskritisch angenommen werden können. Herausgefunden wurde, dass alle befragten Zeitungsverlage eine konvergenzinduzierte Cross-Media-Strategie verfolgen, in der die Diversifikation vertikal verläuft. Das heißt die Zeitungen sind meist selbst Produzent des Bewegtbilds und nutzen die wechselseitigen Synergieeffekte der redaktionellen Kompetenzen und multimedialen Distributionskanäle. Weiter kann festgestellt werden, dass Im Bereich Bewegtbild Ansätze einer Nischen- oder Fokusstrategie zu erkennen sind.
Als Erfolgsfaktoren können vor allem die lokale Kompetenz, die Format- und Themenwahl von Videos sowie die Redaktionsorganisation, die stark mit der Nutzung von Synergieeffekten zusammenhängt, angenommen werden.
Cryptographic protection of messages requires frequent updates of the symmetric cipher key used for encryption and decryption, respectively. Protocols of legacy IT security, like TLS, SSH, or MACsec implement rekeying under the assumption that, first, application data exchange is allowed to stall occasionally and, second, dedicated control messages to orchestrate the process can be exchanged. In real-time automation applications, the first is generally prohibitive, while the second may induce problematic traffic patterns on the network. We present a novel seamless rekeying approach, which can be embedded into cyclic application data exchanges. Although, being agnostic to the underlying real-time communication system, we developed a demonstrator emulating the widespread industrial Ethernet system PROFINET IO and successfully use this rekeying mechanism.
Längst hat Cloud Computing Einzug in allen Bereichen der Wirtschaft und Industrie gehalten. Dennoch sehen sich Entscheidungsträger angesichts der Heterogenität des Cloudmarkts häufig ratlos mit der Entscheidung konfrontiert, welches Produkt von welchem Anbieter am besten den jeweiligen Bedürfnissen entspricht.
Zwar gibt es mittlerweile eine Vielzahl von Methoden zur Ermittlung der geeignetsten Lösung, dennoch hat sich in Fachkreisen noch kein anerkannter Standard daraus hervorgetan.
In der vorliegenden Thesis werden daher bestehende Strategieansätze analysiert, um sowohl Stärken als auch Schwächen dieser aufzuzeigen. Im Anschluss daran wird eine Möglichkeit vorgestellt, mit der zuvor aufgezeigte Schwächen der bestehenden Ansätze ausgeglichen werden können.
Die Arbeit stützt sich dabei vollständig auf die Recherche einschlägiger Fachliteratur, welche im Rahmen dieser Thesis vorgenommen wurde.
Aus der Forschung ging die Erkenntnis hervor, dass die Mehrheit der Publikationen und der darin enthaltenen Lösungen jeweils nur einen Teilbereich des Selektionsprozesses abdecken, während andere Bereiche vernachlässigt oder gar vollständig ausgelassen werden. Das eben beschriebene Phänomen betrifft vor allem die Auswahl und Aufschlüsselung der Bewertungskriterien.
Gerade auf Letzteres ging keine der untersuchten Publikationen näher ein, so blieben Fragen zur Zusammensetzung und Abgrenzung von Bewertungskriterien bei allen Methoden weitgehend unbeantwortet.
Diese Erkenntnis bildet die Grundlage für das in der Thesis erarbeitete multikriterielle Mapping Verfahren, welches eben jene Schwäche in bestehenden Ansätzen auszugleichen versucht.
Das multikriterielle Mapping bildet darüber hinaus eine Kernkomponente der Evaluationsmethodik, welche im Rahmen der Thesis ebenfalls entwickelt und als Python Anwendung implementiert wurde.
Sowohl die entwickelte ganzheitliche Methode als auch die daraus resultierende Python Anwendung verfolgen den Zweck von Beginn des Selektionsprozesses bis zu deren Abschluss ein lückenloses Vorgehen zu etablieren, welches für jedes Anwendungsszenario geeignet ist.
This work presents the results of experimental operation of a solar-driven climate system using mixed-integer nonlinear model predictive control (MPC). The system is installed in a university building and consists of two solar thermal collector fields, an adsorption cooling machine with different operation modes, a stratified hot water storage with multiple inlets and outlets as well as a cold water storage. The system and the applied modeling approach is described and a parallelized algorithm for mixed-integer nonlinear MPC and a corresponding implementation for the system are presented. Finally, we show and discuss the results of experimental operation of the system and highlight the advantages of the mixed-integer nonlinear MPC application.
Lithium-ion batteries play a vital role in a society more and more affected by the spectre of climate change: hence the need of lowering CO2 emissions and reducing the fossil fuel consumption. At the moment, lithium-ion batteries appear as the ideal candidates for this challenge but further research and development is required to understand their behaviour, predict their issues and therefore improve their performance. In this regard, mathematical modelling and numerical simulation have become standard techniques in lithium-ion battery research and development and have proven to be highly useful in supporting experimental work and increasing the predictability of model-based life expectancy.
This study focuses on the electrochemical ageing reactions at the anode, especially on the topic of lithium plating and its interaction with the solid electrolyte interface (SEI). The purpose of this work is a deeper understanding of these degradation processes through the construction of refined modelling frameworks and the analysis of simulations carried out over a wide range of operating conditions. The governing equations are implemented in the in-house multiphysics software package DENIS, while the electrochemistry model is based on the use of the open-source chemical kinetics code CANTERA.
The development, parameterisation and experimental validation of a comprehensive pseudo-three-dimensional multiphysics model of a commercial lithium-ion cell with blend cathode and graphite anode is presented. This model is able to describe and simulate both multiscale heat and mass transport and complex electrochemical reaction mechanisms, including also as extra feature the capability of reproducing a composite electrode where multiple active materials are subject to intercalation/deintercalation reaction.
A further extension to include reversible lithium plating process and predict ageing behaviour over a wide range of conditions, with a focus on the high currents and low temperatures particularly interesting for the fast charging topic, follows. This extended model is verified by comparison with published experimental data showing voltage plateau and voltage drop as plating indicators and optionally includes an explicit re-intercalation reaction that is shown to suppress macroscopic plating hints in the specific case of a cell not showing evident plating signs. This model is used to create degradation maps over a wide range of conditions and an in-depth spatiotemporal analysis of the anode behaviour at the mesoscopic and microscopic scales, demonstrating the dynamic and nonlinear interaction between the intercalation and plating reactions.
A deeper outlook on the SEI formation and growth is presented, together with the qualitative description of three different 1D-models with a decreasing level of detail, developed with the purpose of ideally being included in future in more comprehensive multiscale frameworks.
Finally, the extended model is successfully coupled with a previously developed SEI model to result in an original modelling framework able to simulate both degradation processes and their continuous positive feedback.
We demonstrate how to exploit group sparsity in order to bridge the areas of network pruning and neural architecture search (NAS). This results in a new one-shot NAS optimizer that casts the problem as a single-level optimization problem and does not suffer any performance degradation from discretizating the architecture.
Wood juice, a liquid produced during wood processing, is a harmful waste that requires utilization. To achieve a circular economy, biowastes should be recycled, reducing fossil carbon usage. Therefore, the objective of this work was to examine the potential of wood juice as a feedstock for bioplastic synthesis by Bacillus sp. G8_19. Polyhydroxyalkanoate (PHA) syntheses using wood juice from Douglas fir trees and that from a mixture of spruce/fir trees were compared. It was found that the PHA content was higher after using wood juice from spruce/fir trees than that from Douglas fir trees (18.0% vs 6.1% of cell dry mass). Gas chromatography analysis showed that, with both wood juices, Bacillus sp. G8_19 accumulated poly(3-hydroxybutyrate-co-3-hydroxyvalerate). The content of 3-hydroxyvalerate (3HV) monomers was higher when spruce/fir wood juice was used (10.7% vs 1.9%). The C/N ratio did not have a statistically significant effect on the copolymer content in biomass, but it did significantly influence the 3HV content. The proposed concept may serve as an approach to wood waste valorization via production of biodegradable materials.
The twin concept is increasingly used for optimization tasks in the context of Industry 4.0 and digitization. The twin concept can also help small and medium-sized enterprises (SME) to exploit their energy flexibility potential and to achieve added value by appropriate energy marketing. At the same time, this use of flexibility helps to realize a climate-neutral energy supply with high shares of renewable energies. The digital twin reflects real production, power flows and market influences as a computer model, which makes it possible to simulate and optimize on-site interventions and interactions with the energy market without disturbing the real production processes. This paper describes the development of a generic model library that maps flexibility-relevant components and processes of SME, thus simplifying the creation of a digital twin. The paper also includes the development of an experimental twin consisting of SME hardware components and a PLC-based SCADA system. The experimental twin provides a laboratory environment in which the digital twin can be tested, further developed and demonstrated on a laboratory scale. Concrete implementations of such a digital twin and experimental twin are described as examples.
Für viele Studierende sind Vorkurse der erste Kontakt zu Hochschullehre und Mitstudierenden. Wie kann der fachliche Einstieg in einem digitalen Lehrformat trotz fehlender Präsenz gelingen und persönliche Unterstützung, ein erstes Kennenlernen und soziale Eingebundenheit gefördert werden? Diesem Erkenntnisinteresse folgend stellt der folgende Beitrag ein digitales Brückenkursformat mit Elementen zur Interaktion, Kommunikation und Kollaboration vor, das mit ca. 400 Studierenden in zehn Kursen mit acht Lehrbeauftragten umgesetzt und entlang der o.g. Frage evaluiert wurde. Um den Transfer auf andere Lehrveranstaltungen zu erleichtern, wurde das Konzept in ein didaktisches Entwurfsmuster übertragen.
The following describes a new method for estimating the parameters of an interior permanent magnet synchronous machine (IPMSM). For the estimation of the parameters the current slopes caused by the switching of the inverter are used to determine the unknowns of the system equations of the electrical machine. The angle and current dependence of the machine parameters are linearized within a PWM cycle. By considering the different switching states of the inverter, several system equations can be derived and a solution can be found within one PWM cycle. The use of test signals and filter-based approaches is avoided. The derived algorithm is explained and validated with measurements on a test bench.
Wie entscheiden Helden?
(2021)
Der verstärkte Einsatz von Wärmepumpen bei der Realisierung einer klimaneutralen Wärmeversorgung führt zu einer signifikanten Zunahme und Änderung der elektrischen Lasten in den Verteilnetzen. Daher gilt es, Wärmepumpen so zu steuern, dass sie Verteilnetze wenig belasten oder sogar unterstützen.
Inhalt des Projekts „PV²WP - PV Vorhersage für die netzdienliche Steuerung von Wärmepumpen“ (Projektlaufzeit 1.07.2018 – 30.06.2021) war die Demonstration eines neuen Ansatzes zur Steuerung von Heizungssystemen, die auf Wärmepumpen und thermischen Speichern basieren und in Kombination mit einer Photovoltaikanlage betrieben werden. Das übergeordnete Ziel war dabei die Verbesserung der Netzintegration und Smart-Grid-Tauglichkeit entsprechender Heizungssysteme durch eine kostengünstige Technologie bei gleichzeitiger Erhöhung der Wirtschaftlichkeit.
Dabei wurden drei zukunftsweisende Technologien in Kombination genutzt und demonstriert: wolkenkamerabasierte Kurzfristprognosen, prädiktive Steuerung und Regelung sowie machinelearning-basierte Systemmodellierung als Basis für die Optimierung. Als Demonstrationsumgebung diente mit dem Projekthaus Ulm ein real bewohntes Einfamilienhaus.Umweltforschung
Datenanalysen gibt es schon immer, auch wenn statistische Verfahren, Optimierungsmodelle, Regressionsanalysen oder Zeitreihenmodelle in allen möglichen Publikationen neu aufbereitet und unter dem Titel Business Analytics verkauft werden. Der entscheidende Unterschied liegt jedoch darin, dass heute größere und vor allem andere Datenmengen sowie leistungsfähigere Verarbeitungs- und Speicherkapazitäten zur Verfügung stehen, die zusammen mit bestehenden und neu entwickelten Methoden erhebliche Einsichten ermöglichen. Erfolgversprechend sind Ansätze, die eine komplette Einbettung von Business Analytics in den strategischen Managementprozess garantieren und die optimale Ausschöpfung operationaler Exzellenz über ein Alignment ermöglichen. Die funktionale Perspektive bildet hier das Marketing mit einer konkreten Betrachtung der Kundenloyalität und deren Profitabilität. Dieser Zusammenhang wird über ein Monte-Carlo Simulationsmodell hergestellt. Das darf aber nicht darüber hinwegtäuschen, dass die Breite und die Tiefe der Methoden erheblich sind, vermehrt zu Spezialisierungen führen und andere Analyse-Optionen zur Wahl stehen. Letztendlich müsste es aber deutlich werden, dass das Thema Business Analytics technologische, Domain-spezifische, methodologische und methodische Kenntnisse erfordert, die selten nur durch eine Person erbracht werden können.
Verantwortung in Unternehmen zu übernehmen bedeutet, jeden Tag Unsicherheiten zu akzeptieren und damit umzugehen. Aus diesem Grund bemühen sich Wissenschaft und Praxis um Theorien, Methodologien und Methoden, um dieses Bedürfnis zu unterstützen. Das mittlerweile sehr ausdifferenzierte Feld der Futures Studies ist geprägt von epistemologischen Grundannahmen, die in die theoretischen Positionen hineinragen. Bezüglich der theoretischen Positionen und den methodologischen Rahmen ist danach zu fragen, worauf diese ausgerichtet sind. Geht es nur um Darstellungen oder um bestimmte Vorstellungen, die erreicht werden sollen? Auch die Wahl der Methode, hier konkret die Szenario-Technik, wird davon beeinflusst. Der Rahmen ist damit klar, aber die konkrete Ausgestaltung muss geklärt werden. Das Ziel dieses Beitrags ist es, diese Differenzierung herauszuarbeiten und am Ende mittels zwei Methoden zu erläutern.
Der zielorientierte Umgang mit Risiken im Rahmen digitalwirtschaftlicher Ökosysteme sowie die Abschwächung von Effekten aus Ereignissen, die möglicherweise frühzeitig erkannt werden können, unterstützen Unternehmen im Rahmen der Geschäftstätigkeit. Die Anwendung von Standards, wie beispielsweise des COSO-Rahmenwerks, hilft dabei, die wirtschaftlichen Aktivitäten mit der Risikolandschaft integrativ zu vernetzen. Jedoch bedingen neue Geschäftsmodelle immer neue Risiken, die sich nicht nur aus der Geschäftstätigkeit ergeben, sondern auch das Ergebnis globaler Entwicklungen sein können. Obwohl ein optimal ausgestaltetes und praktiziertes Risikomanagement niemals die Bedrohungen zu 100 % beherrschen kann, sollte es doch die Zielsetzung sein, die Probleme so weit wie möglich zu antizipieren. Aus diesem Grund widmet sich dieser Beitrag den Aspekten Früherkennung, Emergenz und Hyperkonnektivität von Risiken. Im Zusammenhang mit existierenden Risikomanagementpraktiken soll erreicht werden, dass den neuen Gegebenheiten stärker Rechnung getragen wird.
Die Entwicklung der Cyber-Bedrohungslandschaft zwingt Unternehmen zur Auseinandersetzung mit neuen funktionalen Herausforderungen. Da sich die Angriffsoberflächen genauso dynamisch verändern wie die Taktiken und Techniken, sollte die Corporate Governance für ein integratives Cyber-Risikomanagement sorgen, um das Cybersicherheitsmanagement differenziert einzubetten. Dadurch leistet die Corporate Governance einen Beitrag zur Steigerung der Cyber-Resilienz.
Bei der Bachelorarbeit „Umsetzung eines multiplayer-basierten Real-Time-Tactic Prototypen“ handelt es sich um einen entwickelten Prototypen eines RTT-Games. Abseits des RTT-spezifischen Fokus auf Einheiten, lag die Konzentration darauf, einen spielbaren PVP-Multiplayer zu erschaffen. Diese Bachelorarbeit wurde als Gruppenarbeit mit klar getrennten Aufgabenbereichen verwirklicht.
The aim of this essay is to point out the challenges and opportunities of government export credits and insurance in Europe. The Covid-19 pandemic confronted the entire world with new challenges. This also applied to the export financing and insurance market. Furthermore, there are also challenges that play a major role for ECAs regardless of the pandemic. However, the risks are also offset by opportunities that may enable European export credit agencies to prevail against international competition.
The focus of this essay is on the export credit agencies from Finland (Finnvera), Sweden (EKN) and Portugal (COSEC). As part of the European Union (EU) and the Organisation for Economic Co-operation and Development (OECD) the three ECAs share many fundamental similarities but in some points they may also distinguish from each other.
Autonomous driving is disrupting the automotive industry as we know it today. For this, fail-operational behavior is essential in the sense, plan, and act stages of the automation chain in order to handle safety-critical situations on its own, which currently is not reached with state-of-the-art approaches.The European ECSEL research project PRYSTINE realizes Fail-operational Urban Surround perceptION (FUSION) based on robust Radar and LiDAR sensor fusion and control functions in order to enable safe automated driving in urban and rural environments. This paper showcases some of the key exploitable results (e.g., novel Radar sensors, innovative embedded control and E/E architectures, pioneering sensor fusion approaches, AI-controlled vehicle demonstrators) achieved until its final year 3.
Generative adversarial networks (GANs) provide state-of-the-art results in image generation. However, despite being so powerful, they still remain very challenging to train. This is in particular caused by their highly non-convex optimization space leading to a number of instabilities. Among them, mode collapse stands out as one of the most daunting ones. This undesirable event occurs when the model can only fit a few modes of the data distribution, while ignoring the majority of them. In this work, we combat mode collapse using second-order gradient information. To do so, we analyse the loss surface through its Hessian eigenvalues, and show that mode collapse is related to the convergence towards sharp minima. In particular, we observe how the eigenvalues of the are directly correlated with the occurrence of mode collapse. Finally, motivated by these findings, we design a new optimization algorithm called nudged-Adam (NuGAN) that uses spectral information to overcome mode collapse, leading to empirically more stable convergence properties.
Transformer models have recently attracted much interest from computer vision researchers and have since been successfully employed for several problems traditionally addressed with convolutional neural networks. At the same time, image synthesis using generative adversarial networks (GANs) has drastically improved over the last few years. The recently proposed TransGAN is the first GAN using only transformer-based architectures and achieves competitive results when compared to convolutional GANs. However, since transformers are data-hungry architectures, TransGAN requires data augmentation, an auxiliary super-resolution task during training, and a masking prior to guide the self-attention mechanism. In this paper, we study the combination of a transformer-based generator and convolutional discriminator and successfully remove the need of the aforementioned required design choices. We evaluate our approach by conducting a benchmark of well-known CNN discriminators, ablate the size of the transformer-based generator, and show that combining both architectural elements into a hybrid model leads to better results. Furthermore, we investigate the frequency spectrum properties of generated images and observe that our model retains the benefits of an attention based generator.
Generative adversarial networks are the state of the art approach towards learned synthetic image generation. Although early successes were mostly unsupervised, bit by bit, this trend has been superseded by approaches based on labelled data. These supervised methods allow a much finer-grained control of the output image, offering more flexibility and stability. Nevertheless, the main drawback of such models is the necessity of annotated data. In this work, we introduce an novel framework that benefits from two popular learning techniques, adversarial training and representation learning, and takes a step towards unsupervised conditional GANs. In particular, our approach exploits the structure of a latent space (learned by the representation learning) and employs it to condition the generative model. In this way, we break the traditional dependency between condition and label, substituting the latter by unsupervised features coming from the latent space. Finally, we show that this new technique is able to produce samples on demand keeping the quality of its supervised counterpart.
Facial image manipulation is a generation task where the output face is shifted towards an intended target direction in terms of facial attribute and styles. Recent works have achieved great success in various editing techniques such as style transfer and attribute translation. However, current approaches are either focusing on pure style transfer, or on the translation of predefined sets of attributes with restricted interactivity. To address this issue, we propose FacialGAN, a novel framework enabling simultaneous rich style transfers and interactive facial attributes manipulation. While preserving the identity of a source image, we transfer the diverse styles of a target image to the source image. We then incorporate the geometry information of a segmentation mask to provide a fine-grained manipulation of facial attributes. Finally, a multi-objective learning strategy is introduced to optimize the loss of each specific tasks. Experiments on the CelebA-HQ dataset, with CelebAMask-HQ as semantic mask labels, show our model’s capacity in producing visually compelling results in style transfer, attribute manipulation, diversity and face verification. For reproducibility, we provide an interactive open-source tool to perform facial manipulations, and the Pytorch implementation of the model.
A fundamental and still largely unsolved question in the context of Generative Adversarial Networks is whether they are truly able to capture the real data distribution and, consequently, to sample from it. In particular, the multidimensional nature of image distributions leads to a complex evaluation of the diversity of GAN distributions. Existing approaches provide only a partial understanding of this issue, leaving the question unanswered. In this work, we introduce a loop-training scheme for the systematic investigation of observable shifts between the distributions of real training data and GAN generated data. Additionally, we introduce several bounded measures for distribution shifts, which are both easy to compute and to interpret. Overall, the combination of these methods allows an explorative investigation of innate limitations of current GAN algorithms. Our experiments on different data-sets and multiple state-of-the-art GAN architectures show large shifts between input and output distributions, showing that existing theoretical guarantees towards the convergence of output distributions appear not to be holding in practice.
The term “attribute transfer” refers to the tasks of altering images in such a way, that the semantic interpretation of a given input image is shifted towards an intended direction, which is quantified by semantic attributes. Prominent example applications are photo realistic changes of facial features and expressions, like changing the hair color, adding a smile, enlarging the nose or altering the entire context of a scene, like transforming a summer landscape into a winter panorama. Recent advances in attribute transfer are mostly based on generative deep neural networks, using various techniques to manipulate images in the latent space of the generator. In this paper, we present a novel method for the common sub-task of local attribute transfers, where only parts of a face have to be altered in order to achieve semantic changes (e.g. removing a mustache). In contrast to previous methods, where such local changes have been implemented by generating new (global) images, we propose to formulate local attribute transfers as an inpainting problem. Removing and regenerating only parts of images, our “Attribute Transfer Inpainting Generative Adversarial Network” (ATI-GAN) is able to utilize local context information to focus on the attributes while keeping the background unmodified resulting in visually sound results.