Refine
Year of publication
- 2021 (436) (remove)
Document Type
- Bachelor Thesis (97)
- Conference Proceeding (85)
- Article (reviewed) (74)
- Part of a Book (37)
- Contribution to a Periodical (23)
- Master's Thesis (22)
- Working Paper (22)
- Article (unreviewed) (20)
- Other (12)
- Book (11)
- Report (11)
- Patent (9)
- Doctoral Thesis (6)
- Letter to Editor (4)
- Periodical Part (3)
Conference Type
- Konferenzartikel (76)
- Konferenz-Abstract (6)
- Konferenz-Poster (2)
- Konferenzband (1)
Keywords
- Datenqualität (6)
- Kundendaten (6)
- Künstliche Intelligenz (6)
- COVID-19 (5)
- Chromatography (5)
- Datenmanagement (5)
- Export (5)
- Gamification (5)
- Laboratory Medicine (5)
- Marketing (5)
Institute
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (121)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (119)
- Fakultät Medien (M) (ab 22.04.2021) (90)
- Fakultät Wirtschaft (W) (58)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (51)
- INES - Institut für nachhaltige Energiesysteme (32)
- IMLA - Institute for Machine Learning and Analytics (19)
- POIM - Peter Osypka Institute of Medical Engineering (17)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (14)
- IfTI - Institute for Trade and Innovation (11)
Open Access
- Closed Access (259)
- Open Access (170)
- Bronze (13)
- Hybrid (6)
- Closed (4)
- Diamond (2)
- Grün (2)
- Gold (1)
In recent years, physically unclonable functions (PUFs) have gained significant attraction in IoT security applications, such as cryptographic key generation and entity authentication. PUFs extract the uncontrollable production characteristics of different devices to generate unique fingerprints for security applications. When generating PUF-based secret keys, the reliability and entropy of the keys are vital factors. This study proposes a novel method for generating PUF-based keys from a set of measurements. Firstly, it formulates the group-based key generation problem as an optimization problem and solves it using integer linear programming (ILP), which guarantees finding the optimum solution. Then, a novel scheme for the extraction of keys from groups is proposed, which we call positioning syndrome coding (PSC). The use of ILP as well as the introduction of PSC facilitates the generation of high-entropy keys with low error correction costs. These new methods have been tested by applying them on the output of a capacitor network PUF. The results confirm the application of ILP and PSC in generating high-quality keys.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
Most recently, the federal government in Germany published new climate goals in order reach climate neutrality by 2045. This paper demonstrates a path to a cost optimal energy supply system for the German power grid until the year 2050. With special regard to regionality, the system is based on yearly myopic optimization with the required energy system transformation measures and the associated system costs. The results point out, that energy storage systems (ESS) are fundamental for renewables integration in order to have a feasible energy transition. Moreover, the investment in storage technologies increased the usage of the solar and wind technologies. Solar energy investments were highly accompanied with the installation of short-term battery storage. Longer-term storage technologies, such as H2, were accompanied with high installations of wind technologies. The results pointed out that hydrogen investments are expected to overrule short-term batteries if their cost continues to decrease sharply. Moreover, with a strong presence of ESS in the energy system, biomass energy is expected to be completely ruled out from the energy mix. With the current emission reduction strategy and without a strong presence of large scale ESS into the system, it is unlikely that the Paris agreement 2° C target by 2050 will be achieved, let alone the 1.5° C.
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
Germany was considered the world's export champion for a long time, until it was overtaken by China in 2009. Both nations provide officially supported export credits to national exporting organizations, but the two systems operate differently. German export credit guarantees serve as a substitute when the private market is unable to assume the risks of exporting companies. The German Export Credit Agency Euler Hermes is responsible for processing applications on behalf of the Federal Government. China belongs to the largest providers of export finance with the institutions China EXIM and Sinosure. While Germany is bound by the OECD consensus, which defines the level playing field, Chinese export credit agencies have greater flexibility not being bound by international rules or agreements.
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
Die vorliegende Bachelorarbeit befasst sich mit den Marketing-Kommunikationsstrategien im zweiseitigen Markt am Beispiel einer Immobilienplattform.
Das primäre Ziel dieser Arbeit besteht darin, auf Grundlage der Netzwerkeffekte im zweiseitigen Markt und durch Anwendung von Onlinemarketingmaßnahmen die Positionierung der Plattform Immobilien Rith in den Internetsuchergebnissen zu optimieren.
MINT-College TIEFE
(2021)
Das Projekt MINT-College TIEFE konnte in der zweiten Förderperiode die verschiedenen Maßnahmen der vorangegangenen Förderperiode weiter ausbauen und verstetigen. Die Angebote im Rahmen des Projekts MINT-College TIEFE begleiteten die Studierenden über den Student-Life-Cycle hinweg über das komplette Studium der technischen Studiengänge, beginnend in der Schule und endend beim Übergang in den Beruf. Um die Qualität der Lehre an der Hochschule Offenburg zu verbessern, wurden darüber hinaus verschiedene digital unterstützte Lehrformate weiterentwickelt und ausgebaut. Zentrale Angebote des MINT-College, das 2019 zentrale Einrichtung der Hochschule Offenburg wurde, sind die für die Studieneingangsphase entwickelten Angebote der Einführungstage, des Mentorenprogramms, der Brückenkurse, des Lernzentrums und Angebote für den Übergang in den Beruf, wie das Gründerbüro. Die mediendidaktischen Unterstützungsangebote für Lehrende unterstützten den Lernkulturwandel an der Hochschule. Es wurden systematisch nachhaltige Strukturen aufgebaut, um Innovationen für das Lehren und das Lernen auch künftig entwickeln, erproben und etablieren zu können.
Fifth-generation (5G) cellular mobile networks are expected to support mission-critical low latency applications in addition to mobile broadband services, where fourth-generation (4G) cellular networks are unable to support Ultra-Reliable Low Latency Communication (URLLC). However, it might be interesting to understand which latency requirements can be met with both 4G and 5G networks. In this paper, we discuss (1) the components contributing to the latency of cellular networks and (2) evaluate control-plane and user-plane latencies for current-generation narrowband cellular networks and point out the potential improvements to reduce the latency of these networks, (3) present, implement and evaluate latency reduction techniques for latency-critical applications. The two elements we detected, namely the short transmission time interval and the semi-persistent scheduling are very promising as they allow to shorten the delay to processing received information both into the control and data planes. We then analyze the potential of latency reduction techniques for URLLC applications. To this end, we develop these techniques into the long term evolution (LTE) module of ns-3 simulator and then evaluate the performance of the proposed techniques into two different application fields: industrial automation and intelligent transportation systems. Our detailed evaluation results from simulations indicate that LTE can satisfy the low-latency requirements for a large choice of use cases in each field.
Elektronische Türschilder zur Darstellung von Informationen sind insbesondere in öffentlichen Gebäuden zwischenzeitlich weit verbreitet. Die Varianz dieser elektronischen Türschilder reicht vom Tablet-basierten Türschild bis hin zum PC-basierten Türschild mit externem Bildschirm. Zumeist werden die Systeme mit 230 V betrieben. Bei einer großen Summe von Türschildern in öffentlichen Gebäuden kann dies zu einem signifikanten Umsatz an Energie führen. Im Rahmen dieses Papers wird die Entwicklung eines energieautarken arbeiten Türschildes vorgestellt, bei dem ein E-Paper-Display zum Einsatz kommt. Das Türschild lässt sich per Smartphone-App und NFC-Schnittstelle konfigurieren. Es wird insbesondere auf das Low-Power-Hardware-Design der Elektronik und energetische Aspekte eingegangen.
Users of a cochlear implant (CI) in one ear, who are provided with a hearing aid (HA) in the contralateral ear, so-called bimodal listeners, are typically affected by a constant and relatively large interaural time delay offset due to differences in signal processing and differences in stimulation. For HA stimulation, the cochlear travelling wave delay is added to the processing delay, while for CI stimulation, the auditory nerve fibers are stimulated directly. In case of MED-EL CI systems in combination with different HA types, the CI stimulation precedes the acoustic HA stimulation by 3 to 10 ms. A self-designed, battery-powered, portable, and programmable delay line was applied to the CI to reduce the device delay mismatch in nine bimodal listeners. We used an A-B-B-A test design and determined if sound source localization improves when the device delay mismatch is reduced by delaying the CI stimulation by the HA processing delay (τ HA ). Results revealed that every subject in our group of nine bimodal listeners benefited from the approach. The root-mean-square error of sound localization improved significantly from 52.6° to 37.9°. The signed bias also improved significantly from 25.2° to 10.5°, with positive values indicating a bias toward the CI. Furthermore, two other delay values (τ HA –1 ms and τ HA +1 ms) were applied, and with the latter value, the signed bias was further reduced in some test subjects. We conclude that sound source localization accuracy in bimodal listeners improves instantaneously and sustainably when the device delay mismatch is reduced.
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Im Rahmen dieser Masterarbeit soll ein Radträger für ein Leichtbaufahrzeug entwickelt werden. Dieser soll ein niedriges Gewicht sowie eine hohe Steifigkeit aufweisen und fertigbar sein.
Dabei wird über einen iterativen Prozess aus Simulation, Topologieoptimierung und Neukonstruktion ein neues Radträgerdesign entwickelt.
Zu Beginn der Arbeit wird auf die wissenschaftlichen Grundlagen eingegangen. Dabei spielen vor allem das Thema Leichtbau sowie die finite Elemente Methode eine Rolle. Es wird auf Prinzipien der Konstruktion eingegangen, um das Bauteil fertigungsgerecht und auch effizient zu gestalten.
Im nächsten Kapitel wird der aktuelle Stand der Technik genauer untersucht. Hierbei wird der Entwicklungsprozess der aktuellen Radträger-Varianten untersucht und diese mittels FEM nachgerechnet. Zuvor werden noch die für die Simulation benötigten wirkenden Kräfte berechnet und Plausibilitätstests durchgeführt, bei denen Computersimulationen mit realen Messwerten auf deren Richtigkeit überprüft werden.
In den letzten Kapiteln geht es um die Entwicklung des Radträgers. Hier werden einige Konzepte entwickelt und mittels FEM-Simulationen getestet. Durch den Einsatz von Topologieoptimierungen wird versucht, das Gewicht des Radträgers bei gleichbleibender Steifigkeit zu senken.
The three lines of defense model (TLoD) aims to provide a simple and effective way to improve coordination and enhance communications on risk management and control by clarifying the essential roles and duties of different governance functions. Without effective coordination of these governance functions, work can be duplicated or key risks may be missed or misjudged. To address these challenges, professional standards recommend that the chief audit executive (CAE) coordinates activities with other internal and external governance stakeholders (assurance providers). We consider survey responses from 415 CAEs from Austria, Germany, and Switzerland to analyze determinants that help to implement the TLoD without any challenges and to explore the extent of (coordination) challenges between the internal audit function and the respective governance stakeholders. Our results show a great variance in the extent of coordination challenges dependent on different determinants and the respective governance stakeholder.
Synthesizing voice with the help of machine learning techniques has made rapid progress over the last years [1]. Given the current increase in using conferencing tools for online teaching, we question just how easy (i.e. needed data, hardware, skill set) it would be to create a convincing voice fake. We analyse how much training data a participant (e.g. a student) would actually need to fake another participants voice (e.g. a professor). We provide an analysis of the existing state of the art in creating voice deep fakes and align the identified as well as our own optimization techniques in the context of two different voice data sets. A user study with more than 100 participants shows how difficult it is to identify real and fake voice (on avg. only 37 percent can recognize a professor’s fake voice). From a longer-term societal perspective such voice deep fakes may lead to a disbelief by default.
Ziel der folgenden Bachelorarbeit ist es, eine Steuerung für einen Motorenprüfstand zu entwickeln. Dieser wurde von Aaron Maier geplant und konstruiert. Die Steuerung soll es ermöglichen, die Motoren des Prüfstands sowohl manuell als auch automatisiert anzusteuern. Dabei sollen die Parameter Drehmoment, Drehzahl, Spannung, Strom sowie die Temperatur der Motoren automatisiert, oder auf Knopfdruck erfasst und abgelegt werden. Die Arbeit umfasst die Auswahl der benötigten Hardwarekomponenten, das Verbauen dieser Komponenten in einem Bedienpult, die elektrische Verschaltung dieser Komponenten, die Programmierung des Microkontrollers und das Erstellen einer Dokumentation.
Sowohl die Entwicklung neuer als auch die Weiterentwicklung bestehender Quartiere sind mit vielfältigen Herausforderungen verbunden. Durch weitere Klimaschutzmaßnahmen und ein zunehmendes Umweltbewusstsein steigen die energetischen Anforderungen an Wohn- und Gewerbeimmobilien. Die besonders für Deutschland ungünstige demografische Entwicklung bedingt eine weiter zunehmende Urbanisierung, bedingt durch Migration und Zuzug älterer Menschen in Städte, die künftig noch mehr altersgerechte Wohnungen und Pflegeeinrichtungen etablieren müssen. Hinzu kommen die steigenden Anforderungen aus der digitalen Transformation und einer Informationsgesellschaft, die sich mit Konnektivität, Schnelllebigkeit, Individualisierungstendenzen und veränderten Konsumgewohnheiten auseinandersetzen muss.
Im Projekt MOBCOM wird ein neues Verfahren zur Zustandsüberwachung von elektrischen Betriebsmitteln in Niederspannungsnetzen und Anlagen entwickelt. Mittels PLC (power line communication) Technologie werden hochfrequente transiente Vorgänge auf dem Stromkanal und dessen Übertragungseigenschaften erfasst und bewertet. Durch Ableiten bestimmter Parameter soll zustandsbedingte Wartung vorhergesagt und so der Ausfall von Betriebsmittel vermieden werden.
The increasing use of artificial intelligence (AI) technologies across application domains has prompted our society to pay closer attention to AI’s trustworthiness, fairness, interpretability, and accountability. In order to foster trust in AI, it is important to consider the potential of interactive visualization, and how such visualizations help build trust in AI systems. This manifesto discusses the relevance of interactive visualizations and makes the following four claims: i) trust is not a technical problem, ii) trust is dynamic, iii) visualization cannot address all aspects of trust, and iv) visualization is crucial for human agency in AI.
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
Ziel der Investitionsmaßnahme Enerlab 4.0 war die Bereitstellung einer umfangreichen in-operando und post-mortem Diagnostik für dezentrale Energieerzeuger und -Speicher, z. B. Batteriezellen und Photovoltaikzellen. Diese sind wichtige Komponenten für verschiedene Bereiche der Industrie 4.0 – von autonomen Sensoren über energieautarke Produktion bis hin zur Qualitätskontrolle. Zu diesem Zweck wurde die apparative Ausstattung der Hochschule Offenburg erweitert, und zwar sowohl für in-operando Diagnostik (elektrische Zyklierer, Impedanzspektrometer, Temperaturprüfschränke) als auch für post-mortem Diagnostik (Glovebox, Probenpräparationen für vorhandene Werkstoffanalytik und chemische Analytik). Be-reits vorhandene Geräte aus anderen laufenden oder abgeschlossenen Projekten wurden in die neue Infrastruktur integriert. Im Ergebnis entstand ein modernes und leistungsfähiges Batterie- und Photovoltaiklabor, welches in zahlreichen laufenden und neuen Vorhaben genutzt wird.
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des Ladezustandes (SOC) einer aufladbaren Batterie (106) eines vorgegebenen Batterietyps oder eines damit in einem physikalischen Zusammenhang stehenden Parameters, insbesondere einer in der Batterie enthaltenen Restladungsmenge Q, wobei das Verfahren mittels eines spannungsgeführten Batteriemodells (102) arbeitet, welches für die betreffende Batterie (106) oder einen entsprechenden Batterietyp parametriert wird. Es muss lediglich die Batteriespannung Umess gemessen und dem Batteriemodell (102) als Eingangsgröße zur Verfügung gestellt werden. Weiterhin betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Bestimmung des Gesundheitszustandes (SOH) einer Batterie (102), wobei das Batteriemodell (102), das auch zur Bestimmung des SOC verwendet wird, einen modellierten Batteriestrom Imodliefert. Aus diesem können modellierte Ladungsmengen während Lade- und Entladephasen der Batterie (106) bestimmt und mit gemessenen Ladungsmengen, die aus dem gemessenen Batteriestrom Imessbestimmt werden, verglichen werden. Da das Batteriemodell (102) nicht altert, kann hierdurch der SOH der Batterie bestimmt werden.
Im Batterielabor der Hochschule Offenburg wurde ein neues Verfahren zur Bestimmung von Ladezustand und Gesundheitszustand von Lithium-Ionen-Batterien entwickelt. Es beruht auf der Auswertung von Spannungs- und Strommessungen mit einem mathematischen Batteriemodell. Das Verfahren ist genauer und robuster als Standardverfahren, die auf Ladungszählung beruhen. Zudem ist es numerisch einfacher umzusetzen als andere modellbasierte Verfahren. Wir demonstrieren die Methode mit einer Heimspeicherzelle und einer Elektrofahrzeugzelle.
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung des Ladezustandes (SOC) einer aufladbaren Batterie (106) eines vorgegebenen Batterietyps oder eines damit in einem physikalischen Zusammenhang stehenden Parameters, insbesondere einer in der Batterie enthaltenen Restladungsmenge Q, wobei das Verfahren mittels eines spannungsgeführten Batteriemodells (102) arbeitet, welches für die betreffende Batterie (106) oder einen entsprechenden Batterietyp parametriert wird. Es muss lediglich die Batteriespannung Umess gemessen und dem Batteriemodell (102) als Eingangsgröße zur Verfügung gestellt werden. Weiterhin betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Bestimmung des Gesundheitszustandes (SOH) einer Batterie (102), wobei das Batteriemodell (102), das auch zur Bestimmung des SOC verwendet wird, einen modellierten Batteriestrom Imodliefert. Aus diesem können modellierte Ladungsmengen während Lade- und Entladephasen der Batterie (106) bestimmt und mit gemessenen Ladungsmengen, die aus dem gemessenen Batteriestrom Imessbestimmt werden, verglichen werden. Da das Batteriemodell (102) nicht altert, kann hierdurch der SOH der Batterie bestimmt werden.
The invention relates to a method and to a device for determining the state of charge (SOC) of a rechargeable battery (106) of a specified battery type or a parameter physically related thereto, in particular a remaining charge amount Q contained in the battery, the method operating by means of a voltage-controlled battery model (102), which is parameterized for the battery (106) in question or a corresponding battery type. It is merely necessary to measure the battery voltage Umess and to provide said battery voltage to the battery model (102) as an input variable. The invention further relates to a method and to a device for determining the state of health (SOH) of a battery (102), wherein the battery model (102) also used to determine the SOC provides a modeled battery current Imod. Modeled charge amounts during charging and discharging phases of the battery (106) can be determined from said modeled battery current and can be compared with measured charge amounts, which are determined from the measured battery current Imess. Because the battery model (102) does not age, the SOH of the battery can thereby be determined.
Passive hybridization refers to a parallel connection of photovoltaic and battery cells on the direct current level without any active controllers or inverters. We present the first study of a lithium-ion battery cell connected in parallel to a string of four or five serially-connected photovoltaic cells. Experimental investigations were performed using a modified commercial photovoltaic module and a lithium titanate battery pouch cell, representing an overall 41.7 W-peak (photovoltaic)/36.8 W-hour (battery) passive hybrid system. Systematic and detailed monitoring of this system over periods of several days with different load scenarios was carried out. A scaled dynamic synthetic load representing a typical profile of a single-family house was successfully supplied with 100 % self-sufficiency over a period of two days. The system shows dynamic, fully passive self-regulation without maximum power point tracking and without battery management system. The feasibility of a photovoltaic/lithium-ion battery passive hybrid system could therefore be demonstrated.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
This paper describes the authors' first experiments in creating an artificial dancer whose movements are generated through a combination of algorithmic and interactive techniques with machine learning. This approach is inspired by the time honoured practice of puppeteering. In puppeteering, an articulated but inanimate object seemingly comes to live through the combined effects of a human controlling select limbs of a puppet while the rest of the puppet's body moves according to gravity and mechanics. In the approach described here, the puppet is a machine-learning-based artificial character that has been trained on motion capture recordings of a human dancer. A single limb of this character is controlled either manually or algorithmically while the machine-learning system takes over the role of physics in controlling the remainder of the character's body. But rather than imitating physics, the machine-learning system generates body movements that are reminiscent of the particular style and technique of the dancer who was originally recorded for acquiring training data. More specifically, the machine-learning system operates by searching for body movements that are not only similar to the training material but that it also considers compatible with the externally controlled limb. As a result, the character playing the role of a puppet is no longer passively responding to the puppeteer but makes movement decisions on its own. This form of puppeteering establishes a form of dialogue between puppeteer and puppet in which both improvise together, and in which the puppet exhibits some of the creative idiosyncrasies of the original human dancer.
Strings P
(2021)
Strings is an audiovisual performance for an acoustic violin and two generative instruments, one for creating synthetic sounds and one for creating synthetic imagery. The three instruments are related to each other conceptually , technically, and aesthetically by sharing the same physical principle, that of a vibrating string. This submission continues the work the authors have previously published at xCoAx 2020. The current submission briefly summarizes the previous publication and then describes the changes that have been made to Strings. The P in the title emphasizes, that most of these changes have been informed by experiences collected during rehearsals (in German Proben). These changes have helped Strings to progress from a predominantly technical framework to a work that is ready for performance.
Im Rahmen des Forschungsvorhabens GeoSpeicher.bw wurden mehrere Demostandorte in Baden-Württemberg intensiv durch die Projektpartner untersucht bzw. begleitet. Die Forschungsergebnisse zeigen, dass bestehende Geothermieanlagen gut funktionieren und durch den Betrieb auch klimaschädliche Gasemissionen eingespart werden können. Leider konnte im Rahmen des Vorhabens kein Demoprojekt für einen Aquiferspeicher am städtischen Klinikum Karlsruhe oder auch am Campus Nord des Karlsruhe Instituts für Technologie (KIT) trotz des Nachweises der effektiven Kostenersparnisse und CO2-Einsparungen verwirklicht werden.
Sollte sich die Aquiferspeichertechnologie in Baden-Württemberg etablieren, müsste unbedingt ein Demoprojekt für einen flachen Niedrigtemperatur-Aquiferspeicher entwickelt und gefördert werden. Die Rahmenbedingungen für solch einen Aquiferspeicher wären am Campus Nord grundsätzlich gegeben. Dieser Nachweis wurde durch zahlreiche Untersuchungen im Rahmen von GeoSpeicher.bw eindeutig erbracht.
Energiemanagement im Betrieb
(2021)
Dieses Fachbuch gibt einen vertieften Einblick in das dynamische Verhalten von thermoaktiven Bauteilsystemen. Es wird eine neu entwickelte und vielfach erprobte, selbstlernende und vorausschauende TABS-Steuerung vorgestellt. Dazu wird auf die Erfordernisse einer effektiven TABS-Steuerung eingegangen und die Grundlagen und Funktionsweise der neu entwickelten AMLR-Steuerung erläutert. Anhand mehrerer Anwendungsbeispiele wird die Umsetzung in die bauliche Praxis erläutert und mit Hilfe von umfangreichen Messergebnissen die Funktion der neuen AMLR-Steuerung nachgewiesen. Abschließend werden Empfehlungen für die Anwendung von AMLR in der baulichen TABS-Praxis hinsichtlich Anlagenhydraulik und Umsetzung in der Gebäudeautomation gegeben.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg im Umfeld von Professor Elmar Bollin eine Forschungsgruppe etabliert, die die Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführten. Anfänglich ging es darum die Potenziale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte schließlich ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
Über zwei Jahrzehnte hat sich an der Hochschule Offenburg eine Forschungsgruppe etabliert, die die beiden Bereiche Gebäudeautomation und nachhaltige Energietechnik zusammenführte. Anfangs ging es darum, Potentiale der internetbasierten Wetterprognostik und modell-basierten Anlagensteuerung für die Verbesserung des Komforts und der Energieeffizienz im Gebäude zu nutzen. Im Rahmen von Forschungs- und Entwicklungsarbeiten mit Einsatz von dynamischen Gebäudesimulationen konnte ein Algorithmus gefunden werden, der es ermöglichte auf Basis von prognostizierter Außentemperatur und Sonneneinstrahlung den Energiebedarf eines Bürogebäudes für den Folgetag vorherzusagen. In Verbindung mit der Gebäudeautomation entstand so die adaptive und prädiktive TABS-Steuerung AMLR.
The transition from college to university can have a variety of psychological effects on students who need to cope with daily obligations by themselves in a new setting, which can result in loneliness and social isolation. Mobile technology, specifically mental health apps (MHapps), have been seen as promising solutions to assist university students who are facing these problems, however, there is little evidence around this topic. My research investigates how a mobile app can be designed to reduce social isolation and loneliness among university students. The Noneliness app is being developed to this end; it aims to create social opportunities through a quest-based gamified system in a secure and collaborative network of local users. Initial evaluations with the target audience provided evidence on how an app should be designed for this purpose. These results are presented and how they helped me to plan the further steps to reach my research goals. The paper is presented at MobileHCI 2020 Doctoral Consortium.
Loneliness, an emotional distress caused by the lack of meaningful social connections, has been increasingly affecting university students who need to deal with everyday situations in a new setting, especially those who have come from abroad. Currently there is little work on digital solutions to reduce loneliness. Therefore, this work describes the general design considerations for mobile apps in this context and outlines a potential solution. The mobile app Noneliness is used to this end: it aims to reduce loneliness by creating social opportunities through a quest-based gamified system in a secure and collaborative network of local users. The results of initial evaluations with the target audience are described. The results informed a user interface redesign as well as a review of the features and the gamification principles adopted.
The findings presented in this article were obtained through a preliminary exploratory study conducted at the Offenburg University as part of the Fighting Loneliness project promoted by the institution’s Affective & Cognitive Institute (ACI) from October 2019 to February 2020. The initiative’s main objective was to answer the research question “How should an app be designed to reduce loneliness and social isolation among university students?” with the collaboration of the institution’s students.
Analyse domänenseitiger Optimierungen für Deep Reinforcement Learning in der RoboCup Umgebung
(2021)
Mit dem Team "magmaOffenburg" nimmt die Hochschule Offenburg seit 2009 am internationalen Wettbewerb "RoboCup" in der 3D-Simulationsliga für Fußball teil. Dabei kommt es vor allem auf den Einsatz guter Lauf- und Kickverhalten an. Seit 2019 ist es dem Team magmaOffenburg möglich auch Deep Reinforcement Learning für die Weiterentwicklung der Verhalten einzusetzen. Während auf diese Weise schon verwendbare Ergebnisse für das Kicken produziert wurden, so fehlt noch ein Fortschritt beim Laufen lernen. Diese Arbeit beschäftigt sich mit den nötigen Optimierungen auf der Domänenseite, um das gelernte Laufen zu verbessern. Das beinhaltet die Optimierung des Observation- und Actionspaces, sowie auch eine Optimierung der Rewardfunktion. Dabei wurde versucht, die einzelnen Einflüsse verschiedener Parameter und Techniken innerhalb dieser drei Bereiche zu evaluieren. So konnte zum Schluss eine Verbesserung in der Laufgeschwindigkeit von etwas unter einem Meter pro Sekunde auf bis zu 1,8 Metern pro Sekunde erreicht werden. Ausschlaggebend für dieses Ergebnis waren vor allem der Verbesserungen in der Rewardfunktion.
In die neuen Verfahren, wie Big Data, Machine Learning und Predictive Analytics, werden von Marketing und Vertrieb hohe Erwartungen gesetzt. Doch dem „Garbage in – Garbage out“-Prinzip folgend lassen die Ergebnisse zu wünschen übrig. Grund hierfür ist häufig eine nicht ausreichende Qualität in den zugrunde liegenden Kundendaten. Dieser Beitrag beleuchtet diese Problematik anhand der Wert-Pyramide. Je weiter oben die Daten in der Wertschöpfungskette angesiedelt sind, desto höher ist deren Qualität und umso mehr Wert haben sie für das Unternehmen. Darüber hinaus wird aufgezeigt, wie sich mit Hilfe von Monitoring-Systemen, wie einer Datenqualitäts-Scorecard, Aussagen zur Datenqualität treffen und Verbesserungen derselben messen lassen. So wird der tatsächliche Wert von Daten für Unternehmen ersichtlich.
Duplikaterkennung, -suche und -konsolidierung für Kunden- und Geschäftspartnerdaten, sog. „Identity Resolution“, ist die Voraussetzung für erfolgreiches Customer Relationship Management und Customer Experience Management, aber auch für das Risikomanagement zur Minimierung von Betrugsrisiken und Einhaltung regulatorischer Vorschriften und viele weitere Anwendungsfälle. Diese Systeme sind jedoch hochkomplex und müssen individuell an die kundenspezifischen Anforderungen angepasst werden. Der Einsatz lernbasierter Verfahren bietet großes Potenzial zur automatisierten Anpassung. In diesem Beitrag präsentieren wir für ein KMU praxisfähige, lernbasierte Verfahren zur automatischen Konfiguration von Business-Regeln in Duplikaterkennungssystemen. Dabei wurden für Fachanwender Möglichkeiten entwickelt, um beispielgetrieben das Match-System an individuelle Business-Regeln (u.a. Umzugserkennung, Sperrlistenabgleich) anzupassen und zu konfigurieren. Die entwickelten Verfahren wurden evaluiert und in einer prototypischen Lösung integriert. Wir konnten zeigen, dass unser Machine-Learning-Verfahren, die von einem Domainexperten erstellten Business-Regeln für das Duplikaterkennungssystem „identity“ verbessern konnte. Zudem konnte der hierzu erforderliche Zeitaufwand verkürzt werden.
Die Mehrheit der deutschen Unternehmen verspricht sich aus KI-gestützter Datenanalyse einen großen Geschäftsvorteil. Doch gerade das Thema Datenbestand ist eine der größten, immer noch häufig unterschätzten Hürde beim Trainieren und Einführen von KI-Algorithmen. Im Folgenden sind vier konkrete Erfahrungen und Tipps für KI- & Datenanalyseprojekte in Unternehmen aufgeführt.
Datenanalyse mithilfe von Künstlicher Intelligenz (KI) – für 70 Prozent der von den Beratern von PWC befragten Unternehmen ist dies das vielversprechendste Einsatzszenario. Doch so attraktiv die Vision erscheint, mittels KI das eigene Geschäft oder gar eine ganze Branche zu revolutionieren, so handfest sind die Herausforderungen, die sich in der Praxis ergeben. Ein häufiges Problem ist ein bereits beim Start eines Projekts mangelhafter Datenbestand. Die KI mit qualitativ schlechten Daten zu trainieren, macht keinen Sinn, da sie falsche Informationen lernt. Ohne den Einsatz gewisser Automatisierungen und KI ist es wiederum mühsam, die unzureichende Datenbasis zu verbessern.
Eine Frage der Qualität
(2021)
Künstliche Intelligenz (KI) kommt laut einer Interxion-Studie bei 96 Prozent der Schweizer Unternehmen zum Einsatz. Allerdings gaben nur 22 Prozent der Schweizer IT-Entscheider an, dass sie KI bereits für einen ersten Anwendungsfall einsetzen. Dabei ist KI etwa im Datenmanagement sehr hilfreich – sofern Qualität und Quantität der Trainingsdaten stimmen.