Refine
Year of publication
- 2022 (433) (remove)
Document Type
- Conference Proceeding (106)
- Article (reviewed) (72)
- Bachelor Thesis (63)
- Part of a Book (63)
- Master's Thesis (27)
- Article (unreviewed) (23)
- Book (20)
- Other (20)
- Contribution to a Periodical (11)
- Working Paper (8)
Conference Type
- Konferenzartikel (87)
- Konferenz-Abstract (13)
- Konferenz-Poster (3)
- Sonstiges (3)
Keywords
- Digitalisierung (12)
- COVID-19 (10)
- injury (10)
- biomechanics (7)
- running (7)
- 3D printing (6)
- Machine Learning (6)
- Webentwicklung (6)
- Entrepreneurship (5)
- JavaScript (5)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (138)
- Fakultät Medien (M) (ab 22.04.2021) (137)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (96)
- Fakultät Wirtschaft (W) (67)
- INES - Institut für nachhaltige Energiesysteme (34)
- POIM - Peter Osypka Institute of Medical Engineering (21)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (16)
- IMLA - Institute for Machine Learning and Analytics (14)
- ACI - Affective and Cognitive Institute (7)
- CRT - Campus Research & Transfer (4)
Open Access
- Closed (206)
- Open Access (150)
- Closed Access (77)
- Bronze (51)
- Diamond (34)
- Gold (23)
- Hybrid (15)
- Grün (7)
Drawing off the technical flexibility of building polygeneration systems to support a rapidly expanding renewable electricity grid requires the application of advanced controllers like model predictive control (MPC) that can handle multiple inputs and outputs, uncertainties in forecast data, and plant constraints amongst other features. In this original work, an economic-MPC-based optimal scheduling of a real-world building energy system is demonstrated and its performance is evaluated against a conventional controller. The demonstration includes the steps to integrate an optimisation-based supervisory controller into a standard building automation and control system with off-the-shelf HVAC components and usage of state-of-art algorithms for solving complex nonlinear mixed integer optimal control problems. With the MPC, quantitative benefits in terms of 6–12% demand-cost savings and qualitative benefits in terms of better controller adaptability and hardware-friendly operation are identified. Further research potential for improving the MPC framework in terms of field-level stability, minimising constraint violations, and inter-system communication for its deployment in a prosumer-network is also identified.
In this paper, the Bauschinger effect and latent hardening of single crystals are assessed in finite element calculations using a single crystal plasticity model with kinematic hardening. To this end, results of cyclic micro-bending experiments on single crystal Alloy 718 in different crystal orientations (single slip and multi slip) with respect to the loading direction are used to determine the slip system related material properties of the single crystal plasticity model. Two kinematic hardening laws are considered: a kinematic hardening law describing latent hardening and a kinematic hardening law without latent hardening. For the determination of material properties for both hardening laws, a gradient-based optimization method is used. The results show that the different strength levels observed for micro-bending tests on different crystal orientations can only be described with latent kinematic hardening well, whereas the pronounced Bauschinger effect is described well by both kinematic hardening laws. It is concluded that cyclic micro-bending experiments on single crystals using different crystal orientations give an appropriate data base for the determination of the slip system related material properties of the single crystal plasticity model with latent kinematic hardening.
As PV enters the terawatt era, reliability, sustainability and low carbon footprint of solar modules are key requirements. The N.I.C.E.TM technology from Apollon Solar is a good candidate for significant improvements in these areas. As the second-generation pilot line is now functional with IEC certification underway, we present a holistic assessment of N.I.C.E.TM technology compared with conventional module technology with encapsulant. This includes electrical performance and cost/consumables, reliability, and degradation mechanisms as well as sustainability aspects. In addition, the new generation of N.I.C.E.-wire modules are presented that use thin round Cu wires instead of flat ribbons for interconnection. This candidate technology for an alternative to the Smart Wire Connection Technology (SWCT) is investigated experimentally as well as via numerical simulations.
The isolation measures adopted during the COVID-19 pandemic brought light to discussions related to the importance of meaningful social relationships as a basic need to human well-being. But even before the pandemic outbreak in the years 2020 and 2021, organizations and scholars were already drawing attention to the growing numbers related to lonely people in the world (World Economic Forum, 2019). Loneliness is an emotional distress caused by the lack of meaningful social connections, which affects people worldwide across all age groups, mainly young adults (Rook, 1984). The use of digital technologies has gained prominence as a means of alleviating the distress. As an example, studies have shown the benefits of using digital games both to stimulate social interactions (Steinfield, Ellison & Lampe, 2008) and to enhance the effects of digital interventions for mental health treatments, through gamification (Fleming et al., 2017). It is with these aspects in mind that the gamified app Noneliness was designed with the intention of reducing loneliness rates among young students at a German university. In addition to sharing the related works that supported the application development, this chapter also presents the aspects considered for the resource's design, its main functionalities, and the preliminary results related to the reduction of loneliness in the target audience.
We aim to debate and eventually be able to carefully judge how realistic the following statement of a young computer scientist is: “I would like to become an ethical correctly acting offensive cybersecurity expert”. The objective of this article is not to judge what is good and what is wrong behavior nor to present an overall solution to ethical dilemmas. Instead, the goal is to become aware of the various personal moral dilemmas a security expert may face during his work life. For this, a total of 14 cybersecurity students from HS Offenburg were asked to evaluate several case studies according to different ethical frameworks. The results and particularities are discussed, considering different ethical frameworks. We emphasize, that different ethical frameworks can lead to different preferred actions and that the moral understanding of the frameworks may differ even from student to student.
Sweaty has already participated several times in RoboCup soccer competitions (Adult Size). Now the work is focused on stabilizing the gait. Moreover, we would like to overcome the constraints of a ZMP-algorithm that has a horizontal footplate as precondition for the simplification of the equations. In addition we would like to switch between impedance and position control with a fuzzy-like algorithm that might help to minimize jerks when Sweaty’s feet touch the ground.
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Editorial
(2022)
Publisher und Start-ups
(2022)
Mit dem Klimaschutzgesetz 2021 wurden von der Bundesregierung die Klimaschutzvorgaben verschärft und die Treibhausgasneutralität bis 2045 als Ziel verankert. Zur Erreichung dieses ambitionierten Ziels ist es notwendig, im Bereich der Mobilität weitgehend von Verbrennungsmotoren mit fossilen Kraftstoffen auf Elektromobilität mit regenerativ erzeugtem Strom umzusteigen. Dabei ist die zügige Bereitstellung einer ausreichenden Ladeinfrastruktur für die Elektrofahrzeuge eine große Herausforderung. Neben der Installation einer ausreichend großen Zahl von Ladepunkten selbst besteht die Herausforderung darin, diese in das bestehende Verteilungsnetz zu integrieren bzw. das Verteilungsnetz so auszubauen, dass weiter ein sicherer Netzbetrieb gewährleistet werden kann. Dabei sind insbesondere Lösungen gefragt, bei denen der Ausbau der Ladeinfrastruktur und der Netzbetriebsmittel durch intelligentes Management des Ladens so gering wie möglich gehalten wird, indem vorhandene oder neu zu installierender Hardware möglichst effizient genutzt wird.
Hier setzte das Projekt „Intelligente Ladeinfrastruktur für Elektrofahrzeuge auf dem Parkplatz der Hochschule Offenburg (INTLOG)“ (Projektlaufzeit 15.11.2020 – 30.09.2022) an. Inhalt des Projekts war es, einen Ladepark für den Parkplatz der Hochschule Offenburg mit 20 Ladepunkten à 11 kW und somit einer Gesamtladeleistung von 220 kW an einen vorhandenen Ortsnetztransformator mit 200 kW Nennleistung anzuschließen, der aber bereits von anderen Verbrauchern genutzt wurde. Das übergeordnete Ziel war es also, eine Ladeinfrastruktur von maßgeblichem Umfang in die bestehende Netzinfrastruktur ohne zusätzlichen Ausbau zu integrieren.
Dabei wurden zukunftsweisende Technologien genutzt und weiterentwickelt sowie teilweise in Praxis, im Labor und in der Computersimulation demonstriert.
Generative machine learning models for creative purposes play an increasingly prominent role in the field of dance and technology. A particularly popular approach is the use of such models for generating synthetic motions. Such motions can either serve as source of ideation for choreographers or control an artificial dancer that acts as improvisation partner for human dancers. Several examples employ autoencoder-based deep-learning architectures that have been trained on motion capture recordings of human dancers. Synthetic motions are then generated by navigating the autoencoder's latent space. This paper proposes an alternative approach of using an autoencoder for creating synthetic motions. This approach controls the generation of synthetic motions on the level of the motion itself rather than its encoding. Two different methods are presented that follow this principle. Both methods are based on the interactive control of a single joint of an artificial dancer while the other joints remain under the control of the autoencoder. The first method combines the control of the orientation of a joint with iterative autoencoding. The second method combines the control of the target position of a joint with forward kinematics and the application of latent difference vectors. As illustrative example of an artistic application, this latter method is used for an artificial dancer that plays a digital instrument. The paper presents the implementation of these two methods and provides some preliminary results.
Subspace clustering aims to find all clusters in all subspaces of a high-dimensional data space. We present a massively data-parallel approach that can be run on graphics processing units. It extends a previous density-based method that scales well with the number of dimensions. Its main computational bottleneck consists of (sequentially) generating a large number of minimal cluster candidates in each dimension and using hash collisions in order to find matches of such candidates across multiple dimensions. Our approach parallelizes this process by removing previous interdependencies between consecutive steps in the sequential generation process and by applying a very efficient parallel hashing scheme optimized for GPUs. This massive parallelization gives up to 70x speedup for
the bottleneck computation when it is replaced by our approach and run on current GPU hardware. We note that depending on data size and choice of parameters, the parallelized part of the algorithm can take different percentages of the overall runtime of the clustering process, and thus, the overall clustering speedup may vary significantly between different cases. However, even
in our ”worst-case” test, a small dataset where the computation makes up only a small fraction of the overall clustering time, our parallel approach still yields a speedup of more than 3x for the complete run of the clustering process. Our method could also be combined with parallelization of other parts of the clustering algorithm, with an even higher potential gain in processing speed.
Diese Arbeit beschäftigt sich mit der Dynamik der Konsensbildung in sozialen Netzwerken mit unterschiedlichen Strukturen. Dafür wird mittels des Naming Games die Kommunikation mit dem Ziel der Konsensbildung simuliert und analysiert. Es geht dabei um die Frage, welchen Einfluss die unterschiedlichen Netzwerkstrukturen auf die Dynamik der Simulationen haben. Neben den unterschiedlichen Netzwerkstrukturen werden weitere Faktoren gesucht und analysiert, welche die Dynamik der Konsensfindung beeinflussen. Dafür werden die Simulationen unter bestimmten Parametern und Eigenschaften mehrfach wiederholt. Aus diesen mehrfachen Durchführungen wird eine repräsentative Simulation ausgewählt und untersucht. Hinsichtlich der Frage nach dem Einfluss der Netzwerkstruktur auf die Dynamik, konnte festgestellt werden, dass die Dichte des dem Netzwerk zugrundeliegenden Graphen einen erheblichen Einfluss auf die Effizienz der Kommunikation hat. Mit steigender Dichte steigt auch die Effizienz der Kommunikation. Zudem konnten zwei weitere wesentliche Einflussfaktoren ausgemacht werden: sogenannte Autoritäten und Announcements. Bei Autoritäten handelt es sich um Teilnehmer, welche besonders viele weitere Teilnehmer der Simulation kennen und bei Announcements handelt es sich um eine Form der Kommunikation, die zu einem Zeitpunkt zwischen mehr als zwei Teilnehmern stattfinden kann. Das Hinzufügen dieser Parameter führt wieder zu einer veränderten, effizienteren Dynamik.
Mit der wachsenden Bedeutung von Nachhaltigkeit im Alltag von Konsument*innen, werden ökologische Aspekte zunehmend zum Kaufentscheidungsfaktor. Damit steigt auch das Angebot nachhaltiger Produkte am Markt. Immer mehr Unternehmen neh-men ökologische Alternativen mit in ihr Sortiment auf. Wie nachhaltig einzelne Güter tatsächlich sind, kann für Verbraucher*innen nur schwer ersichtlich sein.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von Green-washing auf das Konsumverhalten deutscher Verbraucher*innen am Markt für nach-haltige Lebensmittel. Innerhalb eines Fragebogens wird zunächst der Lebensmittel-konsum eines Probandenkreises erfasst. Dabei wird zudem erfasst, welche Bedeutung Gütezeichen als Beurteilungshilfe hinsichtlich der Nachhaltigkeit eines Produkts in der Lebensmittelbranche innehalten. Dazu werden zunächst einige Öko-Siegel bzgl. ihrer Seriosität bewertet. In einem weiteren Schritt werden die Ergebnisse dieser Bewertung mittels empirische Forschung der Einschätzung des Probandenkreises gegenüberge-stellt.
Aus der Befragung ist hervorgegangen, dass Greenwashing eines Unternehmens durchaus Veränderungen in der Kaufbereitschaft der betroffenen Produkte sowie – zu einem geringeren Ausmaß – Produkte innerhalb der gleichen Kategorie betrifft. Wei-terhin wurde identifiziert, dass die Einschätzungen des Probandenkreises hinsichtlich der Seriosität und der Vertrauenswürdigkeit maßgeblich von der – innerhalb dieser wissenschaftlichen Arbeit – durchgeführten Bewertung abweichen. Die Einschätzung hinsichtlich der Seriosität und Vertrauenswürdigkeit von Seiten der Proband*innen, scheint zu großen Teilen von der Bekanntheit des betreffenden Gütezeichens abzu-hängen.
Die vorliegende Bachelorarbeit gibt einen Überblick über verschiedene Java Game Engines und wie diese über ein Konzept in die aktuelle Informatik Vorlesung integriert werden können, um dadurch die Motivation der Studierenden signifikant zu steigern. Dabei wurde in den Grundlagen das Lernpotenzial von Computerspielen untersucht sowie der allgemeine Aufbau von Game Engines definiert. Diese Ergebnisse flossen im Anschluss in die Untersuchung ein und führten zu einer Auswahl der geeigneten Java Game Engine. Über eine SWOT-Analyse, welche nach V. Wollny und H. Paul durchgeführt wurde, konnte eine gut geeignete Engine ermittelt werden. Auf der Basis des Buches von Michael Kölling wurde ein Konzept für die Informatik - Vorlesung entwickelt, welches im letzten Kapitel der Arbeit mit passenden Aufgaben beschrieben wurde. Die Bachelorarbeit ist sowohl für Studierende der Informatik als auch für Lehrende in diesem Bereich interessant und bietet neue Einblicke in ein Nischengebiet.
Die Analyse von biomechanischen Parametern erlangt in der Sportwissenschaft und der Biomechanik eine immer größere Bedeutung. Daraus entwickelten sich mit der Zeit neue Analysemethoden, die sich zum Ziel gesetzt haben, eine bessere, schnellere und einfachere Analyse der biomechanischen Parameter zu ermöglichen.
Das Ziel der vorliegenden Arbeit ist es zu evaluieren, ob die Sensor-Technologie für die Analyse von biomechanischen Parametern im Bereich des Skisprungs und Skilanglaufs eingesetzt werden kann und dabei einen Vorteil gegenüber den derzeitig verwendeten Analysemethoden mit sich bringt. Dabei soll ein Lösungskonzept entwickelt werden, welches gezielt die Geschwindigkeiten und Zeiten, im Skisprung und Skilanglauf analysieren kann.
Für die Auswahl der Sensoren, wurden zu Beginn Randbedingungen festgelegt, die ein Sensor erfüllen muss, um für den Einsatz im Skisprung und Langlauf geeignet zu sein. Dabei stehen vor allem die Outdoorfähigkeit, Scanfrequenz und die Reichweite im Fokus der Evaluierung. Auf Basis der Randbedingungen wurden diese mit den Eigenschaften der Sensoren verglichen und eine Vorauswahl getroffen. Dabei kam man zu dem Ergebnis, dass fünf Sensoren für den Einsatz im Skisprung und Skilanglauf geeignet sind. Die Sensoren kommen jeweils aus dem Bereich der LiDAR- (light detection and ranging), RFID- (Radio-Frequency Identification), und Radar-Technologie. Im Anschluss wurde für jeden Sensor ein Lösungskonzept zur Bestimmung von Geschwindigkeiten und Zeiten, unabhängig von dem zu messenden Objekt, erstellt und abschließend auf ihre Verwendbarkeit im Skisprung und Skilanglauf bewertet. Dadurch stellte sich heraus, dass die Kombination aus einem LiDAR-Sensor (LMS5xx) und einem RFID-Sensor (RFU63x) am besten für den Skilanglauf geeignet ist. Für die Verwendung im Skisprung zeigte sich ebenfalls eine Kombination aus dem RFID-Sensor (RFU63x) und einem Radar-Sensor (RMS1000) als bestmögliches Lösungskonzept zur Analyse von Geschwindigkeiten und Zeiten.
Die Arbeit hat gezeigt, dass die Sensor-Technologie in Zukunft eine schnellere, unabhängigere und einfache Methode zur Analyse von biomechanischen Parametern ermöglicht. Dabei muss berücksichtigt werden, dass es sich um eine theoretische Untersuchung handelt, welche als Vorlage für weitere Untersuchungen dienen soll.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
Die hohen Produktionskosten verhindern derzeit weitere industrielle Anwendungen des Rührreibschweißens (engl. friction stir welding, FSW), selbst wenn eine deutlich höhere Ermüdungsfestigkeit der Verbindungen im Vergleich zum konventionellen Lichtbogenschweißen erreicht werden kann. Eine höhere Schweißgeschwindigkeit kann zwar die Kosten senken, wirkt sich aber negativ auf die Ermüdungsfestigkeit der FSW-Verbindungen aus. Als mögliche Lösung wurde das hydrostatische Festwalzen angewandt, um die Ermüdungsfestigkeit artgleicher und ungleicher FSW-Verbindungen aus den Legierungen EN AW 5083 und EN AW 6082 zu verbessern, die mit unterschiedlichen Schweißgeschwindigkeiten hergestellt wurden. Zusätzlich wurde die Ermüdungsfestigkeit direkt mit konventionell durch Metall-Inertgasschweißen (MIG) hergestellten Verbindungen und mit Grundwerkstoffproben aus EN AW 5083 verglichen. Die Oberflächenbeschaffenheit im geschweißten Zustand wurde durch Messungen der Oberflächenrauigkeit und der Eigenspannung charakterisiert. Ermüdungsversuche wurden durchgeführt, um die Ermüdungsfestigkeit der Verbindungen zu quantifizieren. Nach dem Festwalzen wurden ähnliche Druckeigenspannungen für artgleiche und ungleiche Verbindungen ermittelt. Für festgewalzte artgleiche Verbindungen aus EN AW 5083 wurde keine Verbesserung der Ermüdungsfestigkeit festgestellt. In diesem Zustand lag die Ermüdungslebensdauer der Probe jedoch im Bereich des Grundmaterials. Somit wurde eine signifikant niedrigere Ermüdungslebensdauer und eine hohe Verbesserung der Ermüdungslebensdauer durch Festwalzen für ungleiche Verbindungen erreicht. Eine Erhöhung der Schweißgeschwindigkeit von 300 mm/min auf 800 mm/min verringerte die Ermüdungsfestigkeit von Mischschweißverbindungen in diesem Fall stark.
This work addresses the conceptualization, design, and implementation of an Application Programming Interface (API) for the Common Security Advisory Framework (CSAF) 2.0, introducing another method for distributing CSAF documents in addition to two already existing methods. These don't allow the use of flexible queries as well as filtering, which makes it difficult for operators of software and hardware to use CSAF. An API is intended to simplify this process and thus advance the automation goal of CSAF.
First, it is evaluated whether the current standard allows the implementation of an API. Any conflicts are highlighted and suggestions for standard adaptations are made. Based on these results, the API is designed to meet the previously defined requirements. Subsequently, a proof of concept is successfully developed according to the design and extensively tested with specially prepared test data. Finally, the results and the necessary standard adjustments are summarized and justified.
The conceptual design and the implementation were successfully completed. However, during the implementation of the proof of concept, some routes could not be fully implemented.
Forschung im Fokus 2022
(2022)
The present document is aimed to propose a suitable thermal model for the cooling down process of a one piston air cooled reciprocating compressor. In order to achieve this, a thermographic camera is used to record the temperature of different measuring points throughout different operating conditions. This data is later analyzed, with statistical tools and graphical visualization. The thermal phenomena present in the thermal process is characterized according to the compressors' geometry. Finally, using the analysis and taking into consideration the thermal phenomena the optimal thermal model is selected. This paper belongs to a bigger project and the last step is to simulate the compressor and the accuracy of the proposed model.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
As society continues to age, the implementation of hip stems increases every year. However, there are a variety of different hip stem designs.
The aim of this project is to analyze which hip stem design implemented in a femur is most effective under different static loading conditions such as gait and sideways falling. In addition, a four-point-bending test was carried out. Therefore, the tech-niques were simulated in silico by FEA with Abaqus/CAE 2019.
A short stem, a straight stem and an anatomical stem were tested. All prosthesis are cementless press-fit stems. Each hip stem was examined in physiological and osteoporotic bone applying all three tests. To compare the stems the tests were also applied on a native bone model as a reference. Boundary conditions were used in order to simulate the tests.
The average von Mises stress, tension, compression and the risk of fracture were extracted and compared.
Biomechanical results show that the straight stem induces higher von Mises stresses compared to the anatomical stem. The risk of fracture is higher for osteo-porotic bone than for physiological bone. However, there is no risk of fracture as all the results are below the risk of value.
Machine Learning (ML) als das aktuell wohl am meisten diskutierte Teilgebiet von Künstlicher Intelligenz (KI) verspricht und realisiert bereits sinnvolle Unterstützung u.a. beim autonomen Fahren, der Predictive Maintenance, der Verbrechensvorbeugung, dem Zusammenführen von Angebot und Nachfrage durch Empfehlungslisten oder im Kundenservice mit Softbots.1 All diesen Anwendung ist letztlich gemeinsam, dass Entscheidungen zu treffen sind, und zwar möglichst rational vor dem Hintergrund von subjektiven Präferenzsystemen und den in Betracht gezogenen Handlungsalternativen. Die Entscheidungsgegenstände betreffen Fragen, wann ein Fahrzeug leicht abgebremst werden soll, in welcher Gegend schwerpunktmäßig Polizeipräsenz gezeigt werden soll oder wann eine Maschine gewartet werden soll.
Lithium-ion batteries exhibit a dynamic voltage behaviour depending nonlinearly on current and state of charge. The modelling of lithium-ion batteries is therefore complicated and model parametrisation is often time demanding. Grey-box models combine physical and data-driven modelling to benefit from their respective advantages. Neural ordinary differential equations (NODEs) offer new possibilities for grey-box modelling. Differential equations given by physical laws and NODEs can be combined in a single modelling framework. Here we demonstrate the use of NODEs for grey-box modelling of lithium-ion batteries. A simple equivalent circuit model serves as a basis and represents the physical part of the model. The voltage drop over the resistor–capacitor circuit, including its dependency on current and state of charge, is implemented as a NODE. After training, the grey-box model shows good agreement with experimental full-cycle data and pulse tests on a lithium iron phosphate cell. We test the model against two dynamic load profiles: one consisting of half cycles and one dynamic load profile representing a home-storage system. The dynamic response of the battery is well captured by the model.
Die Bachelorarbeit umfasst die Entwicklung einer Pendelhubstichsäge für die Verwendung in CNC-Bearbeitungszentren. Der Entwicklungsprozess durch läuft alle vier Phasen: Planung, Konzeption, Konstruktion, Ausarbeitung. Endergebnis der Bachelorarbeit ist ein vollständiges 3D-Modell mit allen fertigungsrelevanten Dokumenten.
Introduction The use of scaffolds in tissue engineering is becoming increasingly important as solutions need to be found for the problem of preserving human tissue, such as bone or cartilage. In this work, scaffolds were printed from the biomaterial known as polycaprolactone (PCL) on a 3D Bioplotter. Both the external and internal geometry were varied to investigate their influence on mechanical stability and biocompatibility. Materials and Methods: An Envisiontec 3D Bioplotter was used to fabricate the scaffolds. First, square scaffolds were printed with variations in the strand width and strand spacing. Then, the filling structure was varied: either lines, waves, and honeycombs were used. This was followed by variation in the outer shape, produced as either a square, hexagon, octagon, or circle. Finally, the internal and external geometry was varied. To improve interaction with the cells, the printed PCL scaffolds were coated with type-I collagen. MG-63 cells were then cultured on the scaffolds and various tests were performed to investigate the biocompatibility of the scaffolds. Results: With increasing strand thickness and strand spacing, the compressive strengths decreased from 86.18 + 2.34 MPa (200 µm) to 46.38 + 0.52 MPa (600 µm). The circle was the outer shape with the highest compressive strength of 76.07 + 1.49 MPa, compared to the octagon, which had the lowest value of 52.96 ± 0.98 MPa. Varying the external shape (toward roundness) geometry, as well as the filling configuration, resulted in the highest values of compressive strength for the round specimens with honeycomb filling, which had a value of 91.4 + 1.4 MPa. In the biocompatibility tests, the round specimens with honeycomb filling also showed the highest cell count per mm2, with 1591 ± 239 live cells/mm2 after 10 days and the highest value in cell proliferation, but with minimal cytotoxic effects (9.19 ± 2.47% after 3 days).
The use of biochar is an important tool to improve soil fertility, reduce the negative environmental impacts of agriculture, and build up terrestrial carbon sinks. However, crop yield increases by biochar amendment were not shown consistently for fertile soils under temperate climate. Recent studies show that biochar is more likely to increase crop yields when applied in combination with nutrients to prepare biochar-based fertilizers. Here, we focused on the root-zone amendment of biochar combined with mineral fertilizers in a greenhouse trial with white cabbage (Brassica oleracea convar. Capitata var. Alba) cultivated in a nutrient-rich silt loam soil originating from the temperate climate zone (Bavaria, Germany). Biochar was applied at a low dosage (1.3 t ha−1). The biochar was placed either as a concentrated hotspot below the seedling or it was mixed into the soil in the root zone representing a mixture of biochar and soil in the planting basin. The nitrogen fertilizer (ammonium nitrate or urea) was either applied on the soil surface or loaded onto the biochar representing a nitrogen-enhanced biochar. On average, a 12% yield increase in dry cabbage heads was achieved with biochar plus fertilizer compared to the fertilized control without biochar. Most consistent positive yield responses were observed with a hotspot root-zone application of nitrogen-enhanced biochar, showing a maximum 21% dry cabbage-head yield increase. Belowground biomass and root-architecture suggested a decrease in the fine root content in these treatments compared to treatments without biochar and with soil-mixed biochar. We conclude that the hotspot amendment of a nitrogen-enhanced biochar in the root zone can optimize the growth of white cabbage by providing a nutrient depot in close proximity to the plant, enabling efficient nutrient supply. The amendment of low doses in the root zone of annual crops could become an economically interesting application option for biochar in the temperate climate zone.
Die vorliegende Arbeit beschäftigt sich mit dem Ermüdungs- und Schädigungsverhalten der in Verbrennungsmotoren eingesetzten Aluminiumgusslegierungen AlSi7Cu0,5Mg-T7 und AlSi12Cu3Ni2Mg-T7. Im Vergleich zur niederzyklischen sowie thermomechanischen Ermüdungsbeanspruchung führt die zusätzliche Überlagerung hochzyklischer Belastungen zu einer signifikanten Lebensdauerreduktion, die mit der Replika-Technik beobachteten Beschleunigung des Kurzrisswachstums erklärt werden kann. Frakto- und metallographische Untersuchungen zeigen, dass Rissinitiierung und Lebensdauerverhalten durch Gussdefekte sowie von belastungs- und temperaturabhängigen Schädigungsmechanismen bestimmt werden. Die Lebensdauern werden mit einem mechanismenbasierten Risswachstumsmodell vorhergesagt. Dazu wird der Schädigungsparameter DTMF,brittle entwickelt, der die charakteristischen Schädigungsmechanismen berücksichtigt. Die Legierung AlSi12Cu3Ni2Mg-T7 wird abschließend mit der Finite-Elemente-Methode und mikrostrukturbasierten Zellmodellen untersucht. Mit den Simulationsergebnissen können die experimentell beobachteten Schädigungsmechanismen fundiert gestützt werden.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Aufgrund der verstärkten Bedeutung von Datenschutz in der modernen Gesellschaft und der verstärkten Nutzung von markerlosen Systemen wird es zunehmend interessant, ob ein solches System zuverlässige Werte auch bei noch unpopuläreren Bewegungen, wie der Kopfbewegung, liefert. Diese treten, bei der heute vorwiegend sitzenden Gesellschaft und im Zeitalter von Nackenverspannungen und der daraus resultierenden Bewegungseinschränkungen, mehr in den Fokus. Auch unter dem Gesichtspunkt des Datenschutzes ist es wichtig, nicht nur die Namen der Probanden, sondern auch deren
Gesichter in den Aufzeichnungen zu anonymisieren.
In der vorliegenden Arbeit wird daher evaluiert, ob das markerlose Bewegungsanaylsesystem Theia mit anonymisierten Dateien ähnliche Ergebnisse erzeugt, wie mit den originalen Dateien. Für diese Studie wurden sechs verschiedene Bewegungen bis zu ihrem Maximalausschlag des jeweiligen Probanden aufgezeichnet. Die Bewegungen hierbei sind Flexion und Extension des Kopfes, Lateralflexion sowie Rotation zu beiden Seiten. Zusätzlich wurde noch ein Durchgang Kopfkreisen aufgezeichnet. Dieser bestand aus dreimaligem Kopfkreisen, welches eine Kombination aus den vorherigen Bewegungen ist.
Die anonymisierten Daten wurden mittels eines Algorithmus bearbeitet, welcher das Gesicht der Probanden unkenntlich macht. Dies geschah durch das Schwärzen des Gesichtes oder einem Verschwimmen des Gesichts. Danach wurden die drei Datensätze in Theia verarbeitet und in EXCEL ausgewertet. Dabei kam es vor allem bei der geschwärzten Version bei Flexion und Extension zu großen systematischen und zufälligen Fehlern. Der Mittelwert des systematischen Fehlers ist die Abweichung von 13,62 Grad zu den Originalwerten. Der zufällige Fehler ist im Mittel mit 170,57 Grad stärker abweichend. Im Vergleich dazu liegt der Mittelwert des systematischen Fehlers bei der geblurrten Versionen im Vergleich zu den Originalwerten bei 5,17 Grad. Die geblurrte Version weist zudem seltener signifikante Unterschiede und einen mittleren zufälligen Fehler von 23,43 Grad auf, weshalb diese Version unter geringem Vorbehalt verwendbar ist, die geschwärzte Version jedoch nicht.
Printmedien befinden sich in der Krise. Durch die Fülle an frei zugänglichen Inhalten im Internet, verlieren immer mehr Printmedien an Leser. Mediale Inhalte sind nicht mehr nur über die klassischen Vertriebskanäle abrufbar, sondern auch digital. Dennoch zeigen hohe Reichweiten, dass Zeitungen und Zeitschriften noch eine Relevanz am deutschen Markt besitzen.
In der vorliegenden Arbeit wird untersucht, wie sich der Markt in den letzten 15 Jahren verändert hat. Durch die Digitalisierung entstehen neue Märkte und Endgeräte, wodurch sich neue crossmediale Medienangebote bilden. Die Rolle der Printmedien hat sich verändert und das Internet wird bereits von vielen Unternehmen als zusätzlicher Medienkanal für die Distribution von Druckprodukten genutzt. Anhand des Magazins GEO wird die Veränderung des Printproduktes Zeitschrift verdeutlicht. Wie haben sich die Auflagen und Reichweiten entwickelt? Es wird ebenfalls beleuchtet, inwieweit sich die Zugänglichkeit und Darstellung des Produktes verändert hat.
Digitalisierung und Visualisierung für die Lehre an Hochschulen am Beispiel der Medientechnik
(2022)
Ziel dieser Arbeit war die Erstellung eines Konzepts für die digitale Lehre am Beispiel der Medientechnik an der Hochschule Offenburg. Das Konzept sollte anhand der Funktionsweise von Digitalkameras und den Themengebieten Blende, Verschlusszeit, ISO und dem Crop-Faktor erstellt werden. Bei Konzepterstellung wurden insbesondere existierende, wissenschaftliche Erkenntnisse aus den Bereichen E-Learning, Blended-Learning und Visualisierung berücksichtigt. Darüber hinaus wurden für das Konzept Visualisierungen für die genannten Themengebiete erstellt. Vor Erstellung der Visualisierungen galt es, mögliche Vorteile der 3D-Visualisierung gegenüber der 2D-Visualisierung zu prüfen und eine Auswahl für das Konzept zu treffen. Als weiteres Ziel sollten die in der Arbeit gewonnenen Erkenntnisse, insbesondere bei der Konzepterstellung, anderen Hochschulen und Lehrenden als Grundlage für eigene Konzepte dienen, um eine digitale Lehre mit Online-Anteilen umsetzen zu können.
Diese Ziele werden im Verlauf der Arbeit uneingeschränkt erreicht.
Die in der Arbeit durchgeführte Literaturanalyse zeigt, dass der Einsatz von E-Learning und digitalen Medien zu einem besseren Lernerfolg bei Studierenden führt. Die Anwendung von Blended-Learning-Modellen, als Ergänzung zum E-Learning, können die Nachteile der Präsenzlehre ausgleichen.
Durch den Einsatz von Visualisierungen (Bilder und Animationen) kann in der Theorie belegt werden, dass sich beide Darstellungsformen positiv auf die Lernleistung von Studierenden auswirken. Insbesondere eigenen sich Animationen bei der Durchführung von Laboren zum Ausgleich unterschiedlicher Vorkenntnisse. Außerdem tragen Animationen dazu bei, die Fähigkeit zur eigenständigen Problemlösung zu verbessern, wenn Animationen gleichzeitig mit Erläuterungen eingesetzt werden.
Eine Vorteilhaftigkeit von 3D- gegenüber 2D-Visualisierungen in der Lehre, konnte in der Arbeit nicht bestätigt werden. Nicht zuletzt aufgrund eines erhöhten Aufwandes zur Erstellung und Anwendung von 3D-Visualisierungen, wurde für das Konzept eine 2D-Darstellung gewählt. Zwar werden 3D-Visualisierungen zur Wissensvermittlung an Hochschulen eingesetzt, es konnten jedoch keine wissenschaftlichen Erkenntnisse herangezogen werden, die eine verbesserte Lernleistung oder einen besseren Lernerfolg gegenüber 2D-Visualisierungen belegen. Diese Arbeit zeigt ebenfalls, dass die Anforderungen Expressivität, Effektivität und Angemessenheit für jede Visualisierung erfüllt werden müssen, damit eine Visualisierung im Kontext der Lehre vorteilhaft ist. Darüber hinaus müssen für jede Darstellung operationalisierte Lernziele definiert werden. Nur so kann eine Überprüfung und Beurteilung einer Visualisierung durchgeführt werden. Die Erfüllung dieser Anforderungen wurde für die selbsterstellten Illustrationen zu Blende, Verschlusszeit, ISO und dem Crop-Faktor berücksichtigt und kritisch geprüft. Die Anforderungen wurden vollumfänglich erfüllt.
Bei der Konzepterstellung wurden die in der Arbeit gewonnenen wissenschaftlichen Erkenntnisse berücksichtigt und am Beispiel der Vorlesung Digitale Medien 2 umgesetzt. Das Konzept zeigt in der Theorie, wie E-Learning, Blended-Learning und Visualisierungen bei dieser Vorlesung eingesetzt werden können.
Eine Erprobung in der praktischen Anwendung muss zwingend erfolgen, um die im Konzept definierten, operationalisierten Lernziele der Visualisierungen zu bestätigen. Ebenfalls gilt es den Einfluss des Konzepts auf den Lernerfolg von Studierenden an der Hochschule Offenburg zu prüfen.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
Die fluktuierende Verfügbarkeit regenerativer Energiequellen stellt eine Herausforderung bei der Planung und Auslegung regenerativer Gebäudeenergiesysteme dar. Die in einem System benötigten Speicherkapazitäten hängen dabei sowohl von der eingesetzten Regelungsstrategie als auch von den temperaturabhängigen Wirkungsgraden der Anlagenkomponenten ab. Genauere Einblicke in das Betriebsverhalten eines Gesamtsystems können dynamische Simulationen liefern, die eine Analyse der Systemtemperaturen und von Teilenergiekennwerten ermöglichen.