Refine
Year of publication
Document Type
- Conference Proceeding (1253)
- Article (reviewed) (687)
- Bachelor Thesis (604)
- Article (unreviewed) (566)
- Part of a Book (460)
- Contribution to a Periodical (287)
- Book (242)
- Master's Thesis (208)
- Other (142)
- Working Paper (105)
Conference Type
- Konferenzartikel (950)
- Konferenz-Abstract (156)
- Konferenzband (77)
- Sonstiges (42)
- Konferenz-Poster (32)
Language
- German (2867)
- English (1981)
- Other language (5)
- Russian (3)
- Multiple languages (2)
- French (1)
- Spanish (1)
Keywords
- Mikroelektronik (62)
- Digitalisierung (48)
- Marketing (47)
- Social Media (40)
- COVID-19 (37)
- E-Learning (35)
- RoboCup (33)
- Kommunikation (32)
- Künstliche Intelligenz (32)
- Dünnschichtchromatographie (29)
Institute
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1118)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (1103)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (917)
- Fakultät Wirtschaft (W) (650)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (565)
- Fakultät Medien (M) (ab 22.04.2021) (384)
- INES - Institut für nachhaltige Energiesysteme (245)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (161)
- Zentrale Einrichtungen (81)
- IMLA - Institute for Machine Learning and Analytics (79)
Open Access
- Closed Access (1708)
- Open Access (1693)
- Closed (756)
- Bronze (345)
- Diamond (92)
- Gold (77)
- Hybrid (50)
- Grün (16)
Die Visualisierung von Programmabläufen ist ein zentraler Aspekt für Programmieranfänger, um das Verständnis von Codeabläufen zu erleichtern und den Einstieg in der Softwareentwicklung zu unterstützen. In dieser Masterthesis wird ein speziell auf die Bedürfnisse von Einsteigern zugeschnittenes generisches Framework vorgestellt, wobei der Fokus auf einer einfachen, verständlichen aber auch korrekten Darstellung der Programmausführung liegt. Das Framework integriert das Debugger Adapter Protocol, um den Debugger unterschiedlicher Sprachen ansprechen und verwenden zu können.
In dieser Arbeit werden zunächst die Anforderungen für das generische Framework diskutiert. Anschließend werden bestehende Ansätze zur Visualisierung von Programmabläufen ausführlich untersucht und analysiert. Die Implementierung des Frameworks wird daraufhin detailliert beschrieben, wobei besonderer Wert auf die Erweiterbarkeit unterschiedlicher Sprachen gelegt wird.
Um die Eignung des Frameworks zu evaluieren, werden mehrere Aufgaben aus dem ersten Modul mit der jeweiligen Programmiersprache des Studiengangs Angewandte Informatik der Hochschule Offenburg betrachtet. Die Ergebnisse zeigen, dass das Framework mit den Aufgaben umgehen und diese korrekt und verständlich darstellen kann.
Die Erfindung betrifft eine Vorrichtung zur biologischen Methanisierung von CO und/oder CO2 mittels methanogener Mikroorganismen durch Umsetzung von H2 und CO und/oder CO2, die eine Begasungskolonne und eine Entgasungskolonne, jeweils mit einer Bodenseite und einer der Bodenseite gegenüberliegenden oberen Seite, ein in der Begasungskolonne und der Entgasungskolonne bereitgestelltes Medium mit methanogenen Mikroorganismen, eine Zuführeinrichtung zum Zuführen eines H2 enthaltenden Gases in das Medium der Begasungskolonne, eine Abführeinrichtung zum Abführen eines CH4 enthaltenden Gases aus der Entgasungskolonne, eine Verbindungsleitung zwischen Begasungskolonne und Entgasungskolonne im Bereich der Bodenseiten, eine Pumpe zum Überführen von Medium über die Verbindungsleitung von der Begasungskolonne in die Entgasungskolonne, und eine Rückführleitung zwischen der Begasungskolonne und der Entgasungskolonne im Bereich der oberen Seiten zum Rückführen von Medium aus der Entgasungskolonne in die Begasungskolonne aufweist. Die Erfindung betrifft auch ein Verfahren zur biologischen Methanisierung von CO und/oder CO2 in einer Vorrichtung mittels methanogener Mikroorganismen als Teil eines in der Vorrichtung bereitgestellten Mediums, wobei das Medium in einem Kreislauf über eine Begasungskolonne und eine Entgasungskolonne geführt wird, wobei die Kolonnen jeweils über eine Verbindungsleitung im Bereich ihrer Bodenseiten und über eine Rückführleitung im Bereich der den Bodenseiten gegenüberliegenden oberen Seiten miteinander verbunden sind, worin das Medium sich in der Begasungskolonne absteigend und in der Entgasungskolonne aufsteigend bewegt, worin dem Medium in der Begasungskolonne ein H2 enthaltendes Gas zugeführt wird.
Assessing the robustness of deep neural networks against out-of-distribution inputs is crucial, especially in safety-critical domains like autonomous driving, but also in safety systems where malicious actors can digitally alter inputs to circumvent safety guards. However, designing effective out-of-distribution tests that encompass all possible scenarios while preserving accurate label information is a challenging task. Existing methodologies often entail a compromise between variety and constraint levels for attacks and sometimes even both. In a first step towards a more holistic robustness evaluation of image classification models, we introduce an attack method based on image solarization that is conceptually straightforward yet avoids jeopardizing the global structure of natural images independent of the intensity. Through comprehensive evaluations of multiple ImageNet models, we demonstrate the attack's capacity to degrade accuracy significantly, provided it is not integrated into the training augmentations. Interestingly, even then, no full immunity to accuracy deterioration is achieved. In other settings, the attack can often be simplified into a black-box attack with model-independent parameters. Defenses against other corruptions do not consistently extend to be effective against our specific attack.
Project website: https://github.com/paulgavrikov/adversarial_solarization
Fix your downsampling ASAP! Be natively more robust via Aliasing and Spectral Artifact free Pooling
(2023)
Convolutional neural networks encode images through a sequence of convolutions, normalizations and non-linearities as well as downsampling operations into potentially strong semantic embeddings. Yet, previous work showed that even slight mistakes during sampling, leading to aliasing, can be directly attributed to the networks' lack in robustness. To address such issues and facilitate simpler and faster adversarial training, [12] recently proposed FLC pooling, a method for provably alias-free downsampling - in theory. In this work, we conduct a further analysis through the lens of signal processing and find that such current pooling methods, which address aliasing in the frequency domain, are still prone to spectral leakage artifacts. Hence, we propose aliasing and spectral artifact-free pooling, short ASAP. While only introducing a few modifications to FLC pooling, networks using ASAP as downsampling method exhibit higher native robustness against common corruptions, a property that FLC pooling was missing. ASAP also increases native robustness against adversarial attacks on high and low resolution data while maintaining similar clean accuracy or even outperforming the baseline.
Decentralized applications (dApp) have proliferated in recent years, but their long-term viability is a topic of debate. However, for dApps to be sustainable, and suitable for integration into a larger service networks, they need to attract users and promise reliable availability. Therefore, assessing their longevity is crucial. Analyzing the utilization trajectory of a service is, however, challenging due to several factors, such as demand spikes, noise, autocorrelation, and non-stationarity. In this study, we employ robust statistical techniques to identify trends in currently popular dApps. Our findings demonstrate that a significant proportion of dApps, across a range of categories, exhibit statistically significant positive overall trends, indicating that success in decentralized computing can be sustainable and transcends specific fields. However, there is also a substantial number of dApps showing negative trends, with a disproportionately high number from the decentralized finance (DeFi) category. Furthermore, a more detailed inspection of time series segments shows a clearly diminishing proportion of positive trends from mid-2021 to the present. In summary, we conclude that the dApp economy might have lost some momentum, and that there is a strong element of uncertainty regarding its future significance.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
The identification of vulnerabilities is an important element in the software development life cycle to ensure the security of software. While vulnerability identification based on the source code is a well studied field, the identification of vulnerabilities on basis of a binary executable without the corresponding source code is more challenging. Recent research [1] has shown how such detection can generally be enabled by deep learning methods, but appears to be very limited regarding the overall amount of detected vulnerabilities. We analyse to what extent we could cover the identification of a larger variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. The underlying basis is a dataset with 50,651 samples of vulnerable code in the form of a standardised LLVM Intermediate Representation. Te vectorised features of a Word2Vec model are used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). A binary classification was established for detecting the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, our proposed technical approach and methodology enables an accurate detection of 23 (compared to 4 [1]) vulnerabilities.
Detecting Images Generated by Deep Diffusion Models using their Local Intrinsic Dimensionality
(2023)
Diffusion models recently have been successfully applied for the visual synthesis of strikingly realistic appearing images. This raises strong concerns about their potential for malicious purposes. In this paper, we propose using the lightweight multi Local Intrinsic Dimensionality (multiLID), which has been originally developed in context of the detection of adversarial examples, for the automatic detection of synthetic images and the identification of the according generator networks. In contrast to many existing detection approaches, which often only work for GAN-generated images, the proposed method provides close to perfect detection results in many realistic use cases. Extensive experiments on known and newly created datasets demonstrate that the proposed multiLID approach exhibits superiority in diffusion detection and model identification.Since the empirical evaluations of recent publications on the detection of generated images are often mainly focused on the "LSUN-Bedroom" dataset, we further establish a comprehensive benchmark for the detection of diffusion-generated images, including samples from several diffusion models with different image sizes.The code for our experiments is provided at https://github.com/deepfake-study/deepfake-multiLID.
Erlang is a functional programming language with dynamic typing. The language offers great flexibility for destructing values through pattern matching and dynamic type tests. Erlang also comes with a type language supporting parametric polymorphism, equi-recursive types, as well as union and a limited form of intersection types. However, type signatures only serve as documentation; there is no check that a function body conforms to its signature.
Set-theoretic types and semantic subtyping fit Erlang’s feature set very well. They allow expressing nearly all constructs of its type language and provide means for statically checking type signatures. This article brings set-theoretic types to Erlang and demonstrates how existing Erlang code can be statically type checked without or with only minor modifications to the code. Further, the article formalizes the main ingredients of the type system in a small core calculus, reports on an implementation of the system, and compares it with other static type checkers for Erlang.
In recent years, predictive maintenance tasks, especially for bearings, have become increasingly important. Solutions for these use cases concentrate on the classification of faults and the estimation of the Remaining Useful Life (RUL). As of today, these solutions suffer from a lack of training samples. In addition, these solutions often require high-frequency accelerometers, incurring significant costs. To overcome these challenges, this research proposes a combined classification and RUL estimation solution based on a Convolutional Neural Network (CNN) and a Long Short-Term Memory (LSTM) network. This solution relies on a hybrid feature extraction approach, making it especially appropriate for low-cost accelerometers with low sampling frequencies. In addition, it uses transfer learning to be suitable for applications with only a few training samples.
With the rising necessity of explainable artificial intelligence (XAI), we see an increase in task-dependent XAI methods on varying abstraction levels. XAI techniques on a global level explain model behavior and on a local level explain sample predictions. We propose a visual analytics workflow to support seamless transitions between global and local explanations, focusing on attributions and counterfactuals on time series classification. In particular, we adapt local XAI techniques (attributions) that are developed for traditional datasets (images, text) to analyze time series classification, a data type that is typically less intelligible to humans. To generate a global overview, we apply local attribution methods to the data, creating explanations for the whole dataset. These explanations are projected onto two dimensions, depicting model behavior trends, strategies, and decision boundaries. To further inspect the model decision-making as well as potential data errors, a what-if analysis facilitates hypothesis generation and verification on both the global and local levels. We constantly collected and incorporated expert user feedback, as well as insights based on their domain knowledge, resulting in a tailored analysis workflow and system that tightly integrates time series transformations into explanations. Lastly, we present three use cases, verifying that our technique enables users to (1)~explore data transformations and feature relevance, (2)~identify model behavior and decision boundaries, as well as, (3)~the reason for misclassifications.
Entity Matching (EM) defines the task of learning to group objects by transferring semantic concepts from example groups (=entities) to unseen data. Despite the general availability of image data in the context of many EM-problems, most currently available EM-algorithms solely rely on (textual) meta data. In this paper, we introduce the first publicly available large-scale dataset for "visual entity matching", based on a production level use case in the retail domain. Using scanned advertisement leaflets, collected over several years from different European retailers, we provide a total of ~786k manually annotated, high resolution product images containing ~18k different individual retail products which are grouped into ~3k entities. The annotation of these product entities is based on a price comparison task, where each entity forms an equivalence class of comparable products. Following on a first baseline evaluation, we show that the proposed "visual entity matching" constitutes a novel learning problem which can not sufficiently be solved using standard image based classification and retrieval algorithms. Instead, novel approaches which allow to transfer example based visual equivalent classes to new data are needed to address the proposed problem. The aim of this paper is to provide a benchmark for such algorithms.
Information about the dataset, evaluation code and download instructions are provided under https://www.retail-786k.org/.
Following the traditional paradigm of convolutional neural networks (CNNs), modern CNNs manage to keep pace with more recent, for example transformer-based, models by not only increasing model depth and width but also the kernel size. This results in large amounts of learnable model parameters that need to be handled during training. While following the convolutional paradigm with the according spatial inductive bias, we question the significance of \emph{learned} convolution filters. In fact, our findings demonstrate that many contemporary CNN architectures can achieve high test accuracies without ever updating randomly initialized (spatial) convolution filters. Instead, simple linear combinations (implemented through efficient 1×1 convolutions) suffice to effectively recombine even random filters into expressive network operators. Furthermore, these combinations of random filters can implicitly regularize the resulting operations, mitigating overfitting and enhancing overall performance and robustness. Conversely, retaining the ability to learn filter updates can impair network performance. Lastly, although we only observe relatively small gains from learning 3×3 convolutions, the learning gains increase proportionally with kernel size, owing to the non-idealities of the independent and identically distributed (\textit{i.i.d.}) nature of default initialization techniques.
Modern CNNs are learning the weights of vast numbers of convolutional operators. In this paper, we raise the fundamental question if this is actually necessary. We show that even in the extreme case of only randomly initializing and never updating spatial filters, certain CNN architectures can be trained to surpass the accuracy of standard training. By reinterpreting the notion of pointwise ($1\times 1$) convolutions as an operator to learn linear combinations (LC) of frozen (random) spatial filters, we are able to analyze these effects and propose a generic LC convolution block that allows tuning of the linear combination rate. Empirically, we show that this approach not only allows us to reach high test accuracies on CIFAR and ImageNet but also has favorable properties regarding model robustness, generalization, sparsity, and the total number of necessary weights. Additionally, we propose a novel weight sharing mechanism, which allows sharing of a single weight tensor between all spatial convolution layers to massively reduce the number of weights.
This paper presents the new Deep Reinforcement Learning (DRL) library RL-X and its application to the RoboCup Soccer Simulation 3D League and classic DRL benchmarks. RL-X provides a flexible and easy-to-extend codebase with self-contained single directory algorithms. Through the fast JAX-based implementations, RL-X can reach up to 4.5x speedups compared to well-known frameworks like Stable-Baselines3.
In the framework of electro-elasticity theory and the finite element method (FEM), a model is set up for the computation of quantities in surface acoustic wave (SAW) devices accounting for nonlinear effects. These include second-order and third-order intermodulations, second and third harmonic generation and the influence of electro-acoustic nonlinearity on the frequency characteristics of SAW resonators. The model is based on perturbation theory, and requires input material constants, e.g., the elastic moduli up to fourth order for all materials involved. The model is two-dimensional, corresponding to an infinite aperture, but all three Cartesian components of the displacement and electrical fields are accounted for. The first version of the model pertains to an infinite periodic arrangement of electrodes. It is subsequently generalized to systems with a finite number of electrodes. For the latter version, a recursive algorithm is presented which is related to the cascading scheme of Plessky and Koskela and strongly reduces computation time and memory requirements. The model is applied to TC-SAW systems with copper electrodes buried in an oxide film on a LiNbO3 substrate. Results of computations are presented for the electrical current due to third-order intermodulations and the displacement field associated with the second harmonic and second-order intermodulations, generated by monochromatic input tones. The scope of this review is limited to methodological aspects with the goal to enable calculations of nonlinear quantities in SAW devices on inexpensive and easily accessible computing platforms.
Die Erfindung betrifft eine Vorrichtung zur biologischen Methanisierung von CO und/oder CO2 mittels methanogener Mikroorganismen durch Umsetzung von H2 und CO und/oder CO2, die eine Begasungskolonne und eine Entgasungskolonne, jeweils mit
einer Bodenseite und einer der Bodenseite gegenüberliegenden oberen Seite, ein in der Begasungskolonne und der Entgasungskolonne bereitgestelltes Medium mit methanogenen Mikroorganismen, eine Zuführeinrichtung zum Zuführen eines H2 enthaltenden Gases in das Medium der Begasungskolonne, wobei die Zuführeinrichtung im Bereich der Bodenseite der Begasungskolonne angeordnet ist, eine Abführeinrichtung zum Abführen eines CH4 enthaltenden Gases aus der Entgasungskolonne, eine Verbindungsleitung zwischen Begasungskolonne und Entgasungskolonne im Bereich der Bodenseiten, eine Pumpe zum Überführen von Medium über die Verbindungsleitung von der Begasungskolonne in die Entgasungskolonne, und eine Rückführleitung zwischen der Begasungskolonne und der Entgasungskolonne im Bereich der oberen Seiten zum Rückführen von Medium
aus der Entgasungskolonne in die Begasungskolonne aufweist. Die Erfindung betrifft auch ein Verfahren zur biologischen Methanisierung von CO und/oder CO2 in einer Vorrichtung mittels methanogener Mikroorganismen als Teil eines in der Vorrichtung bereitgestellten Mediums, wobei das Medium in einem Kreislauf über eine Begasungskolonne und eine Entgasungskolonne geführt wird, wobei die Kolonnen jeweils über eine Verbindungsleitung im Bereich ihrer Bodenseiten und über eine Rückführleitung im Bereich der den Bodenseiten gegenüberliegenden oberen Seiten miteinander verbunden sind, worin das Medium sich in der Begasungskolonne absteigend und in der Entgasungskolonne aufsteigend bewegt, worin dem Medium im Bereich der Bodenseite der Begasungskolonne ein H2 enthaltendes Gas zugeführt wird.
Die Erfindung betrifft eine Vorrichtung zur biologischen Methanisierung von CO und/oder CO2mittels methanogener Mikroorganismen durch Umsetzung von H2und CO und/oder CO2, die eine Begasungskolonne und eine Entgasungskolonne, jeweils mit einer Bodenseite und einer der Bodenseite gegenüberliegenden oberen Seite, ein in der Begasungskolonne und der Entgasungskolonne bereitgestelltes Medium mit methanogenen Mikroorganismen, eine Zuführeinrichtung zum Zuführen eines H2enthaltenden Gases in das Medium der Begasungskolonne, eine Abführeinrichtung zum Abführen eines CH4enthaltenden Gases aus der Entgasungskolonne, eine Verbindungsleitung zwischen Begasungskolonne und Entgasungskolonne im Bereich der Bodenseiten, eine Pumpe zum Überführen von Medium über die Verbindungsleitung von der Begasungskolonne in die Entgasungskolonne, und eine Rückführleitung zwischen der Begasungskolonne und der Entgasungskolonne im Bereich der oberen Seiten zum Rückführen von Medium aus der Entgasungskolonne in die Begasungskolonne aufweist. Die Erfindung betrifft auch ein Verfahren zur biologischen Methanisierung von CO und/oder CO2in einer Vorrichtung mittels methanogener Mikroorganismen als Teil eines in der Vorrichtung bereitgestellten Mediums, wobei das Medium in einem Kreislauf über eine Begasungskolonne und eine Entgasungskolonne geführt wird, wobei die Kolonnen jeweils über eine Verbindungsleitung im Bereich ihrer Bodenseiten und über eine Rückführleitung im Bereich der den Bodenseiten gegenüberliegenden oberen Seiten miteinander verbunden sind, worin das Medium sich in der Begasungskolonne absteigend und in der Entgasungskolonne aufsteigend bewegt, worin dem Medium in der Begasungskolonne ein H2enthaltendes Gas zugeführt wird.
Selbsttests in Lernmanagementsystemen (LMS) ermöglichen es Studierenden, den eigenen Lernfortschritt einzuschätzen. Im Gegensatz zur Einreichung und Korrektur vollständig ausformulierter Aufgabenlösungen nutzen LMS überwiegend die Eingabe der Lösung im Antwort-Auswahl-Verfahren (Single-Choice). Nach didaktischen Ansatz „Physik durch Informatik“ geben die Lernenden stattdessen ihre Aufgabenlösungen in einer Programmiersprache ins LMS ein, was eine automatisierte Rückmeldung erleichtert und das Erreichen einer höheren Kompetenzstufe fördert. Es wurden zehn LMS-Selbsttests erstellt, bei denen die Lösungen zu einer Lehrbuch-Aufgabenstellung jeweils durch Eingabe in einer Programmiersprache und von einer Kontrollgruppe im Antwort-Auswahl-Verfahren abgefragt wurden. Ergebnisse aus dem ersten Einsatz dieser Selbsttests für die Lehrveranstaltung Physik im Studiengang Biotechnologie werden vorgestellt.
Scheinselbständigkeit
(2023)
Im Rahmen dieser Untersuchung sollen Maßnahmen zur Reduzierung des Risikos von Scheinselbständigkeit für Unternehmen identifiziert und analysiert werden. Der Schwerpunkt liegt dabei auf der Erstellung einer zweiteiligen Checkliste für Unternehmen, die als Hilfsmittel bei der Beauftragung externer Drittdienstleister herangezogen werden kann.
Rückenschmerzen sind ein weit verbreitetes Problem in der deutschen Gesellschaft. In der Mehrzahl der Fälle von Schmerzen im unteren Rücken ist es schwierig, eine spezifische nozizeptive Ursache zu finden. Aus vorherigen Studien ist bekannt, dass manuelles Heben eine Belastung für die Wirbelsäule darstellen kann. Die Geschwindigkeit der Hebebewegung spielt eine Rolle, ebenso wie Gewicht und Stabilität der Gelenke und Gliedmaßen.
Ziel dieser Arbeit ist die Analyse der Veränderungen in der Kinematik der Lendenwirbelsäule, der Hüfte und des Knies beim Heben von Lasten mit unterschiedlichen Geschwindigkeiten und Gewichten. Für diese Arbeit wurden die kinematischen Daten von insgesamt 79 Personen ausgewertet. Die Stichprobe bestand aus 20 asymptomatischen Frauen, 22 asymptomatischen Männern, 19 Frauen mit chronischen Rückenschmerzen und 18 Männern mit chronischen Rückenschmerzen. Die Daten wurden mit einem 3D-Bewegungsanalysesystem in Verbindung mit einem Set passiver Marker aufgenommen.
Es wurde kein signifikanter Effekt auf die mittleren maximalen Gelenkwinkel durch den Vergleich der geschlechtlich gemischten Gruppe mit Rückenschmerzen mit asymptomatischen Personen festgestellt, im Vergleich des Verhältnisses zwischen lumbaler Bewegung zu Beckenbewegungen (L/P-ratio) konnten signifikante Unterschiede ermittelt werden. Der Vergleich der Geschlechter zeigte signifikante Unterschiede für den lumbopelvinen Rhythmus. Für die Parameter Gewicht und Geschwindigkeit wurde kein signifikanter Effekt erfasst.
Um den Prozess der Direktreduktion von Eisenerz computergestützt zu simulieren, werden mathematische Modelle, zur Beschreibung von Gas-Feststoff-Reaktionen, in Python implementiert. In der vorliegenden Arbeit wird ein einzelnes Pellet aus Eisenerz, welches sich in einem Gasstrom aus reinem Wasserstoff befindet, betrachtet. Es werden mehrere Modellansätze aus der Literatur miteinander verglichen und davon geeignete zur recheneffizienten Implementierung ausgewählt. Die entwickelte Simulationssoftware besitzt eine grafische Oberfläche und bietet die Auswahl aus drei Modellen mit unterschiedlichem Detaillierungsgrad. Diese sind vollständig parametriert und die meisten Parameter werden temperaturabhängig bestimmt oder sind frei wählbar. Die Durchführung von Parameterstudien ist über die lineare Variierung eines beliebigen Parameters möglich. Die Ergebnisse der Simulation können dann in Abhängigkeit der Zeit dargestellt oder im CSV-Format exportiert werden. Die Rechenmodelle sind in einem separaten Python-Modul zusammengefasst und können einfach in eine übergeordnete Modellierung eingebaut werden. Zur Validierung erfolgt ein Abgleich mit experimentellen Literaturdaten. Abschließend werden die Stärken und Schwächen der implementierten Modelle gegenübergestellt und bewertet.
Ziel dieser Arbeit war die Konzeption und Gestaltung einer Unboxing Experience für ein E-Commerce Startup im Bereich der gehobenen Convenience Food Branche unter Berücksichtigung der zu erreichenden Unternehmensziele und der fokussierten Zielgruppe des Unternehmens. Hierfür wurde zunächst der Begriff Unboxing im Kontext von Marketing und Onlinehandel sowie die Bedeutung verwandter Trends wie des Unboxing-Videos erörtert. Anschließend wurden das Unternehmen und die relevante Zielgruppe in Form von Personas vorgestellt. Durch die konkrete Definition der vorgegebenen Unternehmensziele konnte auch die spätere Gestaltung hierauf aufbauen. Schließlich wurden bereits vorhandene Best Practices recherchiert und analysiert, um Ideen und Anhaltspunkte zu schaffen. Die Konzeption ist in die einzelnen Gestaltungsgegenstände und deren schrittweise Ausarbeitung unterteilt. Das Ergebnis soll eine ästhetisch ansprechende und das Unternehmen widerspiegelnde Unboxing Experience sein, bestehend aus einem bedruckten Versandkarton, einer Produktbroschüre und einer Dankes- bzw. Grußkarte in zwei verschiedenen Ausführungen. Jede Komponente erfüllt hierbei einen Zweck im Unternehmenskontext. Insgesamt konnte aus den drei Einzelkomponenten eine in der Gesamtkomposition ansprechende Unboxing Experience geschaffen werden, die die Hochwertigkeit der Produkte unterstreicht und das Auspacken zu einem Erlebnis macht.
Die Verwendung von markenbezogenen nutzer-generierten Inhalten auf den unternehmenseigenen Social-Media-Kanälen ist ein äußerst vielversprechender Ansatz im Content-Marketing. Dabei können durch die authentischen, vom Nutzer bereitgestellten Inhalte zahlreiche Kommunikationsziele erreicht werden. Hierzu gehören etwa die Verstärkung des Nutzerengagements oder aber auch die Förderung von Verkäufen. Daneben müssen allerdings auch Risiken, wie etwa rechtliche Aspekte, beachtet werden. Damit Unternehmen die Potentiale von markenbezogenen nutzer-generierten Inhalten für sich nutzen können, wird im nachstehenden Beitrag ein Strukturierungsrahmen vorgestellt. Dieser fasst die wesentlichen Aspekte dieser durchaus komplexen Thematik strukturiert zusammen. Der hier entwickelte Strukturierungsrahmen wurde durch Experteninterviews überprüft.
We have developed a methodology for the systematic generation of a large image dataset of macerated wood references, which we used to generate image data for nine hardwood genera. This is the basis for a substantial approach to automate, for the first time, the identification of hardwood species in microscopic images of fibrous materials by deep learning. Our methodology includes a flexible pipeline for easy annotation of vessel elements. We compare the performance of different neural network architectures and hyperparameters. Our proposed method performs similarly well to human experts. In the future, this will improve controls on global wood fiber product flows to protect forests.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.
This thesis deals with the FEV centrifugal compressor teststand at Offenburg University of Applied Sciences. The teststand has two electrically operated compressorunits from the Rotrex company, on which students can gain practical experience. The range of application of the teststand is to be extended, so that different impeller geometries can be tested with otherwise unchanged construction. To realise this, knowledge about the operating behaviour of the volute and possible design solutions for the interface between the impeller and the gearbox are required. Using numerical methods for flow analysis, the operating range of the volute was determined by narrowing down the inlet conditions. Furthermore, research was carried out on common couplings, three different coupling concepts were worked out and compared with each other. This work does the preliminary work and thus lays the foundation for the implementation of the upcoming series of tests on the operating behaviour of different impeller geometries.
TSN, or Time Sensitive Networking, is becoming an essential technology for integrated networks, enabling deterministic and best effort traffic to coexist on the same infrastructure. In order to properly configure, run and secure such TSN, monitoring functionality is a must. The TSN standard already has some preparations to provide such functionality and there are different methods to choose from. We implemented different methods to measure the time synchronisation accuracy between devices as a C library and compared the measurement results. Furthermore, the library has been integrated into the ControlTSN engineering framework.
Das Ziel dieser Arbeit war es zu prüfen, ob bei der Verwendung von Perturbationen in einem Laufschuhvergleich eine Adaptations-Phase im Voraus durchgeführt werden sollte, um den Einfluss potenzieller Adaptationseffekte zu reduzieren. Dafür absolvierten die acht Probanden insgesamt 15 Perturbationen auf einem Laufband, welche sich durch die kurzzeitige Beschleunigung des Laufbands von 2,5 𝑚/𝑠 auf 3,5 𝑚/𝑠 kennzeichneten. Anschließend wurden aus den normalisierten Daten die initialen Gelenkswinkel bei Bodenkontakt im Knie und Sprunggelenk, die minimale bzw. maximale Bodenreaktionskraft in x- bzw. z-Richtung und die Bodenkontaktzeit bestimmt. Um sowohl potenzielle Vorwärtssteuerungen als auch Feedbackbezogene lokomotorische Anpassung zu berücksichtigen, wurden die zwei Schritte vor der Perturbation, der perturbierte Schritt und die drei Schritte nach der Perturbation analysiert. Neben deskriptiver Statistik wurden die einzelnen Schritte mittels Varianzanalyse und paarweisen t-Tests aufeinanderfolgender Trials untersucht. Der initiale Sprunggelenkswinkel zeigt zwar einen Einfluss der Perturbationen im zweiten und dritten Schritt nach der Perturbation, aber es lässt sich keine Anpassung im Verlauf der Messung feststellen. Auch bei der Bodenkontaktzeit lassen sich Unterschiede in den Messwerten und zwischen den Schritten finden, diese können allerdings ebenfalls nicht der Adaptation zugeordnet werden. Die Entwicklung der Mittelwerte und signifikante Ergebnisse in ANOVA und t-Tests deuten beim initialen Kniewinkel für den zweiten und dritten Schritt nach der Perturbation auf eine sukzessive Anpassung des Parameters an den Einfluss der Störung hin, welche nach acht Perturbationen abgeschlossen ist. Für die minimale Bodenreaktionskraft in x-Richtung (Bremskraft) befinden sich die Daten dagegen bereits nach einem Trial auf einem stabilen Niveau, wobei die Abweichungen hier ebenfalls im zweiten Schritt nach der Beschleunigung des Laufbands auftreten. Die maximale vertikale Bodenreaktionskraft (z-Richtung) zeigt Tendenzen zu einer fortschreitenden Anpassung im ersten und zweiten Schritt nach der Perturbation. Hier lassen sich aufgrund des Verlaufs der Mittelwerte und signifikanter Unterschiede beim ersten Schritt sechs Trials als Mindestanzahl für eine Adaptations-Phase ausmachen. Somit konnten in drei von fünf analysierten Parameter Merkmale von Adaptationseffekten gefunden werden, die sich alle in den Schritten nach der Perturbation zeigten und somit Feedbackbezogener Anpassung zuzuordnen sind. Sofern alle Parameter in der anschließenden Messung verwendet werden, sollten in der Adaptations-Phase mindestens acht Perturbationen durchgeführt werden, damit der Einfluss von Anpassungseffekten im Vergleich vernachlässigbar ist.
Marketing and sales have high expectations of new methods such as Big Data, artificial intelligence, machine learning, and predictive analytics. But following the “garbage in—garbage out” principle, the results leave much to be desired. The reason is often insufficient quality in the underlying customer data. This article sheds light on this problem using the data quality and value pyramid as an example. The higher up the value-added pyramid the data is located, the higher its quality and the more value it generates for a company. In addition, we show how the use of monitoring systems, such as a data quality scorecard, makes data quality visible and improvements measurable. In this way, the actual value of data for companies becomes obvious and manageable.
Um erfolgreich mit einer Marketing- oder Werbemaßnahme zu sein, ist es entscheidend, die Bedürfnisse und Wünsche der Zielgruppe zu verstehen. In der heutigen digitalen Welt hat sich die Generation Z, auch bekannt als ‚Digital Natives‘, zu einer der einflussreichsten Zielgruppen entwickelt. Geboren zwischen den späten 1990er Jahren und den frühen 2010er Jahren, sind sie mit der rasanten Entwicklung von Technologie und dem Aufstieg sozialer Medien aufgewachsen und haben diese fest in ihren Alltag integriert. Gegenwärtig umfasst die Generation Z mehr als elf Prozent der deutschen Bevölkerung und wird weltweit in den nächsten zehn Jahren voraussichtlich über ein Drittel aller Konsumenten ausmachen. Diese Altersgruppe ist eine wichtige Zielgruppe, deren Wertvorstellungen und Verhaltensmuster sich von denen früherer Generationen unterscheiden, und die es zu verstehen gilt, um das Potential voll auszuschöpfen. Das bedeutet, dass Unternehmen innovative digitale Marketingstrategien entwickeln und die Kanäle nutzen müssen, die für die Gen Z relevant sind. In den letzten Jahren hat eine Plattform besonders die Aufmerksamkeit der Generation Z auf sich gezogen - TikTok. Die Social-Media-Plattform hat sich innerhalb kurzer Zeit zu einer globalen Sensation und einem bedeutenden sozialen Netzwerk mit über einer Milliarde aktiven Nutzern weltweit entwickelt. Diese Bachelorarbeit widmet sich daher den Fragen, inwiefern Unternehmen mithilfe von TikTok als Marketingplattform die Generation Z erreichen und ansprechen können sowie der Rolle, die die spezifischen Merkmale und Charakteristika dieser Generation dabei spielen. Um fundierte Schlussfolgerungen ziehen zu können, wurde sowohl nationale als auch internationale Fachliteratur sowie Studien herangezogen. Durch die Berücksichtigung einer breiten Palette von Quellen wurde ein umfassendes Bild der Generation Z als Zielgruppe für die Marketingkommunikation erstellt. Für die Untersuchung von TikTok als Marketingkanal wurden verschiedene Quellen verwendet, darunter offizielle Quellen wie die TikTok-Website und das TikTok Business-Portal. Es wurden auch branchenspezifische Publikationen, Blogs, Studien und Analysen zu TikTok und seiner Bedeutung im Marketing herangezogen. Marktforschungsberichte wurden genutzt, um Informationen über die Nutzungsgewohnheiten und Präferenzen der Zielgruppe auf TikTok zu erhalten. Durch die sorgfältige Untersuchung dieser vielfältigen Quellen konnte ein umfassendes Verständnis von TikTok als Marketingkanal für die Erreichung der Generation Z entwickelt werden. Im Rahmen dieser Arbeit konnte festgestellt werden, dass die Generation Z die Zielgruppe der Zukunft darstellt. Um die Mitglieder der Generation Z als Zielgruppe anzusprechen, ist eine Marketingkommunikation erforderlich, die hauptsächlich online und idealerweise über Social-Media-Plattformen stattfindet. Insbesondere TikTok hat sich als vielversprechende Marketingplattform erwiesen, um die Generation Z zu erreichen und mit individuellen und relevanten Inhalten anzusprechen.
Rupturen des vorderen Kreuzbandes werden meist mit einer Kreuzbandplastik-Operation wiederhergestellt. Bei einer gängigen OP-Methode wird hierbei Sehnenmaterial am Semitendinosus-Muskel entnommen, und mit diesem gewonnenen Sehnenmaterial das Kreuzband rekonstruiert. Dies hat zur Folge, dass es zu neuromuskulären Defiziten und dem Verhalten der Co-Kontraktion von Quadrizeps und Hamstrings kommen kann. Weitere Folgen sind Muskelschwäche und ein weniger flektiertes Verhalten in der Stützphase beim Gehen am operierten Bein. Das Auftreten von Co-Kontraktion beim Laufen ist im Zusammenhang mit einer expliziten Co-Kontraktionsberechnung noch nicht ausreichend untersucht worden. Auch ist unklar, welchen Einfluss die Kraftfähigkeiten auf Co-Kontraktion und Gelenkwinkel haben. In dieser Studie soll untersucht werden, inwieweit diese Effekte auch bei der Bewegung des Laufens auftreten. Mögliche Zusammenhänge zwischen Kraft/Co-Kontraktion und Kraft/Kniegelenkswinkel werden ebenfalls untersucht. Die Ergebnisse sollen einen Beitrag zum Verständnis der Mechanismen und damit auch zur Verbesserung der Rehabilitationsprozesse leisten. Im Rahmen von „Return to Sport“ Messungen wurden im IFD Colgone über einen Zeitraum von zwei Jahren „Return to Sport“ Messungen durchgeführt und relevante biomechanische Parameter erfasst. Die Untersuchungen fanden im Durchschnitt sieben Monate nach der Kreuzbandoperation statt. Innerhalb der Studie wurden 26 Patientendaten ausgewertet. Die Co-Kontraktion wurde durch Auswertung der EMG-Daten mit Hilfe einer Formel bestimmt. Die Patienten zeigten unabhängig vom Geschlecht signifikant erhöhte Co-Kontraktionswerte, reduzierte Kniegelenkswinkel und reduzierte Kraftfähigkeiten am operierten Bein. Dabei konnten die erhöhten Co- Kontraktionswerte als auch weniger flektierte Kniewinkel nicht bei allen Patienten der Stichprobe auf deren schlechte Kraftfähigkeit zurückgeführt werden. Hier gab es leichte Zusammenhänge aber keine signifikanten Ergebnisse. Da Co-Kontraktion als auch reduzierte Kniegelenkswinkel mit unterschiedlichsten Problemen in Verbindung gebracht werden können, sollte daran mit Hilfe von angepassten Reha- Maßnahmen gearbeitet werden. Rehabilitationsprozesse sollten verschiedene Kraft- und Koordinationsfähigkeiten fördern, mit dem Ziel, das neuromuskuläre Zusammenspiel zu verbessern.
Als Bachelorarbeit wurde ein Drehbuch ausgearbeitet. Hierbei handelt es sich um die Pilotfolge einer selbst konzipierten Serie.
Kurzzusammenfassung:
Anna, Tess, Felix und Vincent sind in ihren Zwanzigern und treten alle zur gleichen Zeit in einem Unternehmen ihre erste Stelle an. Neben den Unsicherheiten und Problemen, die mit einer neuen Stelle auftreten, müssen sich die vier auch mit ihren privaten Konflikten auseinandersetzen.
In der vorliegenden Arbeit wird die Auswirkung der biomechanischen Stimulation (BMS) der Beinmuskulatur auf die Herzfrequenzvariabilität (HRV) untersucht. Die HRV charakterisiert die Variabilität der Intervalle aufeinanderfolgender Herzaktionen (beeinflusst durch das vegetative Nervensystem) und liefert Aussagen über die Qualität der Herz-Kreislaufregulation. Eine erhöhte körperliche Aktivität führt zu einer höheren HRV und einem besseren Gesundheitszustand. Die BMS ermöglicht das Hervorrufen einer natürlichen Muskelarbeit, die viel effektiver als ein konventionelles Training ist. Bei 8 Probanden im Alter zwischen 21 und 32 Jahren und mit Sinusrhythmus wurde der Einfluss der BMS (durchgeführt mit 12 Hz oder 16 Hz) auf die HRV analysiert. In der Arbeit werden 16 verschiedene HRV-Parameter (zeitbezogen, frequenzbezogen und nicht linear) auf Veränderungen hin untersucht.
Bei der Auswertung ergab sich eine signifikante Reduktion der mittleren Herzfrequenz nach der Stimulation bei 7 von 8 Testpersonen (p: 0,00687 < 0,5) und zeigte somit eine positive hämodynamische Wirksamkeit der BMS. Die LF-Power (Spektralleistung im niederfrequenten Bereich) mittels FFT reduzierte sich bei 7 von 8 Probanden (p: 0,3181 < 0,5), mittels AR sogar bei 8 von 8 Testpersonen (p: 0,03082 < 0,5). Anhand beider Parameter konnte somit eine Reduktion der sympathischen und parasympathischen Aktivität beobachtet werden. Eine Erhöhung der Tätigkeit des Parasympathikus konnte bei dem VLF% (prozentualer Anteil des sehr niederfrequenten Bereichs bezogen auf das Gesamtspektrum) beider Berechnungsmethoden nachgewiesen werden. Dort hat sich der Wert in beiden Fällen bei 7 von 8 Personen vergrößert. Der SD1-Wert (Standardabweichung der Punktabstände im Poincaré Plot - Querdurchmesser) hat sich bei 2 von 8 Testpersonen erhöht und dementsprechend auch die parasympathische Aktivität (p: 0,1292 < 0,5).
Eine schlechte Erreichbarkeit junger Zielgruppen und hohe Preise, sind Gründe für die schwindende Beliebtheit des Werbeformats TV-Werbung. Unternehmen greifen zunehmend auf Online-Werbung zurück, um ihre Produkte kostengünstig und gezielt zu vermarkten. Eine neue, digitale Form der TV-Werbung, Addressable TV, verspricht nun neue Chancen für eine Rückkehr der Werbung über den "Big Screen".
Ziel der vorliegenden Arbeit ist es Handlungsempfehlungen für Werbetreibende in Bezug auf Addressable TV abzuleiten. Es soll geklärt werden unter welchen Umständen und für welche Art von Unternehmen eine Nutzung erfolgversprechend sein kann.
Wirtschaftliche Krisenzeiten implizieren häufig Liquiditätsengpässe und bei kompletter Zahlungsunfähigkeit auch Insolvenzen. Das Instrument des Working Capital Management hilft bei der schnelleren Freisetzung von gebundenem Kapital. Sofern ein datengetriebenes Management unter Einsatz von Business-Analytics-Techniken und mit der dafür notwendigen technisch-organisatorischen Infrastruktur eingesetzt wird, entstehen neue Möglichkeiten von Einsichten in die Prozesslandschaft und die Optimierung von Durchlaufzeiten. Das Ziel ist der Aufbau eines Working-Capital- Analytics-Ansatzes.
Mathematik lässt sich in vielen Objekten finden. Sei es die lineare Steigung eines Handlaufs zum Schulgebäude oder die nahezu zylindrische Form einer Litfaßsäule in der Innenstadt. Das Bestreben, Schüler*innen diese Zusammenhänge entdecken zu lassen, steht im Zentrum des MathCityMap Projekts (Ludwig et al., 2013). Auf sogenannten mathematischen Wanderpfaden (bzw. Mathtrails) werden Schüler*innen durch eine App zu Mathematikaufgaben an realen Objekten bzw. in realen Situationen ihrer Umwelt geleitet. Um die Aufgaben zu lösen, werden Daten erhoben, z. B. durch Messungen oder Zählen. Entscheidend ist, dass die Aufgaben so gestellt sind, dass der Schritt der Datenbeschaffung nur vor Ort stattfinden kann und somit direkt mit dem Objekt bzw. der Situation verknüpft wird.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
A report from the World Economic Forum (2019) stated loneliness as the third societal stressor in the world, mainly in western countries. Moreover, research shows that loneliness tends to be experienced more severely by young adults than other age groups (Rokach, 2000), which is the case of university students who face profound periods of loneliness when attending university in a new place (Diehl et al., 2018). Digital technology, especially mental health apps (MHapps), have been viewed as promising solutions to address this distress in universities, however, little evidence on this topic reveals uncertainty around how these resources impact individual well-being. Therefore, this research proposed to investigate how the gamified social mobile app Noneliness reduced loneliness rates and other associated mental health issues of students from a German university. As little work has focused on digital apps targeting loneliness, this project also proposed to describe and discuss the app’s design and development processes. A multimethod approach was adopted: literature review on high-efficacy MHapps design, gamification for mental health and loneliness interventions; User Experience Design and Human-centered Computing. Evaluations occurred according to the app’s development iterations, which assessed four versions (from prototype to Beta) through quantitative and qualitative studies with university students. The main results obtained regarding the design aspects were: users' preference for minimalistic interfaces; importance in maintaining privacy and establishing trust among users; students' willingness to use an online support space for emotional and educational support. Most used features were those related to group discussions, private chats and university social events. Preferred gamification elements were those that provided positive reinforcement to motivate social interactions (e.g. Points, Levels and Achievements). Results of a pilot randomized controlled trial with university students (N = 12), showed no statistically significant interactions in reducing loneliness among experimental group members (n = 7, x² = 3.500, p-value = 0.477, Cramer’s V = 0.27) who made continued use of the app for six weeks. On the other hand, the app showed effects of moderate magnitude on loneliness reduction in this group. The app also demonstrated relatively strong magnitude effects on other associated variables, such as depression and stress in the experimental group. In addition to motivating the conduct of further studies with larger samples, the findings point to a potential app effectiveness not only to reduce loneliness, but also other variables that may be associated with the distress.
Der Bedarf an fortschrittlichen Bildungstechnologien wächst: Learning Experience Plattformen (LXP) erlangen angesichts der rasanten technologischen Entwicklungen und der daraus resultierenden Veränderungen des Lernverhaltens immer größere Relevanz. Diese Masterarbeit befasst sich mit der Konzeption und Konfiguration eines User-Interfaces für eine Learning Experience Plattform, speziell für die Moodle-Plattform der Hochschule Offenburg. Rahmengebend ist das KompiLe-Projekt, das durch das Bund-Länder- Programm Künstliche Intelligenz in der Hochschulbildung gefördert wird.
Als zentrales Ergebnis wurde ein spezifisches User-Interface für eine Learning Experience Plattform entworfen. Hierbei lag der Fokus insbesondere auf den Bereichen Dashboard, Meine Kurse und einen exemplarischen Kurs, die die wesentlichen Eigenschaften einer LXP repräsentieren sollten.
In einer Umfrage äußerten 55 Studierende und Lehrende ihre Vorstellungen und Präferenzen hinsichtlich der Elemente für das User-Interface. Unter Berücksichtigung dieser Erkenntnisse, kombiniert mit vorherigen Recherchen und einem Prototyp, wurde die finale Konfiguration entwickelt.
Im Vergleich zum vorherigen Design, das lediglich eine Zeitleiste zeigte, bietet das aktualisierte Dashboard erweiterte Möglichkeiten: Eine integrierte Kursübersicht ermöglicht es den Lernenden, direkt vom Dashboard aus auf Kurse zuzugreifen. Nutzer*innen haben die Möglichkeit, in der Kursübersicht zu filtern und durch die Auswahl von Favoriten ihre bevorzugten Kurse zu markieren. In einer Umfrage befürworteten fast 90% diese Funktion. Es wurde ein Interessen-Tag auf dem Dashboard hinzugefügt, der später zu dem Profil verlinken soll. Das Dashboard und die Kursseite wurden durch die Einführung einer linken Spalte aufgewertet, was zu einer erhöhten Symmetrie führte. Zudem wurden auf der Kursseite die ersten personalisierten Elemente wie Top bewertete Aktivitäten und Am häufigsten abgeschlossene Objekte hinzugefügt. Gamification- Elemente erfreuten sich großer Beliebtheit mit einer Zustimmung von 80%. Das Einbinden eines neuen modernen Gamification-Elements in Moodle erschien im Vergleich zu bereits verwendeten Elementen recht aufwändig und deshalb wurde sich zunächst dagegen entschieden. Im Kontext des sozialen Austauschs und der Interaktion war es auffällig, dass die Mehrheit der Studierenden es vorzog, ihre Online-Präsenz zu verbergen und das Moodle-Forum gegenüber anderen Interaktionsmöglichkeiten bevorzugte. Weniger signifikante Veränderungen fanden im Bereich Meine Kurse statt.
Turbocharger housings in internal combustion engines are subjected to severe mechanical and thermal cyclic loads throughout their life-time or during engine testing. The combination of thermal transients and mechanical load cycling results in a complex evolution of damage, leading to thermo-mechanical fatigue (TMF) of the material. For the computational TMF life assessment of high temperature components, the DTMF model can provide reliable TMF life predictions. The model is based on a short fatigue crack growth law and uses local finite-element (FE) results to predict the number of cycles to failure for a technical crack. In engine applications, it is nowadays often acceptable to have short cracks as long as they do not propagate and cause loss of function of the component. Thus, it is necessary to predict not only potential crack locations and the corresponding number of cycles for a technical crack, but also to determine subsequent crack growth or even a possible crack arrest. In this work, a method is proposed that allows the simulation of TMF crack growth in high temperature components using FE simulations and non-linear fracture mechanics (NLFM).
A NLFM based crack growth simulation method is described. This method starts with the FE analysis of a component. In this paper, the method is demonstrated for an automotive turbocharger housing subjected to TMF loading. A transient elastic-viscoplastic FE analysis is used to simulate four heating and cooling cycles of an engine test. The stresses, inelastic strains, and temperature histories from the FEA are then used to perform TMF life predictions using the standard DTMF model. The crack position and the crack plane of critical hotspots are then identified. Simulated cracks are inserted at the hotspots. For the model demonstrated, cracks were inserted at two hotspot locations. The ΔJ integral is computed as a fracture mechanics parameter at each point along the crack-front, and the crack extension of each point is then evaluated, allowing the crack to grow iteratively. The paper concludes with a comparison of the crack growth curves for both hotspots with experimental results.
Enhancing engineering creativity with automated formulation of elementary solution principles
(2023)
The paper describes a method for the automated formulation of elementary creative stimuli for product or process design at different levels of abstraction and in different engineering domains. The experimental study evaluates the impact of structured automated idea generation on inventive thinking in engineering design and compares it with previous experimental studies in educational and industrial settings. The outlook highlights the benefits of using automated ideation in the context of AI-assisted invention and innovation.
Learning programming fundamentals is considered as one of the most challenging and complex learning activities. Some authors have proposed visual programming language (VPL) approaches to address part of the inherent complexity [1]. A visual programming language lets users develop programs by combining program elements, like loops graphically rather than by specifying them textually. Visual expressions, spatial arrangements of text and graphic symbols are used either as syntax elements or secondary notation. VPLs are normally used for educational multimedia, video games, system development, and data warehousing/business analytics purposes. For example, Scratch, a platform of Massachusetts Institute of Technology, is designed for kids and after school programs.
Design of mobile software applications is considered as one of the most challenging application domains due to the build in sensors as part of a mobile device, like GPS, camera or Near Field Communication (NFC). Sensors enable creation of context-aware mobile applications in which applications can discover and take advantage of contextual information, such as user location, nearby people and objects, and the current user activity. As a consequence, context-aware mobile applications can sense clues about the situational environment making mobile devices more intelligent, adaptive, and personalized. Such context aware mobile applications seem to be motivating and attractive case studies, especially for programming beginners (“my own first app”).
In this work, we introduce a use-case centered approach as well as clear separation of user interface design and sensor-based program development. We provide an in-depth discussion of a new VPL based teaching method, a step by step development process to enable programming beginners the creation of context aware mobile applications. Finally, we argue that addressing challenges for programming beginners by our teaching approach could make programming teaching more motivating, with an additional impact on the final software quality and scalability.
The key contributions of our study are the following:
- An overview of existing attempts to use VPL approaches for mobile applications
- A use case centered teaching approach based on a clear separation of user interface design and sensor-based program development
- A teaching case study enabling beginners a step by step creation of context-aware mobile applications based on the MIT App Inventor (a platform of Massachusetts Institute of Technology)
- Open research challenges and perspectives for further development of our teaching approach
References:
[1] Idrees, M., Aslam, F. (2022). A Comprehensive Survey and Analysis of Diverse Visual Programming Languages, VFAST Transactions on Software Engineering, 2022, Volume 10, Number 2, pp 47-60.
Das Ziel der Arbeit ist zu erforschen, ob die Erstellung eines Digital Twin des Hamburger Hafens durch Open Source Lösungen realisierbar ist. Die Grundlagen führen in die Themen Digital Twin und Smart City ein. Es wird darauf eingegangen, welche Vorteile durch die Verwendung eines Digital Twins gewonnen werden können und wie sich die verschiedenen Digital Twin-Typen unterscheiden. Es werden verschiedene Architekturen anhand eines Smart City Index weltweit evaluiert, um ein geeignetes Digital Twin-Framework zu finden. FIWARE hat sich als geeignetes Frame- work erwiesen und wird im Anschluss analysiert. Anhand der Evaluierung wird ebenfalls das 3D-Visualisierungs Framework CesiumJS als Open Source Lösung ermit- telt. Das Unternehmen Hamburg Port Authority wird vorgestellt und die interne IT- Infrastruktur betrachtet. Anhand der Architekturdokumentation arc42 werden die Anforderungen und die erforderliche Architektur in Zusammenarbeit mit der Hamburg Port Authority ermittelt. Im Anschluss wird der Architekturentwurf anhand eines Prototyps implementiert. Probleme oder Anforderungen, die nicht erfüllt werden können, werden beschrieben. Abschließend werden die Ergebnisse und das Fazit der Hamburg Port Authority zusammengefasst.
Im Rahmen dieser Arbeit wurde das elektrisch / elektronische System des Hocheffizienzfahrzeugs „Schluckspecht 6“ hinsichtlich seiner Übersichtlichkeit und Modularität optimiert. Essenziell war die Vernetzung der durch verschiedene Projektgruppen erstellten Teilsysteme mittels des neu integrierten CAN-Bus. Im Zuge der Überarbeitung des E/E-Systems wurde auch ein neuer Gesamtfahrzeugschaltplan angefertigt.
Im Rahmen der Optimierung des E-Antriebsstrangs wurde eine neue Motorsteuerung entwickelt, die aufgrund des verbauten Vierquadrantenstellers neben einem zuverlässigen Antrieb des Schluckspecht 6 zukünftig auch die Steuerung und Regelung von Lastmaschinen in – für den Schluckspecht 6 neu entwickelten – Testständen erlaubt. Für die Messdatenerfassung, während Test- und Rennläufen sowie in den Testständen, wurden diverse Messsysteme realisiert. Dazu gehören die Messung des Motorstroms, der Zwischenkreisspannung und der Motordrehzahl. Basierend auf der Motorstrommessung und Zwischenkreisspannungsmessung wurde eine Stromregelung implementiert, um die Bedienfreundlichkeit und Effizienz des S6 im Rennbetrieb zu erhöhen.
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
The aim of this bachelor thesis is to introduce a product data management (PDM) system to reduce the current difficulties in the project team workflow. The main objective is to reduce or prevent problems in the project team's collaboration processes by establishing a centralized, structured data repository.
The process to achieve this goal was to first talk to the project team and monitor professors to find the most effective strategies. Early research on PDM/PLM (Product Lifecycle Management) was conducted through literature reviews, online searches, thesis reviews, and video resources.
In order to gain a comprehensive understanding of PDM systems, the thesis used a combination of group discussions and literature reviews. The emphasis was on the practical application, which included the customization of configurations.
Neural networks have a number of shortcomings. Amongst the severest ones is the sensitivity to distribution shifts which allows models to be easily fooled into wrong predictions by small perturbations to inputs that are often imperceivable to humans and do not have to carry semantic meaning. Adversarial training poses a partial solution to address this issue by training models on worst-case perturbations. Yet, recent work has also pointed out that the reasoning in neural networks is different from humans. Humans identify objects by shape, while neural nets mainly employ texture cues. Exemplarily, a model trained on photographs will likely fail to generalize to datasets containing sketches. Interestingly, it was also shown that adversarial training seems to favorably increase the shift toward shape bias. In this work, we revisit this observation and provide an extensive analysis of this effect on various architectures, the common L_2-and L_-training, and Transformer-based models. Further, we provide a possible explanation for this phenomenon from a frequency perspective.
Seismic data processing relies on multiples attenuation to improve inversion and interpretation. Radon-based algorithms are often used for multiples and primaries discrimination. Deep learning, based on convolutional neural networks (CNNs), has shown encouraging applications for demultiple that could mitigate Radon-based challenges. In this work, we investigate new strategies to train a CNN for multiples removal based on different loss functions. We propose combined primaries and multiples labels in the loss for training a CNN to predict primaries, multiples, or both simultaneously. Moreover, we investigate two distinctive training methods for all the strategies: UNet based on minimum absolute error (L1) training, and adversarial training (GAN-UNet). We test the trained models with the different strategies and methods on 400 synthetic data. We found that training to predict multiples, including the primaries …
Einfluss der Zehenfreiheit auf die dynamische Stabilität bei medio-lateralen Laufbandperturbationen
(2023)
Das Tragen von Barfußschuhen, so die These, führt zu einem natürlichen und damit gesunden Gangbild. Ein Merkmal des Barfußschuhs ist die breite Zehenbox, die eine maximale Zehenfreiheit gewährleistet. In dieser Studie wurde der Faktor Schuhweite hinsichtlich seines Einflusses auf die Gangstabilität untersucht. Mit dem GRAIL-System wurden 28 Probanden in jeweils vier Schuhkonditionen (Wash out = eigene Schuhe, schmal, breit, Tape) und 3 Trials (Baseline, Perturbations, Simulated Inebriation) mittels Motion Tracking erfasst. Die Gangstabilität wurde anhand von 𝑀𝑜𝑆 (𝑀𝑎𝑟𝑔𝑖𝑛 𝑜𝑓 𝑆𝑡𝑎𝑏𝑖𝑙𝑖𝑡𝑦), 𝑃𝑜𝐼 (𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡𝑦 𝑜𝑓 𝐼𝑛𝑠𝑡𝑎𝑏𝑖𝑙𝑖𝑡𝑦), Schrittbreite und Schrittdauer beurteilt.
Es konnte kein signifikanter Einfluss der Schuhweite auf die Gangstabilität festgestellt werden. Dagegen ist das Alter ein signifikanter Einflussfaktor (ältere Probanden gehen weniger sicher) sowie die Art des Trials (simulated Inebriation ist am unsichersten). Zusätzlich wurden die Probanden in eine BX (Barefoot Experienced) und eine BUX (Barefoot Unexperienced) Gruppe eingeteilt, um zu untersuchen, ob es einen Unterschied macht, ob ein Proband in der Vergangenheit bereits Barfußschuhe getragen hat. Im Vergleich zur BUX-Gruppe war das Gangbild der BX-Gruppe durch folgende Merkmale gekennzeichnet: kürzere Schrittdauer, breitere Schritte und niedrigere 𝑃𝑜𝐼-Werte (in den Barfußschuhen).
Es kann vermutet werden, dass Personen mit Barfußschuherfahrung in einer neuen Schuhkondition sicherer gehen, weil sie unabhängiger vom Schuh sind. Dies könnte darauf zurückzuführen sein, dass die BX-Personen durch das Barfußlaufen stärkere Fußstrukturen entwickelt haben, die sich unabhängig vom Schuh positiv auf das Gangbild auswirken. Somit wirken sich Barfußschuhe erst langfristig positiv auf den Gang aus.
Zur ergonomischen Unterstützung von Industriearbeitern werden zunehmend Exoskelette eingesetzt. Studien über die Wirkung und den Einfluss von Exoskeletten auf den Körper sind jedoch rar. Diese Arbeit beschäftigt sich daher mit der Wirkung des Rückenexoskeletts BionicBack des deutschen Exoskelett Herstellers hTRIUS auf die Wirbelsäulenkrümmung bei industriellen Hebearbeiten. Im Speziellen wird die Wirbelsäulenkrümmung beim Umpalettieren aus drei verschiedenen Hebehöhen (91 cm, 59 cm, 15 cm) mit Hilfe eines markerbasierten 3D Motion Capture Systems untersucht. Um den Versuchsaufbau alltagsnah und realistisch zu gestalten, wurde diese Pilotstudie in Kooperation mit der Firma Zehnder am Standort Lahr durchgeführt, die sowohl die Probanden als auch den Versuchsaufbau zur Verfügung stellte. Vier gesunde männliche Probanden mit einem durchschnittlichen Alter von 39,5 Jahren (SD = 6,5), einem durchschnittlichen Körpergewicht von 72,75 kg (SD = 7,1) und einer durchschnittlichen Körpergröße von 175 cm (SD = 2,6) wurden in zwei Schichten eingeteilt. Mit den Probanden wurden vor und nach der Schicht sowie an zwei aufeinander folgenden Tagen Messungen durchgeführt, wobei an einem Tag das BionicBack während der Arbeit und der Messung getragen wurde und am an-deren Tag nicht. Während einer Messung nahmen die Testpersonen ein Paket mit einem Gewicht von 21,1 kg dreimal von jeder Hebehöhe von einer Palette auf und legten es auf einer anderen ab. Anschließend wurde die Krümmung der Wirbelsäule am tiefsten Punkt der Hebebewegung untersucht, wobei die Gesamtkrümmung in dieser Position durch die Addition von drei repräsentativen Segmentwinkeln dargestellt wird. Die Abweichung dieser Gesamtkrümmungen in der tiefsten Beugeposition von der individuellen neutralen Wirbelsäulenstellung der Probanden im Stehen ergeben die Werte, die zwischen den einzelnen Versuchsbedingungen verglichen werden. Die Ergebnisse zeigen, dass das BionicBack den Abstand zur Neutralstellung bzw. die Gesamtkrümmung des Rückens im Vergleich zu ohne BionicBack bis zu -11,5° (Median: -11,5° (SD = 5,2); Mittelwert: -8,4° (SD = 6,4)) entsprechend -30% vor der Schicht und bis zu -5,6° (Median: -5,6° (SD = 3,5); Mittelwert: -4,1° (SD = 5,4)) ent-sprechend -17% nach der Schicht reduzieren kann. Die Betrachtung der einzelnen Segmentwinkel zeigt, dass die Reduzierung des Abstandes von der Neutralstellung hauptsächlich im Lendenwirbelbereich stattfindet. Der Vergleich der Wirbelsäulen-krümmung vor und nach der Schicht ohne BionicBack zeigt, dass die Wirbelsäulen-krümmung nach der Schicht, mit Ausnahme der tiefsten Hebehöhe, eine größere Abweichung von der Neutralstellung aufweist als vor der Schicht. Der Vergleich mit BionicBack zeigt, dass die Wirbelsäulenkrümmung nach der Schicht mit Ausnahme der niedrigsten Hubhöhe nicht bzw. weniger von der Neutralstellung abweicht als vor der Schicht. Aufgrund der Ergebnisse wird vermutet, dass das BionicBack durch die Unterstützung einer neutraleren Rückenhaltung das Verletzungsrisiko reduzieren kann. Des Weiteren wird vermutet, dass die Muskelermüdung während einer Arbeitsschicht einen Einfluss auf die Wirbelsäulenkrümmung beim Heben hat. Es wird angenommen, dass dieser Einfluss durch das BionicBack reduziert werden kann. Allerdings dürfen die Grenzen dieser Pilotstudie nicht außer Acht gelassen werden. Sei es die Anzahl der Versuchspersonen, die keine Aussage über die Allgemeingültigkeit zu-lässt und keine effektive statistische Analyse erlaubt, oder systematische Fehler, die aufgrund der Modellvereinfachung und der Methodik auftreten können. Weitere Untersuchungen sind erforderlich, um die Ergebnisse zu validieren. Diese Arbeit soll die Grundlage für weitere Studien mit einer weiterentwickelten Methodik und einer größeren Anzahl von Probanden bilden.
In 4D printing an additively manufactured component is given the ability to change its shape or function under the influence of an external stimulus. To achieve this, special smart materials are used that are able to react to external stimuli in a specific way. So far, a number of different stimuli have already been investigated and initial applications have been impressively demonstrated, such as self-folding bodies and simple grippers. However, a methodical specification for the selection of the stimuli and their implementation was not yet in the foreground of the development.
The focus of this work is therefore to develop a methodical approach with which the technology of 4DP can be used in a solution- and application-oriented manner. The developed approach is based on the conventional design methodology for product development to solve given problems in a structured way. This method is extended by specific approaches under consideration of the 4D printing and smart materials.
To illustrate the developed method, it is implemented in practice using a problem definition in the form of an application example. In this example, which represents the recovery of an object from a difficult-to-access environment, the individual functions of positioning, gripping and extraction are implemented using 4D printing. The material extrusion process is used for additive manufacturing of all components of the example. Finally, the functions are successfully tested. The developed approach offers an innovative and methodical approach to systematically solve technical complex problems using 4DP and smart materials.
The goal of this thesis is to thoroughly investigate the concepts of stand-alone and decarbonization of optical fiber networks. Because of their dependability, fast speed, and capacity, optical fiber networks are vital inmodern telecommunications. Their considerable energy consumption and carbon emissions, on the other hand, constitute a danger to global sustainability objectives and must be addressed.
The first section of the thesis presents a summary of the current state of optical fiber networks, their
components, and the energy consumption connected with them. This part also goes over the difficulties of lowering energy usage and carbon emissions while preserving network performance and dependability.
The second section of the thesis focuses on the stand-alone idea, which entails powering the optical fiber network with renewable energy sources and energy-efficient technology. This section investigates and explores the possibilities of renewable energy sources like solar and wind power to power the network. It also investigates energy-efficient technologies like virtualization and cloud computing, as well as their potential to minimize network energy usage.
The third section of the thesis focuses on the notion of decarbonization, which entails lowering carbon emissions linked with the optical fiber network. This section looks at various carbon-reduction measures, such as employing low-carbon energy sources and improving energy efficiency. It also covers the relevance of carbon offsets and the difficulties associated with adopting decarbonization measures in the context of optical fiber networks.
The fourth section of the thesis compares the ideas of stand-alone and decarbonization. It investigates the advantages and disadvantages of each strategy, as well as their potential to minimize energy consumption and carbon emissions in optical fiber networks. It also explores the difficulties in applying these notions as well as potential hurdles to their wider adoption.
Finally, the need of addressing the energy consumption and carbon emissions connected with optical fiber networks is emphasized in this thesis.
It outlines important obstacles and potential impediments to adopting these initiatives and gives insights into potential ways for decreasing them.
It also makes suggestions for further study in this area.
Die vorliegende Pilotstudie untersucht die Anwendbarkeit von Mixed Reality zur Applikation eines externen Fokus während spezifischen Bewegungsaufgaben mit dem Ziel der Verbesserung des Return to Sport Testings. In einem ersten Schritt nahmen daher 9 gesunde FußballerInnen an der Studie teil.
Es wurden Sprünge mittels der speziell entwickelten Mixed Reality Anwendung MotumXR, in drei verschiedenen Bedingungen verglichen. Die erste Bedingung entspricht einem standardisierten vertikalen Sprung ohne spielspezifischen externen Fokus, während die zweite und dritte Bedingung einen Sprung mit spielspezifischem externem Fokus, im Sinne eines simulierten Kopfballs, darstellt. Bedingung zwei und drei unterscheiden sich in der Position der einwerfenden Person, welche den virtuellen Ball leicht versetzt von links oder rechts einwirft. Als Sprungform wurde der Counter Movement Jump gewählt. Es wurden kinetische und kinematische Parameter ermittelt, die es ermöglichen, die Auswirkungen des externen Fokus auf die Sprungbewegung zu erfassen.
Die Ergebnisse zeigen signifikante Unterschiede zwischen den Bedingungen in folgenden biomechanischen Parametern: Absprungzeit, vertikale maximale Bodenreaktionskraft, maximale Kraftanstiegsrate, maximaler Knieflexionswinkel und maximales Knieflexionsmoment. Die Kopfballsituation mit externem spielspezifischem Fokus weißen höhere maximale vertikale Bodenreaktionskräfte und gesteigerte maximale Knieflexionsmomente auf im Vergleich zu der Bedingung des maximalen Sprungs. Diese Befunde deuten darauf hin, dass die Sprungstrategie entsprechend der Aufgabenstellung angepasst wurde und die Kopfballsituation in der Mixed Reality Umgebung eine realitätsnähere Testung ermöglichen könnte. Die Position des Einwerfers zeigt keinen Einfluss auf die Beinsymmetrie. Das deutet darauf hin, dass die Anwendung MotumXR vielversprechende Möglichkeiten für die Weiterentwicklung von RTS-Testungen bietet. Weiterführende Untersuchung, die Personen mit Kreuzbandverletzungen mit einbeziehen, sind nötig, um die Ergebnisse dieser Pilotstudie kritisch zu überprüfen.
In dieser kleinen schriftlichen Ausarbeitung behandele ich das Thema der Symbiose aus Kunst und Wissenschaft auf meine persönliche Einstellung.
Ich habe einen Dokumentarfilm zu diesem spannenden Thema in dem Rahmen erstellt und habe in diesem schriftlichen Teil erzählt, wie ich zu den einzelnen Themen wie auch zur Symbiose stehe. Dabei gehe ich auf die persönlichen Erkenntnisse ein, welche ich über den Zeitraum des Dokumentarfilms erlangt habe. Ein Teil des Filmes waren zwei Workshops, in denen ich die Parteien Kunst und Wissenschaft mit einem Thema in Verbindung gesetzt habe. Auch diese wird hier erläutert.
Die Thesis beschäftigt sich mit dem Kommunikationsprotokoll Lightweight Machine to Machine, welches für das Internet of Things entwickelt wurde. Es soll untersucht werden, wie das Protokoll funktioniert und wie es eingesetzt werden kann. Ebenfalls soll die Thesis zeigen, wie und ob Lightweight Machine to Machine über Long Term Evolution for Machines für Anwendungen mit begrenzten Ressourcen geeignet ist. Um diese Fragestellung zu beantworten, wurde das Protokoll auf Grund seiner Spezifikation und seinen Softwareimplementationen untersucht. Daraufhin wurde ein Versuchssystem entworfen und dieses anschließend auf sein Laufzeitverhalten und auf sein Energieverbrauch getestet. Die Evaluation des Protokolls ergab, dass es viele sinnvolle Funktionen zugeschnitten auf Geräte im Internet of Things besitzt und diese Funktionen kompakt und verständlich umsetzt. Da das Protokoll noch relativ jung ist, stellt es an verschiedenen Punkten eine Herausforderung dar. Die Tests des Versuchssystems ergaben, dass Lightweight Machine to Machine sich unter bestimmten Bedingungen für ressourcenbegrenzte Anwendungen eignet.
Diese Thesis beschäftigt sich mit den Techniken von Code Injection und API Hooking, die von Malware verwendet werden, um sich in laufende Prozesse einzuschleusen und deren Verhalten zu manipulieren. Darüber hinaus erklärt sie die Grundlagen der Betriebssystemarchitektur, der DLLs, der Win32 API und der PE-Dateien, die für das Verständnis dieser Techniken notwendig sind. Die Thesis stellt verschiedene Methoden von Code Injection und API Hooking vor, wie z.B. DLL Injection, PE Injection, Process Hollowing, Inline Hooking und IAT Hooking, und zeigt anhand von Codebeispielen, wie sie funktionieren. Des Weiteren wird auch beschrieben, wie man Code Injection und API Hooking mithilfe verschiedene Tools und Techniken wie VADs, Speicherforensik und maschinelles Lernen erkennen und verhindern kann. Die Thesis diskutiert außerdem mögliche Gegenmaßnahmen, die das Betriebssystem oder die Anwendungen anwenden können, um sich vor Code Injection und API Hooking zu schützen, wie z.B. ASLR, DEP, ACG, IAF und andere. Zuletzt wird mit einer Zusammenfassung und einem Ausblick auf die zukünftigen Herausforderungen und Möglichkeiten in diesem Bereich abgeschlossen.
Sweaty has already participated several times in RoboCup soccer competitions (Adult Size). Now the work is focused coordinating the play of two robots. Moreover, we are working on stabilizing the gait by adding additional sensor information. An ongoing work is the optimization of the control strategy by balancing between impedance and position control. By minimizing the jerk, gait and overall gameplay should improve significantly.
Diese Arbeit beschäftigt sich mit der Einführung von Digital Asset Management Systemen in einem Unternehmen. Ein Digital Asset Management dient der Verwaltung von digitalen Dateien von besonderer Bedeutung, sogenannte digitale Assets. Meist handelt es sich dabei um Bilder, aber auch Videos, Textdokumente und viele andere Dateitypen können in einem solchen System verwaltet werden. Unternehmen verfolgen dabei in der Regel das Ziel, einen zentralen Speicherort für alle relevanten Assets zu schaffen, um von dort aus die Verteilung steuern und die Dateien aktuell halten zu können. Systeme dieser Art werden beispielsweise in Marketingabteilungen eingesetzt, um Markeninhalte zentral verwalten und verteilen zu können. Die Einführung eines solchen Systems erfordert aufgrund der damit verbundenen Komplexität ein strukturiertes Vorgehen. Hierzu wird in dieser Arbeit ein mehr phasiges Vorgehen vorgeschlagen, das zu einer erfolgreichen Einführung eines Digital Asset Management Systems führt. Darüber hinaus werden auf Basis dieses Phasenansatzes Erfolgsfaktoren identifiziert und vorgestellt, auf die bei der Einführung besonders zu achten ist. Die Fallstudie einer tatsächlichen Einführung aus der Praxis beleuchtet die theoretisch erarbeiteten Erkenntnisse nochmals aus praktischer Sicht und erlaubt Rückschlüsse auf das vorgestellte theoretische Vorgehen.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
Die Impedanzkardiografie ist ein nicht-invasives Verfahren zur Messung der Funktion des Herzens, welche wiederum auf der Erfassung von elektrischen Impedanzänderungen im Thorax basiert. Die Verbindung der Impedanzkardiografie mit der biomechanischen Stimulation der Beinmuskulatur hat das Potenzial, die kardiale Ausgangsleistung zu verbessern und somit die körperliche Leistungsfähigkeit zu steigern. In dieser Bachelorarbeit wurden die Auswirkungen der biomechanischen Stimulation der Beinmuskulatur und der Stimulationsfrequenz auf die Impedanzkardiografie untersucht. Zu diesem Zweck wurden Messungen an überwiegend gesunden Probanden durchgeführt, bei denen die Impedanzkardiografie in Ruhe vor und in Ruhe nach der biomechanischen Stimulation der Wade, der Fußsohlen, der Taille und des Gesäßes durchgeführt wurde. Die Ergebnisse zeigen, dass die biomechanische Stimulation der Beinmuskulatur vor allem die Arbeitsparameter und somit die Leistungsfähigkeit verbessert hat. Der mittlere arterielle Blutdruck zeigt einen signifikanten Unterschied, mit Werten von 94,53 ± 6,52 mmHg vor der Stimulation bis 86,46 ± 6,98mmHg nach der Stimulation. Die mittlere linksventrikuläre Arbeitszeit zeigt ebenfalls einen großen Unterschied von 7,95 ± 1,06 kg*m vor der Stimulation zu 7,17 ± 1,04 kg*m nach der Stimulation. Diese Ergebnisse können in der zukünftigen Forschung zur Entwicklung von Trainingsprogrammen zur Leistungssteigerung genutzt werden. Darüber hinaus könnten diese Ergebnisse bei der Schmerzbehandlung eingesetzt werden, da es Hinweise darauf gibt, dass die biomechanische Stimulation die Mikrozirkulation fördert.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Estimation and projecting total steel industry production costs from 2019 to 2030 for Germany
(2023)
This thesis analyses the total production cost of the German steel industry from 2019 to 2022, as well as a projection of the German steel industry's total production cost until 2030. The research separates the costs of steel production into their primary components, such as raw materials, energy, CO2 cost, capital expenses and operating expenses. The cost of steel production is determined separately for primary steelmaking with the blast furnace and basic oxygen furnace (BF-BOF) and secondary steelmaking with the electric arc furnace (EAF).
The analysis indicates that, following the COVID-19 disaster and the fuel crisis, the overall cost of producing steel in Germany has progressively risen over the previous few years, reaching its peak in the first half of 2022. In addition, there are considerable disparities between the production costs of primary and secondary steelmaking processes, with primary steelmaking generally being more expensive.
In this analysis, the total cost of production for the German steel industry in the year 2030 has been estimated by taking into account historical trends as well as other predictions that are currently available.
This thesis provides overall insights on the economics of the German steel sector. By giving thorough information on production costs and changes over time, this research can assist guide crucial future investment decisions in this essential industry. To ensure long-term success, our findings emphasize the significance of investing in more sustainable and ecologically friendly steel production processes.
Enzyme‐assisted HPTLC method for the simultaneous analysis of inositol phosphates and phosphate
(2023)
Background
The analysis of myo‐inositol phosphates (InsPx) released by phytases during phytic acid degradation is challenging and time‐consuming, particularly in terms of sample preparation, isomer separation, and detection. However, a fast and robust analysis method is crucial when screening for phytases during protein engineering approaches, which result in a large number of samples, to ensure reliable identification of promising novel enzymes or target variants with improved characteristics, for example, pH range, thermal stability, and phosphate release kinetics.
Results
The simultaneous analysis of several InsPx (InsP1‐InsP4 and InsP5 + 6) as well as free phosphate was established on cellulose HPTLC plates using a buffered mobile phase. Inositol phosphates were subsequently stained using a novel enzyme‐assisted staining procedure. Immobilized InsPx were hydrolyzed by a phytase solution of Quantum® Blueliquid 5G followed by a molybdate reagent derivatization. Resulting blue zones were captured by DAD scan. The method shows good repeatability (intra‐day and intra‐lab) with maximum deviations of the Rf value of 0.01. The HPTLC method was applied to three commercially available phytases at two pH levels relevant to the gastrointestinal tract of poultry (pH 5.5 and pH 3.6) to observe their phytate degradation pattern and thus visualize their InsPx fingerprint.
Conclusion
This HPTLC method presents a semi‐high‐throughput analysis for the simultaneous analysis of phytic acid and the resulting lower inositol phosphates after its enzymatic hydrolysis and is also an effective tool to visualize the InsPx fingerprints and possible accumulations of inositol phosphates.
Die Kundenbindung ist für Publisher aus dem Pressesektor seit Jahrzehnten ein Thema, da nicht nur bei auf Wiederholkäufe angelegten Einzelverkaufstiteln, sondern gerade bei Abonnementprodukten neben der erfolgreichen konzeptionellen Ausrichtung der Produkte an den Kundenbedürfnissen der Kontakt zu den Leser*innen zunehmend an Bedeutung gewonnen hat. Produkte, die im Zeitungsbereich oft mit Tradition und Gewohnheit verbunden waren, stehen im digitalen Wettbewerbsumfeld in einem sehr viel intensiveren direkten Wettbewerb, sodass die traditionellen Marketingmaßnahmen der Kundenbindung und -gewinnung für Subscriber-Pakete, aber auch die Maßnahmen der customer centricity in der digitalen Live-Optimierung der Produkte zur entscheidenden Kompetenz werden, um mit Methoden des Content-Marketings und Engagement-Marketings oder mit gänzlich anderen Ansätzen wie Membership-Modellen die Verluste des auslaufenden klassischen Print-Abonnements zu kompensieren.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
When a patient with hearing aids needs to partake in audiometry procedures they need to visit a specialist which costs both time and money. Ideally, the patient should be able to conduct these tests alone, during their own time, and without additional costs. With this idea comes the question of if whether this is possible or not, and, if it is, how.
This thesis explores the throughput of Bluetooth Low Energy and if it is configurable to have a high enough data rate to send high quality audio data with a lossless audio codec while communicating with a low end device. Additionally, this thesis will show that using Rust to develop embedded software is possible and how using it can make the process of doing so easier.
The effects of climate change, including severe storms, heat waves, and melting glaciers, are highlighted as an urgent concern, emphasising the need to decrease carbon emissions to restrict global warming to 1.5°C. To accomplish this goal, it is vital to substitute fossil fuel-based power plants with renewable energy sources like solar, wind, hydro, and biofuels. Despite some progress being made, the proportion of renewables used in generating electricity is still lower than the levels needed for 2030 and 2050. Decarbonising the power grid is also critical in lowering the energy consumption of buildings, which is responsible for a substantial percentage of worldwide electricity usage. Even though there has been substantial expansion in the worldwide renewable energy market in the past 15 years, the transition to renewable energy sources also requires taking into account the importance of energy trading.
Peer-to-peer (P2P) electricity trading is an emerging type of energy exchange that can revolutionise the energy sector by providing a more decentralised and efficient way of trading energy. This research deals about P2P electricity trading in a carbon-neutral scenario. 'Python for Power System Analysis' (PyPSA) was used to develop models through which the P2P effect was tested. Data for the entire state of Baden-Württemberg (BW) was collected. Three scenarios were taken into consideration while developing models: 2019 (base), 2030 (coal phase-out), and 2040(climate neutral). Alongside this, another model with no P2P trading was developed to make a comparison. In addition, the use case of community storage in a P2P trading network is also presented.
The research concludes that P2P has a significant positive effect on a pathway to achieve climate neutrality. The findings show that the share of renewables in electricity generation is increasing compared to conventional sources in BW, which can be traded to meet the demand. From the storage analysis, it can be concluded that community storage can be effectively utilised in P2P trading. While the emissions are reduced, the operating costs are also reduced when the grid has P2P trading available. By highlighting the benefits of P2P trading, this research contributed to the growing body of research on the effectiveness of P2P trading in an electricity network grid.
The primary objective of this thesis is to examine the lean accounting transformation, which involves applying lean management principles to the accounting domain. In recent years, various sectors, including manufacturing, healthcare, and services, have experienced success with lean management practices. Nevertheless, the implementation of lean accounting within financial management has not been as extensively explored. This research aims to bridge that gap by scrutinizing the benefits and potential drawbacks of adopting lean accounting practices in business operations.
This research uses a combination of qualitative techniques and an extensive literature review to better understand the present subject matter. By describing the ideas of lean management and standard accounting and highlighting the fundamental distinctions between the two systems, the literature study lays a theoretical framework. The case studies illustrate the benefits of adopting lean accounting processes with real-world examples of firms that have made the transition effectively.
In the quantitative analysis of lean accounting's impact, both financial and operational factors are examined extensively. The results indicate that companies embracing lean accounting practices experience significant improvements in productivity, cost reduction, and decisionmaking quality. By highlighting the potential gains to be made by incorporating lean techniques into accounting procedures, this study adds to the current body of information on lean management. The findings offer practical implications for accounting professionals, business leaders, and policymakers interested in leveraging lean accounting to drive organizational performance improvement. The thesis finishes with suggestions for further study in this area, lean accounting.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Building energy management systems (BEMSs), dedicated to sustainable buildings, may have additional duties, such as hosting efficient energy management systems (EMSs) algorithms. This duty can become crucial when operating renewable energy sources (RES) and eventual electric energy storage systems (ESSs). Sophisticated EMS approaches that aim to manage RES and ESSs in real time may need high computing capabilities that BEMSs typically cannot provide. This article addresses and validates a fuzzy logic-based EMS for the optimal management of photovoltaic (PV) systems with lead-acid ESSs using an edge computing technology. The proposed method is tested on a real smart grid prototype in comparison with a classical rule-based EMS for different weather conditions. The goal is to investigate the efficacy of islanding the building local network as a control command, along with ESS power control. The results show the implementation feasibility and performance of the fuzzy algorithm in the optimal management of ESSs in both operation modes: grid-connected and islanded modes.
Gamification wird in vielen Bereichen, die auch den Bildungssektor einschließen, zur Motivations- und Leistungssteigerung eingesetzt. Dieser Beitrag beschreibt das Design, die Umsetzung und Evaluierung eines Gamification-Konzeptes für die Vorlesung „Software Engineering" an der Hochschule Offenburg. Gamification soll nach Intention der Lehrenden eine kontinuierliche und tiefergehende Auseinandersetzung mit den Themen der Vorlesung forcieren sowie einen positiven Einfluss auf die Motivation der Studierenden haben, um den Lernprozess zu unterstützen. Zentral für das Gamification-Design sind dabei eine freiwillige Teilnahme, die Wahrnehmung der Bedeutung der Lerninhalte und ein zielorientierter Einsatz von Gamification-Elementen. Das entwickelte Konzept wurde in der Lernplattform Moodle realisiert, über drei Semester eingesetzt und parallel evaluiert. Die Ergebnisse dieser Evaluierungen zeigen, dass die Studierenden den gamifizierten Kurs intensiv und oft über das gesamte Semester nutzten und aus eigenem Antrieb eine Vielzahl von Übungen absolvierten.
Die vorliegende Bachelorarbeit untersucht die Anwendung der Transformer-Architektur bei der Entwicklung eines Chatbots für die Auskunft von Studieninformationen. Sie bietet eine gründliche Einführung in Chatbots, deren Funktionsweise und Klassifikation sowie in die Grundlagen neuronaler Netzwerke, Deep Learning und Natural Language Processing. Insbesondere die Transformer-Architektur und ihre Hauptkomponenten werden eingehend analysiert. Im Zuge dessen werden auch aktuelle Forschungen im Bereich Large Language Models und Fine-Tuning berücksichtigt.
Im praktischen Teil erfolgt die Darstellung der Konzeption, Implementierung und Evaluierung eines Chatbots für die Studienauskunft. Der erstellte Chatbot nutzt eine semantische Suche in Kombination mit einem Large Language Model, was sich als attraktive Alternative zu herkömmlichen Chatbots erweist. Zwar ist der aktuelle Entwicklungsstand des Chatbots noch nicht für die produktive Nutzung geeignet, dennoch zeigt er Potenzial für vielfältige Einsatzmöglichkeiten bei fortlaufender Entwicklung.
Die Arbeit schließt mit einer Diskussion ethischer Aspekte und zeigt zukünftige Forschungsmöglichkeiten auf. Die erzielten Erkenntnisse könnten für eine Vielzahl von Kontexten relevant sein und einen signifikanten Beitrag zur Entwicklung effizienter und genauer Informationsabfragesysteme leisten.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
Die Analytik von Pflanzenkohle ist besonders im Hinblick auf einen möglichen Einsatz in der Landwirtschaft als Düngemittel Ersatz wichtig, da bei der Herstellung krebserregende polyzyklische aromatische Kohlenwasserstoffe (PAK) entstehen. Die PAK-Analytik bietet die Möglichkeit zu überprüfen und zu kontrollieren, wie viel belastetes Material auf diese Weise in die Umwelt eingeführt wird. In dieser Arbeit werden mögliche Methoden zur Extraktion und Analyse im Hinblick auf einen Schnelltest mit der bestehenden Methode bestehend aus Soxhlet-Extraktion und GC-MS Analyse verglichen. Untersucht werden die 16 EPA-PAK. Ein Schnelltest würde den Herstellern von Pflanzenkohle eine günstigere und engmaschigere Überwachung ihrer Produkte bieten.
Für die Extraktion wurden Ultraschallbad, Schüttler und Mikrowelle getestet, sowie verschiedene grüne Lösemittel als mögliche Alternativen zum momentan verwendeten Toluol. Die Extraktion mit 6 h Ultraschallbad hat mit 64% im Verhältnis zur Soxhlet am besten abgeschnitten. Bei dem Vergleich zweier Ultraschallbad-Extrakte mit den Soxhlet-Referenzen wurden jedoch 43 % und 93 % für die Summe der 16 EPA PAK gemessen. Die Methode bedarf also weiterer Untersuchungen.
Für die Analyse wurde HPTLC mit RP-18 Platten und einem Acetonitril-Wasser-Gemisch als mobile Phase getestet. Es wurden drei mögliche Methoden für die Gestaltung eines Schnelltestes getestet, ein Summenpeak mit allen 16 EPA-PAK und Naphthalin oder Benzo[a]pyren als Indikatorsubstanz. Aus diesen Versuchen geht das Standard-Additionsverfahren mit Benzo[a]pyren erfolgreich hervor, da die Ergebnisse durch die GC-MS-Analyse der gleichen Extrakte bestätigt werden konnten. Die Bestimmung von LOD und LOQ bestätigt, dass die Methode empfindlich genug ist, um den nötigen Messbereich erfassen zu können. Es wurden auch Versuche mit Coffein imprägnierten Platten durchgeführt. Diese Methode ist jedoch wegen der notwendigen Zweifachentwicklung deutlich aufwendiger und wurde daher nicht für die quantitativen Versuche gewählt.
Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung kleiner Elektromotoren
(2023)
Die vorliegende Arbeit beschäftigt sich mit der Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung mit gekerbten Wellen, die innerhalb kleiner Elektromotoren für unterschiedliche Anwendungen mit spezifischen Anforderungen eingesetzt werden. Die Arbeit kann in vier Schritte unterteilt werden.
Im ersten Schritt werden die relevanten Schädigungsmechanismen bestimmt, die während der Betriebszeit der Verbindung für ein Ausfall der Baugruppe sorgen können.
Anschließend wurde aus der Baukastenannahme des Geschäftsbereichs Electrical Drives der Robert Bosch GmbH die Anforderungen an die jeweilige Ausführung abgeleitet und aufgeführt.
Um zu überprüfen, ob die eingesetzten Welle-Nabe-Verbindung die entstehenden Belastungen übersteht, wurde anschließend ein Berechnungskonzept durch Anpassungen an die spezielle eingesetzte Welle-Nabe-Verbindung erstellt, wodurch der Anwender die Möglichkeit hat, die zu erwartenden Fügekräfte bei der Herstellung der Verbindung, sowie das jeweilige übertragbare Drehmoment.
Im letzten Schritt werden die gesammelten berechneten Ergebnisse mit bereits vorhandenen Versuchsdaten der Ausführungen mit Einsatz einer 8 mm Welle aus C60 +C und einer Kerbanzahl von 8 symmetrisch angeordneten Kerben und einer Paketlänge von 18 mm , sowie einer Ausführung mit 8 mm Wellen aus C45 +AC, die lokal induktiv vergütet wurden, mit einer Kerbanzahl von 4 symmetrischen Kerben mit einer Paketlänge von 23 mm verglichen und evaluiert.
In den letzten Jahren entstand ein regelrechter Hype um das Thema Kryptowährungen und sie sind in Gesellschaft, Politik und Wirtschaft kaum noch wegzudenken. Trotz der hohen Volatilität und des Risikos für Investoren werden Kryptowährungen teilweise auch als eine Alternative für herkömmliche Währungen angesehen. Daher stellt sich die Frage, ob die Einstellung zu Kryptowährungen und auch das Investitionsverhalten auf einer sorgfältigen Auseinandersetzung von Argumenten basiert. Dafür wurde die Forschungsfrage: „Basieren Kaufverhalten und Einstellung zu Kryptowährungen eher auf der intensiven Auseinandersetzung mit tatsächlichen Argumenten oder auf oberflächlichen Reizen?“ aufgestellt. Zur Untersuchung dieser wurde eine Umfrage mit 283 Teilnehmenden durchgeführt. Auf Basis theoretischer Überlegungen zur Einstellungsforschung durch das Elaboration-Likelihood-Model wurde ein Fragebogen entworfen, der den Einfluss der Elaboration auf die Einstellung und das Kaufverhalten empirisch messbar machen sollte. Durch eine Kausalanalyse mittels Strukturgleichungsmodell konnte ein teilweise signifikanter Einfluss von elaborationsbestimmenden Größen auf Einstellung und Kaufverhalten festgestellt werden. Eine Überprüfung der Gütekriterien des Fragebogens mittels explorativer und konfirmatorischer Faktoranalyse ergab in Hinsicht auf Reliabilität und Validität jedoch keine zufriedenstellenden Ergebnisse. Die Ergebnisse des Kausalmodells sollten deswegen mit Vorsicht betrachtet werden. In weiterführenden Forschungen könnte die Struktur der durch den Fragebogen erhobenen Konstrukte für Elaboration und Einstellung überarbeitet werden, um eine bessere Reliabilität und Validität zu erreichen und somit genauere Aussagen über die eigentlichen Beziehungen der Konstrukte treffen zu können.
Public export credits and trade insurance require a global framework of institutions, rules and regulations to avoid subsidies and a race to the bottom. The extensive modernisation of the Arrangement on Officially Supported Export Credits (Arrangement) of the Organisation for Economic Co-operation and Development intends to re-level the playing field. This Practitioner Commentary describes the demand for adequate government interventions, considers the need for the reform and discusses key aspects of the new Arrangement. We argue that there is a breakthrough in several important areas such as tenors, repayment terms and green finance. However, we also find that the modernisation falls short in areas such as the interplay between different rulebooks, pre-shipment instruments' regulations and climate action.
Linux and Linux-based operating systems have been gaining more popularity among the general users and among developers. Many big enterprises and large companies are using Linux for servers that host their websites, some even require their developers to have knowledge about Linux OS. Even in embedded systems one can find many Linux-based OS that run them. With its increasing popularity, one can deduce the need to secure such a system that many personnel rely on, be it to protect the data that it stores or to protect the integrity of the system itself, or even to protect the availability of the services it offers. Many researchers and Linux enthusiasts have been coming up with various ways to secure Linux OS, however new vulnerabilities and new bugs are always found, by malicious attackers, with every update or change, which calls for the need of more ways to secure these systems.
This Thesis explores the possibility and feasibility of another way to secure Linux OS, specifically securing the terminal of such OS, by altering the commands of the terminal, getting in the way of attackers that have gained terminal access and delaying, giving more time for the response teams and for forensics to stop the attack, minimize the damage, restore operations, and to identify collect and store evidence of the cyber-attack. This research will discuss the advantages and disadvantages of various security measures and compare and contrast with the method suggested in this research.
This research is significant because it paints a better picture of what the state of the art of Linux and Linux-based operating systems security looks like, and it addresses the concerns of security enthusiasts, while exploring new uncharted area of security that have been looked at as a not so significant part of protecting the OSes out of concern of the various limitations and problems it entails. This research will address these concerns while exploring few ways to solve them, as well as addressing the ideal areas and situations in which the proposed method can be used, and when would such method be more of a burden than help if used.
In this paper, the performance of different continuous-time and discrete-time models of the electrical subsystem of induction machines and permanent-magnet synchronous machines as well as methods based on them for decoupling the direct and
quadrature axis components of the stator current are investigated and compared. The focus here is on inverter-fed, pulse width modulated drives when operated with a relatively large product of stator frequency and sampling time, where significant
differences between the models and decoupling methods used come to light. Recommendations for a discrete-time model to be used uniformly in the future are made, as well as statements on whether feedforward or feedback decoupling structures are better suited and whether state controllers improve decoupling measures for very steep speed ramps. Simulation studies and measurement results support the statements made above.
In recent years, the demand for reliable power, driven by sensitive electronic equipment, has surged. Even minor deviations from the nominal supply can lead to malfunctions or failure. Despite technological advancements, power quality issues persist due to various factors like short circuits, overloads, voltage fluctuations, unbalanced loads, and non-linear loads.
This thesis extensively explores power quality anomalies in industrial and commercial sectors, using power system data as the primary analytical resource. It addresses the critical need for power supply reliability in today's evolving power grid industry, affected by non-linear loads, renewable energy integration, and electric vehicles. This field of study is paramount for ensuring power supply reliability and stability in the evolving power grid industry.
The core of this thesis involves a comprehensive investigation of power quality, with a focus on frequency, power, and harmonics in voltage and current signals. The research employs Python programming for advanced data analysis, utilizing techniques such as advanced Fast Fourier Transformation (FFT) analysis. The primary objective is to provide valuable insights aimed at elevating power supply quality and enhancing reliability in both industrial and commercial environments.
Künstliche Intelligenz (KI) durchdringt unser Leben immer stärker. Studierende werden im Alltag und an Hochschulen zunehmend mit KI-Anwendungen konfrontiert. An der Hochschule Offenburg werden deshalb KI-bezogene Lehrangebote curricular verankert, um Studierende im Erwerb von KI-Kompetenz zu unterstützen.
Der Beitrag stellt ein Konzept für die Entwicklung von Lehrveranstaltungen nach der Idee des pädagogischen Makings zur Förderung von KI-Kompetenz in der Hochschullehre vor. Konkretisiert wird das Konzept anhand eines Moduls zum Thema Chatbots, dessen Lehrinhalte interdisziplinär aus verschiedenen Perspektiven ausgearbeitet werden.
This thesis deals with the redesign of manufacturing systems by simulation and optimization. Material flow simulation is a common tool for solving problems in system design. Limitations are the high requirements in time and knowledge to execute simulation studies, evaluate results and solve design problems. New chances arrives with the technologies of industry 4.0 and the digital shadow, providing data for simulation. However, the methods to use production data for the redesign of production systems are not available yet. Purpose of this work is providing the methods to automate simulation from digital shadow, use simulation to optimize and solve problems in system design. Two case studies are used to support the action research approach of this work. The result of this work is a framework for the application of the digital shadow in optimization and problem-solving.
This article provides an overview of the legal framework for website marketing. The presentation of the numerous legal provisions, which are spread over several areas of law, is oriented towards business challenges and measures. After placing the website in the context of marketing, the article focuses on the legal framework relating to the establishment, design and operation of a website. If, in addition to its communication function, a website also has a sales function, i. e. in e-commerce (online trade), additional specific legal conditions must be taken into account.
Voice User Experience
(2023)
Sprachassistenten wie Alexa, Google Assistant, Siri, Cortana, Magenta und Bixby erfreuen sich dank ihrer intuitiven, schnellen und bequemen Interaktionsmöglichkeiten zunehmender Beliebtheit und bieten deshalb spannende Möglichkeiten für die Weiterentwicklung des digitalen Kundendialogs. Doch ob die Technologie wirklich breite Akzeptanz finden wird, hängt nicht nur mit ihrer technischen Qualität oder Usability zusammen. Auch die User Experience, die neben den Reaktionen der Nutzer*innen während der Anwendung auch ihre Erwartungen und Wahrnehmungen vor und nach der Anwendung umfasst, spielt eine zentrale Rolle. Die Messung der Qualität der Voice User Experience (Voice UX) ist daher von großem Interesse für die Bewertung und Optimierung von Sprachapplikationen. Die Frage, wie die Voice UX von sprachgesteuerten Systemen gemessen werden kann, ist jedoch noch offen. Aktuelle Methoden stützen sich häufig auf UX-Forschung zu grafischen Benutzeroberflächen, obwohl die sprachbasierten Interaktionsformen in der Regel weder visuell noch haptisch greifbar sind. In unserem Beitrag möchten wir den aktuellen Status quo der deutschen Voice User Experience untersuchen. Folgende Fragen stehen dabei im Mittelpunkt: Wie können Sprachanwendungen zu einem erfolgreichen Kundendialog beitragen? Welche Nutzerirritationen treten aktuell bei der Anwendung von Sprachassistenten auf? Mit welchen Methoden lässt sich die Voice User Experience messen?
The present paper addresses the research question: What recommendations for action and potential adjustments should an online magazine for beauty and fashion implement in order to make affiliate articles in these sections even more appealing to the target group and provide added value for them?
To be able to answer this research question, three hypotheses were defined and tested with using qualitative and quantitative research. The qualitative research consisted of user experience testings, where four affiliate articles in the fields of beauty and fashion were tested with 13 participants. The quantitative research involved collecting, analyzing and evaluating data from the four affiliate articles conducted with the company's real-life target group. Based on these results, recommendations for action were derived, which should not only improve the quality of the content in the future, but also increase the efficiency of the implementation of those articles.
Design Thinking wird im Wesentlichen als Methode zur Lösung komplexer Probleme und Entwicklung neuer Ideen verstanden.
Doch das mit dem Design Thinking einhergehende Mindset kann für breite und vielfältige Fragestellungen nutzbar sein und geht weit über die Methodik zur Lösung komplexer Probleme und Entwicklung neuer Ideen hinaus. Es besteht aus den Komponenten Empathie, non-lineare und lineare Denkweise, Experimentierfreude und Offenheit.
Die wissenschaftliche Auseinandersetzung mit praktischen Anwendungsbeispielen zeigt, wie durch das Design Thinking Mindset der Denkhorizont in Richtung Zukunft erweitert wird. Der Herausgeber Robert Gücker und fünf Autorinnen geben einen fundierten Einblick in das “Design Thinking Mindset”. In einem breiten Spektrum umfassen die Themen des vorliegenden Sammelbandes den Zusammenhang von Design Thinking und Unternehmenskultur, Arbeitszufriedenheit der Mitarbeitenden und Resilienz, die Möglichkeiten der Erreichung des Design Thinking Mindsets durch Workshops und gezielte Führungsentwicklungsmaßnahmen bis hin zur Betrachtung des Herausgebers, der die Metapher der qualitativen Forschung für Design Thinking vorschlägt.
Die wissenschaftliche Auseinandersetzung der fünf Autorinnen mit der Thematik erfolgt auf Grundlage von umfangreichen Literaturrecherchen und Expertenbefragungen, deren Erkenntnisse auf den Praxiseinsatz übertragen werden. Im Sammelband finden Sie damit in kompakten Beiträgen einen fundierten Überblick an Möglichkeiten und Chancen, wie Unternehmen anhand der Anwendung von Design Thinking bei ihren Mitarbeitenden und Führungskräften einen Mindshift in Richtung Zukunft schaffen und welche Rahmenbedingungen nötig sind, um zu einer resilienten Organisation mit zufriedenen Mitarbeitenden zu werden.
Die Ergebnisse der Beiträge bestätigen eine positive Wirkung in Richtung Zukunftskompetenzen, die sich aus einer Haltung ergeben, welches dem Design Thinking Mindset entspricht.
Mit praktischen Anwendungsbeispielen bietet das Buch nicht nur Personalverantwortlichen sowie Organisationsentwicklern wissenschaftlich fundiert und praxisnah neue Ansätze.