Refine
Year of publication
- 2023 (171) (remove)
Document Type
- Bachelor Thesis (104)
- Master's Thesis (65)
- Conference Proceeding (1)
- Other (1)
Conference Type
- Konferenzband (1)
Has Fulltext
- yes (171)
Is part of the Bibliography
- no (171) (remove)
Keywords
- IT-Sicherheit (11)
- Biomechanik (9)
- Marketing (9)
- Künstliche Intelligenz (8)
- Medizintechnik (7)
- Computersicherheit (5)
- Maschinelles Lernen (5)
- Social Media (5)
- Electronic Commerce (4)
- Elektromotor (4)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (67)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (57)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (38)
- Fakultät Wirtschaft (W) (12)
- INES - Institut für nachhaltige Energiesysteme (2)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (2)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
- POIM - Peter Osypka Institute of Medical Engineering (1)
Open Access
- Closed (144)
- Closed Access (18)
- Diamond (9)
- Open Access (9)
Linux and Linux-based operating systems have been gaining more popularity among the general users and among developers. Many big enterprises and large companies are using Linux for servers that host their websites, some even require their developers to have knowledge about Linux OS. Even in embedded systems one can find many Linux-based OS that run them. With its increasing popularity, one can deduce the need to secure such a system that many personnel rely on, be it to protect the data that it stores or to protect the integrity of the system itself, or even to protect the availability of the services it offers. Many researchers and Linux enthusiasts have been coming up with various ways to secure Linux OS, however new vulnerabilities and new bugs are always found, by malicious attackers, with every update or change, which calls for the need of more ways to secure these systems.
This Thesis explores the possibility and feasibility of another way to secure Linux OS, specifically securing the terminal of such OS, by altering the commands of the terminal, getting in the way of attackers that have gained terminal access and delaying, giving more time for the response teams and for forensics to stop the attack, minimize the damage, restore operations, and to identify collect and store evidence of the cyber-attack. This research will discuss the advantages and disadvantages of various security measures and compare and contrast with the method suggested in this research.
This research is significant because it paints a better picture of what the state of the art of Linux and Linux-based operating systems security looks like, and it addresses the concerns of security enthusiasts, while exploring new uncharted area of security that have been looked at as a not so significant part of protecting the OSes out of concern of the various limitations and problems it entails. This research will address these concerns while exploring few ways to solve them, as well as addressing the ideal areas and situations in which the proposed method can be used, and when would such method be more of a burden than help if used.
AI-based Ground Penetrating Radar Signal Processing for Thickness Estimation of Subsurface Layers
(2023)
This thesis focuses on the estimation of subsurface layer thickness using Ground Penetrating Radar (GPR) A-scan and B-scan data through the application of neural networks. The objective is to develop accurate models capable of estimating the thickness of up to two subsurface layers.
Two different approaches are explored for processing the A-scan data. In the first approach, A-scans are compressed using Principal Component Analysis (PCA), and a regression feedforward neural network is employed to estimate the layers’ thicknesses. The second approach utilizes a regression one-dimensional Convolutional Neural Network (1-D CNN) for the same purpose. Comparative analysis reveals that the second approach yields superior results in terms of accuracy.
Subsequently, the proposed 1-D CNN architecture is adapted and evaluated for Step Frequency Continuous Wave (SFCW) radar, expanding its applicability to this type of radar system. The effectiveness of the proposed network in estimating subsurface layer thickness for SFCW radar is demonstrated.
Furthermore, the thesis investigates the utilization of GPR B-scan images as input data for subsurface layer thickness estimation. A regression CNN is employed for this purpose, although the results achieved are not as promising as those obtained with the 1-D CNN using A-scan data. This disparity is attributed to the limited availability of B-scan data, as B-scan generation is a resource-intensive process.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
The objective of this project is to enhance the operations of a micro-enterprise that deals with food ingredients. The emphasis is on streamlining procedures and executing effective tactics. By utilizing tools like SWOT analysis, evaluations, and strategy development, the company's strengths, weaknesses, opportunities, and threats were assessed. The company developed business-level and functional-level strategies to expedite growth and attain objectives based on the findings. Moreover, precise suggestions were given to minimize the quantity of SKUs and optimize operations. The work highlighted the significance of developing a process map for streamlining operations, boosting efficiency, and elevating customer contentment. Through the implementation of said recommendations and strategies, the company can strategically position itself for success within the highly competitive food ingredients industry.
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
Zur ergonomischen Unterstützung von Industriearbeitern werden zunehmend Exoskelette eingesetzt. Studien über die Wirkung und den Einfluss von Exoskeletten auf den Körper sind jedoch rar. Diese Arbeit beschäftigt sich daher mit der Wirkung des Rückenexoskeletts BionicBack des deutschen Exoskelett Herstellers hTRIUS auf die Wirbelsäulenkrümmung bei industriellen Hebearbeiten. Im Speziellen wird die Wirbelsäulenkrümmung beim Umpalettieren aus drei verschiedenen Hebehöhen (91 cm, 59 cm, 15 cm) mit Hilfe eines markerbasierten 3D Motion Capture Systems untersucht. Um den Versuchsaufbau alltagsnah und realistisch zu gestalten, wurde diese Pilotstudie in Kooperation mit der Firma Zehnder am Standort Lahr durchgeführt, die sowohl die Probanden als auch den Versuchsaufbau zur Verfügung stellte. Vier gesunde männliche Probanden mit einem durchschnittlichen Alter von 39,5 Jahren (SD = 6,5), einem durchschnittlichen Körpergewicht von 72,75 kg (SD = 7,1) und einer durchschnittlichen Körpergröße von 175 cm (SD = 2,6) wurden in zwei Schichten eingeteilt. Mit den Probanden wurden vor und nach der Schicht sowie an zwei aufeinander folgenden Tagen Messungen durchgeführt, wobei an einem Tag das BionicBack während der Arbeit und der Messung getragen wurde und am an-deren Tag nicht. Während einer Messung nahmen die Testpersonen ein Paket mit einem Gewicht von 21,1 kg dreimal von jeder Hebehöhe von einer Palette auf und legten es auf einer anderen ab. Anschließend wurde die Krümmung der Wirbelsäule am tiefsten Punkt der Hebebewegung untersucht, wobei die Gesamtkrümmung in dieser Position durch die Addition von drei repräsentativen Segmentwinkeln dargestellt wird. Die Abweichung dieser Gesamtkrümmungen in der tiefsten Beugeposition von der individuellen neutralen Wirbelsäulenstellung der Probanden im Stehen ergeben die Werte, die zwischen den einzelnen Versuchsbedingungen verglichen werden. Die Ergebnisse zeigen, dass das BionicBack den Abstand zur Neutralstellung bzw. die Gesamtkrümmung des Rückens im Vergleich zu ohne BionicBack bis zu -11,5° (Median: -11,5° (SD = 5,2); Mittelwert: -8,4° (SD = 6,4)) entsprechend -30% vor der Schicht und bis zu -5,6° (Median: -5,6° (SD = 3,5); Mittelwert: -4,1° (SD = 5,4)) ent-sprechend -17% nach der Schicht reduzieren kann. Die Betrachtung der einzelnen Segmentwinkel zeigt, dass die Reduzierung des Abstandes von der Neutralstellung hauptsächlich im Lendenwirbelbereich stattfindet. Der Vergleich der Wirbelsäulen-krümmung vor und nach der Schicht ohne BionicBack zeigt, dass die Wirbelsäulen-krümmung nach der Schicht, mit Ausnahme der tiefsten Hebehöhe, eine größere Abweichung von der Neutralstellung aufweist als vor der Schicht. Der Vergleich mit BionicBack zeigt, dass die Wirbelsäulenkrümmung nach der Schicht mit Ausnahme der niedrigsten Hubhöhe nicht bzw. weniger von der Neutralstellung abweicht als vor der Schicht. Aufgrund der Ergebnisse wird vermutet, dass das BionicBack durch die Unterstützung einer neutraleren Rückenhaltung das Verletzungsrisiko reduzieren kann. Des Weiteren wird vermutet, dass die Muskelermüdung während einer Arbeitsschicht einen Einfluss auf die Wirbelsäulenkrümmung beim Heben hat. Es wird angenommen, dass dieser Einfluss durch das BionicBack reduziert werden kann. Allerdings dürfen die Grenzen dieser Pilotstudie nicht außer Acht gelassen werden. Sei es die Anzahl der Versuchspersonen, die keine Aussage über die Allgemeingültigkeit zu-lässt und keine effektive statistische Analyse erlaubt, oder systematische Fehler, die aufgrund der Modellvereinfachung und der Methodik auftreten können. Weitere Untersuchungen sind erforderlich, um die Ergebnisse zu validieren. Diese Arbeit soll die Grundlage für weitere Studien mit einer weiterentwickelten Methodik und einer größeren Anzahl von Probanden bilden.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
To date, many experiments have been performed to study how the internal geometrical shapes of the annular liquid seal can reduce internal leakage and increase pump efficiency. These can be time-consuming and expensive as all rotordynamic coefficients must be determined in each case.
Nowadays, accurate simulation methods to calculate rotordynamic coefficients of annular seals are still rare. Therefore, new numerical methods must be designed and validated for annular seals.
The present study aims to contribute to this labour by providing a summary of the available test rig and seals dimensions and experimental results obtained in the following experiments:
− Kaneko, S et al., Experimental Study on Static and Dynamic Characteristics of Liquid Annular Convergent-Tapered Seals with Honeycomb Roughness Pattern (2003) [1] − J. Alex Moreland, Influence of pre-swirl and eccentricity in smooth stator/grooved rotor liquid annular seals, static and rotordynamic characteristics (2016) [2]
A 3D CAD simulation with Siemens NX Software of the test rig used in J. Alex Moreland’s experiment has been made. The following annular liquid seals have also been 3D modelled, as well as their fluid volume:
− Smooth Annular Liquid Seal (SS/GR) (J. Alex Moreland experiment)
− Grooved Annular Liquid Seal (GS/SR)
− Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 mm) (GS/SR)
− Straight Honeycomb Annular Liquid Seal (GS/SR)
− Convergent Honeycomb Annular Liquid Seal (No. 3) (GS/SR)
− Smooth Annular Liquid Seal (SS/SR) (S. Kaneko experiment)
In the case of the seals used in S. Kaneko’s experiments, the test rig has been adapted to each seal, defining interpart expressions which can be easily modified.
Afterwards, it has been done a CFD simulation of the Smooth Annular Liquid Seal using Ansys CFX Software. To do so, the fluid volume geometry has been simplified to do a first approximation. Results have been compared for an eccentricity 𝜀0=0.00 for the following ranges of rotor speeds and differential of pressure:
− Δ𝑃= 2.07, 4.14, 6.21, and 8.27 bar,
− 𝜔= 2, 4, 6 and 8 krpm.
Even results obtained have the same trend as the one proportionated by the literature, they cannot be validated as the error is above 5%. It is also observed that as the pressure drop increases, the relative error decreases considerably.
Der Heel-Rise Test (HRT) wird in der Klinik und der Therapie benutzt, um die Funktionsfähigkeit der Wadenmuskulatur einzuschätzen. Eine Orientierung am Normwert von 25 Wiederholungen hilft dabei, die Muskulatur als normal oder anormal einzustufen. Dieser Wert beruht jedoch auf eine älteren und nicht mehr zeitgemäßen Studie. Auch ist fraglich, ob der absolut erreichte Wert eines HRTs eine direkte Aussage über die Funktionsfähigkeit der Plantarflexoren geben kann.
Das Ziel dieser Arbeit ist somit den HRT mit einer Maximalkraftmessung auf dem Isokineten zu vergleichen und diese auf einen möglichen Zusammenhang zu prüfen. Dazu kann folgende Forschungsfrage aufgestellt werden: „Können die Messergebnisse des HRT eine positive Korrelation mit einer Maximalkraftmessung am Isokineten eingehen?“
Für die Beantwortung der Forschungsfrage ist eine quantitative Untersuchung der beidseitigen Wadenkraft von 20 jungen und gesunden Teilnehmer*innen durchgeführt worden. Dabei wurde das Bein, mit dem die Kraftuntersuchung beginnt, randomisiert. Da ein linearer Zusammenhang zwischen den HRT-Messwerten und einer Maximalkraftmessung auf dem Isokineten vermutet wird, wird dieser durch eine Korrelationsanalyse nach Bravais-Pearson geprüft.
Der Vergleich der Kraftmessungen zeigt, dass die HRT-Ergebnisse eine moderate bis hohe positive Korrelation mit den Maximalkraftwerten auf dem Isokineten eingehen. Dabei hat die Beindominanz sowie die Testreihenfolge der Beine keinen großen Einfluss auf die Ergebnisse. Untersucht man Männer und Frauen getrennt, hebt sich jedoch die positive Korrelation auf und es kann ein geringer, bis kein Zusammenhang zwischen dem HRT und der Maximalkraft auf dem Isokineten festgestellt werden. Zudem ist zu erkennen, dass Männer in allen Kraftuntersuchungen höhere Kraftergebnisse erzielt haben. Da die Stichprobe nur junge, gesunde und aktive Menschen umfasst, sind Aussagen über erkrankte Personen, ältere Menschen oder den Einfluss der Leistungsfähigkeit nicht möglich.
Durch die positive Korrelation des HRT mit dem Goldstandard der Kraftdiagnostik, der Isokinetitk, scheint die Kritik am HRT entkräftet zu werden. Jedoch sind die Ergebnisse mit Vorsicht zu betrachten, da sich bei Betrachtung des Geschlechts die positive Korrelation aufhebt. Das Ergebnis der Arbeit soll, im Anbetracht der Limitation, trotzdem ermutigen, den HRT weiterhin für die Kraftdiagnostik der Wadenmuskulatur zu nutzen. Die eingeschränkte Stichprobengröße, eine fehlende Standardisierung der HRT-Durchführung, sowie die vielen Auswahlwahlmöglichkeiten in der Isokinetik machen es kompliziert die Ergebnisse dieser Arbeit auf andere Personengruppen oder Messmethoden zu übertragen. Dennoch gibt die Untersuchung einen ersten Einblick und ermöglicht die Aussagekraft des HRT zu stützen und somit seine Bedeutung und Qualität für die Kraftdiagnostik zu verbessern.
Das Ziel der vorliegenden Bachelorarbeit ist die Implementierung und Verbesserung der nichtmodellbasierten und pixelweisen Kalibrierung von Industriekameras in MATLAB. Hierfür wird eine homogene Helligkeitsregulierung zwischen Monitor und Kamera mittels Randfindung, Einstellen der Belichtungszeit und Regulierung der Monitorgrauwerte entwickelt, um systembasierte Fehler der Kamera wie die Vignettierung ausgleichen zu können. In mehreren Versuchen wird die Implementierung validiert. Im Rahmen der Bachelorarbeit wird herausgefunden, dass die homogene Helligkeitsregelung die Ergebnisse in einer orthogonalen Positionierung zum Monitor nicht wesentlich verändert. Vor allem aber wird die Kalibrierung bei größeren Winkeln robuster. Neben der Implementierung wird eine Benutzeroberfläche eingebunden, die auch Anwenderfehler in Bezug auf die Linearführungsschiene verhindern soll.
Cloud computing is a combination of technologies, including grid computing and distributed computing, that use the Internet as a network for service delivery. Organizations can select the price and service models that best accommodate their demands and financial restrictions. Cloud service providers choose the pricing model for their cloud services, taking the size, usage, user, infrastructure, and service size into account. Thus, cloud computing’s economic and business advantages are driving firms to shift more applications to the cloud, boosting future development. It enlarges the possibilities of current IT systems.
Over the past several years, the ”cloud computing” industry has exploded in popularity, going from a promising business concept to one of the fastest expanding areas of the IT sector. Most enterprises are hosting or installing web services in a cloud architecture for management simplicity and improved availability. Virtual environments are applied to accomplish multi-tenancy in the cloud. A vulnerability in a cloud computing environment poses a direct threat to the users’ privacy and security. In our digital age, the user has many identities. At all levels, access rights and digital identities must be regulated and controlled.
Identity and access management(IAM) are the process of managing identities and regulating access privileges. It is considered as a front-line soldier of IT security. It is the goal of identity and access management systems to protect an organization’s assets by limiting access to just those who need it and in the appropriate cases. It is required for all businesses with thousands of users and is the best practice for ensuring user access control. It identifies, authenticates, and authorizes people to access an organization’s resources. This, in turn, enhances access management efficiency. Authentication, authorization, data protection, and accountability are just a few of the areas in which cloud-based web services have security issues. These features come under identity and access management.
The implementation of identity and access management(IAM) is essential for any business. It’s becoming more and more business-centric, so we need more than technical know-how to succeed. Organizations may save money on identity management and, more crucially, become much nimbler in their support of new business initiatives if they have developed sophisticated IAM capabilities. We used these features of identity and access management to validate the robustness of the cloud computing environment with a comparison of traditional identity and access management.
Als Bachelorarbeit wurde ein Drehbuch ausgearbeitet. Hierbei handelt es sich um die Pilotfolge einer selbst konzipierten Serie.
Kurzzusammenfassung:
Anna, Tess, Felix und Vincent sind in ihren Zwanzigern und treten alle zur gleichen Zeit in einem Unternehmen ihre erste Stelle an. Neben den Unsicherheiten und Problemen, die mit einer neuen Stelle auftreten, müssen sich die vier auch mit ihren privaten Konflikten auseinandersetzen.
Viralität auf TikTok
(2023)
Die Social Media Plattform TikTok erfreut sich spätestens seit der Corona-Pandemie einer immer größer werdenden Gemeinschaft. Mittlerweile verfügt die App über mehr als 20 Millionen Nutzer:innen - alleine in Deutschland. Virale Videos sprießen förmlich aus dem Boden. Diese Masterarbeit beschäftig sich mit der Frage, welche Faktoren der Viralität zu Grunde liegen und ob man die Viralität maßgeblich beeinflussen kann. Dies erfolgt mittels theoretischer Grundlagen, einer quantitativen Nutzerumfrage und Experteninterivews mit erfolgreichen deutschen Creatorn. Abschließend werden Videos für TikTok konzipiert und analysiert.
Die vorliegende Pilotstudie untersucht die Anwendbarkeit von Mixed Reality zur Applikation eines externen Fokus während spezifischen Bewegungsaufgaben mit dem Ziel der Verbesserung des Return to Sport Testings. In einem ersten Schritt nahmen daher 9 gesunde FußballerInnen an der Studie teil.
Es wurden Sprünge mittels der speziell entwickelten Mixed Reality Anwendung MotumXR, in drei verschiedenen Bedingungen verglichen. Die erste Bedingung entspricht einem standardisierten vertikalen Sprung ohne spielspezifischen externen Fokus, während die zweite und dritte Bedingung einen Sprung mit spielspezifischem externem Fokus, im Sinne eines simulierten Kopfballs, darstellt. Bedingung zwei und drei unterscheiden sich in der Position der einwerfenden Person, welche den virtuellen Ball leicht versetzt von links oder rechts einwirft. Als Sprungform wurde der Counter Movement Jump gewählt. Es wurden kinetische und kinematische Parameter ermittelt, die es ermöglichen, die Auswirkungen des externen Fokus auf die Sprungbewegung zu erfassen.
Die Ergebnisse zeigen signifikante Unterschiede zwischen den Bedingungen in folgenden biomechanischen Parametern: Absprungzeit, vertikale maximale Bodenreaktionskraft, maximale Kraftanstiegsrate, maximaler Knieflexionswinkel und maximales Knieflexionsmoment. Die Kopfballsituation mit externem spielspezifischem Fokus weißen höhere maximale vertikale Bodenreaktionskräfte und gesteigerte maximale Knieflexionsmomente auf im Vergleich zu der Bedingung des maximalen Sprungs. Diese Befunde deuten darauf hin, dass die Sprungstrategie entsprechend der Aufgabenstellung angepasst wurde und die Kopfballsituation in der Mixed Reality Umgebung eine realitätsnähere Testung ermöglichen könnte. Die Position des Einwerfers zeigt keinen Einfluss auf die Beinsymmetrie. Das deutet darauf hin, dass die Anwendung MotumXR vielversprechende Möglichkeiten für die Weiterentwicklung von RTS-Testungen bietet. Weiterführende Untersuchung, die Personen mit Kreuzbandverletzungen mit einbeziehen, sind nötig, um die Ergebnisse dieser Pilotstudie kritisch zu überprüfen.
Die rasante Digitalisierung verändert die Hochschule Offenburg nachhaltig. Jedes Semester entstehen zahlreiche akademische Arbeiten und Prüfungsdaten, die von hoher Bedeutung für die Qualitätssicherung und den Bildungsprozess sind. Bisher fehlte jedoch eine effiziente Lösung zur Archivierung dieser Daten. Meine Masterarbeit präsentiert ein neues Archivierungskonzept, das eine zentrale, digitale Plattform schafft. Diese ermöglicht es Lehrenden und Studierenden, leicht auf ihre Daten zuzugreifen, sei es für Projektarbeiten, Seminarleistungen oder Prüfungen. Ich stelle nicht nur das Konzept vor, sondern auch die Umsetzung eines Prototyps auf Intrexx, einer Low-Code-Entwicklungsplattform. Mein Ziel ist es, ein Handbuch für zukünftige Entwickler zu hinterlassen, um zur digitalen Transformation der Hochschule beizutragen und die Bildungsprozesse zu optimieren.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
Das Ziel der Bachelorthesis ist die Beantwortung folgender Fragestellung: Wie sieht ein Newsletter aus, der Leads generiert und in zahlende Kundschaft verwandelt? Um die Fragestellung zu beantworten, wurden zahlreiche aktuelle Fachliteraturen, Berichte, Statistiken, Studien und weitere Quellen analysiert und die wichtigsten Erkenntnisse zusammengefasst. Dabei wurden Konzepte aus verschiedenen Bereichen kombiniert und spezifisch auf die Anwendung eines Newsletters ausgerichtet.
Die Bachelorarbeit beantwortet die Fragestellung so, dass sie einen Überblick gibt, was die Unternehmensberatung Schritt für Schritt tun muss, um einen erfolgreichen Newsletter zu planen und umzusetzen. Dafür sind gemäß dieser Bachelorarbeit die folgenden sechs Schritte notwendig: Die Definition der Zielgruppe durch eine Persona und Customer Journey, die Ziele des Newsletters definieren, den Content planen, erstellen und organisieren, E-Mail-Adressen von potenziellen Interessenten sammeln, die Gestaltung der Newsletter-Mails und das Controlling sowie die Optimierung des Newsletters.
Des Weiteren zeigt die Bachelorthesis insgesamt zehn Kriterien auf, die definieren, wie ein Newsletter aussieht, der Leads generiert und in zahlende Kundschaft verwandelt. Diese zehn Kriterien sind die folgenden: zielgruppenspezifische Ausrichtung, Integration in die Customer Journey, Zieldefinition anhand des Back-Planning-Verfahren, hochwertiger Content, Leadmagneten für die Gewinnung von E-Mail-Adressen, strukturierter Aufbau der Mails inklusive Call-to-Action, Storytelling, kreative Gestaltung, professionelle technische Umsetzung durch E-Mail-Marketing-Software und regelmäßiges Controlling und Tests.
Das Ziel der vorliegenden Arbeit war es, den Kopplungskoeffizienten (KK) zwischen der Calcaneus Inversion/Eversion und der Tibia Innen-/Außenrotation zu ermitteln. Dabei wurde die Bewegung beim Barfußlaufen ohne Tape, mit frischem Tape und gebrauchtem Tape verglichen.
Die Durchführung erfolgte mit Hilfe eines markerbasierten Kamerasystems von Qualisys (Qualisys AB, Göteborg, Schweden). Diese Studie wurde mit 10 Probanden (Männer: 5; Frauen: 5, Alter: 24,3 ± 1,49 Jahre) durchgeführt. Zu Beginn wurde die Sprunggelenksstabilität der Probanden getestet, da Probanden mit einer Instabilität nicht miteingeschlossen werden sollten. Die Aufgabe bestand darin, barfuß unter drei Bedingungen (ohne Tape, mit frischem Tape, mit gebrauchtem Tape) mit einer Geschwindigkeit von 4,5 m/s zu laufen. Jede Bedingung hatte drei Durchgänge.
Die Auswertung wurde mit Hilfe von Matlab und statistischer Analyse durchgeführt. Matlab führte die Berechnung des KK zwischen Calcaneus Inversion/Eversion und der Tibiarotation aus. Die statistische Analyse beschrieb die Signifikanz der Werte.
Die Ergebnisse zeigten, dass der KK einen signifikanten Anstieg vom Barfußlaufen ohne Tape zum Laufen mit frischem und gebrauchtem Tape aufwies. Der KK ohne Tape lag bei 0,98 ± 0,38, bei frischem Tape von 1,28 ± 0,42 und bei gebrauchtem Tape bei 1,3 ± 0,42.
Zusammenfassend kann gesagt werden, dass eine signifikante Veränderung des KK bei getaptem Sprunggelenk besteht. Dadurch kann es zu einer verstärkten Rotation der Tibia kommen, was zu einer Überlastung der Strukturen des Kniegelenks und damit zu Knieverletzungen führen kann.
Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung kleiner Elektromotoren
(2023)
Die vorliegende Arbeit beschäftigt sich mit der Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung mit gekerbten Wellen, die innerhalb kleiner Elektromotoren für unterschiedliche Anwendungen mit spezifischen Anforderungen eingesetzt werden. Die Arbeit kann in vier Schritte unterteilt werden.
Im ersten Schritt werden die relevanten Schädigungsmechanismen bestimmt, die während der Betriebszeit der Verbindung für ein Ausfall der Baugruppe sorgen können.
Anschließend wurde aus der Baukastenannahme des Geschäftsbereichs Electrical Drives der Robert Bosch GmbH die Anforderungen an die jeweilige Ausführung abgeleitet und aufgeführt.
Um zu überprüfen, ob die eingesetzten Welle-Nabe-Verbindung die entstehenden Belastungen übersteht, wurde anschließend ein Berechnungskonzept durch Anpassungen an die spezielle eingesetzte Welle-Nabe-Verbindung erstellt, wodurch der Anwender die Möglichkeit hat, die zu erwartenden Fügekräfte bei der Herstellung der Verbindung, sowie das jeweilige übertragbare Drehmoment.
Im letzten Schritt werden die gesammelten berechneten Ergebnisse mit bereits vorhandenen Versuchsdaten der Ausführungen mit Einsatz einer 8 mm Welle aus C60 +C und einer Kerbanzahl von 8 symmetrisch angeordneten Kerben und einer Paketlänge von 18 mm , sowie einer Ausführung mit 8 mm Wellen aus C45 +AC, die lokal induktiv vergütet wurden, mit einer Kerbanzahl von 4 symmetrischen Kerben mit einer Paketlänge von 23 mm verglichen und evaluiert.
When a patient with hearing aids needs to partake in audiometry procedures they need to visit a specialist which costs both time and money. Ideally, the patient should be able to conduct these tests alone, during their own time, and without additional costs. With this idea comes the question of if whether this is possible or not, and, if it is, how.
This thesis explores the throughput of Bluetooth Low Energy and if it is configurable to have a high enough data rate to send high quality audio data with a lossless audio codec while communicating with a low end device. Additionally, this thesis will show that using Rust to develop embedded software is possible and how using it can make the process of doing so easier.
Empfehlungssysteme sind auf E-Commerce-Webseiten omnipräsent und unterstützen die Nutzer an bestimmten Touchpoints beim Onlineshopping, indem sie auf Produkte aufmerksam machen. In den meisten Anwendungsfällen werden Produkte empfohlen, die den Interessen der Nutzer entsprechen oder einen Warenkorb komplettieren sollen. Während klassische Empfehlungssysteme die Nutzer meistens zu Beginn oder zum Ende einer Produktannäherung erreichen, finden sie dazwischen selten Anwendung. Dabei könnten Empfehlungssysteme bereits in die Navigations-Journey der Nutzer integriert werden und so maßgeblich zur Produktauffindbarkeit beitragen. Trotz der Tatsache, dass Empfehlungssysteme maßgeblich zum Geschäftserfolg im Online-Handel beitragen, ist ihre Integration in die Navigation von E-Commerce-Plattformen noch wenig erforscht.
Ziel dieser Arbeit ist es daher zu ergründen, wie ein Empfehlungssystem in der lokalen Navigation von E-Commerce-Plattformen ausgestaltet sein sollte. Dabei soll der Prototyp eines Empfehlungssystems in der lokalen Navigation konzipiert werden, indem einerseits echte Warenkorbdaten einer E-Commerce-Plattform und andererseits Nutzerpräferenzen untersucht werden. Die Untersuchung umfasst die algorithmische Datenverarbeitung von Warenkorbdaten und die Durchführung einer quantitativen Befragung. Darüber hinaus wurde domänenspezifisches Wissen über die Verfahren, Algorithmen, Designkriterien und weitere Erfolgsfaktoren recherchiert.
Die Ergebnisse deuten darauf hin, dass die alleinige Verarbeitung von Warenkorbdaten nicht ausreichend für ein navigatorisches Empfehlungssystem ist, obwohl sich die Alternating Least Squares Matrixfaktorisierung als geeignetes Verfahren herausgestellt hat. Des Weiteren können Empfehlungssysteme in der lokalen Navigation sowohl einen positiven als auch einen negativen Einfluss auf die Nutzerzufriedenheit haben. Aus den Ergebnissen konnte ein detaillierter Prototyp konzipiert und vorgestellt werden. Bei diesem Prototyp handelt es sich um ein Session-basiertes Empfehlungssystem, das den Onlineshopping-Kontext der Nutzer ermitteln kann. Auf dieser Basis kann das System Produktkategorien in Echtzeit empfehlen, die zu diesem Kontext komplementär sind oder einen Social Proof abbilden.
Ziel dieser Arbeit ist die Modellierung und Nutzung eines digitalen Zwillings am Beispiel eines realen Tiny-Houses. Dazu werden für die Komponenten der technischen Gebäudeausrüstung Wärmepumpe, thermische Speicher, thermoaktives Bauteilsystem, PVT-Kollektoren und Batterie als Grey-Box-Modelle modelliert und in der Python-Umgebung umgesetzt. In dieser Arbeit wird auf die physikalischen Hintergründe und mathematischen Formulierungen für jede Komponente eingegangen.
In einem automatisierten Programm werden die digitalen Komponenten mit Messwerten aus dem realen Anlagenbetrieb verknüpft. Dieses Skript wird zu Fehlererkennung verwendet. Dabei konnte ein fehlerhafter Betrieb der PVT-Kollektoren bewiesen werden.
Die Verknüpfung der einzelnen Komponenten zum digitalen Zwilling wird zur Betriebsoptimierung verwendet. Hierzu wird die Simulation des Ausgangszustands mit verschiedenen Optimierungsstrategien verglichen. Dabei konnte der Anlagenbetrieb hinsichtlich Komfortbedingungen und Energieeffizienz deutlich optimiert werden. Die finale Optimierungsstrategie basiert auf einereinfachen Wettervorhersage.
Mit der Modellierung und Nutzung eines digitalen Zwillings trägt diese Arbeit dazu bei, innovative Lösungen für die zukünftige Entwicklung und Gestaltung von Gebäuden sowie die Optimierung bereits bestehender Gebäude mithilfe digitaler Zwillinge voranzutreiben.
It is generally agreed that the development and deployment of an important amount of IoT devices throughout the world has revolutionized our lives in a way that we can rely on these devices to complete certain tasks that may have not been possible just years ago which also brought a new level of convenience and value to our lives.
This technology is allowing us in a smart home environment to remotely control doors, windows, and fridges, purchase online, stream music easily with the use of voice assistants such as Amazon Echo Alexa, also close a garage door from anywhere in the world to cite some examples as this technology has added value to several domains ranging from household environments, cites, industries by exchanging and transferring data between these devices and customers. Many of these devices’ sensors, collect and share information in real-time which enables us to make important business decisions.
However, these devices pose some risks and also some security and privacy challenges that need to be addressed to reach their full potential or be considered to be secure. That is why, comprehensive risk analysis techniques are essential to enhance the security posture of IoT devices as they can help evaluate the robustness and reliability towards potential susceptibility to risks, and vulnerabilities that IoT devices in a smart home setting might possess.
This approach relies on the basis of ISO/IEC 27005 methodology and risk matrix method to highlight the level of risks, impact, and likelihood that an IoT device in smart home settings can have, map the related vulnerability, threats and risks and propose the necessary mitigation strategies or countermeasures that can be taken to secure a device and therefore satisfying some security principles. Around 30 risks were identified on Amazon Echo and the related IoT system using the methodology. A detailed list of countermeasures is proposed as a result of the risk analysis. These results, in turn, can be used to elevate the security posture of the device.
Die akustischen Emissionen von Wasserinstallationsgeräten, insbesondere während der nächtlichen Ruhezeit in angrenzenden Räumen, können erhebliche Störungen verursachen. Die primäre Ursache dieser Belästigungen liegt in der spezifischen Funktionsweise von Wasserarmaturen, welche somit als Hauptquelle der Lärmemissionen identifiziert werden können. Hydrodynamische und -akustische Simulationen erweisen sich in diesem Zusammenhang als wertvolle Werkzeuge zur Identifikation von kritischen Bereichen, welche für die Schallabstrahlung verantwortlich sind.
In dieser vorliegenden Arbeit werden die hydrodynamischen und -akustischen Eigenschaften eines Installationsgeräuschnormals mithilfe numerischer Methoden untersucht, wobei gleichzeitig ein kommerzielles Berechnungswerkzeug zur Vorhersage von akustischen Schallfeldern in Bezug auf ein hybrides Verfahren evaluiert und validiert wird. Das Installationsgeräuschnormal dient dabei als Testfall, um die Leistungsfähigkeit des hybriden Akustikmodells in Verbindung mit einem RANS- sowie RANS/LES-Ansatz zu überprüfen. Es werden verschiedene Varianten des Installationsgeräuschnormals untersucht und mit experimentellen Messdaten validiert.
Die hydrodynamischen Simulationsergebnisse der verschiedenen Varianten zeigen eine hervorragende Übereinstimmung mit den experimentellen Daten bei der Verwendung eines RANS/LES-Ansatzes. Der Einsatz eines solchen Hybrid-Modells zur Turbulenzmodellierung hat gezeigt, dass eine verbesserte Wiedergabe von zeitabhängigen Phänomenen in der Strömung erreicht werden kann, welche in direktem Zusammenhang mit der Vorhersage der Schallausbreitung stehen und somit eine bedeutende Auswirkung darauf haben.
Die akustische Untersuchung der verschiedenen Varianten des Installationsgeräuschnormals zeigt, dass die Schallabstrahlung ausschließlich in breitbandigen Frequenzspektren erfolgt. Im Rahmen des Vergleichs mit den Messdaten lässt sich erkennen, dass eine akustische Analyse auf Basis eines hybriden Modells in Verbindung mit dem Akustikmodell vielversprechende Ergebnisse bezüglich der Vorhersage des Schallfelds liefern kann und dabei im Vergleich zu einfachen RANS-Modellen Vorteile aufweist.
Diese Thesis beschäftigt sich mit den Techniken von Code Injection und API Hooking, die von Malware verwendet werden, um sich in laufende Prozesse einzuschleusen und deren Verhalten zu manipulieren. Darüber hinaus erklärt sie die Grundlagen der Betriebssystemarchitektur, der DLLs, der Win32 API und der PE-Dateien, die für das Verständnis dieser Techniken notwendig sind. Die Thesis stellt verschiedene Methoden von Code Injection und API Hooking vor, wie z.B. DLL Injection, PE Injection, Process Hollowing, Inline Hooking und IAT Hooking, und zeigt anhand von Codebeispielen, wie sie funktionieren. Des Weiteren wird auch beschrieben, wie man Code Injection und API Hooking mithilfe verschiedene Tools und Techniken wie VADs, Speicherforensik und maschinelles Lernen erkennen und verhindern kann. Die Thesis diskutiert außerdem mögliche Gegenmaßnahmen, die das Betriebssystem oder die Anwendungen anwenden können, um sich vor Code Injection und API Hooking zu schützen, wie z.B. ASLR, DEP, ACG, IAF und andere. Zuletzt wird mit einer Zusammenfassung und einem Ausblick auf die zukünftigen Herausforderungen und Möglichkeiten in diesem Bereich abgeschlossen.
As the population grows, so does the amount of biowaste. As demand for energy grows, biogas is a promising solution to the problem. Lignocellulosic materials are challenged of slow degradability due to the presence of polymers such as cellulose, lignin and hemicellulose. There are several pretreatment methods available to enhance the degradability of such materials, including enzymatic pretreatment. In this pretreatment, there are few parameters that can influence the results, the most important being the enzyme to solid ratio and the solid to liquid ratio. During this project, experiments were conducted to determine the optimal conditions for those two factors. It was discovered that a solid to liquid ratio of 31 g of buffer per 1 gram of organic dry matter produced the highest reducing sugar release in flasks when combined with 34 mg of protein per 1 gram of organic dry mass. Additionally, another experiment was carried out to investigate the impact of enzymatic pretreatment on biogas production using artificial biowaste as a substrate. Artificial biowaste produced 577,9 NL/kg oDM, while enzymatically pretreated biowaste produced 639,3 NL/kg oDM. This resulted in a 10,6% rise in cumulative biogas production compared to its use without enzymatic pretreatment. By the conclusion of the investigation, specific cumulative dry methane yields of 364,7 NL/kg oDM and 426,3 NL/kg oDM were obtained from artificial biowaste without and with enzymatic pretreatment, respectively. This resulted in a methane production boost of 16,9%. Additionally in case of the reactors with enzymatically pretreated substrate kinetic constant was lower more than double, where maximum volume of biogas increased, comparing to the reactors without enzymatic pretreatment.
One of the most critical areas of research and expansion has been exploiting new technologies in supply chain risk management. One example of this is the use of Digital Twins. The performance of physical systems can be analyzed and simulated using digital twins, virtual versions of these systems that use real-time data, and sophisticated algorithms. Inside the supply chain risk management field, digital twins present a one-of-a-kind opportunity to improve an organization's ability to anticipate, address, and react to the possibility of problems within the supply chain.
The objective of this study is to identify and assess the advantages that accrue to supply chain risk management as a result of Digital Twins' adoption into the system, as well as to identify the challenges associated with achieving those benefits. In the context of supply chain risk management, a thorough literature study is conducted to analyze the essential traits and capabilities of digital twins and how these qualities lead to enhanced risk management methods. This study investigates the essential properties and capacities of digital twins. In addition, the state of digital twin technology and its applications in supply chain risk management are evaluated, and prospective areas for further study and development are highlighted.
The primary purpose of this investigation is to provide a comprehensive and in-depth analysis of the digital twins' role in supply chain risk management through the utilization of digital twins, as well as to highlight the potential benefits and challenges associated with the implementation of digital twins. The research was carried out based on the existing body of written material and the replies of 27 individuals who had previous experience making use of digital twins and took part in an online questionnaire.
The results of this study will be relevant to a diverse group of stakeholders, including specialists in risk management and researchers, amongst others.
Ziel dieser Studie war es, Zusammenhänge zwischen Kinematik und Kraftanforderungen an den Ringen im Gerätturnen zu ermitteln. Zu diesem Zweck wurde das Schwung- und Krafthalteelement Stemme rückwärts zum Kreuzhang gewählt und analysiert.
Die Datenerhebung erfolgte im Rahmen der Europameisterschaften 2022 in München. Für die Analyse der Kraftanforderungen wurde die vertikale Kraft in den Aufhängungen der Ringe mit eindimensionalen Kraftsensoren gemessen und für die Analyse der Kinematik ein markerloses Bewegungserfassungssystem eingesetzt.
Insgesamt wurden die Ausführungen von 17 professionellen Turnern untersucht. Für die Analyse der Kinematik wurden vier Ausführungsparameter bestimmt und deren Einfluss auf den Kraftbedarf statistisch analysiert, wobei die Kraftdaten auf das jeweilige Körpergewicht normiert wurden und das relative Kraftmaximum als Bezugspunkt für den Kraftbedarf gewählt wurde. Bei den vier Ausführungsparametern handelte es sich um die maximale Körpervorneigung während des Rückschwungs vor der Stemmbewegung des Elementes, den minimalen Arm-Rumpf-Winkel (ARW) während des Elementverlaufs, die höchste Position des Körperschwerpunktes (KSP) während des Elementverlaufs und die Distanz, um die der KSP von der höchsten Position in den Kreuzhang absinkt.
Es zeigte sich eine signifikante Korrelation zwischen der höchsten KSP-Position und dem Kraftmaximum. Für die anderen Ausführungsparameter konnten Tendenzen ermittelt werden. Darüber hinaus konnten die Korrelationen der Parameter untereinander zu zwei Ausführungsvarianten zusammengefasst werden. Dabei führt eine Ausführungsvariante zu einem größeren relativen Kraftmaximum und zu größeren Abzügen als die anderen. Die biomechanische Betrachtung dieser Ausführungsvarianten ergab jedoch, dass die Ausführungsvariante mit dem größeren mittleren Kraftmaximum dennoch leichter auszuführen ist, während die andere Ausführungsvariante in der Durchführung anspruchsvoller ist und besser bewertet wird.
Um den Erfolg einer Operation zu beurteilen, werden in klinischen Untersuchungen häufig Fragebögen genutzt. Ziel dieser Arbeit ist es, herauszufinden, ob es einen Zusammenhang zwischen subjektiven Outcome-Scores der Fragebögen und biomechanischen Parametern gibt. Die Forschungsfrage lautet: „Reicht ein Fragebogen zur Beurteilung des Operationserfolges oder sind weitere objektive Untersuchungen von Nutzen.
Um dies zu beantworten, wurde eine Querschnittsstudie mit elf Probanden durchgeführt. Diese mussten vor zwölf Monaten mit einer Hüft-Totalendoprothese versorgt worden sein. Die Probanden mussten verschiedene Fragebögen ausfüllen, anschließend wurde eine Ganganalyse mittels Optogait durchgeführt und die Maximalkraft mit dem Multifunktionalen Diagnostikgerät ermittelt. Die Ergebnisse der Fragebögen wurden mit den biomechanischen Parametern auf eine statistische Korrelation überprüft.
Die Studie hat gezeigt, dass es zwischen einigen Unterkapiteln der Fragebögen und den biomechanischen Parameter moderate bis starke statistisch signifikante Korrelation gibt. Jedoch nicht mit allen Parametern und nicht in der Gesamtbetrachtung der Fragebögen.
Dies zeigt, dass es zwar Zusammenhänge zwischen subjektiven Outcome-Scores und biomechanischen Parametern gibt, diese aber nur einen groben Eindruck des Operationserfolges widerspiegeln. Für eine Beurteilung reicht ein Fragebogen alleine damit nicht aus, und man sollte biomechanische Parameter zusätzlich nutzen.
Vorhofflimmern ist die häufigste tachykarde Herzrhythmusstörung weltweit. Dabei verliert das Herz seinen normofrequenten Sinusrhythmus und schlägt nicht mehr regelmäßig, sondern zu schnell und unregelmäßig. Vorhofflimmern ist normalerweise keine lebensbedrohliche Herzrhythmusstörung, aber es kann zu einem Schlaganfall führen. Die Ursache dieser Herzrhythmusstörung sind die Kreisende bzw. die fokalen Erregungen im linken Atrium, die hauptsächliche aus einer oder mehreren Pulmonalvenen kommen. Die übliche Therapieverfahren des Vorhofflimmerns ist die Pulmonalvenenisolation.
Diese Bachelorthesis beschäftigt sich daher mit der Modellierung unterschiedlicher linksatrialer Fokus-Modelle und intrakardialer Elektrodenkatheter für die Diagnostik und Terminierung von Vorhofflimmern mittels Pulmonalvenenisolation im Offenburger Herzrhythmusmodell nach Schalk, Krämer und Benke, welches in CST
Studio Suite realisiert wurde.
Zu Beginn wurden die verschiedenen linksatrialen fokalen Flimmerquellen modelliert und daraufhin simuliert. Hierbei wurde jeweils eine Simulation mit linksatrialen fokalen Flimmerquellen, die aus einzelnen, dualen oder allen vier Pulmonalvenen kommen, durchgeführt. Es wurde ebenfalls eine weitere Simulation mit Biosignalen (aus der Realität) erstellt. Mit diesen Simulationen konnte nun der elektrische Erregungsablauf sichtbar gemacht werden. Daraufhin wurden die Katheter für die Diagnostik und für die Pulmonalvenenisolation modelliert und in das bestehende Offenburger Herzrhythmusmodell integriert. Bei den Diagnostik-Kathetern handelte es sich um 10-polige Lasso® Katheter, zwei Varianten von PentaRay® NAV eco Katheter und 4-polige Diagnostik-Katheter „OSYPKA FINDER pure®“. Ablationskatheter sind zwei Varianten von Pentaspline Basket pose Katheter und HELIOSTAR™ Ablation Ballon. Abschließend wurden verschiedene Varianten von Isolationsverfahren der Pulmonalvenen modelliert und daraufhin die linksatrialen fokalen Flimmerquellen nach der Isolation der Pulmonalvenen simuliert.
Diese Bachelorthesis befasst sich mit der Testung eines an der TU München entwickelten Biosignalverstärkers zur Registrierung von auditorisch evozierten Potentialen. Ziel dieses Projekts ist die Charakterisierung dieses Verstärkers. Dabei soll geprüft werden, ob der Verstärker AEPs registrieren und um verstellbare Faktoren verstärken kann. Dafür wurde eine MATLAB – Software implementiert, die es erlaubt über eine Soundkarte akustische Signale mittels Kopfhörer auszugeben und zeitgleich die vom Verstärker registrierten Potentiale einzulesen, zu Mitteln und sie grafisch darzustellen.
Erste Versuche wurden mit der Loop Back Box von Interacoustics, einem Schwingkreis, der einen künstlichen Patienten simuliert, durchgeführt. Diese Versuchsreihen zeigten, dass reale Signale gemessen werden. Anschließend konnten Probandenmessungen mit dem Verstärker und Referenzmessungen mit der Eclipse von Interacoustics durchgeführt werden. Bei sämtlichen Messreihen zeigte sich im Vergleich der beiden Systeme hohe Ähnlichkeit der Kurvenverläufe. Insbesondere das zeitliche Auftreten der Jewett V, der größten gemessenen Amplitude, war nahezu identisch. Allerdings stimmen die Amplitudenwerte nicht überein. Während die Amplitude der Jewett V bei Messungen mit der Eclipse um die 1µV erreichte, war die Amplitude beim Verstärker nur ein bis zwei Nanovolt groß. Damit ist die Verstärkung um ein tausendfaches geringer als bei der Eclipse.
Anhand der gewonnenen Erkenntnisse konnten Hardware technische Optimierungen evaluiert und diskutiert werden.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
In dieser Arbeit werden über die ökonomischen Anwendungsfälle des epidemiologischen SIR-Modell nach dem Ansatz von Robert J. Shiller in Narrative Economics reflektiert. Im genaueren werden die Hype-Zyklen, welche von der US-amerikanischen Firma für Marktforschungsanalysen Gartner regulär herausgebracht werden, untersucht.
Im spezifischen unterliegt Gartner Hype-Zyklen ein Modell, welche die aufkommenden Technologien graphisch und statistisch darstellt, um diese in Kategorien von kommerzieller Erfolgsversprechen einordnen zu können. Narrative und generelle Marktbewegungen werden mitunter in Betracht gezogen und in dieser Arbeit wird auf die Narrative, welche um aufkommende Technologien existieren, eingegangen. Hier setzt das SIR-Modell ein, welches dem Fachgebiet der Epidemiologie entnommen wird und für die Ausbreitung von Narrativen zur Erklärung zugezogen werden soll.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Ziel dieser Arbeit war die Konzeption und Gestaltung einer Unboxing Experience für ein E-Commerce Startup im Bereich der gehobenen Convenience Food Branche unter Berücksichtigung der zu erreichenden Unternehmensziele und der fokussierten Zielgruppe des Unternehmens. Hierfür wurde zunächst der Begriff Unboxing im Kontext von Marketing und Onlinehandel sowie die Bedeutung verwandter Trends wie des Unboxing-Videos erörtert. Anschließend wurden das Unternehmen und die relevante Zielgruppe in Form von Personas vorgestellt. Durch die konkrete Definition der vorgegebenen Unternehmensziele konnte auch die spätere Gestaltung hierauf aufbauen. Schließlich wurden bereits vorhandene Best Practices recherchiert und analysiert, um Ideen und Anhaltspunkte zu schaffen. Die Konzeption ist in die einzelnen Gestaltungsgegenstände und deren schrittweise Ausarbeitung unterteilt. Das Ergebnis soll eine ästhetisch ansprechende und das Unternehmen widerspiegelnde Unboxing Experience sein, bestehend aus einem bedruckten Versandkarton, einer Produktbroschüre und einer Dankes- bzw. Grußkarte in zwei verschiedenen Ausführungen. Jede Komponente erfüllt hierbei einen Zweck im Unternehmenskontext. Insgesamt konnte aus den drei Einzelkomponenten eine in der Gesamtkomposition ansprechende Unboxing Experience geschaffen werden, die die Hochwertigkeit der Produkte unterstreicht und das Auspacken zu einem Erlebnis macht.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
Chitin ist nach Cellulose, das am zweit häufigsten vorkommende Biopolymer auf der Erde und erlangt durch die positiven Eigenschaften seiner Oligomere immer mehr an Aufmerksamkeit in der Industrie. Derzeit werden Chitin-Oligomere rein chemisch mittels starker Säurebehandlung gewonnen. Alternativ können Endo- und Exochitinasen für eine umweltfreundlichere Hydrolyse eingesetzt werden. In dieser Arbeit wurden drei fungale Endochitinasen aus den Ursprungsorganismen Trichoderma harzianum (Chit33-TH), Trichoderma asperellum (Chit36-TA) und Myceliophthora thermophila (Chit46-MT) in Pichia pastoris rekombinant exprimiert, mittels Ni-NTA-Affinitätschromatographie und Dialyse aufgereinigt und biochemisch charakterisiert. Dabei zeigten die Chitinasen maximale spezifische Umsatzgeschwindigkeiten von 16 (Chit33-TH), 50 (Chit36-TA) und 98 nkat/mg (Chit46-MT). Die Endochitinasen hatten nach der Deglykosylierung ein molekulares Gewicht von 33 (Chit33-TH), 36 (Chit36-TA) und 46 kDa (Chit46-MT). Die pH-Optima und Temperaturmaxima lagen für alle drei Enzyme bei einem pH-Wert von 4,5 und 50 °C, zudem waren sie bei 45 bis 50 °C für 15 Minuten temperaturstabil. Detergenzien und Kationen wie Cu2+, Mn2+, Co2+ und Zn2+ hatten einen inhibierenden Effekt ab 1 mM. Höhere Ca2+-Konzentrationen ab 10 mM reduzierten die Enzymaktivität um bis zu 30 %. Eine Produktinhibition mit N-Acetylglucosamin konnte nicht festgestellt werden. Bei allen rekombinanten Enzymen konnte mittels DNS-Assay die Freisetzung von reduzierenden Zuckerenden und somit geeignete Eigenschaften kolloidales Chitin zu wasserlösliche ChitinOligomere umzuwandeln, nachgewiesen werden. Insbesondere Chit46-MT erreichte nach 24 h einen Hydrolysegrad bis zu 96 % und bewies, dass eine enzymatische Hydrolyse für die industrielle Chitin-Oligomerproduktion nutzbar ist.
Bildung für nachhaltige Entwicklung (BNE) hat einen festen Platz im deutschen Bildungssystem gefunden. BNE setzt sich die Ziele, Lernende zu informierten und verantwortungsbewussten Konsumenten zu befähigen sowie sie darauf vorzubereiten und das eigene Verhalten sowie das Verhalten anderer kritisch zu reflektieren. Der Nachhaltigkeitsbegriff von BNE orientiert sich hierbei an den drei Perspektiven, Soziales, Ökonomisches und Ökologisches, und an deren Wechselwirkungen untereinander.
Um Lernenden Nachhaltigkeitsthemen nach der Definition von BNE zu vermitteln, bieten sich Photovoltaik-Systeme (PV), vor allem in Off-Grid-Ausführungen, an, da sie aufgrund ihrer Eigenschaften als erneuerbare Energieerzeuger einen rücksichtsvolleren Umgang mit den vorhandenen Ressourcen fordern, Reflexion des eigenen Verhaltens anregen und sich in verschiedenen Situationen unter den drei Perspektiven der Nachhaltigkeit betrachten lassen.
Für eine Projektarbeit an allgemeinbildenden sowie beruflichen Schulen wurde außerhalb dieser Arbeit ein Off-Grid-PV-System entworfen, anhand dessen Lernende Fragestellungen der elektrischen Energieerzeugung aus Sonneneinstrahlung sowie allgemeine Nachhaltigkeitsthemen erforschen. Das didaktische Konzept zur Begleitung des PV-Systems wurde anhand von den Anforderungen der BNE entwickelt und gliedert sich in die Bereiche einleitende Workshops, Lern- und Arbeitsmaterial, weiterführendes Material sowie einen abschließenden Workshop zur Reflexion des erlernten. Die getroffenen Entscheidungen im Bereich der Technik sowie des Lehr-Lern-Materials werden jeweils didaktisch begründet.
Decarbonisation Strategies in Energy Systems Modelling: APV and e-tractors as Flexibility Assets
(2023)
This work presents an analysis of the impact of introducing Agrophotovoltaic technologies and electric tractors into Germany’s energy system. Agrophotovoltaics involves installing photovoltaic systems in agricultural areas, allowing for dual usage of the land for both energy generation and food production. Electric tractors, which are agricultural machinery powered by electric motors, can also function as energy storage units, providing flexibility to the grid. The analysis includes a sensitivity study to understand how the availability of agricultural land influences Agrophotovoltaic investments, followed by the examination of various scenarios that involve converting diesel tractors to electric tractors. These scenarios are based on the current CO2 emission reduction targets set by the German Government, aiming for a 65% reduction below 1990 levels by 2030 and achieving zero emissions by 2045. The results indicate that approximately 3% of available agricultural land is necessary to establish a viable energy mix in Germany. Furthermore, the expansion of electric tractors tends to reduce the overall system costs and enhances the energy-cost-efficiency of Agrophotovoltaic investments.
Für Unternehmen ist es zunehmend von Interesse, durch Social-Media-Kommunikation nicht nur die Aufmerksamkeit der Zielgruppe zu wecken, sondern mit der aufmerksamkeitsstarken Ansprache die Wahrnehmung ihrer Marke und das marktbezogene Verhalten zu beeinflussen. Humorvolle Appelle sind in diesem Zusammenhang zur gängigen Werbepraxis geworden und finden auf Social Media in der direkten Interaktion zwischen Marken und ihrer Zielgruppe statt. Mit der vorliegenden Arbeit wird humorvoll-schlagfertige Unternehmenskommunikation auf Social Media untersucht. Das Ziel war es, die Wirkungszusammenhänge zwischen derartiger Kommunikation, deren Bewertung, dem Markenimage, der Markenauthentizität und den Handlungsabsichten besser zu verstehen. Die Erkenntnisse über diese Zusammenhänge können sowohl der weiteren Erforschung als auch künftigen Marketingentscheidungen dienen.
Im Zuge dessen wurden die theoretischen Hintergründe moderner Markenkommunikation sowie der Konzepte Humor und Schlagfertigkeit ausgearbeitet. Der empirische Teil der Arbeit besteht aus der Konzipierung, Durchführung, Analyse und Ergebnisdiskussion einer quantitativen Studie. Zu den zentralen Ergebnissen zählt, dass sich der Grad an Humor und an Schlagfertigkeit darauf auswirkt, wie sehr die Kommunikation gefällt. Wenn diese gut gefällt, stärkt das wiederum das Markenimage. Auch die wahrgenommene Markenauthentizität bestimmt das Markenimage und wird selbst vor allem durch den Grad der Schlagfertigkeit bestimmt. Das Markenimage beeinflusst die Weiterleitungsabsicht der Kommunikation (virale Effekte) und die Kaufabsicht. Dabei unterscheidet sich humorvoll-schlagfertige Unternehmenskommunikation von neutraler Vergleichskommunikation hinsichtlich der Weiterleitungsabsicht signifikant.
Cloud computing has revolutionized the way businesses operate by providing them with access to scalable, cost-effective, and flexible IT resources. This technology has enabled businesses to store, manage, and process data more efficiently, leading to improved competitiveness and increased revenue. The purpose of this thesis is to explore the impacts of using cloud computing from a business perspective. The research employs both primary and secondary sources of data, including a literature review, interviews with employees who have more than 5 years of experience, a questionnaire, and observations from Billwerk+ company.
The findings of this research indicate that cloud computing has had a significant impact on businesses, providing them with cost savings, improved agility and flexibility, and enhanced access to data and applications. However, it has been revealed that the benefits of cloud computing for companies may vary according to the departments of the employees. The results of this research contribute to the existing body of knowledge on the topic of cloud computing and its impact on businesses. The findings of this thesis can be used by business owners, managers, technology professionals, and students to make informed decisions about the adoption and use of cloud computing technology.
In conclusion, this thesis provides a comprehensive understanding of the impacts of using cloud computing from a business perspective, highlighting the factors that companies consider when deciding to use cloud environments and the views from different departments. The results of this research will be valuable to a wide range of individuals interested in exploring the implications of cloud computing for businesses.
Wassermangel in Deutschland
(2023)
Die Arbeit beschäftigt sich mit der medialen Berichterstattung von vier deutschen Leitmedien in Bezug auf das Thema Wassermangel in Deutschland. Ziel ist es, das in der Gesellschaft vorhandene Bewusstsein für die Umwelt zu stärken und ein besonderes Augenmerk auf die Problematik des sich verschärfenden Wassermangels zu lenken.
Zunächst wird hierfür die Vorgehensweise einer Medieninhaltsanalyse dargelegt und mit dem konkreten Beispiel in jedem Schritt verknüpft. Dabei werden die relevantesten Schwerpunkte der Berichterstattung zwischen April und Oktober 2022 herausgearbeitet. Es wird angenommen, dass die Berichterstattung vor allem im Sommer besonders hoch ist und es sowohl thematische als auch regionale Unterschiede zwischen den vier Verlagen gibt. Die gewonnenen Beobachtungen werden sowohl im Gesamtzusammenhang der untersuchten Artikel als auch in einer Einzelbetrachtung der vier Medien, Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung, Focus und Spiegel, grafisch aufbereitet und interpretiert. Die Ergebnisse zeigen, dass die Kategorien Hitze und Dürre besonders häufig codiert werden. Damit stehen vor allem die Ursachen und Auswirkungen, aber nicht der Wassermangel selbst, im Fokus der Berichterstattung.
Diese Erkenntnisse werden anschließend in eine Online-Kampagne überführt, mit dem Ziel, das Bewusstsein einer jungen, medienaffinen Zielgruppe auf den steigenden Wassermangel in Deutschland zu lenken.
Das Ziel der vorliegenden Abschlussarbeit, ist es zu beantworten, welche Diskrepanzen beziehungsweise Lücken durch den aufgetretenen Wandel vom generellen Arbeiten in Präsenz in das Arbeiten Zuhause oder virtuellen Raum entstanden sind. Durch Corona mussten viele Unternehmen ihre Arbeit von realen in den virtuellen Raum verschieben, wodurch vermutlich einige Bereiche wie die Kommunikation mit Kollegen, das Geben und Nehmen von Feedback und die Mitarbeiterbindung gelitten hat. Diese vermeintlich aufgetretene Lücke soll hier analysiert werden und am Ende mit hilfreichen Handlungsempfehlungen geschlossen werden, wodurch die Mitarbeiterzufriedenheit für alle gewährleistet werden kann.
Um die Forschungsfrage, die Thesen und aufgestellte Theorie verifizieren und beantworten zu können wurde sowohl eine quantitative als auch eine qualitative Studie durchgeführt, um das optimale Ergebnis herauszuholen. Dafür wurden auf der einen Seite Mitarbeitende und Führungskräfte gezielt befragt. Diese Thematiken, auf denen die Fragen aufgebaut haben, beinhalteten Fragen der oben genannten Bereiche Kommunikation, Feedback, Mitarbeiterbindung, welche mit Fragen zum generellen Arbeiten im virtuellen Raum und Führung erweitert wurden. Die Fragen bestanden aus Bewertungsfragen von 1 bis 5, Frei-Text-Fragen und geschlossene Fragen mit vorgelegten Antwortmöglichkeiten. Bei der empirischen Forschung wurde deutlich, welche große bis sehr große Befürwortung von 85,97
Prozent für die hybride Arbeitsweise innerhalb der Mitarbeitenden im SÜDKURIER gibt. Ein nachteiliges, jedoch erahnendes Ergebnis war, das der Transport der non-verbalen Kommunikationsfaktoren schwerer im virtuellen Raum war, weswegen die persönliche Kommunikation unter den Mitarbeitenden dort geringer ist. Auch ein Unterschied von 70,18 Prozent wurde in der Form der Führung im virtuellen Raum festgestellt. Im Bereich des Geben und Nehmen von Feedback wurde sowohl in der Theorie als auch in der Umfrage ein Unterschied festgestellt im Vergleich von vor und nach Corona. Hier empfanden 77,2 Prozent einen schwachen bis starken Unterschied. Die Vorteile waren hier der Einsatz von Technologie und das neue Verständnis von Feedback. Nachteilig war hier wiederum der persönliche Anteil im arbeitsbezogenen Kontext. Grundsätzlich wurde eine Beeinträchtigung von 43,87 Prozent auf die Mitarbeiterbindung festgestellt, welche sich über alle untersuchten Bereiche der Thesis in Bezug auf die zwischenmenschlichen Beziehungen von Mitarbeitenden ausgeweitet hat. Dies könnte in Zukunft die Folge haben, dass die Bindung zum Unternehmen und die Zufriedenheit im Job sinken kann, wenn nicht an der Bindung und den jeweiligen eingesetzten Arbeitsformen gearbeitet wird. Auf der Grundlage der empirischen Forschung und der ermittelten Theorie wurde empfohlen die untersuchten Bereiche Kommunikation, Feedback und Mitarbeitendenbindung in Bezug auf zwischenmenschliche Faktoren zu erweitern und erneut zu betrachten, was sowohl eine Herausforderung für die Mitarbeitenden als auch das Unternehmen und Führungskräften in den nächsten Jahren darstellen wird. Die hybride und virtuelle Arbeitsweise hat sich als erwiesen dargestellt und wurde mittlerweile fest in den Arbeitsalltag in Deutschland integriert
Rupturen des vorderen Kreuzbandes werden meist mit einer Kreuzbandplastik-Operation wiederhergestellt. Bei einer gängigen OP-Methode wird hierbei Sehnenmaterial am Semitendinosus-Muskel entnommen, und mit diesem gewonnenen Sehnenmaterial das Kreuzband rekonstruiert. Dies hat zur Folge, dass es zu neuromuskulären Defiziten und dem Verhalten der Co-Kontraktion von Quadrizeps und Hamstrings kommen kann. Weitere Folgen sind Muskelschwäche und ein weniger flektiertes Verhalten in der Stützphase beim Gehen am operierten Bein. Das Auftreten von Co-Kontraktion beim Laufen ist im Zusammenhang mit einer expliziten Co-Kontraktionsberechnung noch nicht ausreichend untersucht worden. Auch ist unklar, welchen Einfluss die Kraftfähigkeiten auf Co-Kontraktion und Gelenkwinkel haben. In dieser Studie soll untersucht werden, inwieweit diese Effekte auch bei der Bewegung des Laufens auftreten. Mögliche Zusammenhänge zwischen Kraft/Co-Kontraktion und Kraft/Kniegelenkswinkel werden ebenfalls untersucht. Die Ergebnisse sollen einen Beitrag zum Verständnis der Mechanismen und damit auch zur Verbesserung der Rehabilitationsprozesse leisten. Im Rahmen von „Return to Sport“ Messungen wurden im IFD Colgone über einen Zeitraum von zwei Jahren „Return to Sport“ Messungen durchgeführt und relevante biomechanische Parameter erfasst. Die Untersuchungen fanden im Durchschnitt sieben Monate nach der Kreuzbandoperation statt. Innerhalb der Studie wurden 26 Patientendaten ausgewertet. Die Co-Kontraktion wurde durch Auswertung der EMG-Daten mit Hilfe einer Formel bestimmt. Die Patienten zeigten unabhängig vom Geschlecht signifikant erhöhte Co-Kontraktionswerte, reduzierte Kniegelenkswinkel und reduzierte Kraftfähigkeiten am operierten Bein. Dabei konnten die erhöhten Co- Kontraktionswerte als auch weniger flektierte Kniewinkel nicht bei allen Patienten der Stichprobe auf deren schlechte Kraftfähigkeit zurückgeführt werden. Hier gab es leichte Zusammenhänge aber keine signifikanten Ergebnisse. Da Co-Kontraktion als auch reduzierte Kniegelenkswinkel mit unterschiedlichsten Problemen in Verbindung gebracht werden können, sollte daran mit Hilfe von angepassten Reha- Maßnahmen gearbeitet werden. Rehabilitationsprozesse sollten verschiedene Kraft- und Koordinationsfähigkeiten fördern, mit dem Ziel, das neuromuskuläre Zusammenspiel zu verbessern.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.