Refine
Year of publication
Document Type
- Bachelor Thesis (350)
- Master's Thesis (101)
- Book (11)
- Study Thesis (1)
Has Fulltext
- yes (463)
Is part of the Bibliography
- no (463) (remove)
Keywords
- Marketing (16)
- IT-Sicherheit (12)
- JavaScript (11)
- Webentwicklung (8)
- Künstliche Intelligenz (7)
- Schluckspecht (7)
- Robotik (6)
- App <Programm> (5)
- Biomechanik (5)
- E-Learning (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (201)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (85)
- Fakultät Medien (M) (ab 22.04.2021) (65)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (53)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (45)
- Fakultät Wirtschaft (W) (6)
- INES - Institut für nachhaltige Energiesysteme (3)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (2)
- IUAS - Institute for Unmanned Aerial Systems (1)
- IfTI - Institute for Trade and Innovation (1)
Open Access
- Closed Access (463) (remove)
Jeder Mensch ist ständig unfreiwillig von einer Flut akustischer Reize umgeben. Diese Situation stellt für Menschen mit Hörverlust eine besondere Herausforderung dar. Menschen mit Hörverlust hören durch Hörgeräte zwar alles verstärkt, jedoch stellt sich die Frage, ob ein Hörgerät lediglich eine einfache Verstärkung von Schallwellen ist oder ob es darüber hinausgehende Funktionen bieten kann.
Die vorliegende Thesis widmet sich der akustischen Szenenanalyse in Hörgeräten, wobei der Schwerpunkt auf der Integration von Machine Learning liegt. Das Ziel besteht darin, eine automatisierte Erkennung und Anpassung an verschiedene akustische Situationen zu ermöglichen. Die Arbeit konzentriert sich insbesondere auf die Analyse grundlegender Szenarien wie: Sprache in Ruhe, absolute Ruhe, Sprache in Störgeräuschen und Störgeräuschen in Audiodaten.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
Implementation and Evaluation of an Assisting Fuzzer Harness Generation Tool for AUTOSAR Code
(2024)
The digitalization in vehicles tends to add more connectivity such as over-the-air (OTA) updates. To achieve this digitization, each ECU (Electronic Control Unit) becomes smarter and needs to support more and more different externally available protocols such as TLS, which increases the attack surface for attackers. To ensure the security of a vehicle, fuzzing has proven to be an effective method to discover memory-related security vulnerabilities. Fuzzing the software run- ning on a ECU is not an easy task and requires a harness written by a human. The author needs a deep understanding of the specific service and protocol, which is time consuming. To reduce the time needed by a harness author, this thesis aims to develop FuzzAUTO, the first assistant harness generation tool targeting the AUTOSAR (AUTomotive Open System ARchitecture) BSW (Basic Software) to support manual harness generation.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
As the population grows, so does the amount of biowaste. As demand for energy grows, biogas is a promising solution to the problem. Lignocellulosic materials are challenged of slow degradability due to the presence of polymers such as cellulose, lignin and hemicellulose. There are several pretreatment methods available to enhance the degradability of such materials, including enzymatic pretreatment. In this pretreatment, there are few parameters that can influence the results, the most important being the enzyme to solid ratio and the solid to liquid ratio. During this project, experiments were conducted to determine the optimal conditions for those two factors. It was discovered that a solid to liquid ratio of 31 g of buffer per 1 gram of organic dry matter produced the highest reducing sugar release in flasks when combined with 34 mg of protein per 1 gram of organic dry mass. Additionally, another experiment was carried out to investigate the impact of enzymatic pretreatment on biogas production using artificial biowaste as a substrate. Artificial biowaste produced 577,9 NL/kg oDM, while enzymatically pretreated biowaste produced 639,3 NL/kg oDM. This resulted in a 10,6% rise in cumulative biogas production compared to its use without enzymatic pretreatment. By the conclusion of the investigation, specific cumulative dry methane yields of 364,7 NL/kg oDM and 426,3 NL/kg oDM were obtained from artificial biowaste without and with enzymatic pretreatment, respectively. This resulted in a methane production boost of 16,9%. Additionally in case of the reactors with enzymatically pretreated substrate kinetic constant was lower more than double, where maximum volume of biogas increased, comparing to the reactors without enzymatic pretreatment.
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
Um als Unternehmen heutzutage aus der Masse hervorzustechen und sich von der Konkur- renz abzuheben, bedarf es mehr als nur eines guten Produkts oder einer guten Dienstleis- tung. Kunden möchten wissen, welches Unternehmen dahintersteckt und ob sie sich damit identifizieren können. Um diese Werte und ein einheitliches Erscheinungsbild vermitteln zu können, ist eine ganzheitliche Corporate Identity erforderlich, die sowohl innen als auch außen wirkt. Das bietet die Möglichkeit, ein Markenimage aufzubauen, das langfristig Kun- den bindet und Vertrauen schafft.
Die Entwicklung einer neuen Corporate Identity erfordert zunächst eine entschlossene Ent- scheidung der Unternehmensführung. Sie muss sicherstellen, dass das gesamte Unterneh- men für ein solches Vorhaben bereit ist. Erst dann kann mit der Bildung eines CI-Teams begonnen werden, das mit der Entwicklung und Durchführung des Corporate Identity-Pro- zesses beauftragt wird. Dabei wird nach der AMC-Strategie vorgegangen, die mit einer aus- führlichen Ist- und Sollanalyse beginnt. Hierbei wird ermittelt, welche Fähigkeiten das Un- ternehmen besitzt und welches Image bei den unterschiedlichen Interessensgruppen vor- herrscht. Auch die internen und externen Auswirkungen einer CI sollten bedacht werden und dass die Angestellten einen maßgeblich Teil zur externen Wirkung beitragen. Die ge- sammelten Informationen dienen als Grundlage für die einzelnen Bestandteile der Corpo- rate Identity.
Basierend auf dem theoretischen Teil wurde für Dialogpunkt eine neue Corporate Identity entwickelt, wodurch verdeutlicht wurde, wie die theoretischen Grundlagen in die Praxis umgesetzt werden können. Durch eine gründliche Marktanalyse wurde ein neues Leitbild (Corporate Philosophy) für Dialogpunkt erstellt. Dieses Leitbild und die gewonnenen Er- kenntnisse dienten wiederum als Grundlage für die Entwicklung des Corporate Behaviors, der Corporate Communication und des Corporate Designs.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
To date, many experiments have been performed to study how the internal geometrical shapes of the annular liquid seal can reduce internal leakage and increase pump efficiency. These can be time-consuming and expensive as all rotordynamic coefficients must be determined in each case.
Nowadays, accurate simulation methods to calculate rotordynamic coefficients of annular seals are still rare. Therefore, new numerical methods must be designed and validated for annular seals.
The present study aims to contribute to this labour by providing a summary of the available test rig and seals dimensions and experimental results obtained in the following experiments:
− Kaneko, S et al., Experimental Study on Static and Dynamic Characteristics of Liquid Annular Convergent-Tapered Seals with Honeycomb Roughness Pattern (2003) [1] − J. Alex Moreland, Influence of pre-swirl and eccentricity in smooth stator/grooved rotor liquid annular seals, static and rotordynamic characteristics (2016) [2]
A 3D CAD simulation with Siemens NX Software of the test rig used in J. Alex Moreland’s experiment has been made. The following annular liquid seals have also been 3D modelled, as well as their fluid volume:
− Smooth Annular Liquid Seal (SS/GR) (J. Alex Moreland experiment)
− Grooved Annular Liquid Seal (GS/SR)
− Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 mm) (GS/SR)
− Straight Honeycomb Annular Liquid Seal (GS/SR)
− Convergent Honeycomb Annular Liquid Seal (No. 3) (GS/SR)
− Smooth Annular Liquid Seal (SS/SR) (S. Kaneko experiment)
In the case of the seals used in S. Kaneko’s experiments, the test rig has been adapted to each seal, defining interpart expressions which can be easily modified.
Afterwards, it has been done a CFD simulation of the Smooth Annular Liquid Seal using Ansys CFX Software. To do so, the fluid volume geometry has been simplified to do a first approximation. Results have been compared for an eccentricity 𝜀0=0.00 for the following ranges of rotor speeds and differential of pressure:
− Δ𝑃= 2.07, 4.14, 6.21, and 8.27 bar,
− 𝜔= 2, 4, 6 and 8 krpm.
Even results obtained have the same trend as the one proportionated by the literature, they cannot be validated as the error is above 5%. It is also observed that as the pressure drop increases, the relative error decreases considerably.
In dieser Arbeit wird die Entwicklung einer Methode zur Messung von Bodenreaktionskräften bei menschlicher Lokomotion auf variablen Untergründen behandelt. Das Ziel dieser Arbeit ist es, unter realistischen Bedingungen eine Ganganalyse in einem Biomechaniklabor durchführen zu können.
Bisher ist es nicht möglich in einem Biomechaniklabor verschiedene Untergründe nach einer bestimmten Methode auszutauschen, womit Szenarien im Alltag besser simuliert werden können.
Um dieses Ziel zu erreichen wurde ein geeignetes Konzept für die Fertigung der benötigten Bodenplatten und Bodenbeläge erstellt. Darauffolgend wurden die Komponenten angefertigt oder schon vorhandene modelliert. Die Anwendung der entwickelten Methode wurde unter realen Bedingungen einer Ganganalyse erfolgreich untersucht. Hierbei konnten exemplarisch die durchschnittlichen Bodenreaktionskräfte in z-Richtung für die Untergründe Kunstrasen, Kunststoffbahn (Tartanboden) und Steinboden untersucht werden. Das größte Optimierungspotential bei diesem Funktionstest zeigte sich bei der Anpassung der geeigneten An- und Ablaufstrecken mit den jeweiligen Untergründen.
Mit dieser entwickelten Methode können in einem Biomechaniklabor besser die Bedingungen die alltäglich benötigten Ganganpassungen an verschiedene Untergründe simuliert werden. In Kombination mit weiteren Messmethoden, wie die Messung der Muskelaktivität (EMG) und der Gangkinematik, kann so ein tieferes Verständnis des menschlichen Gangbildes gewonnen werden.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Estimation and projecting total steel industry production costs from 2019 to 2030 for Germany
(2023)
This thesis analyses the total production cost of the German steel industry from 2019 to 2022, as well as a projection of the German steel industry's total production cost until 2030. The research separates the costs of steel production into their primary components, such as raw materials, energy, CO2 cost, capital expenses and operating expenses. The cost of steel production is determined separately for primary steelmaking with the blast furnace and basic oxygen furnace (BF-BOF) and secondary steelmaking with the electric arc furnace (EAF).
The analysis indicates that, following the COVID-19 disaster and the fuel crisis, the overall cost of producing steel in Germany has progressively risen over the previous few years, reaching its peak in the first half of 2022. In addition, there are considerable disparities between the production costs of primary and secondary steelmaking processes, with primary steelmaking generally being more expensive.
In this analysis, the total cost of production for the German steel industry in the year 2030 has been estimated by taking into account historical trends as well as other predictions that are currently available.
This thesis provides overall insights on the economics of the German steel sector. By giving thorough information on production costs and changes over time, this research can assist guide crucial future investment decisions in this essential industry. To ensure long-term success, our findings emphasize the significance of investing in more sustainable and ecologically friendly steel production processes.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
Cloud computing is a combination of technologies, including grid computing and distributed computing, that use the Internet as a network for service delivery. Organizations can select the price and service models that best accommodate their demands and financial restrictions. Cloud service providers choose the pricing model for their cloud services, taking the size, usage, user, infrastructure, and service size into account. Thus, cloud computing’s economic and business advantages are driving firms to shift more applications to the cloud, boosting future development. It enlarges the possibilities of current IT systems.
Over the past several years, the ”cloud computing” industry has exploded in popularity, going from a promising business concept to one of the fastest expanding areas of the IT sector. Most enterprises are hosting or installing web services in a cloud architecture for management simplicity and improved availability. Virtual environments are applied to accomplish multi-tenancy in the cloud. A vulnerability in a cloud computing environment poses a direct threat to the users’ privacy and security. In our digital age, the user has many identities. At all levels, access rights and digital identities must be regulated and controlled.
Identity and access management(IAM) are the process of managing identities and regulating access privileges. It is considered as a front-line soldier of IT security. It is the goal of identity and access management systems to protect an organization’s assets by limiting access to just those who need it and in the appropriate cases. It is required for all businesses with thousands of users and is the best practice for ensuring user access control. It identifies, authenticates, and authorizes people to access an organization’s resources. This, in turn, enhances access management efficiency. Authentication, authorization, data protection, and accountability are just a few of the areas in which cloud-based web services have security issues. These features come under identity and access management.
The implementation of identity and access management(IAM) is essential for any business. It’s becoming more and more business-centric, so we need more than technical know-how to succeed. Organizations may save money on identity management and, more crucially, become much nimbler in their support of new business initiatives if they have developed sophisticated IAM capabilities. We used these features of identity and access management to validate the robustness of the cloud computing environment with a comparison of traditional identity and access management.
Ziel der vorliegenden Bachelorarbeit ist es, eine automatisierte Bildausschnittkontrolle für die Low Code Plattform Intrexx zu implementieren. Diese soll mit Hilfe eines geeigneten Künstliche Intelligenz Frameworks Gesichter in Bildern erkennen und diese anschließend ausschneiden. Die Benutzer*innen sollen die Ausschnitte außerdem noch manuell anpassen können. Die Implementierung erfolgt mittels Typescript innerhalb einer Webkomponente, um eine Verwendung innerhalb von Intrexx zu ermöglichen. Nach einem Vergleich verschiedener technologischer Ansätze hat sich Tensorflow als geeignetes KI-Framework herausgestellt. Im Rahmen einer Performance-Analyse wurden außerdem verschiedene Tensorflow-Modelle miteinander verglichen.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.
Wassermangel in Deutschland
(2023)
Die Arbeit beschäftigt sich mit der medialen Berichterstattung von vier deutschen Leitmedien in Bezug auf das Thema Wassermangel in Deutschland. Ziel ist es, das in der Gesellschaft vorhandene Bewusstsein für die Umwelt zu stärken und ein besonderes Augenmerk auf die Problematik des sich verschärfenden Wassermangels zu lenken.
Zunächst wird hierfür die Vorgehensweise einer Medieninhaltsanalyse dargelegt und mit dem konkreten Beispiel in jedem Schritt verknüpft. Dabei werden die relevantesten Schwerpunkte der Berichterstattung zwischen April und Oktober 2022 herausgearbeitet. Es wird angenommen, dass die Berichterstattung vor allem im Sommer besonders hoch ist und es sowohl thematische als auch regionale Unterschiede zwischen den vier Verlagen gibt. Die gewonnenen Beobachtungen werden sowohl im Gesamtzusammenhang der untersuchten Artikel als auch in einer Einzelbetrachtung der vier Medien, Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung, Focus und Spiegel, grafisch aufbereitet und interpretiert. Die Ergebnisse zeigen, dass die Kategorien Hitze und Dürre besonders häufig codiert werden. Damit stehen vor allem die Ursachen und Auswirkungen, aber nicht der Wassermangel selbst, im Fokus der Berichterstattung.
Diese Erkenntnisse werden anschließend in eine Online-Kampagne überführt, mit dem Ziel, das Bewusstsein einer jungen, medienaffinen Zielgruppe auf den steigenden Wassermangel in Deutschland zu lenken.
In dieser kleinen schriftlichen Ausarbeitung behandele ich das Thema der Symbiose aus Kunst und Wissenschaft auf meine persönliche Einstellung.
Ich habe einen Dokumentarfilm zu diesem spannenden Thema in dem Rahmen erstellt und habe in diesem schriftlichen Teil erzählt, wie ich zu den einzelnen Themen wie auch zur Symbiose stehe. Dabei gehe ich auf die persönlichen Erkenntnisse ein, welche ich über den Zeitraum des Dokumentarfilms erlangt habe. Ein Teil des Filmes waren zwei Workshops, in denen ich die Parteien Kunst und Wissenschaft mit einem Thema in Verbindung gesetzt habe. Auch diese wird hier erläutert.
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
As cyber threats continue to evolve, it is becoming increasingly important for organizations to have a Security Operations Center (SOC) in place to effectively defend against them. However, building and maintaining a SOC can be a daunting task without clear guidelines, policies, and procedures in place. Additionally, most current SOC solutions used by organizations are outdated, lack key features and integrations, and are expensive to maintain and upgrade. Moreover, proprietary solutions can lead to vendor lock-in, making it difficult to switch to a different solution in the future.
To address these challenges, this thesis proposes a comprehensive SOC framework and an open-source SOC solution that provides organizations with a flexible and cost-effective way to defend against modern cyber threats. The research methodology involved conducting a thorough literature review of existing literature and research on building and maintaining a SOC, including using SOC as a service. The data collected from the literature review was analyzed to identify common themes, challenges, and best practices for building and maintaining a SOC.
Based on the data collected, a comprehensive framework for building and maintaining a SOC was developed. The framework addresses essential areas such as the scope and purpose of the SOC, governance and leadership, staffing and skills, technologies and tools, processes and procedures, service level agreements (SLAs), and evaluation and measurement. This framework provides organizations with the necessary guidance and resources to establish and effectively operate a SOC, as well as a reference for evaluating the service provided by SOC service providers.
In addition to the SOC framework, a modern open-source SOC solution was developed, which emphasizes several key measures to help organizations defend against modern cyber threats. These measures include real-time, actionable threat intelligence, rapid and effective incident response, continuous security monitoring and alerting, automation, integration, and customization. The use of open-source technologies and a modular architecture makes the solution cost-effective, allowing organizations to scale it up or down as needed.
Overall, the proposed SOC framework and open-source SOC solution provide organizations with a comprehensive and systematic approach for building and maintaining a SOC that is aligned with the needs and objectives of the organization. The open-source SOC solution provides a flexible and cost-effective way to defend against modern cyber threats, helping organizations to effectively operate their SOC and reduce their risk of security incidents and breaches.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
This thesis deals with the creation of a cross-platform application using Xamarin.Forms. The cross-platform application will cover three different platforms android, iOS, and UWP.
The application is the first concept of a possible feature for a companion application for LS telcom. There, the user can identify cell antennas using a map-view and a camera-view making the application an augmented reality application. Thus, the user can search for a specific cell and access various information that he would not be able to see with his eyes like for example the frequency of the transmitting cells.
The cell data is generated from three different sources, Cartoradio, OpenCelliD, and the LS telcom databrowser. Eventually, the decision was taken, that the main source should be the LS telcom databrowser which has multiple advantages over the other cell sources.
The cells on the map-view are placed using the extracted coordinates from the source data. However, the cells on the camera-view are placed with complex calculations using different formulas like the Haversine formula to calculate the distance between the cell and the user and the bearing to calculate the angle between the cell and the user. Various settings will allow the user to personalize the application according to his wishes.
Ziel dieser wissenschaftlichen Arbeit war es, mit Hilfe einer Studie zu untersuchen, ob mit der am Vorfuß des Schuhs gebogenen Form positiver Einfluss auf die Biomechanik beim Laufen genommen werden kann. Nach Durchführung der markerbasierten Bewegungsana- lyse sowie einer Kraftmessung mittels instrumentiertem Laufband wurden hierzu über die Berechnungen der inversen Dynamik jeweils sowohl die Kinematik als auch die Kinetik der rechten unteren Extremität in der sagittalen Ebene ermittelt.
Sechzehn Versuchspersonen (25,3 ± 2,2 Jahre) absolvierten jeweils eine Laufeinheit von etwa 20 Sekunden Dauer in der Ebene mit einer flachen sowie mit einer am Vorfuß ge- bogenen Carbonfaser-Platte. Die gewählte Laufgeschwindigkeit betrug unabhängig der Bedingung 3,5 m/s. Letztlich konnte am Zehengrundgelenk ein Formeffekt betrachtet werden, wohingegen am Sprunggelenk eine Signifikanz dieses Effekts ausblieb. So war die Kinematik des Zehengrundgelenks in Form einer Reduktion der maximalen Dorsalflexi- on entlang der Stützphase bedeutsam durch die gebogene Form am Vorfuß beeinflusst. Ebenso wurden sowohl das maximale Plantarflexion-Moment als auch die generierte sowie absorbierte Leistung an diesem Gelenk während des Bodenkontaktes bedeutsam reduziert.
Aufgrund der vorliegenden Messergebnisse und des aktuellen Forschungsstandes wurde davon ausgegangen, dass die Reduktion der mechanischen Anforderungen am Zehengrund- gelenk in erster Linie infolge geringerer externer Hebelarme herbeigeführt werden konnten. Im Zusammenhang mit dem reduzierten Netto-Energieverlust wurde schließlich ein gerin- geres aktives Muskelvolumen der intrinsischen Fußmuskulatur vermutet. In Anbetracht des am Sprunggelenk ausgebliebenen Formeffekts deuteten die Daten demgegenüber jedoch nicht auf geringere Anforderungen dieses Gelenks infolge der gebogenen Form am Vorfuß hin. Diesbezüglich wurde vermutet, dass womöglich individuelle Antworten auf die Geome- trie der Mittelsohle in Form von einem aktiveren Abstoßen der Reduktion des externen Hebelarms entgegenwirkten.Nichtsdestotrotz deuteten die erhobenen Daten letztlich auf die Unterstützung der Vorteile einer erhöhten Biegesteifigkeit sowie in Teilen auf einen Ausbau dieser Effekte durch die Geometrie am Vorfuß hin.
Durch immer erschwinglichere Technik wird der Eintritt in die Videobranche zunehmend einfacher. Gleichzeitig gibt es immer mehr Personen, die am Markt aktiv werden und ihre Leistungen für Kunden anbieten. Was braucht das eigene Unternehmen, um im Bereich der Musikvideoproduktion, speziell innerhalb der Metalszene, erfolgreich zu sein, und welche Kanäle müssen genutzt werden, um Kunden innerhalb dieser Szene zu erreichen? Diese Fragen sollen eingangs durch Experteninterviews mit relevanten Personen innerhalb der Szene beantwortet werden. Anschließend liegt der Fokus der Arbeit darauf, mittels der gewonnenen Erkenntnisse, Literatur und eigenen Erfahrungen einen entsprechenden Unternehmensauftritt grafisch und inhaltlich zu konzipieren und umzusetzen. Dabei beginnt der Prozess bei der Namensfindung und führt über Logodesign, Farb- und Schriftwahl bis hin zur Erstellung der konzipierten Kanäle und Materialien, um die visuellen Arbeiten des Unternehmens bestmöglich zu präsentieren. Neben einer Webseite werden Social-Media-Kanäle, Printprodukte und ein Styleguide erstellt. Die gewonnenen Erkenntnisse und Rückschlüsse werden schließlich bei einer Musikvideoproduktion in der Praxis angewendet und anschließend reflektiert.
In dieser Thesis entwickelte ich ein Plugin für den dynamischen Austausch von Effekten für das WordPress Menü. Ich gehe auf die verschiedenen Vorbereitungsstufen, die Projektplanung und -durchführung ein. Am Ende wurde ein funktionaler Prototyp entwickelt, welcher den Funktionsumfang von WordPress noch weiter steigert.
Diese Arbeit beschäftigt sich mit der Analyse der Kontamination von Medizinprodukten, die kritische Geometrien aufweisen. Geprüft wurden zwei Prüfkörper, die jeweils ein kritisches Merkmal darstellen, zum einen die „gefüllten Lumen“ und zum anderen die „abgedeckten Flächen“. Anhand der auf die Prüfkörper abgestimmten Versuchsdurchführungen wurde der Einfluss der definierten Parameter Spaltweite, Prüfanschmutzung in Abhängigkeit des Anwen-dungsgebiets, Bewegung, Druck und Menge geprüft.
Die fischer eco solutions ist Hersteller von HT-PEM Brennstoffzellen und deren Komponenten. Das Herzstück der Brennstoffzellen, die Membran-Elektroden-Einheit MEA, wird auf zwei prinzipiell baugleichen Heißpressen der fischer Maschinentechnik gefertigt. Ziel dieser Arbeit ist es, dass an beiden Pressen die konstant gleiche Qualität produziert werden kann. Außerdem sollen alle relevanten Einflussgrößen und Prozessparameter bei der MEA Herstellung aufgezeigt und optimiert werden.
Es wurden verschiedene Optimierungspotentiale umgesetzt:
• Zunächst werden die Qualitätsunterschiede beider Pressen
mit Hilfe eines Vergleichs-stacks quantitativ ermittelt.
• Die Qualitätsunterschiede sind auf Unterschiede in der
SPS Steuerung zurückzuführen.
• Beide Pressen werden in ihrer Programmierung angepasst
und ein erneuter Teststack validiert die Ursache der
großen Qualitätsunterschiede.
• Stark säurebelastete Bauteile und Baugruppen müssen durch
neue ersetzt werden.
• Mit Hilfe einer Nutzwertanalyse wird eine Material-
substitution der betroffenen Teile durchgeführt und diese
produziert und angebaut.
• Die Prozessparameter bei der MEA Herstellung sind
Presstemperatur T und Presszeit t.
• Mit Hilfe statistischer Versuchsplanung werden Versuche
mit veränderten Parametern durchgeführt.
• Ein Teststack mit 16 verschiedenen Konfigurationen wird
auf einem Teststand getestet.
• Die Auswertung der Versuche erfolgt mit dem
Statistikprogramm MiniTab.
• Mit den optimierten Prozessparametern lässt sich eine
höhere Leistung jeder MEA bei gleichzeitig reduzierter
Zykluszeit und geringerem Energieeinsatz realisieren.
Die urbane Tanzszene umfasst eine große Community aus Tänzern der ganzen Welt. Das Können der Tänzer wird in regelmäßigen Wettbewerben, sogenannten Battles, unter Beweis gestellt. Leider ist es als Außenstehender oder Neuling und selbst als Kenner der Szene mühsam ein Battle zu finden, da diese meist über Privatpersonen geteilt werden und somit nur schwer die Allgemeinheit erreichen. Ebenso ergeht es den Tänzern bei der Suche nach Trainingsorten.
Eine Lösung für dieses Problem soll eine App sein, in der alle Trainingsorte und Battles aufgenommen werden können.
Damit die geeigneten Funktionen ermittelt werden können, wurde eine Analyse der aktuellen Eventplattformen für urbane Tanzevents durchgeführt und ein lösungsorientiertes Konzept für die Problematiken der Wettbewerbs- und Trainingsortsuche entwickelt.
Um die App realisieren zu können, wurden verschiedene Arten von Apps betrachtet und die Cross-Platform Entwicklungart gewählt. Für diese Entwicklungsart wurden mehrere Frameworks beleuchtet und Flutter als geeignetes Framework ausgesucht.
Ein Teil des Konzeptes wurde in ein nutzerorientiertes Design umgewandelt aus dem ein klickbarer Prototyp entstanden ist. Dieser Prototyp wurde von potentiellen Nutzern auf die Probe gestellt und anschließend verbessert.
Für die Umsetzung des Designs wurde sich in das Framework Flutter eingearbeitet und eine grundlegende Architektur für die App mithilfe des State Management Systems BLoC angelegt sowie einige Funktionen aus dem Konzept umgesetzt.
Diese Arbeit befasst sich mit agilen Methodiken zur Konzeption einer Softwarearchitektur. Es wurden Vorgehensweisen der Anforderungserhebung basierend auf themenspezifischer Literatur recherchiert und angewandt. Passend zu den Anforderungen wurden Architektur- und Dokumentationsmittel gewählt, welche die Konzeption der Architektur sowie die Implementierung der geforderten Software zum Erstellen und Ausführen von Lasttests auf softwarebasierten Langzeitarchivsystemen erleichtern sollen. Ein bestehendes Softwaresystem, welches bisher diese Aufgabe übernommen hat, wurde als Grundlage einer Neuentwicklung in Betracht gezogen. Es wurde dahingehend analysiert, aber begründet verworfen. In der Konzeptionsphase wurde eine Lösungsstrategie ermittelt sowie die Struktur der Architektur geplant und dokumentiert. Anhand eines beispielhaften Datenflusses wurde die Realisierbarkeit des Modells nachgewiesen. Auf Basis einer frei zugänglichen Architekturdokumentationsvorlage wurde eine Dokumentation des Konzeptes erstellt, welche einen schnellen Start in die agile Entwicklungsphase ermöglichen soll.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Um die Geräuschanregung von Schneckengetrieben im Automobil möglichst gering zu halten, gilt es die dafür ausschlaggebenden Parameter der Schnecke zu untersuchen. Die primären Einflussfaktoren bilden die Schiefstellung sowie die Exzentrizität der Achse des Mittenzylinders der Schnecke. Diese beiden Werte werden aktuell im Rundlauf Fr zusammengefasst, welcher auf einer 3D-Koordinatenmessmaschine, durch vermessen der Schnecke bestimmt wird. Aufgrund des hohen Zeitaufwands von 20 Minuten pro Schnecke befindet sich zudem ein optischer Rundlaufprüfstand in der Entwicklung. Mit jenem ist es möglich die Schiefstellung und Exzentrizität in einem Bruchteil der Zeit zu bestimmen.
In dieser Arbeit wird in einer Problemanalyse zunächst untersucht, ob die alleinige Ausgabe des Rundlaufs den Anforderungen an die Vorhersage der Geräuschanregung genügt. Aus den daraus gewonnen Erkenntnissen wird mittels der Software MATLAB® ein Algorithmus entwickelt, welcher aus den Daten der 3D-Koordinatenmessmaschine die Schiefstellung und Exzentrizität auf unterschiedliche Weise berechnet. In mehreren Versuchsreihen werden FPS-Schnecken aus der Fertigung auf beiden Versuchsständen vermessen und die daraus gewonnenen Messwerte ausgewertet. Bei dieser Auswertung werden beide Versuchsstände miteinander, aber auch die Werte der Auswerteverfahren innerhalb der Algorithmen verglichen.
Bei diesem Vergleich stellt sich heraus, dass die Ergebnisse ähnliche Tendenzen aufzeigen. Die Abweichung der beiden Vergleichsprozesse ist vor allem beim Vergleich mit den Ergebnissen am Zahnkopf des optischen Rundlaufprüfstands meist gering. Große Abweichungen zwischen den Vergleichsprozessen lassen sich auch innerhalb der Auswertung des optischen Rundlaufprüfstandes erkennen, da hier die Differenz zwischen Zahnflanke und Zahnkopf ebenfalls bis zu 100 % betragen kann.
Das Thema Elektromobilität wird immer wichtiger, was unter anderem durch den Ausbau eines kabelgebunden Ladenetzes deutlich wird. Aber auch die Entwicklung berührungsloser Ladetechnologien schreitet voran. So existieren bereits zahlreiche Projekte, die das Laden von Elektrofahrzeugen untersuchen. Untersucht wird hierbei das induktive statische sowie induktive dynamische Laden. In Norwegen, als einer der am schnellsten wachsenden Märkte in Bezug auf die Elektromobilität, wurde im Rahmen dieser Entwicklungsarbeit im Jahr 2020 ein Projekt initiiert, welches das berührungslose Laden mittels Induktion in der Praxis untersucht.
Da die Elektromobilität auch regional ein wichtiges Thema ist und weiter voran gebracht wird, brachte das Induktionsprojekt aus Norwegen den Anstoß, ein derartiges Vorhaben in Offenburg zu initiieren. Ziel des Vorhabens ist dabei, an Taxiständen am Offenburger Bahnhof eine Infrastruktur für induktiv ladbare Taxen aufzubauen, damit Elektro-Taxen während sie auf Kunden warten, kabellos aufgeladen werden können. Da die Durchführung eines solchen Projekts möglicherweise sehr teuer ist, ist es sinnvoll zunächst zu überprüfen, ob einem derartigen Vorhaben etwas im Wege steht.
Daher ist das Ziel der vorliegenden Arbeit im Rahmen einer vorläufigen Machbarkeitsstudie die Frage zu erörtern, ob das Induktionsprojekt am Standort Offenburg eine detaillierte Machbarkeitsstudie rechtfertigt oder nicht und aufzuzeigen, welche noch zu klärenden Punkte es gibt.
Aus diesem Grund wurden sechs Bereiche einer Machbarkeitsstudie zur Analyse ausgewählt. Dabei wurden unter anderem die Themen Standortanalyse, Stakeholderanalyse oder die Technische Machbarkeit bearbeitet. Zur Veranschaulichung des Schwerpunkts des jeweiligen Analysebereichs, wurde zu Beginn jeden Analysebereichs eine oder mehrere Leitfragen gestellt. Weiterhin erfolgte eine Maßnahmenplanung, die den Erfolg des Projekts fördern könnte.
Das Ergebnis der vorläufigen Machbarkeitsstudie zeigt, dass keine Notwendigkeit zu einer detaillierten Machbarkeitsstudie besteht. Stattdessen könnte das Projekt direkt in die Projektvorbereitungs- bzw. Planungsphase übergehen, da über die wichtigsten Analysebereiche ausreichend Informationen gewonnen werden konnten und zu klärende Fragen aufgezeigt wurden. In einem nächsten Schritt könnte nun die konkrete Öffentlichkeitsarbeit und die Umsetzung der Maßnahmen durchgeführt werden.
Digitalisierung und Visualisierung für die Lehre an Hochschulen am Beispiel der Medientechnik
(2022)
Ziel dieser Arbeit war die Erstellung eines Konzepts für die digitale Lehre am Beispiel der Medientechnik an der Hochschule Offenburg. Das Konzept sollte anhand der Funktionsweise von Digitalkameras und den Themengebieten Blende, Verschlusszeit, ISO und dem Crop-Faktor erstellt werden. Bei Konzepterstellung wurden insbesondere existierende, wissenschaftliche Erkenntnisse aus den Bereichen E-Learning, Blended-Learning und Visualisierung berücksichtigt. Darüber hinaus wurden für das Konzept Visualisierungen für die genannten Themengebiete erstellt. Vor Erstellung der Visualisierungen galt es, mögliche Vorteile der 3D-Visualisierung gegenüber der 2D-Visualisierung zu prüfen und eine Auswahl für das Konzept zu treffen. Als weiteres Ziel sollten die in der Arbeit gewonnenen Erkenntnisse, insbesondere bei der Konzepterstellung, anderen Hochschulen und Lehrenden als Grundlage für eigene Konzepte dienen, um eine digitale Lehre mit Online-Anteilen umsetzen zu können.
Diese Ziele werden im Verlauf der Arbeit uneingeschränkt erreicht.
Die in der Arbeit durchgeführte Literaturanalyse zeigt, dass der Einsatz von E-Learning und digitalen Medien zu einem besseren Lernerfolg bei Studierenden führt. Die Anwendung von Blended-Learning-Modellen, als Ergänzung zum E-Learning, können die Nachteile der Präsenzlehre ausgleichen.
Durch den Einsatz von Visualisierungen (Bilder und Animationen) kann in der Theorie belegt werden, dass sich beide Darstellungsformen positiv auf die Lernleistung von Studierenden auswirken. Insbesondere eigenen sich Animationen bei der Durchführung von Laboren zum Ausgleich unterschiedlicher Vorkenntnisse. Außerdem tragen Animationen dazu bei, die Fähigkeit zur eigenständigen Problemlösung zu verbessern, wenn Animationen gleichzeitig mit Erläuterungen eingesetzt werden.
Eine Vorteilhaftigkeit von 3D- gegenüber 2D-Visualisierungen in der Lehre, konnte in der Arbeit nicht bestätigt werden. Nicht zuletzt aufgrund eines erhöhten Aufwandes zur Erstellung und Anwendung von 3D-Visualisierungen, wurde für das Konzept eine 2D-Darstellung gewählt. Zwar werden 3D-Visualisierungen zur Wissensvermittlung an Hochschulen eingesetzt, es konnten jedoch keine wissenschaftlichen Erkenntnisse herangezogen werden, die eine verbesserte Lernleistung oder einen besseren Lernerfolg gegenüber 2D-Visualisierungen belegen. Diese Arbeit zeigt ebenfalls, dass die Anforderungen Expressivität, Effektivität und Angemessenheit für jede Visualisierung erfüllt werden müssen, damit eine Visualisierung im Kontext der Lehre vorteilhaft ist. Darüber hinaus müssen für jede Darstellung operationalisierte Lernziele definiert werden. Nur so kann eine Überprüfung und Beurteilung einer Visualisierung durchgeführt werden. Die Erfüllung dieser Anforderungen wurde für die selbsterstellten Illustrationen zu Blende, Verschlusszeit, ISO und dem Crop-Faktor berücksichtigt und kritisch geprüft. Die Anforderungen wurden vollumfänglich erfüllt.
Bei der Konzepterstellung wurden die in der Arbeit gewonnenen wissenschaftlichen Erkenntnisse berücksichtigt und am Beispiel der Vorlesung Digitale Medien 2 umgesetzt. Das Konzept zeigt in der Theorie, wie E-Learning, Blended-Learning und Visualisierungen bei dieser Vorlesung eingesetzt werden können.
Eine Erprobung in der praktischen Anwendung muss zwingend erfolgen, um die im Konzept definierten, operationalisierten Lernziele der Visualisierungen zu bestätigen. Ebenfalls gilt es den Einfluss des Konzepts auf den Lernerfolg von Studierenden an der Hochschule Offenburg zu prüfen.
Zu Beginn dieser Arbeit wurde das Problem beschrieben, dass das Ersetzen von einzelnen Modulen innerhalb TYPO3s durch React bisher nicht möglich war. Dadurch ergab sich die Aufgabe eine Lösung zu finden, mit der die Vorteile von React in TYPO3 eingebracht werden können, möglichst ohne große Veränderungen und Aufwände zu betreiben. Als zusätzliche Anforderung wurde definiert, dass React in TypeScript geschrieben werden soll.
Um dem Leser dieser Arbeit die Möglichkeit zu geben, den angefertigten Code verstehen und interpretieren zu können, wurden zunächst Grundlagen in TypeScript, React und TYPO3 geschaffen. Daraufhin wurde der Ist-Stand beschrieben, welcher ein simples TYPO3-Plugin beschreibt. Dies wurde für die grundsätzliche Umwandlung in React möglichst simpel gehalten, war dennoch mit einigen Grundsätzen wie AJAX und Rerendering ausgestattet, um gewisse Vorteile und Problematiken bei der Umsetzung aufzeigen zu können. Daraus ergab sich ein Soll-Stand, welcher zugleich weitere Anforderungen an die spätere Lösung definierte.
Um ein mögliches Lösungskonzept erarbeiten zu können wurden im Kapitel „Stand der Technik“ 2 verwandte Arbeiten und Möglichkeiten vorgestellt. Daraufhin wurden die beiden zu entwickelnden Plugins beschrieben, zunächst das Dummy-TYPO3-Plugin, gefolgt vom in React entwickelten Äquivalent.
In Kapitel 8 wurde ein Konzept erstellt und daraufhin die Umsetzung Schritt für Schritt durchgeführt. Dabei konnte erfolgreich React in TYPO3 aufgesetzt und zur Entwicklung genutzt werden. Das Dummy-Plugin konnte ohne größere Probleme umgesetzt werden und zeigte somit eine mögliche Lösung für die Umwandlung von TYPO3 zu React auf. Um diese Lösung zu validieren, wurde im Folgekapitel das ProofOfConcept entwickelt. Dabei handelte es sich um ein produktiv eingesetztes Projekt, welches auf einer älteren Version basiert und verschiedene Anforderungen mitbrachte. Dies wurde nach Vorstellung des Projektes und Lösungskonzept Schritt für Schritt umgesetzt.
Diese Thesis umfasst mit dem hybriden Rendering, Headless CMS und Progressive Web Apps drei moderne technologische Ansätze aus dem Bereich der Webentwicklung. Ziel der vorliegenden Arbeit ist es dabei, auf Basis eines Einblicks in die Grundlagen des modernen Web Developments zunächst die drei Konzepte einzeln zu betrachten, zu analysieren, Vor- und Nachteile herauszustellen und deren technologische Möglichkeiten zu erklären, um schließlich auch das Zusammenspiel dieser, derzeit relevanten Entwicklungsansätze im Hinblick auf die zugrunde liegende Forschungsfrage zu untersuchen: Ist es möglich verschiedene, aktuelle Trends der Webentwicklung sinnvoll miteinander zu kombinieren und so auf Basis eines Headless CMS, einem Frontendframework für verschiedene Renderingmethoden und der Idee der Progressive Web Apps eine performante und benutzerfreundliche protoytpsiche Web-applikation zu implementieren? Um dies zu überprüfen, wurde auf den zuvor erarbeiteten theoretischen Grundlagen mit MovieRec eine WebApp als interaktives Filmportal konzipiert und schlussendlich mit einem entsprechenden Technologiestack implementiert. Diese Schritte sowie die Umsetzung der Kernfunktionen der Anwendung wurden dabei anhand von Codeausschnitten erklärt.
Um ein neues System zur Korrektur des Tool Center Points des Roboterwerkzeugs zu finden, wurde diese Bachelorarbeit von der Firma Badische Staal Enginering angeboten. Das Ziel ist es, die Position und den Winkel des TCP1 des an den Roboter angebrachten Tools zu korrigieren, basierend auf dem Messergebnis des TCP. Für diese Arbeit wurde eine Roboterstation bereitgestellt, die auch mit einer Triangulationskamera ausgestattet war.
Nach einer Analyse und Entwicklung des Systems wurde ein Programm erstellt, das Bewegungen, Messungen und Berechnungen kombiniert. Sobald dieses Korrektursystem entwickelt ist, wird eine Testbasis an die Projektbedingungen angepasst, um seine Zuverlässigkeit und Wiederholbarkeit unter realen Bedingungen zu testen. Diese Arbeit wird in der Testumgebung der Halle der BSW2 Anlagenbau und Ausbildung GmbH durchgeführt.
Die hohen Produktionskosten verhindern derzeit weitere industrielle Anwendungen des Rührreibschweißens (engl. friction stir welding, FSW), selbst wenn eine deutlich höhere Ermüdungsfestigkeit der Verbindungen im Vergleich zum konventionellen Lichtbogenschweißen erreicht werden kann. Eine höhere Schweißgeschwindigkeit kann zwar die Kosten senken, wirkt sich aber negativ auf die Ermüdungsfestigkeit der FSW-Verbindungen aus. Als mögliche Lösung wurde das hydrostatische Festwalzen angewandt, um die Ermüdungsfestigkeit artgleicher und ungleicher FSW-Verbindungen aus den Legierungen EN AW 5083 und EN AW 6082 zu verbessern, die mit unterschiedlichen Schweißgeschwindigkeiten hergestellt wurden. Zusätzlich wurde die Ermüdungsfestigkeit direkt mit konventionell durch Metall-Inertgasschweißen (MIG) hergestellten Verbindungen und mit Grundwerkstoffproben aus EN AW 5083 verglichen. Die Oberflächenbeschaffenheit im geschweißten Zustand wurde durch Messungen der Oberflächenrauigkeit und der Eigenspannung charakterisiert. Ermüdungsversuche wurden durchgeführt, um die Ermüdungsfestigkeit der Verbindungen zu quantifizieren. Nach dem Festwalzen wurden ähnliche Druckeigenspannungen für artgleiche und ungleiche Verbindungen ermittelt. Für festgewalzte artgleiche Verbindungen aus EN AW 5083 wurde keine Verbesserung der Ermüdungsfestigkeit festgestellt. In diesem Zustand lag die Ermüdungslebensdauer der Probe jedoch im Bereich des Grundmaterials. Somit wurde eine signifikant niedrigere Ermüdungslebensdauer und eine hohe Verbesserung der Ermüdungslebensdauer durch Festwalzen für ungleiche Verbindungen erreicht. Eine Erhöhung der Schweißgeschwindigkeit von 300 mm/min auf 800 mm/min verringerte die Ermüdungsfestigkeit von Mischschweißverbindungen in diesem Fall stark.
Sensomotorische Einlagen nach Jahrling streben eine gezielte Verbesserung muskulärer Dysbalancen und der Körperstatik an. Anhand ganganalytischer Untersuchungen wurden im Zuge dieser Arbeit Daten von 19 Patient*innen beim Gehen ohne und mit Einlagen erfasst und analysiert. Ergänzend wurde zu Vergleichszwecken eine Kontrollgruppe von sieben gesunden Proband*innen herangezogen. Ziel war es, weitere Erkenntnisse über den Einfluss der Einlagenversorgung auf die Kinetik und Kinematik der unteren Extremität zu erlangen. Hierbei standen insbesondere die Kräfte und Drehmomente am Kniegelenk im Fokus.
Mittels der instrumentellen Ganganalyse wurden die Teilnehmenden im Abstand von zwei Wochen vermessen. Alle zeigten Einlagenversorgung einen erhöhten Valguswinkel am Kniegelenk während der Standbeinphase des Gehens, wiesen darüber hinaus jedoch keine neurologischen oder muskuloskelettalen Erkrankungen auf. Die Patient*innen absolvierten die Untersuchungen mit frei gewählter Ganggeschwindigkeit und auf ebener, freier Gehstrecke. Die erhobenen Daten wurden gemittelt, normiert und statistisch ausgewertet. Untersuchte Variablen sind Raum- / Zeitparameter und Verläufe der Gelenkwinkel und -momente am Kniegelenk, sowie am Sprunggelenk und dem Fußkomplex.
Die Ergebnisse lassen auf signifikante Effekte der Einlage auf die Kinematik des Kniegelenks in frontaler Ebene schließen. Der Abduktionswinkel der Teilnehmenden bei Toe-off wurde, durch die Versorgung mit sensomotorischen Einlagen, beispielsweise um 3,6° reduziert. Der Vergleich mit Personen ohne Beinachsfehlstellung zeigte zudem eine Annäherung des Verlaufs des Valguswinkel über nahezu den gesamten Gangzyklus. Es konnten zudem vereinzelt signifikante Unterschiede anhand des Extremwertvergleichs der Dorsal- und Plantarflexion des oberen Sprunggelenks nachgewiesen werden. Die Zeit- / Distanz- Parameter und Momentenverläufe blieben jedoch unverändert.
Die Arbeit zeigt, dass die sensomotorischen Einlagen Einfluss auf die Kinematik der Gelenke der unteren Extremität haben. Es wird allerdings auch deutlich, dass die Komplexität der Wirkmechanismen und deren Auswirkung durch die recht einfach gehaltene Ganganalyse nicht gänzlich erfasst werden kann. Weitere Untersuchungen sind erforderlich, um die Beobachtungen zu stützen und die Ergebnisse differenzierter erklären und bewerten zu können. Hierfür erscheint es sinnvoll, die Anzahl an Patient*innen zu erhöhen und die instrumentelle Ganganalyse mit EMG-Aufzeichnungen und einem detaillierteren Markermodell zu ergänzen.
Die Suchmaschinenoptimierung (SEO) ist von zunehmender Bedeutung für ContentErsteller:innen. Ziel dieser Forschung ist das Erstellen eines strukturierten und übersichtlichen SEO-Leitfadens für Redakteur:innen. Dazu wird die folgende Forschungsfrage gestellt: ‚Welche Elemente der Suchmaschinenoptimierung spielen im redaktionellen Prozess eine wesentliche Rolle, um erfolgreiche SEO-Texte zu erstellen?’
Um die Forschungsfrage zu beantworten wurde eine qualitative Studie zu SEO in Bezug auf Redaktuer:innen durchgeführt. Daran nahmen sieben Auskunftspersonen teil, mitunter: erfahrene Redakteur:innen, Informatiker:innen, Online Marketing Expert:innen und SEOs. Konkret beschäftigt sich die Studie mit dem Erstellen von Texten und Artikeln für WebMagazine und Blogs. In der qualitativen Studie wurden offene Fragen durch die Interviewtechnik des problemzentrierten Interviews gestellt. Das erhobene Material wurde dann durch eine qualitative Inhaltsanalyse ausgewertet.
Die Analyse des Materials erlaubte die Schritte Keyword-Recherche, Themensuche, Keyword-Analyse, SEO-Briefing und Text-Schreiben zu definieren, um sie danach in eine sinnvolle Reihenfolge zu ordnen. Der Leitfaden soll Redakteur:innen dabei helfen, einen besseren Überblick zum SEO-Prozess zu erlangen und das selbständige Durcharbeiten der Schritte vor dem Schreiben eines SEO-Artikels oder -Texts ermöglichen.
Printmedien befinden sich in der Krise. Durch die Fülle an frei zugänglichen Inhalten im Internet, verlieren immer mehr Printmedien an Leser. Mediale Inhalte sind nicht mehr nur über die klassischen Vertriebskanäle abrufbar, sondern auch digital. Dennoch zeigen hohe Reichweiten, dass Zeitungen und Zeitschriften noch eine Relevanz am deutschen Markt besitzen.
In der vorliegenden Arbeit wird untersucht, wie sich der Markt in den letzten 15 Jahren verändert hat. Durch die Digitalisierung entstehen neue Märkte und Endgeräte, wodurch sich neue crossmediale Medienangebote bilden. Die Rolle der Printmedien hat sich verändert und das Internet wird bereits von vielen Unternehmen als zusätzlicher Medienkanal für die Distribution von Druckprodukten genutzt. Anhand des Magazins GEO wird die Veränderung des Printproduktes Zeitschrift verdeutlicht. Wie haben sich die Auflagen und Reichweiten entwickelt? Es wird ebenfalls beleuchtet, inwieweit sich die Zugänglichkeit und Darstellung des Produktes verändert hat.
Diese Bachelorarbeit befasst sich mit den Entwicklungen des Webdesigns in den letzten zehn Jahren und den daraus resultierenden Anforderungen an eine erfolgreiche Webseite. Außerdem werden Grundlagen des Webdesign und die aktuellsten Webtrends betrachtet, um ein umfassendes Bild des Erfolges einer Webseite zu erhalten.
Im Rahmen der Thesis wurde außerdem ein interner StyleGuide für die Webseite des Softwareunternehmens „sevDesk“ aus Offenburg erstellt. Dieser bietet eine Übersicht der vorhandenen Komponenten in allen deren Varianten, sowie den allgemeingültigen StylingRichtlinien, welche das Design der kompletten Webseite definieren.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
Die Arbeit beschäftigt sich mit dem Thema der Progressive Web App, dabei wird auf die Entwicklung und das Wirtschaftliche Potential eingegangen. Die Arbeit kann als Hilfestellung bei der Entscheidung, ob eine Progressive Web App in einem Unternehmen eingesetzt werden soll, dienen.
Das Ziel dieser Bachelorarbeit ist es zu ermitteln, ob die ERP-Software-Lösung Odoo und die Verwendung deren kostenlosen Community Edition sich für die Umsetzung einer Internetpräsenz für eine Full-Service-Marketing-Agentur eignet und soll für die triiidot GmbH konzeptioniert und realisiert werden.
Dazu werden folgende Forschungsfragen gestellt:
1. Wie lassen sich die Anforderungen an eine Internetpräsenz der triiidot GmbH als Full-Service-Marketing-Agentur mit der kostenlosen Community Edition der ERP-Software-Lösung Odoo umsetzen?
2. Wie kann sich die triiidot GmbH von jeweils drei beispielhaften (Full-Service)-Marketing-Agenturen aus Fürstentum Liechtenstein, München und Offenburg abheben und auf dem Markt erfolgreich positionieren?
Um die erste Forschungsfrage zu beantworten, wird auf das Odoo Unternehmen und dessen System eingegangen und die Bedienung erklärt. Für das Erfüllen der Anforderungen der triiidot GmbH werden die von der Odoo Software zu der Verfügung stehenden Funktionen und Anwendungen eingesetzt. Die Umsetzung der Internetpräsenz mit der kostenlosen Odoo Community Edition wird erreicht und beschrieben. Die Grenzen dieser Edition werden in einer Vergleichstabelle mit der lizensierten Odoo Enterprise Edition aufgezeigt.
Um die zweite Forschungsfrage zu beantworten, ist eine Mitbewerberanalyse durchzuführen, die die Bereiche Leistungen, Referenzen und Funktionalität der Internetpräsenzen der Konkurrenz überprüft. Die Analyse der Ergebnisse zeigt, dass bei der Konzeption der Internetpräsenz die Struktur der Leistungen und Referenzen, sowie angebotene Funktionalitäten einen großen Einfluss auf die Benutzerfreundlichkeit und Bedienfreundlichkeit ausüben. Diese entscheidet über die Aktionen der Besuchenden auf einer Internetpräsenz. Aus diesem Grund wählt die triiidot GmbH ein klassisches, minimalistisches Design mit nützlichen Funktionen. Die Entwicklung der Struktur der Internetpräsenz wird in einer Mindmap zusammengehalten. Auf dieser Grundlage ist es möglich eine Internetpräsenz mit der Odoo Community Edition umzusetzen. Eine neue Full-Service-Marketing-Agentur kann die Defizite dieser Branche aufgreifen, um sich erfolgreich auf dem Markt zu positionieren.
Kurzfassung
Hintergrund: Eine Methode, mit der Richtungswechsel (COD) im Sport erkannt und quantifiziert werden können, kann eine weitere wichtige Variable bei der Überwachung von Belastungen sein und so Einfluss auf die Belastungssteuerung nehmen.
Zielsetzung: Die Überprüfung der Genauigkeit und Übereinstimmung einer GNSS-Trackingeinheit (Catapult OptimEye S5) bei vorgegebenen CODs im Bereich zwischen 45° und 180° nach links und rechts im Vergleich zu einem Bewegungserfassungssystem.
Stichprobe: 20 junge und zum Zeitpunkt der Messung gesunde Fußballer (10 Männer/10 Frauen; Alter: 25.3 ± 3.5 Jahre; Größe: 173 ± 8.5 cm; Gewicht: 66 ± 9.3 kg)
Methodik: Gleichzeitige Aufnahme von Positionsdaten (Catapult OptimEye S5) und Bewegungserfassungsdaten (Theia3D Markerless Motion-Capture) während je drei aufeinanderfolgenden Läufen pro vorgegebenen Winkel (180°, 135°, 90°, 45°) in beide Richtungen.
Ergebnisse: Eine gute Genauigkeit ist für 180°-CODs in beide Richtungen ermittelt worden. Deutlich unterschätzt sind die 45°-CODs in beide Richtungen und der 90°-COD nach links, weniger unterschätzt ist der 90°-COD nach rechts. Der 135°-COD ist für beide Richtungen deutlich nach oben verzerrt. Die Übereinstimmung ist für beide 180° Winkel und die 135°- und 45° Winkel nach links zufriedenstellend. Alle Ergebnisse werden über den Mittelwert ± Standardabweichung und der Bland-Altman 95%-Grenzen dargestellt.
Schlussfolgerung: Die Ergebnisse zeigen, dass die GNSS-Technologie bei CODs an ihre Grenzen stößt. Dennoch können mit einem Kompromiss in Bezug auf die Genauigkeit, unterschiedliche Winkel bei CODs bestimmt werden.
Die Hohlprobentechnik soll als Alternative zur Autoklavtechnik eingesetzt werden,
um Werkstoffe unter Druckwasserstoffeinfluss charakterisieren zu können. Daher
wird in dieser Arbeit die Hohlprobengeometrie unter LCF-Belastung mit Hilfe
der Finite-Elemente-Methode untersucht. Dabei wird besonders auf den Einfluss
des Innendrucks, der Belastung und der Temperatur eingegangen. Die Ergebnisse
werden mit der Vollprobengeometrie verglichen, um die Eignung der Hohlprobe als
Alternative zur Vollprobe zu untersuchen. Ohne Innendruck ist kein Unterschied
im Verformungsverhalten zwischen Voll- und Hohlprobe zu erkennen. Bei hohen
Innendrücken kann die Hohlprobe ihre Formstabilität verlieren. Daher können in
Experimenten nicht alle Kombinationen aus Temperatur und Innendruck untersucht
werden.
Im zweiten Teil der Arbeit wird die belastungsabhängige Wasserstoffdiffusion an einer
angerissenen Hohlprobe numerisch untersucht. Durch die Spannungsgradienten an der
Rissspitze wird die Wasserstoffkonzentration beeinflusst. Um einen Zusammenhang
zwischen der Plastizität und der Diffusion zu untersuchen, wird eine plastische und
eine Diffusionszone ausgewertet. Hier zeigt sich, dass die Diffusionszone hauptsächlich
von der Risslänge und weniger von der Belastung abhängt.
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
Aufgrund der verstärkten Bedeutung von Datenschutz in der modernen Gesellschaft und der verstärkten Nutzung von markerlosen Systemen wird es zunehmend interessant, ob ein solches System zuverlässige Werte auch bei noch unpopuläreren Bewegungen, wie der Kopfbewegung, liefert. Diese treten, bei der heute vorwiegend sitzenden Gesellschaft und im Zeitalter von Nackenverspannungen und der daraus resultierenden Bewegungseinschränkungen, mehr in den Fokus. Auch unter dem Gesichtspunkt des Datenschutzes ist es wichtig, nicht nur die Namen der Probanden, sondern auch deren
Gesichter in den Aufzeichnungen zu anonymisieren.
In der vorliegenden Arbeit wird daher evaluiert, ob das markerlose Bewegungsanaylsesystem Theia mit anonymisierten Dateien ähnliche Ergebnisse erzeugt, wie mit den originalen Dateien. Für diese Studie wurden sechs verschiedene Bewegungen bis zu ihrem Maximalausschlag des jeweiligen Probanden aufgezeichnet. Die Bewegungen hierbei sind Flexion und Extension des Kopfes, Lateralflexion sowie Rotation zu beiden Seiten. Zusätzlich wurde noch ein Durchgang Kopfkreisen aufgezeichnet. Dieser bestand aus dreimaligem Kopfkreisen, welches eine Kombination aus den vorherigen Bewegungen ist.
Die anonymisierten Daten wurden mittels eines Algorithmus bearbeitet, welcher das Gesicht der Probanden unkenntlich macht. Dies geschah durch das Schwärzen des Gesichtes oder einem Verschwimmen des Gesichts. Danach wurden die drei Datensätze in Theia verarbeitet und in EXCEL ausgewertet. Dabei kam es vor allem bei der geschwärzten Version bei Flexion und Extension zu großen systematischen und zufälligen Fehlern. Der Mittelwert des systematischen Fehlers ist die Abweichung von 13,62 Grad zu den Originalwerten. Der zufällige Fehler ist im Mittel mit 170,57 Grad stärker abweichend. Im Vergleich dazu liegt der Mittelwert des systematischen Fehlers bei der geblurrten Versionen im Vergleich zu den Originalwerten bei 5,17 Grad. Die geblurrte Version weist zudem seltener signifikante Unterschiede und einen mittleren zufälligen Fehler von 23,43 Grad auf, weshalb diese Version unter geringem Vorbehalt verwendbar ist, die geschwärzte Version jedoch nicht.
Die Bachelorarbeit umfasst die Entwicklung einer Pendelhubstichsäge für die Verwendung in CNC-Bearbeitungszentren. Der Entwicklungsprozess durch läuft alle vier Phasen: Planung, Konzeption, Konstruktion, Ausarbeitung. Endergebnis der Bachelorarbeit ist ein vollständiges 3D-Modell mit allen fertigungsrelevanten Dokumenten.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Die Verletzung des Sprunggelenks ist eine der häufigsten Verletzungen bei vielen Sportarten. Um diese Verletzungen zu verringern und zu verhindern, werden immer neuere Gelenkschutzarten oder Schuhe entwickelt. Dafür sind vor allem Dehnungen am Schuhobermaterial interessant, für die es noch keine Studie gegeben hat.
Das Ziel dieser Arbeit ist es, eine Studie im Motion Capture Labor der Hochschule Offenburg durchzuführen und die maximale Dehnungen bzw. Längenänderungen im Vor- und Mittelfußbereich bei einem Schuh mit elastischem Obermaterial zu bestimmen. Dabei sollen auch die vertikale Kraft und die Zeitpunkte der maximalen Längenänderung gemessen werden.
Die Studie wurde mit 22 Probanden durchgeführt und es wurden eine statische Aufnahme und acht Bewegungen aufgenommen. Die relevanten Bewegungen für diese Arbeit sind Laufen, Gehen, Abstoppen aus schnellem Laufen und Abstoppen aus Gehen. Dabei wurde ein Motion Capture System und eine Kraftmessplatte genutzt, bei der die Probanden mit dem linken Fuß auftreten mussten. Der Vorfußbereich war mit fünf Markern und der Mittelfußbereich mit sieben Markern besetzt, die jeweils eine Querlinie über den Fuß bildeten. Die Kameras des Motion Capture Systems haben das reflektierende Infrarotlicht der Marker aufgenommen und das System die 3D-Daten gespeichert. Mit diesen Daten wurden alle Ergebnisse berechnet.
Es wurden hohe maximale Längenänderungen und vertikale Kräfte beim Abstoppen aus schnellem Laufen gefunden. Außerdem weisen Laufen und Gehen eine sehr niedrige vertikale Kraft beim Mittelfußbereich auf. Die Zeitpunkte der maximalen Längenänderungen sind für den Vor- und Mittelfußbereich bei jeder Bewegung sehr ähnlich. Der Vorfußbereich dehnt maximal am Anfang jeder Bewegung bzw. am Anfang des Auftretens des Fußes, während der Mittelfußbereich am Ende jeder Bewegung maximal dehnt.
Mit der wachsenden Bedeutung von Nachhaltigkeit im Alltag von Konsument*innen, werden ökologische Aspekte zunehmend zum Kaufentscheidungsfaktor. Damit steigt auch das Angebot nachhaltiger Produkte am Markt. Immer mehr Unternehmen neh-men ökologische Alternativen mit in ihr Sortiment auf. Wie nachhaltig einzelne Güter tatsächlich sind, kann für Verbraucher*innen nur schwer ersichtlich sein.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von Green-washing auf das Konsumverhalten deutscher Verbraucher*innen am Markt für nach-haltige Lebensmittel. Innerhalb eines Fragebogens wird zunächst der Lebensmittel-konsum eines Probandenkreises erfasst. Dabei wird zudem erfasst, welche Bedeutung Gütezeichen als Beurteilungshilfe hinsichtlich der Nachhaltigkeit eines Produkts in der Lebensmittelbranche innehalten. Dazu werden zunächst einige Öko-Siegel bzgl. ihrer Seriosität bewertet. In einem weiteren Schritt werden die Ergebnisse dieser Bewertung mittels empirische Forschung der Einschätzung des Probandenkreises gegenüberge-stellt.
Aus der Befragung ist hervorgegangen, dass Greenwashing eines Unternehmens durchaus Veränderungen in der Kaufbereitschaft der betroffenen Produkte sowie – zu einem geringeren Ausmaß – Produkte innerhalb der gleichen Kategorie betrifft. Wei-terhin wurde identifiziert, dass die Einschätzungen des Probandenkreises hinsichtlich der Seriosität und der Vertrauenswürdigkeit maßgeblich von der – innerhalb dieser wissenschaftlichen Arbeit – durchgeführten Bewertung abweichen. Die Einschätzung hinsichtlich der Seriosität und Vertrauenswürdigkeit von Seiten der Proband*innen, scheint zu großen Teilen von der Bekanntheit des betreffenden Gütezeichens abzu-hängen.
Die vorliegende Bachelorarbeit gibt einen Überblick über verschiedene Java Game Engines und wie diese über ein Konzept in die aktuelle Informatik Vorlesung integriert werden können, um dadurch die Motivation der Studierenden signifikant zu steigern. Dabei wurde in den Grundlagen das Lernpotenzial von Computerspielen untersucht sowie der allgemeine Aufbau von Game Engines definiert. Diese Ergebnisse flossen im Anschluss in die Untersuchung ein und führten zu einer Auswahl der geeigneten Java Game Engine. Über eine SWOT-Analyse, welche nach V. Wollny und H. Paul durchgeführt wurde, konnte eine gut geeignete Engine ermittelt werden. Auf der Basis des Buches von Michael Kölling wurde ein Konzept für die Informatik - Vorlesung entwickelt, welches im letzten Kapitel der Arbeit mit passenden Aufgaben beschrieben wurde. Die Bachelorarbeit ist sowohl für Studierende der Informatik als auch für Lehrende in diesem Bereich interessant und bietet neue Einblicke in ein Nischengebiet.
Die vorliegende Bachelorthesis setzt sich mit dem Einsatz von digitalen Medien in den Bildungseinrichtungen Hochschule und Berufsschule auseinander. Zunächst werden grundlegende Begrifflichkeiten und digitale Medien beschrieben. Anschließend wird der Gerätebesitz Jugendlicher und die Ausstattung der Bildungsinstitute gezeigt. Im Folgenden wird auf den Einfluss der Coronapandemie in Bezug auf die Digitalisierung eingegangen. Anschließend folgen zwei Konzepte, die einen sinnvollen Einsatz von digitalen Medien in der Bildung gewährleisten sollen.
Heutzutage befindet sich die Menschheit in einem Zeitalter des Bewegungsmangels. Körperliche Aktivitäten dringen immer weiter in den Hintergrund. Dadurch wird die Gesundheit deutlich beeinträchtigt. Es entstehen vermehrt Krankheiten wie Diabetes und Schädigungen des Herz-Kreislauf-Systems. An diesem Beispiel lässt sich verdeutlichen, wie wichtig körperliche Bewegung ist. Die gängigste Art ist das Laufen und das Gehen. Dazu wurden Laufschuhe entwickelt. Jedoch ist die Passform oft nicht so ausgestattet, um für eine perfekte Laufperformance und ein möglichst geringes Verletzungsrisiko zu sorgen. Es entsteht ein Spiel zwischen Laufschuh und dem Fuß. Um dieses Spiel zu minimieren bzw. für eine verbesserte Laufperformance zu sorgen werden Gurtsysteme bzw. Schnürsysteme entwickelt. Das Ziel hierbei ist es zu prüfen, ob diese Gurtsysteme auch wirklich einen signifikanten Vorteil erweisen und ob es Unterschiede zwischen den einzelnen Schnürungen, sowie dem Schuh ohne Schnürung gibt.
In dieser Studie wurden 5 Probanden rekrutiert. Im Biomechanik Labor wird jeder Proband einzeln gemessen. Dabei positionieren die messenden Personen einen Schuh an den Probanden. Anschließend wird ein Gurtsystem befestigt. Es handelt sich hierbei um 4 verschiedene Schnürungen, die jeweils einmal um den Schuh gewickelt werden. Die Gurtsysteme sind dieselben, jedoch an einer anderen Position von proximal nach distal entlang des Fußes positioniert. Zusätzlich werden die Bewegungen noch mit dem Schuh ohne das Schnürsystem durchgeführt. Es handelt sich hierbei um 5 verschiedene Bewegungen. Das Gehen, das Laufen, das Springen, sowie das Abstoppen aus dem Gehen und dem Laufen. Ziel dabei ist es die horizontale Bewegung der Ferse nach vorne relativ zur Sohle, sowie die Verschiebung der Ferse relativ zur Sohle in vertikaler Richtung zu untersuchen und rauszufinden, ob es einen grundlegenden Unterschied zwischen den einzelnen Schnürungen gibt. Die einzelnen Messwerte beschreiben den Abstand zwischen dem Marker an der Ferse sowie auf dem Schuh, die gemeinsam ein Koordinatensystem aufspannen.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Abstoppen aus dem Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D3, D3 und D4, sowie D3 und Ohne, signifikant.
Die Messwerte der maximalen vertikalen Fersenbewegung bei der Bewegung Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und Ohne, D2 und Ohne, D3 und Ohne, sowie D4 und Ohne, signifikant.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Laufen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D4, sowie D3 und Ohne, signifikant.
Zu den Messungen Abstoppen aus dem Gehen MVF, Abstoppen aus dem Laufen MHF, Gehen MHF, Laufen MVF, Springen MHF und Springen MVF zeigt das Ergebnis des Friedmann Tests einen niedrigeren Wert als den Kritische Wert von 9,49. Somit haben diese Messungen untereinander keine Signifikanz und werden somit nicht für den Vorzeichentest verwendet.
Patienten mit neurologischen Erkrankungen, die Auswirkungen auf die Muskelaktivität der unteren Extremitäten haben, leiden oft an Gangstörungen in der Schwung- und Standphase. Um diesen Gangstörungen entgegenzuwirken und einzelne Muskeln zu unterstützen oder zu ersetzen, stellt die Versorgung mit Unterschenkelorthesen eine Behandlungsoption dar. Den Ärzten steht dabei eine Vielzahl an Orthesentypen mit verschiedenen mechanischen Eigenschaften zur Verfügung. Zur Beurteilung der Wirksamkeit einer Orthesenversorgung werden dreidimensionale Ganganalysen mit und ohne Orthese durchgeführt. Die Entscheidungsfindung wird durch eine Simulation des Bewegungsapparates, dem muskuloskelettalen Modelling, unterstützt. Aus den Messdaten der Ganganalyse mit Orthese wird mittels der inversen Dynamik auf die bewegungserzeugenden Muskelkräfte im Körper zurückgerechnet. Der-zeit wird das Gesamtmoment um das Sprunggelenk in die Berechnung mit einbezogen, welches sich aus dem internen Moment, erzeugt von Muskeln, Sehnen und Bändern der unteren Extremitäten des Patienten und dem externen Orthesenmoment zusammensetzt. Durch eine isolierte Ermittlung des Unterstützungsmoments einer Unterschenkelorthese kann durch das muskuloskelettale Modelling eine genauere Aussage über die Auswirkungen einer Unterschenkelorthese auf die Muskelaktivität der unteren Extremitäten und die Funktionalität des Bewegungsapparates des Patienten getroffen werden. Zur Bestimmung des Orthesenmoments wird die Rotationssteifigkeit, die wichtigste mechanische Eigenschaft einer Unterschenkelorthese mithilfe einer Testvorrichtung gemessen. Denn diese beschreibt das Widerstandsmoment der Orthese, das sie bei der Deformation in Plantar- oder Dorsalflexion er-zeugt, um eine gewisse Biegung um die Sprunggelenksachse freizugeben. Die Literaturrecherche ergibt, dass die Rotationssteifigkeit einer Unterschenkelorthese auf einem Prüfstand mit einem physischen Ersatzbeinmodell zur Fixierung der Orthese gemessen wird. In der bestehenden Testvorrichtung am Kinderspital Basel werden die Orthesen allerdings ohne Ersatzbeinmodell untersucht. Das Ziel dieser Arbeit ist daher die Ermittlung der Eignung der bestehenden Vorrichtung ohne Ersatzbeinmodell zur Bestimmung der Rotationssteifigkeit. Dazu werden eine steife und drei Karbonfederorthesen auf der Testvorrichtung und am Bein eines gesunden Probanden in vergleichbaren Auslenkungen gemessen. Die Bewegung der Orthese wird mittels dreidimensionalem markerbasiertem Kameramesssystem aufgenommen und die kinetischen Daten über dreidimensionale Kraftmessplatten erfasst.
Für den Vergleich der beiden Testkonditionen werden drei Parameter definiert. Der Erste ist das Deformationsmaß der Orthese. Dieses beschreibt die Deformationslinie des Orthesenschafts in Sagittalebene. Der Vergleich zeigt, dass dieses bei allen getesteten Orthesentypen in starkem Maß zwischen beiden Testkonditionen variiert und damit nicht vergleichbar ist. Der zweite Parameter ist die Betrachtung eines vereinfachten Modells für das Verhalten des Rotationspunkts in der Sagittalebene, um den der Orthesenschaft bei der Verformung rotiert. Hierzu werden Geraden durch die Marker des Schafts und des Fußes gelegt und deren Schnittpunktverhalten bei der Deformation analysiert. Die Bewegung des Schnittpunkts variiert je nach Testkondition, jedoch wird das Maß der Bewegung im Vergleich zu anderen Einflussfaktoren als vernachlässigbar eingestuft. Hier gleichen sich somit die beiden Testkonditionen. Der dritte Parameter ist die Rotationssteifigkeit der Orthese. Hierzu werden mit den Kraftmessplatten die Kräfte gemessen und mit den Positionsdaten der Marker ein Hebelarm und der Deformationswinkel definiert. Die ermittelten Daten weichen zwischen den Testkonditionen in großem Maß voneinander ab. Eine direkte Aussage über die Eignung der Testvorrichtung kann nicht getroffen werden.
Die Ergebnisse zeigen, dass die Messung am Bein des Probanden keine realistischen und da-mit verwertbaren Messdaten zur Bestimmung der Rotationssteifigkeit liefert. Schlussfolgernd sind die Messdaten beider Testkonditionen mit den angewandten Mess- und Berechnungsmethoden nicht vergleichbar. Die Eignung der Testvorrichtung lässt sich somit nur bedingt beurteilen. Einerseits liefert der Aufbau der Vorrichtung und die Messdurchführung Messda-ten zur Bestimmung der Rotationssteifigkeit, andererseits kann noch keine Aussage darüber getroffen werden, ob die Messdaten zu einer qualitativen Ermittlung der Rotationssteifigkeit der Orthese führen können. In zukünftigen Studien muss die Messung am Bein des Proban-den optimiert werden, um Referenzwerte für die Messung auf der Testvorrichtung bereitstellen zu können.
Die Analyse von biomechanischen Parametern erlangt in der Sportwissenschaft und der Biomechanik eine immer größere Bedeutung. Daraus entwickelten sich mit der Zeit neue Analysemethoden, die sich zum Ziel gesetzt haben, eine bessere, schnellere und einfachere Analyse der biomechanischen Parameter zu ermöglichen.
Das Ziel der vorliegenden Arbeit ist es zu evaluieren, ob die Sensor-Technologie für die Analyse von biomechanischen Parametern im Bereich des Skisprungs und Skilanglaufs eingesetzt werden kann und dabei einen Vorteil gegenüber den derzeitig verwendeten Analysemethoden mit sich bringt. Dabei soll ein Lösungskonzept entwickelt werden, welches gezielt die Geschwindigkeiten und Zeiten, im Skisprung und Skilanglauf analysieren kann.
Für die Auswahl der Sensoren, wurden zu Beginn Randbedingungen festgelegt, die ein Sensor erfüllen muss, um für den Einsatz im Skisprung und Langlauf geeignet zu sein. Dabei stehen vor allem die Outdoorfähigkeit, Scanfrequenz und die Reichweite im Fokus der Evaluierung. Auf Basis der Randbedingungen wurden diese mit den Eigenschaften der Sensoren verglichen und eine Vorauswahl getroffen. Dabei kam man zu dem Ergebnis, dass fünf Sensoren für den Einsatz im Skisprung und Skilanglauf geeignet sind. Die Sensoren kommen jeweils aus dem Bereich der LiDAR- (light detection and ranging), RFID- (Radio-Frequency Identification), und Radar-Technologie. Im Anschluss wurde für jeden Sensor ein Lösungskonzept zur Bestimmung von Geschwindigkeiten und Zeiten, unabhängig von dem zu messenden Objekt, erstellt und abschließend auf ihre Verwendbarkeit im Skisprung und Skilanglauf bewertet. Dadurch stellte sich heraus, dass die Kombination aus einem LiDAR-Sensor (LMS5xx) und einem RFID-Sensor (RFU63x) am besten für den Skilanglauf geeignet ist. Für die Verwendung im Skisprung zeigte sich ebenfalls eine Kombination aus dem RFID-Sensor (RFU63x) und einem Radar-Sensor (RMS1000) als bestmögliches Lösungskonzept zur Analyse von Geschwindigkeiten und Zeiten.
Die Arbeit hat gezeigt, dass die Sensor-Technologie in Zukunft eine schnellere, unabhängigere und einfache Methode zur Analyse von biomechanischen Parametern ermöglicht. Dabei muss berücksichtigt werden, dass es sich um eine theoretische Untersuchung handelt, welche als Vorlage für weitere Untersuchungen dienen soll.
are you okay?
(2022)
Die Frage “Wie geht es dir?” ist in unserer Gesellschaft eine Höflichkeitsfloskel geworden. Die meisten Menschen antworten mit einem “Gut, und selbst?” und dann wird über etwas anderes gesprochen. Der Großteil redet nicht allzu oft darüber, was sie wirklich beschäftigt. Aber warum eigentlich nicht? Ist es Scham, Angst vor Ablehnung oder einfach nur „gutes“ Benehmen?
Besonders negative Gefühle, wie Wut und Trauer haben in unserem Leben wenig Platz. Sie werden als nicht gut betrachtet und alles was nicht “gut” ist, sollte laut der Gesellschaft lieber versteckt werden. Dieses Buch steht für mehr Gefühlsbewusstsein und soll einen offeneren Austausch mit sich selbst und anderen anstoßen. Denn auch negative Gefühle sollen einen Platz bekommen und können sanftmütig und bewusst gelebt werden.
Dieses Buch ist eine bunte Mischung aus ausgedachten aber realitätsnahen Geschichten vom Scheitern, Texten von Musikern und Bildern zum Träumen und Interpretieren. Es scheint zuerst ungewöhnlich, ausschließlich deutsche Rapper statt alte Philosophen zu zitieren. Doch die Hip-Hop-Kultur hat einiges zu sagen und bringt alltägliche Probleme und Ängste unverblümt auf den Punkt. Manchmal müssen wir nur etwas genauer hinhören.
Das Ziel ist es, einen Workflow zu erstellen, mit dem Produkte von Kunden im 3D-Format aufbereitet und in einer webbasierten Echtzeit-360°-Anwendung zur Schau gestellt werden. Dabei können Betrachter mit dem Produkt interagieren und sich darüber informieren.
Dabei soll sich der Workflow auf den 3D-Artist richten und der Aufwand des Entwicklers möglichst minimiert werden.
Mit dem Öffnen der Webseite wird eine ThreeJS-Anwendung geladen. Die Anwendung enthält eine Szenendatei, in welcher sich eine GLB-Datei (Graphics Language Binary) des 3D-Modells befindet. Diese Datei wurde in 3DsMax, einem gängigen 3D-Programm, aufbereitet und exportiert. Neben der GLB-Datei enthält die Webseite ein Lichtsetting und ein Environment mit separatem Background.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Ein Testsystem zum Prüfen neuer Komponenten elektromagnetischer Positionsmesssysteme soll durch eine Eigenkalibrierung des gesamten Systems stetig auf seine Genauigkeit geprüft werden, sodass nur noch eine periodische Rekalibrierung des Referenzgerätes erforderlich ist. Mittels Signal-Routing Software soll über die nationale Instrumentenkarte PCIe-6509 des Computers Spannungssignale an eine Hardware Under Test geleitet werden. Über diese Signale können Transistoren auf der Hardware angesteuert werden, die jeweils einem Relais Spannung übergeben können. Je nachdem welches Relais durchgeschalten werden soll, kann der Messwiderstand des gesamten Testsystems oder das Testsystems kalibriert werden. Um tatsächlich Kalibrierungen durchzuführen, wird eine Software erstellt. Mit der Software können die zu benutzenden Gerätschaften eingelesen und über eine Benutzeroberfläche eine Toleranzprüfung der Komponenten vollzogen werden. Hier gilt es eine Toleranzprüfung für den Messwiderstand zu erstellen und den Code dann auf Komponenten des Testsystems zu erweitern. Dafür wird ein kalibriertes Referenzmessgerät benötigt. Dabei wird ein Digitalmultimeter DAQ6510 verwendet, das über ein Multiplex Modul 7708 mit der Hardware verbunden wird. Um später Komponenten des Testsystems wie Frequenz kalibrieren zu können, wird ebenfalls ein Funktionsgenerator integriert und die Software-Codes darauf erweitert. Besteht das Grundkonzept, werden Funktionstests mit einer Messsystemanalyse erbracht und die Leistungsfähigkeit des Konstruktes beurteilt. Anschließend können neue Entwicklungsansätze und Optimierungskonzepte für weitere Abschlussarbeiten erstellt werden.
Um mit einer Marketing- oder Werbemaßnahme erfolgreich zu sein, muss ein Unternehmen die Bedürfnisse und Wünsche der anzusprechenden Zielgruppen kennen. Da
die Generation Z in den kommenden Jahren im Vergleich zu vorangegangenen Generationen einen immer größeren Anteil der Weltbevölkerung und somit der zukünftigen
Konsument*innen ausmachen wird, stellt sie die Zielgruppe der Zukunft dar. Für diese
Generation ist der Umgang mit dem Internet, Smartphones und Apps alltäglich und hat
sich in ihrem Leben bereits fest etabliert. Die vorliegende Bachelorarbeit behandelt basierend auf dieser Tatsache die Frage, ob Mitglieder der Generation Z noch von klassischer Werbung erreicht werden können und wie ein Unternehmen die eigenen Werbemaßnahmen gestalten sollte, um die Generation Z anzusprechen. Damit Rückschlüsse
auf die zielgruppengerechte Marketingkommunikation eines Unternehmens mit der Generation Z gezogen werden konnten, wurden Werke der Fachliteratur und nationale sowie internationale Studien über das Konsument*innenverhalten der Generation Z herangezogen. Um die Erkenntnisse der Literaturrecherche zu untermauern, wurde zusätzlich eine Gruppendiskussion mit Vertreter*innen der Generation Z durchgeführt. Die
qualitative Studie manifestierte die im Theorie-Teil herausgearbeiteten Informationen
und half somit maßgeblich bei der Beantwortung der Forschungsfragen. Im Rahmen
dieser Arbeit konnte festgestellt werden, dass die Generation Z grundsätzlich nicht mehr
von klassischer Werbung erreicht wird, da sie klassische Medien nur noch selten nutzt.
Um Mitglieder der Generation Z als Zielgruppe für sich zu gewinnen, bedarf es einer
Marketingkommunikation, die vorwiegend online und bestenfalls über Social Media
stattfindet und die Konsument*innen individuell mit relevanten Inhalten anspricht.
Diese Arbeit beschäftigt sich mit der Dynamik der Konsensbildung in sozialen Netzwerken mit unterschiedlichen Strukturen. Dafür wird mittels des Naming Games die Kommunikation mit dem Ziel der Konsensbildung simuliert und analysiert. Es geht dabei um die Frage, welchen Einfluss die unterschiedlichen Netzwerkstrukturen auf die Dynamik der Simulationen haben. Neben den unterschiedlichen Netzwerkstrukturen werden weitere Faktoren gesucht und analysiert, welche die Dynamik der Konsensfindung beeinflussen. Dafür werden die Simulationen unter bestimmten Parametern und Eigenschaften mehrfach wiederholt. Aus diesen mehrfachen Durchführungen wird eine repräsentative Simulation ausgewählt und untersucht. Hinsichtlich der Frage nach dem Einfluss der Netzwerkstruktur auf die Dynamik, konnte festgestellt werden, dass die Dichte des dem Netzwerk zugrundeliegenden Graphen einen erheblichen Einfluss auf die Effizienz der Kommunikation hat. Mit steigender Dichte steigt auch die Effizienz der Kommunikation. Zudem konnten zwei weitere wesentliche Einflussfaktoren ausgemacht werden: sogenannte Autoritäten und Announcements. Bei Autoritäten handelt es sich um Teilnehmer, welche besonders viele weitere Teilnehmer der Simulation kennen und bei Announcements handelt es sich um eine Form der Kommunikation, die zu einem Zeitpunkt zwischen mehr als zwei Teilnehmern stattfinden kann. Das Hinzufügen dieser Parameter führt wieder zu einer veränderten, effizienteren Dynamik.
Die vorliegende Abschlussarbeit wurde intern an der Hochschule Offenburg angefertigt. Gegenstand der Untersuchung ist der Einsatz von cloudbasierten Business-Intelligence-Systemen in der Lehre.
Die Arbeit befasst sich zu Beginn mit der Anbindung einer externen Datenquelle in SAP Data Warehouse Cloud (DWC). Diese basiert auf einer relationalen Datenbank. Hierfür wer- den drei unterschiedliche Lösungen untersucht und miteinander verglichen. Außerdem werden Lernszenarien für die Arbeit mit der SAP Analytics Cloud (SAC) entworfen. Die Lernszenarien beinhalten jeweils ein Vertriebsdashboard, welches zuvor konzipiert und in SAP Analytics Cloud (SAC) implementiert wird. Die Dashboards sollen durch das Absolvieren von Lernszenarien durch Studierende an der Hochschule Offenburg unter Einhaltung von Prinzipien guter Visualisierung nachgebaut werden. Beide Produkte von SAP sind momentan Teil von Laboren an der Hochschule Offenburg, um Prinzipien von Business Intelligence (BI) praktisch anzuwenden. Mit Hilfe von SAP Data Warehouse Cloud (DWC) wird ein Datenmodell entworfen. Dieses wird in SAP Analytics Cloud (SAC) verwendet, um die Daten zu visualisieren. Die Grundlage für die Arbeiten bilden die Daten der Global Bike Group. Hierbei handelt es sich um eine Referenzfirma von SAP, die es ermöglicht, anhand von geschäftlichen Testdaten einen Eindruck von den Funktionen der SAP-Produkte zu erlan- gen.
Die Arbeit orientiert sich an zwei Forschungsfragen. Die erste Forschungsfrage behandelt die Anbindung einer Datenquelle in SAP Data Warehouse Cloud (DWC). Die zweite Forschungsfrage betrifft den Entwurf von Lernszenarien mit unterschiedlichem Umfang und unterschiedlicher Zielgruppe in SAP Analytics Cloud (SAC). Beide Fragen konnten erfolg- reich beantwortet werden. Die Ziele der Arbeit wurden erreicht
Unternehmen verfolgen seit Jahren das Ziel, Marketingkampagnen online zur Vermarktung ihrer Produkte einzusetzen. Um einen wachsenden Umsatz zu generieren, greifen sie insbesondere auf das E-Mail-Marketing und Newsletter als Instrument zurück. Viele lassen dabei allerdings trotz der regelmäßigen Versendung von E-Mails Optimierungsbedarf entstehen. Daher ist es notwendig zu verstehen, wie solche Newsletter-Kampagnen konzipiert sind und wie sie funktionieren.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, welche Faktoren für eine gelungene Kampagne beachtet werden sollten und aus diesen einen übersichtlichen Leitfaden zu generieren. Dazu wird die folgende Forschungsfrage gestellt: Inwiefern kann das E-Mail-Marketing und der Newsletter genutzt werden, um die B2C Ziele des Unternehmens erfolgreich zu erfüllen und gleichzeitig die Empfänger und Empfängerinnen zufrieden zu stellen?
Um die Forschungsfrage zu beantworten, wurde eine Literaturrecherche sowie eine qualitative Studie in Form eines Experteninterviews durchgeführt. Die theoretische Literaturrecherche unter-suchte, welche Kriterien bei den jeweiligen Prozessschritten erfüllt sein müssen, damit diese den Nutzenden zufriedenstellt. In der qualitativen Studie waren den teilnehmenden Fachleuten offene Fragen zum E-Mail-Marketing Prozess gestellt worden, die im Anschluss ausgewertet wurden. Dadurch wurden die vorab gewonnenen Kenntnisse auf ihre Anwendbarkeit in der Praxis validiert.
Die Recherche und Interview-Aussagen zeigen, dass die Erfolgsfaktoren in allen Prozessschritten verteilt liegen. Besonders die Planung und die Konzeption der Werbemittel haben einen großen Anteil an der Zufriedenheit von Empfangenden Personen. Neben der Einhaltung der Gesetzlage liegt der Fokus auf einer unternehmensspezifischen Zielsetzung und einer umfangreichen Ziel-gruppenanalyse. Adressen variieren in der Qualität und können unterschiedlich generierbar sein. Sie sollten vor der Nutzung und unabhängig von dem Ursprung validiert werden. Bei der Gestal-tung empfiehlt sich der Einsatz von interessanten Texten, emotionalen Bildern und gut platzierten Call-to-Actions. Die Nutzung einer Personalisierung und Individualisierung erhöht die Aufmerksam-keit und die E-Mail sollte abschließend getestet werden. Grundsätzlich muss für eine inhaltliche Relevanz für den Nutzenden gesorgt sein. Hinsichtlich des Versands sollten Frequenz und Zeit-punkt an die individuellen Zielgruppen angepasst werden. Der Einsatz einer Blacklist vor dem Ver-sand und die Aufnahme in eine Whitelist führen beide zu einer verbesserten Resonanz auf Kun-denseite. Ein erfolgreiches Controlling besteht, neben der Vielzahl an Kennzahlen, vor allem aus einem transparenten Tracking dieser. Nur durch ein Zusammenspiel beider kann die Zielerreichung realistisch betrachtet werden. Die regelmäßige Bereinigung des Adressverteilers von Abmeldern und nicht erreichbaren Adressen, sowie das zielgerichtete Anschreiben von Nicht-Reagierern er-höhen die Performance. Software wirkt dabei unterstützend und sollte genutzt werden
Weiterführende Forschung im E-Mail-Marketing Marketings für Newsletter könnte auf eine noch genauere Betrachtung des Controllings oder der Zielgruppenanalyseausgerichtet sein.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
Die vorliegende Bachelorarbeit befasst sich mit den Marketing-Kommunikationsstrategien im zweiseitigen Markt am Beispiel einer Immobilienplattform.
Das primäre Ziel dieser Arbeit besteht darin, auf Grundlage der Netzwerkeffekte im zweiseitigen Markt und durch Anwendung von Onlinemarketingmaßnahmen die Positionierung der Plattform Immobilien Rith in den Internetsuchergebnissen zu optimieren.
UAVs (engl. Unmanned Aerial Vehicles) sind in den vergangenen Jahren auch außerhalb militärischer und wissenschaftlicher Nutzung beliebter geworden. Für autonome Fluganwendungen ist die Überwachung der Umgebung zwingend notwendig. In dieser Arbeit wird ein experimenteller Ansatz zur Hinderniserkennung mit Radar- und Lidarsensorik präsentiert. Dieser setzt sich aus der Kollisionsvermeidung der Flugsteuerung px4, einem Nvidia Jetson TX2 als Flugbegleitcomputer und den Sensoren Slamtec RPLidar A2M6 und Texas Instruments AWR1443 Radar zusammen. Insgesamt wurden drei verschiedene Hardwarekomponenten getestet. Zur Auswertung der Versuche wird eine durch Python OS-unabhängige Auswertesoftware entwickelt und implementiert. Die Versuchsplanung setzt sich aus drei Versuchen mit jeweils fünf in Geometrie und Textur unterschiedlichen Hindernissen zusammen. Die Versuchsergebnisse zeigen, dass der eingesetzte Lidar gegenüber dem Radar Vorteile auf kurze Distanz aufweist. Zur Reproduzierbarkeit von Experimenten auf kurzer Distanz wird die Entwicklung eines fixen Messaufbaus empfohlen.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
Reibung und Verschleiß in tribologischen Kontakten verursachen knapp ein Viertel des weltweiten Primärenergiebedarfs. Dies stellt ein enormes Potential zur Minderung von Treibhausgasemissionen und Absenkung von Kosten dar. Aufgrund dessen ist die Optimierung von Reibkontakten ein Kernthema der Tribologie. Hierfür ist der Supraschmierzustand, bei welchem die Reibung aufgrund spezieller Schmiermechanismen annähernd vollständig verschwindet (Reibungszahl 𝜇 ⩽ 0,01), von besonderem Interesse. Die jährlich steigende Anzahl an Veröffentlichungen belegt das hohe wissenschaftliche Interesse an dem Thema. Bisher konnte Supraschmierung jedoch nur für Modellsysteme nachgewiesen werden, das Übertragen auf technische Systeme ist noch nicht gelungen.
Ziele dieser Arbeit waren der Nachweis von Supraschmierung in einem punktförmigen Modellkontakt und die Überführung in den Flächenkontakt eines realen Gleitlagers durch Verwendung von technischer Keramik und/oder DLC-Beschichtungen.
Hierfür wurde zunächst das Schmierverhalten einiger Modellschmierstoffe in einem Stahl/a-C:H:Si- Kontakt untersucht. Die niedrigsten Reibwerte wurden bei Verwendung von Glycerol erzielt. Daher wurde Glycerol als Modellschmierstoff für weitere tribologische Untersuchungen an unterschiedlichen Oberflächen (a-C:H, ta-C, Keramik) verwendet.
Die besten Ergebnisse hinsichtlich Reibung und Verschleiß wurden mit technischer Keramik erzielt. Mit einer Stahl/Si3N4-Paarung wird bei 80 °C Supraschmierung für Gleitgeschwindigkeiten von 0,007 𝑚/𝑠 bis 0,965 𝑚/𝑠 nachgewiesen. Als kleinste Reibungszahl wird 𝜇 = 0,0015 gemessen.
Die geringste Reibung in einem Stahl/DLC-Kontakt wird mit einer a-C:H:Si-Schicht erreicht. Hierbei konnte Supraschmierung bei 80 °C für Gleitgeschwindigkeiten von 0,029𝑚/𝑠 bis 0,484𝑚/𝑠 nachgewiesen werden. Die kleinste Reibungszahl für das System beträgt 𝜇 = 0,0063.
Der Nachweis von Supraschmierung gelingt für anwendungsnahe Betriebsparameter, dies stellt einen Fortschritt gegenüber den meisten Literaturdaten dar. Um die Übertragbarkeit auf technische Systeme zu demonstrieren,werden die besten identifizierten Oberflächen und Schmierstoffe auf einem anwendungsnahen Gleitlagerprüfstand untersucht. Durch Verwendung von a-C:H:Si-beschichteten Wellen und Glycerol als Schmierstoff kann der Reibwert bei Raumtemperatur von 𝜇 = 0,965 im Referenzsystem auf 𝜇 = 0,038 gesenkt werden.
Um die Arbeit fortzusetzen, werden die identifizierten Systeme in axiallagerähnlicher Anordnung (Gleitring/Gleitpad) untersucht.
Um gezielt DLC-Schichten zu entwickeln, sind Reibungssimulationen notwendig. Im nächsten Schritt sollen umfassende Oberflächenanalysen durchgeführt werden, um die nötige Datenbasis für die Simulation zu erstellen.
Die vorliegende Arbeit befasst sich mit der numerischen Simulation von Rissschließeffekten für Risslängen im Übergangsbereich von mikrostrukturell kurzen und mechanisch kurzen Rissen für zwei Probengeometrien. Als wichtige Bewertungsgrößen eines Ermüdungsrisses dienen die Rissöffnungsspannung und die zyklische Rissspitzenöffnung. Im ersten Teil der Arbeit liegt das Hauptaugenmerk auf der Untersuchung des mikrostrukturellen Einflusses in der Rissspitzenumgebung auf die Rissschließeffekte bei Risswachstum. Im hierfür verwendeten Finite-Elemente-Modell wird um die Rissspitze eines Oberflächenrisses in einer quasi unendlich ausgedehnten Platte eine zufällig angeordnete Kornstruktur erzeugt. Zur Beschreibung des mikrostrukturellen Materialverhaltens wird ein Einkristallplastizitätsmodell mit kinematischer Verfestigung eingesetzt. Das Werkstoffverhalten der umliegenden Platte wird mit einem in Abaqus/Standard vorhandenen homogenen von Mises Plastizitätsmodell mit kinematischer Verfestigung beschrieben. Insgesamt werden fünf unterschiedliche Mikrostrukturen simuliert und mit dem rein homogenen Werkstoff verglichen. Die zyklische Belastung erfolgt dehnungskontrolliert ohne Mitteldehnung im Modus I für zwei makroskopische Dehnungsamplituden im Bereich der Fließdehnung und deutlich oberhalb davon. Die Ergebnisse zeigen einen signifikanten Einfluss der Mikrostruktur auf das Rissschließen, hervorgerufen durch unterschiedliche Kornorientierungen, Form und Größe der Körner und durch Korngrenzen. Bei niedriger Belastung zeigen die Mikrostrukturen mehr Rissschließeffekte verglichen zum homogenen Modell. Mit steigender Belastung nimmt bei allen Simulationen das Rissschließen ab. Der relevanteste Rissschließmechanismus ist das plastizitätsinduzierte Rissschließen, welches bei höherer Belastung durch Aufrauen der Rissflanken zusätzlich rauhigkeitsinduziertes Rissschließen verursacht.
Mit einem zweiten Finite-Elemente-Modell wird das Rissschließen und die Entwicklung der zyklischen Rissspitzenöffnung für den viertelskreisförmigen Riss in der dreidimensionalen Corner-Crack-Probe unter spannungskontrollierten isothermen und anisothermen TMF-Beanspruchungen untersucht. Hierfür findet ein temperaturabhängiges Abaqus/Standard von Mises Plastizitätsmodell mit kinematischer Verfestigung und Kriechansatz Anwendung. Alle Simulationen zeigen eine deutliche Beeinflussung der Bewertungsgrößen an der freien Probenoberfläche und im Probeninneren. Das Rissschließen nimmt mit steigender Belastung und mit zunehmend positiven Mittelspannungen ab. Zudem werden bei niedrigeren makroskopischen Belastungen geringere zyklische Rissspitzenöffnungen an der Probenoberfläche als in der Probenmitte beobachtet, was in direktem Zusammenhang mit dem Rissschließen steht. Die thermomechanischen Simulationen zeigen mehr Rissschließen für eine Belastung in Phase, verglichen zu einer gegenphasigen Beanspruchung.
In der heutigen Zeit sind viele Menschen von Rückenschmerzen betroffen. Besonders in der Industrie, beispielsweise im Bereich der Logistik oder der Produktion, kommt es durch die gesundheitlichen Beschwerden zu Arbeits- und Produktionsausfällen. Um den Beschwerden vorzubeugen, werden Exoskelette entwickelt, die das Muskel-Skelett-System unterstützen.
Exoskelette sind am Körper getragene Assistenzsysteme, die mechanisch auf den Körper einwirken. Insbesondere reduzieren sie den Kompressionsdruck im Bereich des unteren Rückens. In diesem Zusammenhang wird mit der vorliegenden Bachelorarbeit die Entlastung der Lendenwirbel durch den Einfluss von Exoskelett-typischen Kräften, die im Bereich des Brustkorbs und der Oberschenkel wirken, untersucht. Dabei beschränkt sich die Untersuchung auf eine Anhebung, wie beispielsweise die Anhebung einer Kiste.
Mithilfe eines markerbasierten und nicht-invasiven 3D-Aufnahmeverfahrens wird eine Hebebewegung ohne Exoskelett aufgenommen. Die experimentelle Aufnahme wird in der Software OpenSim mit einem computerbasierten Skelettmodell verknüpft. Durch das Hinzufügen von Exoskelett-typischen Kräften, die auf das Skelettmodell beim Anheben wirken, wird die Krafteinwirkung während des Tragens eines Exoskeletts simuliert. Dabei entstehen Drehmomente im unteren Rückenbereich, die in dieser Arbeit analysiert werden.
Die Auswertung des nicht-invasiven Verfahrens liefert die Erkenntnis, dass der Einsatz eines Exoskeletts beim Anheben im Bereich der Lendenwirbel zu einer Verringerung der Drehmomente und somit zu einer Verringerung der Belastung des unteren Rückens führt.
In this work, an implementation of the somewhat homomorphic BV encryption scheme is presented. During the implementation, care was taken to ensure that the resulting program will be as efficient as possible i.e. fast and resource-saving. The basis for this is the work of Arndt Bieberstein, who implemented the BV scheme with respect to functionality. The presented implementation supports the basics of the BV scheme, namely (symmetric and asymmetric) encryption, decryption and evaluation of addition as well as multiplication. Additionally, it supports the encoding of positive and negative numbers, various gaussian sampling methods, basically infinitely large polynomial coefficients, the generation of suitable parameters for a use case, threading and relinearization to reduce the size of a ciphertext after multiplications. After presenting the techniques used in the implementation, it’s actual efficiency is determined by measuring the timings of the operations for various parameters.
Der Fokus dieser Arbeit liegt auf den Bewegtbildstrategien von Tageszeitungen in Baden-Württemberg. Es sollte aufgezeigt werden welche strategischen Vorgehensweisen die Lokalzeitungen in Baden-Württemberg verwenden und wie sie diese Umsetzen. Weiter sollten Faktoren extrahiert werden, die als erfolgskritisch angenommen werden können. Herausgefunden wurde, dass alle befragten Zeitungsverlage eine konvergenzinduzierte Cross-Media-Strategie verfolgen, in der die Diversifikation vertikal verläuft. Das heißt die Zeitungen sind meist selbst Produzent des Bewegtbilds und nutzen die wechselseitigen Synergieeffekte der redaktionellen Kompetenzen und multimedialen Distributionskanäle. Weiter kann festgestellt werden, dass Im Bereich Bewegtbild Ansätze einer Nischen- oder Fokusstrategie zu erkennen sind.
Als Erfolgsfaktoren können vor allem die lokale Kompetenz, die Format- und Themenwahl von Videos sowie die Redaktionsorganisation, die stark mit der Nutzung von Synergieeffekten zusammenhängt, angenommen werden.
Mit Hilfe eines Präzisionsmessplatzes soll es ermöglicht werden, automatisierte Tests mit optischen Distanzsensoren der Firma SICK durchzuführen. Hierbei handelt es sich um applikationsbezogene Vergleichsmessungen. Für die Realisierung einer erweiterbaren, automatischen Ansteuerung wird mit LabVIEW eine Software entwickelt, die unterschiedliche Distanzsensoren für Displacement Anwendungen (kurze Reichweite) einbindet. Zur Bewertung von Sensoren werden unterschiedliche Messmodi bereitgestellt. Hierbei werden motorisierte Linearachsen angesteuert, wodurch dynamische 2D-, bzw. 3D Messungen von unterschiedlichen Materialproben ermöglicht werden. Außerdem können Messergebnisse verschiedener Materialproben visuell verglichen werden. Des Weiteren besteht die Möglichkeit, aufgenommene Messdaten zu exportieren.
Mit der realisierten Ansteuerungssoftware ist es möglich, in Zukunft Mitarbeiter der global agierenden Sales & Service Units ressourcenschonend und in einem anwendungsbezogenen Kontext in die Benutzung und Bewertung von Dis-placementsensoren einzuarbeiten. Für diese Maßnahme der betrieblichen Weiterbildung ist eine Lerneinheit konzipiert. Hier geht es hauptsächlich darum, dass Mitarbeiter die Eigenschaften und Konfigurationsmöglichkeiten von Displacementsensoren verstehen und für unterschiedliche Testobjekte anwenden. Für die Lerneinheit sind Unterrichtsmaterialien erstellt sowie ein vollständiger Unterrichtsentwurf erarbeitet. Der Unterrichtsentwurf orientiert sich an dem Perspektivenschema nach Klafki (vgl. 1994, S. 270ff.).
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
Die Bachelorarbeit erarbeitet, welche Rolle das digital Storytelling für B2C-Unternehmen bei der Kundengewinnung -und bindung einnimmt. Gleichzeitig erörtert sie, ob und wie diese intern in der Organisation vom Geschichtenerzählen profitieren.
Um die Forschungsfragen zu beantworten, wird eine Literaturrecherche durchgeführt. Diese gibt Auskunft über die biologische Wirkung und die ausschlaggebende Struktur von Geschichten.
Durch die Umstrukturierung in der Automobilindustrie hinsichtlich Elektromobilität steigen die technischen und wirtschaftlichen Anforderungen an die Zulieferunternehmen von Automobilherstellern. Um im Wettbewerb konkurrenzfähig zu sein, müssen die jeweiligen Prozesse stetig geprüft und optimiert werden. Anhand dieser Masterarbeit wird daher die Produktion von Komfortaktuatoren bezüglich Wirtschaftlichkeit sowie Kapazitätserweiterung analysiert und demnach ein Konzept zur Fertigungsoptimierung entwickelt.
Für diese Konzeptentwicklung wird zunächst die bestehende Produktion der Komfortaktuatoren anhand der Prozesskette bezüglich des Automatisierungsgrades erforscht. Eine Taktzeitanalyse der Endmontage weist den Engpass am manuellen Handarbeitsplatz auf, an dem die Bestückung des Transferträgers stattfindet. Die Betrachtung des Produktionsvolumens zeigt die Verdopplung der Stückzahlen ab 2024 bei den Aktuatoren mit Getriebelage rechts. Um diese Produktionsstückzahlen zu fertigen und den Engpass auszugleichen, ist eine Automatisierung der bestehenden Endmontage erforderlich. Die wirtschaftliche Investition in die Automatisierung bedeutet eine erhöhte Amortisationszeit, die sich je nach Stückzahlen zwischen acht und 15 Jahre befindet.
Eine geringere Kapitalrückflussdauer kann mit der Erweiterung der Fertigungslinie mit einem höheren Automatisierungsgrad sowie einer geringeren Taktzeit erreicht werden. Der benötigte Platzbedarf für diese Erweiterung der Fertigungslinie wird auf ungefähr 5,7 m abgeschätzt. Mit einer kompakten Anordnung der Fertigungsstationen kann dieser Einbau erfolgen. Für die Entwicklung des Transfersystems wird eine Anforderungsliste erstellt und anhand dieser ein Transfer-Konzept innerhalb der Fertigungslinie entwickelt. Aufgrund der Kostenschätzung und des Platzbedarfs erzielt das Konzept mit einem Transferträger die höhere Wertigkeit. Mit dem in dieser Masterarbeit erarbeiteten planerischen Konzept zur Fertigungsoptimierung wird eine Einsparung der Vorgabezeit von 11,3 min im Vergleich zum aktuellen Stand erzielt. Die Kosten der Neubau-Stationen und die anfallenden Umbaumaßnahmen werden auf etwa 950.000 € geschätzt. Der zeitliche Beginn dieser Erweiterungsmaßnahmen ist auf Anfang 2023 terminiert.
The Project "Schluckspecht" of the University of Offenburg consists of participating in the European marathon called "Shell Eco-Marathon"(SEM) which consists of designing and building from the beginning a vehicle with the greatest possible energy efficiency. The University of Offenburg has participated in this project since 1998.
The team that forms the Schluckspecht project is made up of around 30 students from the faculties of mechanical engineering, process engineering, electrical engineering, medical technology and computer science, as well as the degree in Audiovisual Communication. The team was founded in 1998 and since then students have been developing and building high efficiency vehicles to participate in the European marathon Shell Eco.
In this project, students can put into practice all the theoretical knowledge obtained during their studies. Also can be learned how to work interdisciplinarity as a team, a skill that for now, many companies or require or seek.
The following topics are discussed in the Schluckspecht project, which are also ideal for the work of students:
-Conception construction and production of high efficiency vehicles.
-Computational design and manufacture of lightweight components and sets.
-Development of lightweight components and sets from renewable raw materials.
-Construction and development of special test benches, for example: motor test bench.
-Implementation and optimization of control strategies for autonomous driving
-Mechanical and electrical integration of sensors for autonomous driving
-Ergonomic studies and optimization of the driver's cabin.
The objective of the project is to develop and manufacture research vehicles that make individual mobility as efficient as possible from an energy point of view. To achieve this, current and future issues of the industry are discussed. In this project, both the theoretical and practical part of the light construction of vehicles and the reduction of friction, the variety of propulsion concepts (electric thrusters, fuel cells, diesel/petrol engines, Stirling engines) and autonomous driving are investigated. The services of the University of Offenburg together with some external partners are grouped together to make this wonderful project work.
Der wachsende Trend zur Individualisierung von Produkten wird von immer mehr Unternehmen aufgegriffen und umgesetzt. Mithilfe von Produktkonfiguratoren bieten sie ihren Kund*innen die Möglichkeit, ihr eigenes Produkt nach Wunsch zu kreieren. Die Konfiguratoren stehen mit dieser Interaktion vor der Herausforderung die Nutzer*innen als Nicht-Experten erfolgreich durch den Prozess zu leiten. Ein zentraler Bestandteil der erfolgreichen Umsetzung ist die Benutzerfreundlichkeit und dessen anwendungsorientierte Gestaltung.
Diese Arbeit befasst sich mit der Analyse und Optimierung der Usability des Möbelkonfigurators der mycs GmbH. Das Ziel der Arbeit ist die Aufdeckung von Schwachstellen und die Entwicklung passender Handlungsempfehlungen für die Optimierung der Benutzerfreundlichkeit.
Zu diesem Zweck wird der IST-Zustand des Konfigurators ermittelt und darauf aufbauend ein Usability-Test erstellt und durchgeführt. Die verwendeten Methoden des Tests sind Remote-Usability-Interviews, eine qualitative Nachbefragung und die Think-Aloud-Methode. Die im Anschluss ermittelten Handlungsempfehlungen stellen Lösungen zu den analysierten Schwachstellen des Usability-Tests dar.
Die Ergebnisse der Analyse zeigen Schwachstellen in der Orientierung und Unterstützung von Nutzer*innen. Sie bestätigen zudem die Wichtigkeiten dieser beiden Kriterien für die Auseinandersetzung mit einem Möbelkonfigurator. Die entwickelten Handlungsempfehlungen zeigen einige Verbesserungen der Bereiche mit geringem Umsetzungsaufwand auf.
In dieser Arbeit soll ein digitaler Zwilling für ein Transportband und Anlagenteil der im Labor für Automatisierungssysteme eingesetzten Fischertechnik-Fabrik mit der Industrie 4.0 Software von Siemens NX Mechatronics Component Designer entwickelt und die Anlage virtuell und daraufhin in der Realität in Betrieb genommen werden.