Refine
Year of publication
Document Type
- Conference Proceeding (456)
- Bachelor Thesis (350)
- Article (reviewed) (243)
- Part of a Book (201)
- Article (unreviewed) (156)
- Master's Thesis (101)
- Other (75)
- Book (71)
- Contribution to a Periodical (34)
- Report (8)
Conference Type
- Konferenzartikel (398)
- Konferenz-Abstract (38)
- Sonstiges (9)
- Konferenz-Poster (8)
- Konferenzband (3)
Language
- German (1038)
- English (666)
- Other language (2)
- Russian (2)
Keywords
- Dünnschichtchromatographie (19)
- Marketing (19)
- Digitalisierung (14)
- Künstliche Intelligenz (13)
- IT-Sicherheit (12)
- Gamification (11)
- JavaScript (11)
- Social Media (11)
- Kommunikation (10)
- Social Media Marketing (10)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (564)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (354)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (298)
- Fakultät Wirtschaft (W) (189)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (181)
- Fakultät Medien (M) (ab 22.04.2021) (115)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (81)
- INES - Institut für nachhaltige Energiesysteme (67)
- ACI - Affective and Cognitive Institute (39)
- WLRI - Work-Life Robotics Institute (20)
Open Access
- Closed Access (1708) (remove)
Implementation and Evaluation of an Assisting Fuzzer Harness Generation Tool for AUTOSAR Code
(2024)
The digitalization in vehicles tends to add more connectivity such as over-the-air (OTA) updates. To achieve this digitization, each ECU (Electronic Control Unit) becomes smarter and needs to support more and more different externally available protocols such as TLS, which increases the attack surface for attackers. To ensure the security of a vehicle, fuzzing has proven to be an effective method to discover memory-related security vulnerabilities. Fuzzing the software run- ning on a ECU is not an easy task and requires a harness written by a human. The author needs a deep understanding of the specific service and protocol, which is time consuming. To reduce the time needed by a harness author, this thesis aims to develop FuzzAUTO, the first assistant harness generation tool targeting the AUTOSAR (AUTomotive Open System ARchitecture) BSW (Basic Software) to support manual harness generation.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
Jeder Mensch ist ständig unfreiwillig von einer Flut akustischer Reize umgeben. Diese Situation stellt für Menschen mit Hörverlust eine besondere Herausforderung dar. Menschen mit Hörverlust hören durch Hörgeräte zwar alles verstärkt, jedoch stellt sich die Frage, ob ein Hörgerät lediglich eine einfache Verstärkung von Schallwellen ist oder ob es darüber hinausgehende Funktionen bieten kann.
Die vorliegende Thesis widmet sich der akustischen Szenenanalyse in Hörgeräten, wobei der Schwerpunkt auf der Integration von Machine Learning liegt. Das Ziel besteht darin, eine automatisierte Erkennung und Anpassung an verschiedene akustische Situationen zu ermöglichen. Die Arbeit konzentriert sich insbesondere auf die Analyse grundlegender Szenarien wie: Sprache in Ruhe, absolute Ruhe, Sprache in Störgeräuschen und Störgeräuschen in Audiodaten.
As the population grows, so does the amount of biowaste. As demand for energy grows, biogas is a promising solution to the problem. Lignocellulosic materials are challenged of slow degradability due to the presence of polymers such as cellulose, lignin and hemicellulose. There are several pretreatment methods available to enhance the degradability of such materials, including enzymatic pretreatment. In this pretreatment, there are few parameters that can influence the results, the most important being the enzyme to solid ratio and the solid to liquid ratio. During this project, experiments were conducted to determine the optimal conditions for those two factors. It was discovered that a solid to liquid ratio of 31 g of buffer per 1 gram of organic dry matter produced the highest reducing sugar release in flasks when combined with 34 mg of protein per 1 gram of organic dry mass. Additionally, another experiment was carried out to investigate the impact of enzymatic pretreatment on biogas production using artificial biowaste as a substrate. Artificial biowaste produced 577,9 NL/kg oDM, while enzymatically pretreated biowaste produced 639,3 NL/kg oDM. This resulted in a 10,6% rise in cumulative biogas production compared to its use without enzymatic pretreatment. By the conclusion of the investigation, specific cumulative dry methane yields of 364,7 NL/kg oDM and 426,3 NL/kg oDM were obtained from artificial biowaste without and with enzymatic pretreatment, respectively. This resulted in a methane production boost of 16,9%. Additionally in case of the reactors with enzymatically pretreated substrate kinetic constant was lower more than double, where maximum volume of biogas increased, comparing to the reactors without enzymatic pretreatment.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
In dieser kleinen schriftlichen Ausarbeitung behandele ich das Thema der Symbiose aus Kunst und Wissenschaft auf meine persönliche Einstellung.
Ich habe einen Dokumentarfilm zu diesem spannenden Thema in dem Rahmen erstellt und habe in diesem schriftlichen Teil erzählt, wie ich zu den einzelnen Themen wie auch zur Symbiose stehe. Dabei gehe ich auf die persönlichen Erkenntnisse ein, welche ich über den Zeitraum des Dokumentarfilms erlangt habe. Ein Teil des Filmes waren zwei Workshops, in denen ich die Parteien Kunst und Wissenschaft mit einem Thema in Verbindung gesetzt habe. Auch diese wird hier erläutert.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Estimation and projecting total steel industry production costs from 2019 to 2030 for Germany
(2023)
This thesis analyses the total production cost of the German steel industry from 2019 to 2022, as well as a projection of the German steel industry's total production cost until 2030. The research separates the costs of steel production into their primary components, such as raw materials, energy, CO2 cost, capital expenses and operating expenses. The cost of steel production is determined separately for primary steelmaking with the blast furnace and basic oxygen furnace (BF-BOF) and secondary steelmaking with the electric arc furnace (EAF).
The analysis indicates that, following the COVID-19 disaster and the fuel crisis, the overall cost of producing steel in Germany has progressively risen over the previous few years, reaching its peak in the first half of 2022. In addition, there are considerable disparities between the production costs of primary and secondary steelmaking processes, with primary steelmaking generally being more expensive.
In this analysis, the total cost of production for the German steel industry in the year 2030 has been estimated by taking into account historical trends as well as other predictions that are currently available.
This thesis provides overall insights on the economics of the German steel sector. By giving thorough information on production costs and changes over time, this research can assist guide crucial future investment decisions in this essential industry. To ensure long-term success, our findings emphasize the significance of investing in more sustainable and ecologically friendly steel production processes.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
Um als Unternehmen heutzutage aus der Masse hervorzustechen und sich von der Konkur- renz abzuheben, bedarf es mehr als nur eines guten Produkts oder einer guten Dienstleis- tung. Kunden möchten wissen, welches Unternehmen dahintersteckt und ob sie sich damit identifizieren können. Um diese Werte und ein einheitliches Erscheinungsbild vermitteln zu können, ist eine ganzheitliche Corporate Identity erforderlich, die sowohl innen als auch außen wirkt. Das bietet die Möglichkeit, ein Markenimage aufzubauen, das langfristig Kun- den bindet und Vertrauen schafft.
Die Entwicklung einer neuen Corporate Identity erfordert zunächst eine entschlossene Ent- scheidung der Unternehmensführung. Sie muss sicherstellen, dass das gesamte Unterneh- men für ein solches Vorhaben bereit ist. Erst dann kann mit der Bildung eines CI-Teams begonnen werden, das mit der Entwicklung und Durchführung des Corporate Identity-Pro- zesses beauftragt wird. Dabei wird nach der AMC-Strategie vorgegangen, die mit einer aus- führlichen Ist- und Sollanalyse beginnt. Hierbei wird ermittelt, welche Fähigkeiten das Un- ternehmen besitzt und welches Image bei den unterschiedlichen Interessensgruppen vor- herrscht. Auch die internen und externen Auswirkungen einer CI sollten bedacht werden und dass die Angestellten einen maßgeblich Teil zur externen Wirkung beitragen. Die ge- sammelten Informationen dienen als Grundlage für die einzelnen Bestandteile der Corpo- rate Identity.
Basierend auf dem theoretischen Teil wurde für Dialogpunkt eine neue Corporate Identity entwickelt, wodurch verdeutlicht wurde, wie die theoretischen Grundlagen in die Praxis umgesetzt werden können. Durch eine gründliche Marktanalyse wurde ein neues Leitbild (Corporate Philosophy) für Dialogpunkt erstellt. Dieses Leitbild und die gewonnenen Er- kenntnisse dienten wiederum als Grundlage für die Entwicklung des Corporate Behaviors, der Corporate Communication und des Corporate Designs.
In dieser Arbeit wird die Entwicklung einer Methode zur Messung von Bodenreaktionskräften bei menschlicher Lokomotion auf variablen Untergründen behandelt. Das Ziel dieser Arbeit ist es, unter realistischen Bedingungen eine Ganganalyse in einem Biomechaniklabor durchführen zu können.
Bisher ist es nicht möglich in einem Biomechaniklabor verschiedene Untergründe nach einer bestimmten Methode auszutauschen, womit Szenarien im Alltag besser simuliert werden können.
Um dieses Ziel zu erreichen wurde ein geeignetes Konzept für die Fertigung der benötigten Bodenplatten und Bodenbeläge erstellt. Darauffolgend wurden die Komponenten angefertigt oder schon vorhandene modelliert. Die Anwendung der entwickelten Methode wurde unter realen Bedingungen einer Ganganalyse erfolgreich untersucht. Hierbei konnten exemplarisch die durchschnittlichen Bodenreaktionskräfte in z-Richtung für die Untergründe Kunstrasen, Kunststoffbahn (Tartanboden) und Steinboden untersucht werden. Das größte Optimierungspotential bei diesem Funktionstest zeigte sich bei der Anpassung der geeigneten An- und Ablaufstrecken mit den jeweiligen Untergründen.
Mit dieser entwickelten Methode können in einem Biomechaniklabor besser die Bedingungen die alltäglich benötigten Ganganpassungen an verschiedene Untergründe simuliert werden. In Kombination mit weiteren Messmethoden, wie die Messung der Muskelaktivität (EMG) und der Gangkinematik, kann so ein tieferes Verständnis des menschlichen Gangbildes gewonnen werden.
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
To date, many experiments have been performed to study how the internal geometrical shapes of the annular liquid seal can reduce internal leakage and increase pump efficiency. These can be time-consuming and expensive as all rotordynamic coefficients must be determined in each case.
Nowadays, accurate simulation methods to calculate rotordynamic coefficients of annular seals are still rare. Therefore, new numerical methods must be designed and validated for annular seals.
The present study aims to contribute to this labour by providing a summary of the available test rig and seals dimensions and experimental results obtained in the following experiments:
− Kaneko, S et al., Experimental Study on Static and Dynamic Characteristics of Liquid Annular Convergent-Tapered Seals with Honeycomb Roughness Pattern (2003) [1] − J. Alex Moreland, Influence of pre-swirl and eccentricity in smooth stator/grooved rotor liquid annular seals, static and rotordynamic characteristics (2016) [2]
A 3D CAD simulation with Siemens NX Software of the test rig used in J. Alex Moreland’s experiment has been made. The following annular liquid seals have also been 3D modelled, as well as their fluid volume:
− Smooth Annular Liquid Seal (SS/GR) (J. Alex Moreland experiment)
− Grooved Annular Liquid Seal (GS/SR)
− Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 mm) (GS/SR)
− Straight Honeycomb Annular Liquid Seal (GS/SR)
− Convergent Honeycomb Annular Liquid Seal (No. 3) (GS/SR)
− Smooth Annular Liquid Seal (SS/SR) (S. Kaneko experiment)
In the case of the seals used in S. Kaneko’s experiments, the test rig has been adapted to each seal, defining interpart expressions which can be easily modified.
Afterwards, it has been done a CFD simulation of the Smooth Annular Liquid Seal using Ansys CFX Software. To do so, the fluid volume geometry has been simplified to do a first approximation. Results have been compared for an eccentricity 𝜀0=0.00 for the following ranges of rotor speeds and differential of pressure:
− Δ𝑃= 2.07, 4.14, 6.21, and 8.27 bar,
− 𝜔= 2, 4, 6 and 8 krpm.
Even results obtained have the same trend as the one proportionated by the literature, they cannot be validated as the error is above 5%. It is also observed that as the pressure drop increases, the relative error decreases considerably.
Cloud computing is a combination of technologies, including grid computing and distributed computing, that use the Internet as a network for service delivery. Organizations can select the price and service models that best accommodate their demands and financial restrictions. Cloud service providers choose the pricing model for their cloud services, taking the size, usage, user, infrastructure, and service size into account. Thus, cloud computing’s economic and business advantages are driving firms to shift more applications to the cloud, boosting future development. It enlarges the possibilities of current IT systems.
Over the past several years, the ”cloud computing” industry has exploded in popularity, going from a promising business concept to one of the fastest expanding areas of the IT sector. Most enterprises are hosting or installing web services in a cloud architecture for management simplicity and improved availability. Virtual environments are applied to accomplish multi-tenancy in the cloud. A vulnerability in a cloud computing environment poses a direct threat to the users’ privacy and security. In our digital age, the user has many identities. At all levels, access rights and digital identities must be regulated and controlled.
Identity and access management(IAM) are the process of managing identities and regulating access privileges. It is considered as a front-line soldier of IT security. It is the goal of identity and access management systems to protect an organization’s assets by limiting access to just those who need it and in the appropriate cases. It is required for all businesses with thousands of users and is the best practice for ensuring user access control. It identifies, authenticates, and authorizes people to access an organization’s resources. This, in turn, enhances access management efficiency. Authentication, authorization, data protection, and accountability are just a few of the areas in which cloud-based web services have security issues. These features come under identity and access management.
The implementation of identity and access management(IAM) is essential for any business. It’s becoming more and more business-centric, so we need more than technical know-how to succeed. Organizations may save money on identity management and, more crucially, become much nimbler in their support of new business initiatives if they have developed sophisticated IAM capabilities. We used these features of identity and access management to validate the robustness of the cloud computing environment with a comparison of traditional identity and access management.
As cyber threats continue to evolve, it is becoming increasingly important for organizations to have a Security Operations Center (SOC) in place to effectively defend against them. However, building and maintaining a SOC can be a daunting task without clear guidelines, policies, and procedures in place. Additionally, most current SOC solutions used by organizations are outdated, lack key features and integrations, and are expensive to maintain and upgrade. Moreover, proprietary solutions can lead to vendor lock-in, making it difficult to switch to a different solution in the future.
To address these challenges, this thesis proposes a comprehensive SOC framework and an open-source SOC solution that provides organizations with a flexible and cost-effective way to defend against modern cyber threats. The research methodology involved conducting a thorough literature review of existing literature and research on building and maintaining a SOC, including using SOC as a service. The data collected from the literature review was analyzed to identify common themes, challenges, and best practices for building and maintaining a SOC.
Based on the data collected, a comprehensive framework for building and maintaining a SOC was developed. The framework addresses essential areas such as the scope and purpose of the SOC, governance and leadership, staffing and skills, technologies and tools, processes and procedures, service level agreements (SLAs), and evaluation and measurement. This framework provides organizations with the necessary guidance and resources to establish and effectively operate a SOC, as well as a reference for evaluating the service provided by SOC service providers.
In addition to the SOC framework, a modern open-source SOC solution was developed, which emphasizes several key measures to help organizations defend against modern cyber threats. These measures include real-time, actionable threat intelligence, rapid and effective incident response, continuous security monitoring and alerting, automation, integration, and customization. The use of open-source technologies and a modular architecture makes the solution cost-effective, allowing organizations to scale it up or down as needed.
Overall, the proposed SOC framework and open-source SOC solution provide organizations with a comprehensive and systematic approach for building and maintaining a SOC that is aligned with the needs and objectives of the organization. The open-source SOC solution provides a flexible and cost-effective way to defend against modern cyber threats, helping organizations to effectively operate their SOC and reduce their risk of security incidents and breaches.
Ziel der vorliegenden Bachelorarbeit ist es, eine automatisierte Bildausschnittkontrolle für die Low Code Plattform Intrexx zu implementieren. Diese soll mit Hilfe eines geeigneten Künstliche Intelligenz Frameworks Gesichter in Bildern erkennen und diese anschließend ausschneiden. Die Benutzer*innen sollen die Ausschnitte außerdem noch manuell anpassen können. Die Implementierung erfolgt mittels Typescript innerhalb einer Webkomponente, um eine Verwendung innerhalb von Intrexx zu ermöglichen. Nach einem Vergleich verschiedener technologischer Ansätze hat sich Tensorflow als geeignetes KI-Framework herausgestellt. Im Rahmen einer Performance-Analyse wurden außerdem verschiedene Tensorflow-Modelle miteinander verglichen.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.
Wassermangel in Deutschland
(2023)
Die Arbeit beschäftigt sich mit der medialen Berichterstattung von vier deutschen Leitmedien in Bezug auf das Thema Wassermangel in Deutschland. Ziel ist es, das in der Gesellschaft vorhandene Bewusstsein für die Umwelt zu stärken und ein besonderes Augenmerk auf die Problematik des sich verschärfenden Wassermangels zu lenken.
Zunächst wird hierfür die Vorgehensweise einer Medieninhaltsanalyse dargelegt und mit dem konkreten Beispiel in jedem Schritt verknüpft. Dabei werden die relevantesten Schwerpunkte der Berichterstattung zwischen April und Oktober 2022 herausgearbeitet. Es wird angenommen, dass die Berichterstattung vor allem im Sommer besonders hoch ist und es sowohl thematische als auch regionale Unterschiede zwischen den vier Verlagen gibt. Die gewonnenen Beobachtungen werden sowohl im Gesamtzusammenhang der untersuchten Artikel als auch in einer Einzelbetrachtung der vier Medien, Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung, Focus und Spiegel, grafisch aufbereitet und interpretiert. Die Ergebnisse zeigen, dass die Kategorien Hitze und Dürre besonders häufig codiert werden. Damit stehen vor allem die Ursachen und Auswirkungen, aber nicht der Wassermangel selbst, im Fokus der Berichterstattung.
Diese Erkenntnisse werden anschließend in eine Online-Kampagne überführt, mit dem Ziel, das Bewusstsein einer jungen, medienaffinen Zielgruppe auf den steigenden Wassermangel in Deutschland zu lenken.
Subspace clustering aims to find all clusters in all subspaces of a high-dimensional data space. We present a massively data-parallel approach that can be run on graphics processing units. It extends a previous density-based method that scales well with the number of dimensions. Its main computational bottleneck consists of (sequentially) generating a large number of minimal cluster candidates in each dimension and using hash collisions in order to find matches of such candidates across multiple dimensions. Our approach parallelizes this process by removing previous interdependencies between consecutive steps in the sequential generation process and by applying a very efficient parallel hashing scheme optimized for GPUs. This massive parallelization gives up to 70x speedup for
the bottleneck computation when it is replaced by our approach and run on current GPU hardware. We note that depending on data size and choice of parameters, the parallelized part of the algorithm can take different percentages of the overall runtime of the clustering process, and thus, the overall clustering speedup may vary significantly between different cases. However, even
in our ”worst-case” test, a small dataset where the computation makes up only a small fraction of the overall clustering time, our parallel approach still yields a speedup of more than 3x for the complete run of the clustering process. Our method could also be combined with parallelization of other parts of the clustering algorithm, with an even higher potential gain in processing speed.
Diese Arbeit beschäftigt sich mit der Dynamik der Konsensbildung in sozialen Netzwerken mit unterschiedlichen Strukturen. Dafür wird mittels des Naming Games die Kommunikation mit dem Ziel der Konsensbildung simuliert und analysiert. Es geht dabei um die Frage, welchen Einfluss die unterschiedlichen Netzwerkstrukturen auf die Dynamik der Simulationen haben. Neben den unterschiedlichen Netzwerkstrukturen werden weitere Faktoren gesucht und analysiert, welche die Dynamik der Konsensfindung beeinflussen. Dafür werden die Simulationen unter bestimmten Parametern und Eigenschaften mehrfach wiederholt. Aus diesen mehrfachen Durchführungen wird eine repräsentative Simulation ausgewählt und untersucht. Hinsichtlich der Frage nach dem Einfluss der Netzwerkstruktur auf die Dynamik, konnte festgestellt werden, dass die Dichte des dem Netzwerk zugrundeliegenden Graphen einen erheblichen Einfluss auf die Effizienz der Kommunikation hat. Mit steigender Dichte steigt auch die Effizienz der Kommunikation. Zudem konnten zwei weitere wesentliche Einflussfaktoren ausgemacht werden: sogenannte Autoritäten und Announcements. Bei Autoritäten handelt es sich um Teilnehmer, welche besonders viele weitere Teilnehmer der Simulation kennen und bei Announcements handelt es sich um eine Form der Kommunikation, die zu einem Zeitpunkt zwischen mehr als zwei Teilnehmern stattfinden kann. Das Hinzufügen dieser Parameter führt wieder zu einer veränderten, effizienteren Dynamik.
Mit der wachsenden Bedeutung von Nachhaltigkeit im Alltag von Konsument*innen, werden ökologische Aspekte zunehmend zum Kaufentscheidungsfaktor. Damit steigt auch das Angebot nachhaltiger Produkte am Markt. Immer mehr Unternehmen neh-men ökologische Alternativen mit in ihr Sortiment auf. Wie nachhaltig einzelne Güter tatsächlich sind, kann für Verbraucher*innen nur schwer ersichtlich sein.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von Green-washing auf das Konsumverhalten deutscher Verbraucher*innen am Markt für nach-haltige Lebensmittel. Innerhalb eines Fragebogens wird zunächst der Lebensmittel-konsum eines Probandenkreises erfasst. Dabei wird zudem erfasst, welche Bedeutung Gütezeichen als Beurteilungshilfe hinsichtlich der Nachhaltigkeit eines Produkts in der Lebensmittelbranche innehalten. Dazu werden zunächst einige Öko-Siegel bzgl. ihrer Seriosität bewertet. In einem weiteren Schritt werden die Ergebnisse dieser Bewertung mittels empirische Forschung der Einschätzung des Probandenkreises gegenüberge-stellt.
Aus der Befragung ist hervorgegangen, dass Greenwashing eines Unternehmens durchaus Veränderungen in der Kaufbereitschaft der betroffenen Produkte sowie – zu einem geringeren Ausmaß – Produkte innerhalb der gleichen Kategorie betrifft. Wei-terhin wurde identifiziert, dass die Einschätzungen des Probandenkreises hinsichtlich der Seriosität und der Vertrauenswürdigkeit maßgeblich von der – innerhalb dieser wissenschaftlichen Arbeit – durchgeführten Bewertung abweichen. Die Einschätzung hinsichtlich der Seriosität und Vertrauenswürdigkeit von Seiten der Proband*innen, scheint zu großen Teilen von der Bekanntheit des betreffenden Gütezeichens abzu-hängen.
Die vorliegende Bachelorarbeit gibt einen Überblick über verschiedene Java Game Engines und wie diese über ein Konzept in die aktuelle Informatik Vorlesung integriert werden können, um dadurch die Motivation der Studierenden signifikant zu steigern. Dabei wurde in den Grundlagen das Lernpotenzial von Computerspielen untersucht sowie der allgemeine Aufbau von Game Engines definiert. Diese Ergebnisse flossen im Anschluss in die Untersuchung ein und führten zu einer Auswahl der geeigneten Java Game Engine. Über eine SWOT-Analyse, welche nach V. Wollny und H. Paul durchgeführt wurde, konnte eine gut geeignete Engine ermittelt werden. Auf der Basis des Buches von Michael Kölling wurde ein Konzept für die Informatik - Vorlesung entwickelt, welches im letzten Kapitel der Arbeit mit passenden Aufgaben beschrieben wurde. Die Bachelorarbeit ist sowohl für Studierende der Informatik als auch für Lehrende in diesem Bereich interessant und bietet neue Einblicke in ein Nischengebiet.
Die Analyse von biomechanischen Parametern erlangt in der Sportwissenschaft und der Biomechanik eine immer größere Bedeutung. Daraus entwickelten sich mit der Zeit neue Analysemethoden, die sich zum Ziel gesetzt haben, eine bessere, schnellere und einfachere Analyse der biomechanischen Parameter zu ermöglichen.
Das Ziel der vorliegenden Arbeit ist es zu evaluieren, ob die Sensor-Technologie für die Analyse von biomechanischen Parametern im Bereich des Skisprungs und Skilanglaufs eingesetzt werden kann und dabei einen Vorteil gegenüber den derzeitig verwendeten Analysemethoden mit sich bringt. Dabei soll ein Lösungskonzept entwickelt werden, welches gezielt die Geschwindigkeiten und Zeiten, im Skisprung und Skilanglauf analysieren kann.
Für die Auswahl der Sensoren, wurden zu Beginn Randbedingungen festgelegt, die ein Sensor erfüllen muss, um für den Einsatz im Skisprung und Langlauf geeignet zu sein. Dabei stehen vor allem die Outdoorfähigkeit, Scanfrequenz und die Reichweite im Fokus der Evaluierung. Auf Basis der Randbedingungen wurden diese mit den Eigenschaften der Sensoren verglichen und eine Vorauswahl getroffen. Dabei kam man zu dem Ergebnis, dass fünf Sensoren für den Einsatz im Skisprung und Skilanglauf geeignet sind. Die Sensoren kommen jeweils aus dem Bereich der LiDAR- (light detection and ranging), RFID- (Radio-Frequency Identification), und Radar-Technologie. Im Anschluss wurde für jeden Sensor ein Lösungskonzept zur Bestimmung von Geschwindigkeiten und Zeiten, unabhängig von dem zu messenden Objekt, erstellt und abschließend auf ihre Verwendbarkeit im Skisprung und Skilanglauf bewertet. Dadurch stellte sich heraus, dass die Kombination aus einem LiDAR-Sensor (LMS5xx) und einem RFID-Sensor (RFU63x) am besten für den Skilanglauf geeignet ist. Für die Verwendung im Skisprung zeigte sich ebenfalls eine Kombination aus dem RFID-Sensor (RFU63x) und einem Radar-Sensor (RMS1000) als bestmögliches Lösungskonzept zur Analyse von Geschwindigkeiten und Zeiten.
Die Arbeit hat gezeigt, dass die Sensor-Technologie in Zukunft eine schnellere, unabhängigere und einfache Methode zur Analyse von biomechanischen Parametern ermöglicht. Dabei muss berücksichtigt werden, dass es sich um eine theoretische Untersuchung handelt, welche als Vorlage für weitere Untersuchungen dienen soll.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
Die hohen Produktionskosten verhindern derzeit weitere industrielle Anwendungen des Rührreibschweißens (engl. friction stir welding, FSW), selbst wenn eine deutlich höhere Ermüdungsfestigkeit der Verbindungen im Vergleich zum konventionellen Lichtbogenschweißen erreicht werden kann. Eine höhere Schweißgeschwindigkeit kann zwar die Kosten senken, wirkt sich aber negativ auf die Ermüdungsfestigkeit der FSW-Verbindungen aus. Als mögliche Lösung wurde das hydrostatische Festwalzen angewandt, um die Ermüdungsfestigkeit artgleicher und ungleicher FSW-Verbindungen aus den Legierungen EN AW 5083 und EN AW 6082 zu verbessern, die mit unterschiedlichen Schweißgeschwindigkeiten hergestellt wurden. Zusätzlich wurde die Ermüdungsfestigkeit direkt mit konventionell durch Metall-Inertgasschweißen (MIG) hergestellten Verbindungen und mit Grundwerkstoffproben aus EN AW 5083 verglichen. Die Oberflächenbeschaffenheit im geschweißten Zustand wurde durch Messungen der Oberflächenrauigkeit und der Eigenspannung charakterisiert. Ermüdungsversuche wurden durchgeführt, um die Ermüdungsfestigkeit der Verbindungen zu quantifizieren. Nach dem Festwalzen wurden ähnliche Druckeigenspannungen für artgleiche und ungleiche Verbindungen ermittelt. Für festgewalzte artgleiche Verbindungen aus EN AW 5083 wurde keine Verbesserung der Ermüdungsfestigkeit festgestellt. In diesem Zustand lag die Ermüdungslebensdauer der Probe jedoch im Bereich des Grundmaterials. Somit wurde eine signifikant niedrigere Ermüdungslebensdauer und eine hohe Verbesserung der Ermüdungslebensdauer durch Festwalzen für ungleiche Verbindungen erreicht. Eine Erhöhung der Schweißgeschwindigkeit von 300 mm/min auf 800 mm/min verringerte die Ermüdungsfestigkeit von Mischschweißverbindungen in diesem Fall stark.
Die Bachelorarbeit umfasst die Entwicklung einer Pendelhubstichsäge für die Verwendung in CNC-Bearbeitungszentren. Der Entwicklungsprozess durch läuft alle vier Phasen: Planung, Konzeption, Konstruktion, Ausarbeitung. Endergebnis der Bachelorarbeit ist ein vollständiges 3D-Modell mit allen fertigungsrelevanten Dokumenten.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Aufgrund der verstärkten Bedeutung von Datenschutz in der modernen Gesellschaft und der verstärkten Nutzung von markerlosen Systemen wird es zunehmend interessant, ob ein solches System zuverlässige Werte auch bei noch unpopuläreren Bewegungen, wie der Kopfbewegung, liefert. Diese treten, bei der heute vorwiegend sitzenden Gesellschaft und im Zeitalter von Nackenverspannungen und der daraus resultierenden Bewegungseinschränkungen, mehr in den Fokus. Auch unter dem Gesichtspunkt des Datenschutzes ist es wichtig, nicht nur die Namen der Probanden, sondern auch deren
Gesichter in den Aufzeichnungen zu anonymisieren.
In der vorliegenden Arbeit wird daher evaluiert, ob das markerlose Bewegungsanaylsesystem Theia mit anonymisierten Dateien ähnliche Ergebnisse erzeugt, wie mit den originalen Dateien. Für diese Studie wurden sechs verschiedene Bewegungen bis zu ihrem Maximalausschlag des jeweiligen Probanden aufgezeichnet. Die Bewegungen hierbei sind Flexion und Extension des Kopfes, Lateralflexion sowie Rotation zu beiden Seiten. Zusätzlich wurde noch ein Durchgang Kopfkreisen aufgezeichnet. Dieser bestand aus dreimaligem Kopfkreisen, welches eine Kombination aus den vorherigen Bewegungen ist.
Die anonymisierten Daten wurden mittels eines Algorithmus bearbeitet, welcher das Gesicht der Probanden unkenntlich macht. Dies geschah durch das Schwärzen des Gesichtes oder einem Verschwimmen des Gesichts. Danach wurden die drei Datensätze in Theia verarbeitet und in EXCEL ausgewertet. Dabei kam es vor allem bei der geschwärzten Version bei Flexion und Extension zu großen systematischen und zufälligen Fehlern. Der Mittelwert des systematischen Fehlers ist die Abweichung von 13,62 Grad zu den Originalwerten. Der zufällige Fehler ist im Mittel mit 170,57 Grad stärker abweichend. Im Vergleich dazu liegt der Mittelwert des systematischen Fehlers bei der geblurrten Versionen im Vergleich zu den Originalwerten bei 5,17 Grad. Die geblurrte Version weist zudem seltener signifikante Unterschiede und einen mittleren zufälligen Fehler von 23,43 Grad auf, weshalb diese Version unter geringem Vorbehalt verwendbar ist, die geschwärzte Version jedoch nicht.
Printmedien befinden sich in der Krise. Durch die Fülle an frei zugänglichen Inhalten im Internet, verlieren immer mehr Printmedien an Leser. Mediale Inhalte sind nicht mehr nur über die klassischen Vertriebskanäle abrufbar, sondern auch digital. Dennoch zeigen hohe Reichweiten, dass Zeitungen und Zeitschriften noch eine Relevanz am deutschen Markt besitzen.
In der vorliegenden Arbeit wird untersucht, wie sich der Markt in den letzten 15 Jahren verändert hat. Durch die Digitalisierung entstehen neue Märkte und Endgeräte, wodurch sich neue crossmediale Medienangebote bilden. Die Rolle der Printmedien hat sich verändert und das Internet wird bereits von vielen Unternehmen als zusätzlicher Medienkanal für die Distribution von Druckprodukten genutzt. Anhand des Magazins GEO wird die Veränderung des Printproduktes Zeitschrift verdeutlicht. Wie haben sich die Auflagen und Reichweiten entwickelt? Es wird ebenfalls beleuchtet, inwieweit sich die Zugänglichkeit und Darstellung des Produktes verändert hat.
Digitalisierung und Visualisierung für die Lehre an Hochschulen am Beispiel der Medientechnik
(2022)
Ziel dieser Arbeit war die Erstellung eines Konzepts für die digitale Lehre am Beispiel der Medientechnik an der Hochschule Offenburg. Das Konzept sollte anhand der Funktionsweise von Digitalkameras und den Themengebieten Blende, Verschlusszeit, ISO und dem Crop-Faktor erstellt werden. Bei Konzepterstellung wurden insbesondere existierende, wissenschaftliche Erkenntnisse aus den Bereichen E-Learning, Blended-Learning und Visualisierung berücksichtigt. Darüber hinaus wurden für das Konzept Visualisierungen für die genannten Themengebiete erstellt. Vor Erstellung der Visualisierungen galt es, mögliche Vorteile der 3D-Visualisierung gegenüber der 2D-Visualisierung zu prüfen und eine Auswahl für das Konzept zu treffen. Als weiteres Ziel sollten die in der Arbeit gewonnenen Erkenntnisse, insbesondere bei der Konzepterstellung, anderen Hochschulen und Lehrenden als Grundlage für eigene Konzepte dienen, um eine digitale Lehre mit Online-Anteilen umsetzen zu können.
Diese Ziele werden im Verlauf der Arbeit uneingeschränkt erreicht.
Die in der Arbeit durchgeführte Literaturanalyse zeigt, dass der Einsatz von E-Learning und digitalen Medien zu einem besseren Lernerfolg bei Studierenden führt. Die Anwendung von Blended-Learning-Modellen, als Ergänzung zum E-Learning, können die Nachteile der Präsenzlehre ausgleichen.
Durch den Einsatz von Visualisierungen (Bilder und Animationen) kann in der Theorie belegt werden, dass sich beide Darstellungsformen positiv auf die Lernleistung von Studierenden auswirken. Insbesondere eigenen sich Animationen bei der Durchführung von Laboren zum Ausgleich unterschiedlicher Vorkenntnisse. Außerdem tragen Animationen dazu bei, die Fähigkeit zur eigenständigen Problemlösung zu verbessern, wenn Animationen gleichzeitig mit Erläuterungen eingesetzt werden.
Eine Vorteilhaftigkeit von 3D- gegenüber 2D-Visualisierungen in der Lehre, konnte in der Arbeit nicht bestätigt werden. Nicht zuletzt aufgrund eines erhöhten Aufwandes zur Erstellung und Anwendung von 3D-Visualisierungen, wurde für das Konzept eine 2D-Darstellung gewählt. Zwar werden 3D-Visualisierungen zur Wissensvermittlung an Hochschulen eingesetzt, es konnten jedoch keine wissenschaftlichen Erkenntnisse herangezogen werden, die eine verbesserte Lernleistung oder einen besseren Lernerfolg gegenüber 2D-Visualisierungen belegen. Diese Arbeit zeigt ebenfalls, dass die Anforderungen Expressivität, Effektivität und Angemessenheit für jede Visualisierung erfüllt werden müssen, damit eine Visualisierung im Kontext der Lehre vorteilhaft ist. Darüber hinaus müssen für jede Darstellung operationalisierte Lernziele definiert werden. Nur so kann eine Überprüfung und Beurteilung einer Visualisierung durchgeführt werden. Die Erfüllung dieser Anforderungen wurde für die selbsterstellten Illustrationen zu Blende, Verschlusszeit, ISO und dem Crop-Faktor berücksichtigt und kritisch geprüft. Die Anforderungen wurden vollumfänglich erfüllt.
Bei der Konzepterstellung wurden die in der Arbeit gewonnenen wissenschaftlichen Erkenntnisse berücksichtigt und am Beispiel der Vorlesung Digitale Medien 2 umgesetzt. Das Konzept zeigt in der Theorie, wie E-Learning, Blended-Learning und Visualisierungen bei dieser Vorlesung eingesetzt werden können.
Eine Erprobung in der praktischen Anwendung muss zwingend erfolgen, um die im Konzept definierten, operationalisierten Lernziele der Visualisierungen zu bestätigen. Ebenfalls gilt es den Einfluss des Konzepts auf den Lernerfolg von Studierenden an der Hochschule Offenburg zu prüfen.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
Die fluktuierende Verfügbarkeit regenerativer Energiequellen stellt eine Herausforderung bei der Planung und Auslegung regenerativer Gebäudeenergiesysteme dar. Die in einem System benötigten Speicherkapazitäten hängen dabei sowohl von der eingesetzten Regelungsstrategie als auch von den temperaturabhängigen Wirkungsgraden der Anlagenkomponenten ab. Genauere Einblicke in das Betriebsverhalten eines Gesamtsystems können dynamische Simulationen liefern, die eine Analyse der Systemtemperaturen und von Teilenergiekennwerten ermöglichen.
Diese Bachelorarbeit befasst sich mit den Entwicklungen des Webdesigns in den letzten zehn Jahren und den daraus resultierenden Anforderungen an eine erfolgreiche Webseite. Außerdem werden Grundlagen des Webdesign und die aktuellsten Webtrends betrachtet, um ein umfassendes Bild des Erfolges einer Webseite zu erhalten.
Im Rahmen der Thesis wurde außerdem ein interner StyleGuide für die Webseite des Softwareunternehmens „sevDesk“ aus Offenburg erstellt. Dieser bietet eine Übersicht der vorhandenen Komponenten in allen deren Varianten, sowie den allgemeingültigen StylingRichtlinien, welche das Design der kompletten Webseite definieren.
Sensomotorische Einlagen nach Jahrling streben eine gezielte Verbesserung muskulärer Dysbalancen und der Körperstatik an. Anhand ganganalytischer Untersuchungen wurden im Zuge dieser Arbeit Daten von 19 Patient*innen beim Gehen ohne und mit Einlagen erfasst und analysiert. Ergänzend wurde zu Vergleichszwecken eine Kontrollgruppe von sieben gesunden Proband*innen herangezogen. Ziel war es, weitere Erkenntnisse über den Einfluss der Einlagenversorgung auf die Kinetik und Kinematik der unteren Extremität zu erlangen. Hierbei standen insbesondere die Kräfte und Drehmomente am Kniegelenk im Fokus.
Mittels der instrumentellen Ganganalyse wurden die Teilnehmenden im Abstand von zwei Wochen vermessen. Alle zeigten Einlagenversorgung einen erhöhten Valguswinkel am Kniegelenk während der Standbeinphase des Gehens, wiesen darüber hinaus jedoch keine neurologischen oder muskuloskelettalen Erkrankungen auf. Die Patient*innen absolvierten die Untersuchungen mit frei gewählter Ganggeschwindigkeit und auf ebener, freier Gehstrecke. Die erhobenen Daten wurden gemittelt, normiert und statistisch ausgewertet. Untersuchte Variablen sind Raum- / Zeitparameter und Verläufe der Gelenkwinkel und -momente am Kniegelenk, sowie am Sprunggelenk und dem Fußkomplex.
Die Ergebnisse lassen auf signifikante Effekte der Einlage auf die Kinematik des Kniegelenks in frontaler Ebene schließen. Der Abduktionswinkel der Teilnehmenden bei Toe-off wurde, durch die Versorgung mit sensomotorischen Einlagen, beispielsweise um 3,6° reduziert. Der Vergleich mit Personen ohne Beinachsfehlstellung zeigte zudem eine Annäherung des Verlaufs des Valguswinkel über nahezu den gesamten Gangzyklus. Es konnten zudem vereinzelt signifikante Unterschiede anhand des Extremwertvergleichs der Dorsal- und Plantarflexion des oberen Sprunggelenks nachgewiesen werden. Die Zeit- / Distanz- Parameter und Momentenverläufe blieben jedoch unverändert.
Die Arbeit zeigt, dass die sensomotorischen Einlagen Einfluss auf die Kinematik der Gelenke der unteren Extremität haben. Es wird allerdings auch deutlich, dass die Komplexität der Wirkmechanismen und deren Auswirkung durch die recht einfach gehaltene Ganganalyse nicht gänzlich erfasst werden kann. Weitere Untersuchungen sind erforderlich, um die Beobachtungen zu stützen und die Ergebnisse differenzierter erklären und bewerten zu können. Hierfür erscheint es sinnvoll, die Anzahl an Patient*innen zu erhöhen und die instrumentelle Ganganalyse mit EMG-Aufzeichnungen und einem detaillierteren Markermodell zu ergänzen.
Kurzfassung
Hintergrund: Eine Methode, mit der Richtungswechsel (COD) im Sport erkannt und quantifiziert werden können, kann eine weitere wichtige Variable bei der Überwachung von Belastungen sein und so Einfluss auf die Belastungssteuerung nehmen.
Zielsetzung: Die Überprüfung der Genauigkeit und Übereinstimmung einer GNSS-Trackingeinheit (Catapult OptimEye S5) bei vorgegebenen CODs im Bereich zwischen 45° und 180° nach links und rechts im Vergleich zu einem Bewegungserfassungssystem.
Stichprobe: 20 junge und zum Zeitpunkt der Messung gesunde Fußballer (10 Männer/10 Frauen; Alter: 25.3 ± 3.5 Jahre; Größe: 173 ± 8.5 cm; Gewicht: 66 ± 9.3 kg)
Methodik: Gleichzeitige Aufnahme von Positionsdaten (Catapult OptimEye S5) und Bewegungserfassungsdaten (Theia3D Markerless Motion-Capture) während je drei aufeinanderfolgenden Läufen pro vorgegebenen Winkel (180°, 135°, 90°, 45°) in beide Richtungen.
Ergebnisse: Eine gute Genauigkeit ist für 180°-CODs in beide Richtungen ermittelt worden. Deutlich unterschätzt sind die 45°-CODs in beide Richtungen und der 90°-COD nach links, weniger unterschätzt ist der 90°-COD nach rechts. Der 135°-COD ist für beide Richtungen deutlich nach oben verzerrt. Die Übereinstimmung ist für beide 180° Winkel und die 135°- und 45° Winkel nach links zufriedenstellend. Alle Ergebnisse werden über den Mittelwert ± Standardabweichung und der Bland-Altman 95%-Grenzen dargestellt.
Schlussfolgerung: Die Ergebnisse zeigen, dass die GNSS-Technologie bei CODs an ihre Grenzen stößt. Dennoch können mit einem Kompromiss in Bezug auf die Genauigkeit, unterschiedliche Winkel bei CODs bestimmt werden.
Die Hohlprobentechnik soll als Alternative zur Autoklavtechnik eingesetzt werden,
um Werkstoffe unter Druckwasserstoffeinfluss charakterisieren zu können. Daher
wird in dieser Arbeit die Hohlprobengeometrie unter LCF-Belastung mit Hilfe
der Finite-Elemente-Methode untersucht. Dabei wird besonders auf den Einfluss
des Innendrucks, der Belastung und der Temperatur eingegangen. Die Ergebnisse
werden mit der Vollprobengeometrie verglichen, um die Eignung der Hohlprobe als
Alternative zur Vollprobe zu untersuchen. Ohne Innendruck ist kein Unterschied
im Verformungsverhalten zwischen Voll- und Hohlprobe zu erkennen. Bei hohen
Innendrücken kann die Hohlprobe ihre Formstabilität verlieren. Daher können in
Experimenten nicht alle Kombinationen aus Temperatur und Innendruck untersucht
werden.
Im zweiten Teil der Arbeit wird die belastungsabhängige Wasserstoffdiffusion an einer
angerissenen Hohlprobe numerisch untersucht. Durch die Spannungsgradienten an der
Rissspitze wird die Wasserstoffkonzentration beeinflusst. Um einen Zusammenhang
zwischen der Plastizität und der Diffusion zu untersuchen, wird eine plastische und
eine Diffusionszone ausgewertet. Hier zeigt sich, dass die Diffusionszone hauptsächlich
von der Risslänge und weniger von der Belastung abhängt.
Die Covid-19-Pandemie hat die Welt verändert. Alle Wirtschaftszweige wie etwa der Handel sahen sich von heute auf morgen mit einer veränderten Realität konfrontiert. Diese Entwicklung hat einerseits den schon vor der Pandemie wahrnehmbaren Digitalisierungsdruck, vor allem auf den stationären Handel, massiv erhöht. Und andererseits die Daten von Kundinnen und Kunden in das Zentrum der Aufmerksamkeit gerückt, da in der digitalen Welt der persönliche Kontakt zur Kundschaft fehlt. Dieser Beitrag beleuchtet die Bedeutung von Kundendaten, Datenqualität und Datenmanagement als wesentliche Erfolgsfaktoren für den Handel in dieser herausfordernden Situation. Er zeigt auf, wie Datenverantwortliche im Handel aus dem Wissen um die Daten mittels Identity Resolution klare Profile von Kundinnen und Kunden entwickeln und diese plattformbasiert ausrollen können. Hierzu wird das neue Konzept des Customer Digital Twins eingeführt. Die abschließenden Handlungsempfehlungen bieten eine ‚Arbeitsanweisung in fünf Schritten‘ für eine aktuelle, vollständige und verlässliche Datenbasis, als Grundlage für den datenorientierten stationären und Onlinehandel.
Intelligentes Data Governance und Data Management – Neue Chancen für die Kundendatenbewirtschaftung
(2022)
Mit der Digitalisierung haben sich für Marketing und Vertrieb vielzählige unterschiedliche neue Kanäle, Werbeformate und Zielgruppen eröffnet. Expertinnen und Experten schätzen, dass ca. 4.000 bis 10.000 Werbe- und Markenbotschaften täglich auf jede und jeden von uns einprasseln. Mögen diese Zahlen umstritten und eine Zahl zwischen 300 bis 500 Botschaften pro Tag realistischer sein, so ist dies noch immer eine Menge, die kaum noch verarbeitet und wahrgenommen werden kann. Als Reaktion auf diese Werbemasse und Reizüberflutung haben Konsumentinnen und Konsumenten zum Teil eine Art „Werbeblindheit“ entwickelt.
Für Unternehmen wird daher zunehmend herausfordernder, ihre Zielgruppe aktiv zu erreichen. Was können Unternehmen nun tun, um dennoch nachhaltig Aufmerksamkeit zu gewinnen, und wie kann Künstliche-Intelligenz-gestütztes Kundendatenmanagement dabei helfen?
This mature textbook brings the fundamentals of fluid mechanics in a concise and mathematically understandable presentation. In the current edition, a section on dissipation and viscous potential flows has been added. Exercises with solutions help to apply the material correctly and promote understanding.
Die Suchmaschinenoptimierung (SEO) ist von zunehmender Bedeutung für ContentErsteller:innen. Ziel dieser Forschung ist das Erstellen eines strukturierten und übersichtlichen SEO-Leitfadens für Redakteur:innen. Dazu wird die folgende Forschungsfrage gestellt: ‚Welche Elemente der Suchmaschinenoptimierung spielen im redaktionellen Prozess eine wesentliche Rolle, um erfolgreiche SEO-Texte zu erstellen?’
Um die Forschungsfrage zu beantworten wurde eine qualitative Studie zu SEO in Bezug auf Redaktuer:innen durchgeführt. Daran nahmen sieben Auskunftspersonen teil, mitunter: erfahrene Redakteur:innen, Informatiker:innen, Online Marketing Expert:innen und SEOs. Konkret beschäftigt sich die Studie mit dem Erstellen von Texten und Artikeln für WebMagazine und Blogs. In der qualitativen Studie wurden offene Fragen durch die Interviewtechnik des problemzentrierten Interviews gestellt. Das erhobene Material wurde dann durch eine qualitative Inhaltsanalyse ausgewertet.
Die Analyse des Materials erlaubte die Schritte Keyword-Recherche, Themensuche, Keyword-Analyse, SEO-Briefing und Text-Schreiben zu definieren, um sie danach in eine sinnvolle Reihenfolge zu ordnen. Der Leitfaden soll Redakteur:innen dabei helfen, einen besseren Überblick zum SEO-Prozess zu erlangen und das selbständige Durcharbeiten der Schritte vor dem Schreiben eines SEO-Artikels oder -Texts ermöglichen.
Nach einem langen Vorlauf haben Bundestag und Bundesrat zum Ende der Legislatur 2021 einen Rechtsanspruch auf Ganztagsbildung in Grundschulen verabschiedet. Um aus diesem formalen Anspruch gute Angebote in der Rechtswirklichkeit schaffen zu können, bedarf es neben politischer und finanzieller Rahmenbedingungen auch eines gezielten Dialogs mit den relevanten Anspruchs- und Interessengruppen, weshalb dem Stakeholdermanagement vor allem der Akteure von Schulträgern und Schulen eine besondere Bedeutung zukommt.
Journalist, Teil A
(2022)
Um mit einer Marketing- oder Werbemaßnahme erfolgreich zu sein, muss ein Unternehmen die Bedürfnisse und Wünsche der anzusprechenden Zielgruppen kennen. Da
die Generation Z in den kommenden Jahren im Vergleich zu vorangegangenen Generationen einen immer größeren Anteil der Weltbevölkerung und somit der zukünftigen
Konsument*innen ausmachen wird, stellt sie die Zielgruppe der Zukunft dar. Für diese
Generation ist der Umgang mit dem Internet, Smartphones und Apps alltäglich und hat
sich in ihrem Leben bereits fest etabliert. Die vorliegende Bachelorarbeit behandelt basierend auf dieser Tatsache die Frage, ob Mitglieder der Generation Z noch von klassischer Werbung erreicht werden können und wie ein Unternehmen die eigenen Werbemaßnahmen gestalten sollte, um die Generation Z anzusprechen. Damit Rückschlüsse
auf die zielgruppengerechte Marketingkommunikation eines Unternehmens mit der Generation Z gezogen werden konnten, wurden Werke der Fachliteratur und nationale sowie internationale Studien über das Konsument*innenverhalten der Generation Z herangezogen. Um die Erkenntnisse der Literaturrecherche zu untermauern, wurde zusätzlich eine Gruppendiskussion mit Vertreter*innen der Generation Z durchgeführt. Die
qualitative Studie manifestierte die im Theorie-Teil herausgearbeiteten Informationen
und half somit maßgeblich bei der Beantwortung der Forschungsfragen. Im Rahmen
dieser Arbeit konnte festgestellt werden, dass die Generation Z grundsätzlich nicht mehr
von klassischer Werbung erreicht wird, da sie klassische Medien nur noch selten nutzt.
Um Mitglieder der Generation Z als Zielgruppe für sich zu gewinnen, bedarf es einer
Marketingkommunikation, die vorwiegend online und bestenfalls über Social Media
stattfindet und die Konsument*innen individuell mit relevanten Inhalten anspricht.
Dieses Fachbuch hat die Funktion einer fachlich fundierten und praxisnahen Überblicksdarstellung über die Möglichkeiten des Einsatzes von Social Media und Messenger-Diensten im kommunalen Bereich. Social Media sind insbesondere als Instrument für den Dialog mit der Bürgerschaft geeignet, was eine gezielte Analyse von Kommunikationsanlässen und Dialogbedürfnissen im kommunalen Sektor erfordert.
Um das volle Potenzial sozialer Medien ausschöpfen sowie zeitnah und dezentral kommunizieren zu können, müssen die daraus resultierenden Anforderungen an die Organisationskultur und Führungsstruktur berücksichtigt werden. Das Handbuch liefert den theoretischen Hintergrund und die dazugehörige praktische Umsetzung, um die notwendigen Handlungsfelder der kommunalen Kommunikation mithilfe von Social Media und Messenger-Diensten erschließen zu können.
Dieses Buch erläutert die allgemeinen Rahmenbedingungen von Industrie 4.0 und bietet innovativen KMUs im Industriesektor wertvolle Impulse.
Industrie 4.0 als Herzstück der digitalen Transformation vieler Produktionsbetriebe liefert ein sehr heterogenes Bild bezüglich der Umsetzung. Die Unterschiede in den organisatorischen Bedingungen liegen im Innovationsgrad der jeweiligen Organisation und lassen sich an der Nachhaltigkeit der Investitionen und dem damit verbundenen mittel- bis langfristigen Markterfolg festmachen.
Das Buch zeigt konkrete Umsetzungsbeispiele auf und beschreibt unter anderem Anwendungsszenarien von praxiserfahrenen und innovativen Ingenieur*innen im Maschinenbau und in der Medizintechnik. Zudem vermittelt es einen grundsätzlichen Überblick über Digitalstrategien und Anwendungsfelder von Industrie 4.0.
Es richtet sich gleichermaßen an Interessierte, Studierende sowie Praktiker aus den Themenfeldern Technologie, Ingenieurwesen und Management.
In diesem Kapitel geht es um die Frage, was unter dem Buzz-Word Industrie 4.0 zu verstehen ist und was nicht. Industrie 4.0 kann dabei unter gesellschaftlichen, kompetenzorientierten, produktionsorientierten oder verhaltensorientierten Gesichtspunkten unterschiedlich interpretiert werden. Die Umsetzung in Deutschland hat sich dabei vom politischen Konstrukt zur technisch-wirtschaftlichen Entwicklung im Rahmen der digitalen Transformation gewandelt.
Neue konzeptionelle Entwicklungen wie Industrie 4.0 gelten in vielen Fällen als Domäne von jungen, kleinen Unternehmen, die im Sinne einer Start-Up-Kultur auf Innovationen fokussiert sind oder als Themenfeld von Großunternehmen, die mit Hilfe von Forschungs- und Entwicklungsabteilungen und eigenen Engineering-Ansätzen sowie einem großen Budget in der Lage sind, größere Projekte zu testen und eigene Konzepte zu entwickeln. Da die deutsche Wirtschaft und Gesellschaft stark von den erfolgreichen Entwicklungen des Mittelstands abhängt, der eine Schlüsselstellung für die diversifizierte Wirtschaft und eine robuste Entwicklung des Wohlstands besitzt, kommt der hier behandelten Frage, wie mittelständische Unternehmen mit der digitalen Transformation und der Herausforderung von Industrie 4.0 zurechtkommen, eine zentrale Rolle zu.
Dass die digitale Transformation als generelles Thema für alle Gesellschafts- und Wirtschaftsbereich von Bedeutung ist, und gerade für den Mittelstand und zahlreiche Hidden Champions eine besondere Herausforderung darstellt, wurde in den vorausgehenden Unterkapiteln bereits deutlich. In diesem Unterkapitel geht es um die konkrete Umsetzung der digitalen Transformation in diesen Branchen- und Unternehmenssegmenten, wo von den Geschäftsmodellen und den dazugehörigen Kundensegmenten bis hin zur Unternehmens- und Führungskultur Veränderungen erforderlich sind. Diese Felder der Transformation im Sinne von Entwicklung und Change gilt es für einen erfolgreichen Transformationsprozess zu identifizieren und aufeinander abzustimmen.
Dieses Buch gibt einen fundierten Überblick über Change- und Corporate-Venture-Capital-Strategien im Mediensektor. Viele Medienunternehmen stehen vor der Herausforderung, das eigene (Kern-)Geschäft weiterzuentwickeln sowie eine deutlichere Orientierung am Kundennutzen zu verfolgen und dennoch die eigene kreative und publizistische Mission beizubehalten. Darüber hinaus gilt es, neue Geschäftsfelder aufzubauen und den Ankauf von Unternehmen oder die Beteiligung an Start-ups voranzutreiben. Der dabei erforderliche Spagat zwischen strategischen und finanziellen Zielen sowie die operative Umsetzung stellen eine beachtliche Herausforderung dar.
Die Branchenexperten analysieren in ihren Beiträgen die vielfältigen Potenziale sowie konkrete Maßnahmen und Best Cases. Dabei kommen Medieninsider und medienunabhängige Experten zur Sprache, die die Change-Strategien, -Maßnahmen und -Fallstudien beleuchten und neue Gestaltungsmöglichkeiten aufzeigen.
In diesem Einführungskapitel geht es um die Frage, welche Transformationsstrategien in der Medienbranche in den vergangenen zwanzig Jahren anzutreffen waren und welche Risiken und Chancen sie in ihrer Anwendung für die einzelnen Unternehmen und Akteure beinhalten. Dabei wird sehr schnell deutlich, dass es „die Medienbranche“ schlechthin nicht gibt, auch nicht geben kann, sondern dass es sich um eine sehr komplexe, mitunter auch widersprüchliche Branche handelt. Wir werden in diesem Kapitel aufzeigen, dass es gerade die angrenzenden Bereiche sind, aus denen meist innovative Ansätze kommen, die einen disruptiven Effekt auf die Kernbranche mit ihrem traditionellen Kerngeschäft haben. Insofern wird in diesem Kapitel zwar eine strukturierte analytische Betrachtung angestrebt, dennoch ist es ein Themenfeld, in dem die Dynamik der Akteure und Märkte dafür sorgt, dass die Branche, die Teilsegmente, die Unternehmen, Produkte und Märkte ständig in Bewegung sind und in Bewegung bleiben.
Wie in den grundsätzlichen Überlegungen zur Transformationsstrategie von Medienunternehmen in Abschn. 1.1 bereits deutlich wurde, ist es für Medienunternehmen und ihre Leitungen nicht einfach, einerseits neue Impulse nicht durch das überdimensionale Regelwerk einer auf Effizienz getrimmten Standardorganisation zu ersticken und andererseits aber auch die Fähigkeit zu entwickeln, die neuen Impulse nicht nur in eigenen Organisationseinheiten zu konservieren, sondern sie als Nukleus für Veränderungen und für eine Weiterentwicklung des Hauptunternehmens zuzulassen. Diese generelle Problematik zeigt sich auch in der Medienbranche beim Umgang mit Transformationsstrategien sehr deutlich, denn es ist letztlich immer wieder ein Austarieren und Nachsteuern, da es den einfachen, idealen Weg nicht gibt und wohl auch nicht geben kann.
Patienten mit neurologischen Erkrankungen, die Auswirkungen auf die Muskelaktivität der unteren Extremitäten haben, leiden oft an Gangstörungen in der Schwung- und Standphase. Um diesen Gangstörungen entgegenzuwirken und einzelne Muskeln zu unterstützen oder zu ersetzen, stellt die Versorgung mit Unterschenkelorthesen eine Behandlungsoption dar. Den Ärzten steht dabei eine Vielzahl an Orthesentypen mit verschiedenen mechanischen Eigenschaften zur Verfügung. Zur Beurteilung der Wirksamkeit einer Orthesenversorgung werden dreidimensionale Ganganalysen mit und ohne Orthese durchgeführt. Die Entscheidungsfindung wird durch eine Simulation des Bewegungsapparates, dem muskuloskelettalen Modelling, unterstützt. Aus den Messdaten der Ganganalyse mit Orthese wird mittels der inversen Dynamik auf die bewegungserzeugenden Muskelkräfte im Körper zurückgerechnet. Der-zeit wird das Gesamtmoment um das Sprunggelenk in die Berechnung mit einbezogen, welches sich aus dem internen Moment, erzeugt von Muskeln, Sehnen und Bändern der unteren Extremitäten des Patienten und dem externen Orthesenmoment zusammensetzt. Durch eine isolierte Ermittlung des Unterstützungsmoments einer Unterschenkelorthese kann durch das muskuloskelettale Modelling eine genauere Aussage über die Auswirkungen einer Unterschenkelorthese auf die Muskelaktivität der unteren Extremitäten und die Funktionalität des Bewegungsapparates des Patienten getroffen werden. Zur Bestimmung des Orthesenmoments wird die Rotationssteifigkeit, die wichtigste mechanische Eigenschaft einer Unterschenkelorthese mithilfe einer Testvorrichtung gemessen. Denn diese beschreibt das Widerstandsmoment der Orthese, das sie bei der Deformation in Plantar- oder Dorsalflexion er-zeugt, um eine gewisse Biegung um die Sprunggelenksachse freizugeben. Die Literaturrecherche ergibt, dass die Rotationssteifigkeit einer Unterschenkelorthese auf einem Prüfstand mit einem physischen Ersatzbeinmodell zur Fixierung der Orthese gemessen wird. In der bestehenden Testvorrichtung am Kinderspital Basel werden die Orthesen allerdings ohne Ersatzbeinmodell untersucht. Das Ziel dieser Arbeit ist daher die Ermittlung der Eignung der bestehenden Vorrichtung ohne Ersatzbeinmodell zur Bestimmung der Rotationssteifigkeit. Dazu werden eine steife und drei Karbonfederorthesen auf der Testvorrichtung und am Bein eines gesunden Probanden in vergleichbaren Auslenkungen gemessen. Die Bewegung der Orthese wird mittels dreidimensionalem markerbasiertem Kameramesssystem aufgenommen und die kinetischen Daten über dreidimensionale Kraftmessplatten erfasst.
Für den Vergleich der beiden Testkonditionen werden drei Parameter definiert. Der Erste ist das Deformationsmaß der Orthese. Dieses beschreibt die Deformationslinie des Orthesenschafts in Sagittalebene. Der Vergleich zeigt, dass dieses bei allen getesteten Orthesentypen in starkem Maß zwischen beiden Testkonditionen variiert und damit nicht vergleichbar ist. Der zweite Parameter ist die Betrachtung eines vereinfachten Modells für das Verhalten des Rotationspunkts in der Sagittalebene, um den der Orthesenschaft bei der Verformung rotiert. Hierzu werden Geraden durch die Marker des Schafts und des Fußes gelegt und deren Schnittpunktverhalten bei der Deformation analysiert. Die Bewegung des Schnittpunkts variiert je nach Testkondition, jedoch wird das Maß der Bewegung im Vergleich zu anderen Einflussfaktoren als vernachlässigbar eingestuft. Hier gleichen sich somit die beiden Testkonditionen. Der dritte Parameter ist die Rotationssteifigkeit der Orthese. Hierzu werden mit den Kraftmessplatten die Kräfte gemessen und mit den Positionsdaten der Marker ein Hebelarm und der Deformationswinkel definiert. Die ermittelten Daten weichen zwischen den Testkonditionen in großem Maß voneinander ab. Eine direkte Aussage über die Eignung der Testvorrichtung kann nicht getroffen werden.
Die Ergebnisse zeigen, dass die Messung am Bein des Probanden keine realistischen und da-mit verwertbaren Messdaten zur Bestimmung der Rotationssteifigkeit liefert. Schlussfolgernd sind die Messdaten beider Testkonditionen mit den angewandten Mess- und Berechnungsmethoden nicht vergleichbar. Die Eignung der Testvorrichtung lässt sich somit nur bedingt beurteilen. Einerseits liefert der Aufbau der Vorrichtung und die Messdurchführung Messda-ten zur Bestimmung der Rotationssteifigkeit, andererseits kann noch keine Aussage darüber getroffen werden, ob die Messdaten zu einer qualitativen Ermittlung der Rotationssteifigkeit der Orthese führen können. In zukünftigen Studien muss die Messung am Bein des Proban-den optimiert werden, um Referenzwerte für die Messung auf der Testvorrichtung bereitstellen zu können.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
Significant improvements in module performance are possible via implementation of multi-wire electrodes. This is economically sound as long as the mechanical yield of the production is maintained. While flat ribbons have a relatively large contact area to exert forces onto the solar cell, wires with round cross section reduce this contact area considerably – in theory to an infinitively thin line. Therefore, the local stresses induced by the electrodes might increase to a point that mechanical production yields suffer unacceptably.
In this paper, we assess this issue by an analytical mechanical model as well as experiments with an encapsulant-free N.I.C.E. test setup. From these, we can derive estimations for the relationship between lay-up accuracy and expected breakage losses. This paves the way for cost-optimized choices of handling equipment in industrial N.I.C.E.-wire production lines.
In automotive parking scenario, where the curb shall be detected and classified to be traversable or not, radars play an important role. There are different approaches already proposed in other works to estimate the target height. This paper assesses and compares two methods. The first is based on Angle of Arrival (AoA) estimation of input signals of multiple antennas using the Multiple-Input-Multiple-Output (MIMO) principle. The second method uses the geometry in multipath propagation of the radar echo signal for one antenna input. In this work a modified method of calculation of the curb height based on the second method is proposed. The theory of approach is mathematically proved and effectiveness is demonstrated by evaluation of measurements with a 77 GHz Frequency Modulated Continuous Wave (FMCW) radar. In order to evaluate the performance of the introduced method the mean square error (MSE) is used in the proposed scenario. This method, using only one antenna input, produced up to 3.4 times better results for curb height detection in comparison with former methods.
Die vorliegende Bachelorthesis setzt sich mit dem Einsatz von digitalen Medien in den Bildungseinrichtungen Hochschule und Berufsschule auseinander. Zunächst werden grundlegende Begrifflichkeiten und digitale Medien beschrieben. Anschließend wird der Gerätebesitz Jugendlicher und die Ausstattung der Bildungsinstitute gezeigt. Im Folgenden wird auf den Einfluss der Coronapandemie in Bezug auf die Digitalisierung eingegangen. Anschließend folgen zwei Konzepte, die einen sinnvollen Einsatz von digitalen Medien in der Bildung gewährleisten sollen.
Heutzutage befindet sich die Menschheit in einem Zeitalter des Bewegungsmangels. Körperliche Aktivitäten dringen immer weiter in den Hintergrund. Dadurch wird die Gesundheit deutlich beeinträchtigt. Es entstehen vermehrt Krankheiten wie Diabetes und Schädigungen des Herz-Kreislauf-Systems. An diesem Beispiel lässt sich verdeutlichen, wie wichtig körperliche Bewegung ist. Die gängigste Art ist das Laufen und das Gehen. Dazu wurden Laufschuhe entwickelt. Jedoch ist die Passform oft nicht so ausgestattet, um für eine perfekte Laufperformance und ein möglichst geringes Verletzungsrisiko zu sorgen. Es entsteht ein Spiel zwischen Laufschuh und dem Fuß. Um dieses Spiel zu minimieren bzw. für eine verbesserte Laufperformance zu sorgen werden Gurtsysteme bzw. Schnürsysteme entwickelt. Das Ziel hierbei ist es zu prüfen, ob diese Gurtsysteme auch wirklich einen signifikanten Vorteil erweisen und ob es Unterschiede zwischen den einzelnen Schnürungen, sowie dem Schuh ohne Schnürung gibt.
In dieser Studie wurden 5 Probanden rekrutiert. Im Biomechanik Labor wird jeder Proband einzeln gemessen. Dabei positionieren die messenden Personen einen Schuh an den Probanden. Anschließend wird ein Gurtsystem befestigt. Es handelt sich hierbei um 4 verschiedene Schnürungen, die jeweils einmal um den Schuh gewickelt werden. Die Gurtsysteme sind dieselben, jedoch an einer anderen Position von proximal nach distal entlang des Fußes positioniert. Zusätzlich werden die Bewegungen noch mit dem Schuh ohne das Schnürsystem durchgeführt. Es handelt sich hierbei um 5 verschiedene Bewegungen. Das Gehen, das Laufen, das Springen, sowie das Abstoppen aus dem Gehen und dem Laufen. Ziel dabei ist es die horizontale Bewegung der Ferse nach vorne relativ zur Sohle, sowie die Verschiebung der Ferse relativ zur Sohle in vertikaler Richtung zu untersuchen und rauszufinden, ob es einen grundlegenden Unterschied zwischen den einzelnen Schnürungen gibt. Die einzelnen Messwerte beschreiben den Abstand zwischen dem Marker an der Ferse sowie auf dem Schuh, die gemeinsam ein Koordinatensystem aufspannen.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Abstoppen aus dem Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D3, D3 und D4, sowie D3 und Ohne, signifikant.
Die Messwerte der maximalen vertikalen Fersenbewegung bei der Bewegung Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und Ohne, D2 und Ohne, D3 und Ohne, sowie D4 und Ohne, signifikant.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Laufen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D4, sowie D3 und Ohne, signifikant.
Zu den Messungen Abstoppen aus dem Gehen MVF, Abstoppen aus dem Laufen MHF, Gehen MHF, Laufen MVF, Springen MHF und Springen MVF zeigt das Ergebnis des Friedmann Tests einen niedrigeren Wert als den Kritische Wert von 9,49. Somit haben diese Messungen untereinander keine Signifikanz und werden somit nicht für den Vorzeichentest verwendet.
Die Verletzung des Sprunggelenks ist eine der häufigsten Verletzungen bei vielen Sportarten. Um diese Verletzungen zu verringern und zu verhindern, werden immer neuere Gelenkschutzarten oder Schuhe entwickelt. Dafür sind vor allem Dehnungen am Schuhobermaterial interessant, für die es noch keine Studie gegeben hat.
Das Ziel dieser Arbeit ist es, eine Studie im Motion Capture Labor der Hochschule Offenburg durchzuführen und die maximale Dehnungen bzw. Längenänderungen im Vor- und Mittelfußbereich bei einem Schuh mit elastischem Obermaterial zu bestimmen. Dabei sollen auch die vertikale Kraft und die Zeitpunkte der maximalen Längenänderung gemessen werden.
Die Studie wurde mit 22 Probanden durchgeführt und es wurden eine statische Aufnahme und acht Bewegungen aufgenommen. Die relevanten Bewegungen für diese Arbeit sind Laufen, Gehen, Abstoppen aus schnellem Laufen und Abstoppen aus Gehen. Dabei wurde ein Motion Capture System und eine Kraftmessplatte genutzt, bei der die Probanden mit dem linken Fuß auftreten mussten. Der Vorfußbereich war mit fünf Markern und der Mittelfußbereich mit sieben Markern besetzt, die jeweils eine Querlinie über den Fuß bildeten. Die Kameras des Motion Capture Systems haben das reflektierende Infrarotlicht der Marker aufgenommen und das System die 3D-Daten gespeichert. Mit diesen Daten wurden alle Ergebnisse berechnet.
Es wurden hohe maximale Längenänderungen und vertikale Kräfte beim Abstoppen aus schnellem Laufen gefunden. Außerdem weisen Laufen und Gehen eine sehr niedrige vertikale Kraft beim Mittelfußbereich auf. Die Zeitpunkte der maximalen Längenänderungen sind für den Vor- und Mittelfußbereich bei jeder Bewegung sehr ähnlich. Der Vorfußbereich dehnt maximal am Anfang jeder Bewegung bzw. am Anfang des Auftretens des Fußes, während der Mittelfußbereich am Ende jeder Bewegung maximal dehnt.
Ein Testsystem zum Prüfen neuer Komponenten elektromagnetischer Positionsmesssysteme soll durch eine Eigenkalibrierung des gesamten Systems stetig auf seine Genauigkeit geprüft werden, sodass nur noch eine periodische Rekalibrierung des Referenzgerätes erforderlich ist. Mittels Signal-Routing Software soll über die nationale Instrumentenkarte PCIe-6509 des Computers Spannungssignale an eine Hardware Under Test geleitet werden. Über diese Signale können Transistoren auf der Hardware angesteuert werden, die jeweils einem Relais Spannung übergeben können. Je nachdem welches Relais durchgeschalten werden soll, kann der Messwiderstand des gesamten Testsystems oder das Testsystems kalibriert werden. Um tatsächlich Kalibrierungen durchzuführen, wird eine Software erstellt. Mit der Software können die zu benutzenden Gerätschaften eingelesen und über eine Benutzeroberfläche eine Toleranzprüfung der Komponenten vollzogen werden. Hier gilt es eine Toleranzprüfung für den Messwiderstand zu erstellen und den Code dann auf Komponenten des Testsystems zu erweitern. Dafür wird ein kalibriertes Referenzmessgerät benötigt. Dabei wird ein Digitalmultimeter DAQ6510 verwendet, das über ein Multiplex Modul 7708 mit der Hardware verbunden wird. Um später Komponenten des Testsystems wie Frequenz kalibrieren zu können, wird ebenfalls ein Funktionsgenerator integriert und die Software-Codes darauf erweitert. Besteht das Grundkonzept, werden Funktionstests mit einer Messsystemanalyse erbracht und die Leistungsfähigkeit des Konstruktes beurteilt. Anschließend können neue Entwicklungsansätze und Optimierungskonzepte für weitere Abschlussarbeiten erstellt werden.
Die vorliegende Abschlussarbeit wurde intern an der Hochschule Offenburg angefertigt. Gegenstand der Untersuchung ist der Einsatz von cloudbasierten Business-Intelligence-Systemen in der Lehre.
Die Arbeit befasst sich zu Beginn mit der Anbindung einer externen Datenquelle in SAP Data Warehouse Cloud (DWC). Diese basiert auf einer relationalen Datenbank. Hierfür wer- den drei unterschiedliche Lösungen untersucht und miteinander verglichen. Außerdem werden Lernszenarien für die Arbeit mit der SAP Analytics Cloud (SAC) entworfen. Die Lernszenarien beinhalten jeweils ein Vertriebsdashboard, welches zuvor konzipiert und in SAP Analytics Cloud (SAC) implementiert wird. Die Dashboards sollen durch das Absolvieren von Lernszenarien durch Studierende an der Hochschule Offenburg unter Einhaltung von Prinzipien guter Visualisierung nachgebaut werden. Beide Produkte von SAP sind momentan Teil von Laboren an der Hochschule Offenburg, um Prinzipien von Business Intelligence (BI) praktisch anzuwenden. Mit Hilfe von SAP Data Warehouse Cloud (DWC) wird ein Datenmodell entworfen. Dieses wird in SAP Analytics Cloud (SAC) verwendet, um die Daten zu visualisieren. Die Grundlage für die Arbeiten bilden die Daten der Global Bike Group. Hierbei handelt es sich um eine Referenzfirma von SAP, die es ermöglicht, anhand von geschäftlichen Testdaten einen Eindruck von den Funktionen der SAP-Produkte zu erlan- gen.
Die Arbeit orientiert sich an zwei Forschungsfragen. Die erste Forschungsfrage behandelt die Anbindung einer Datenquelle in SAP Data Warehouse Cloud (DWC). Die zweite Forschungsfrage betrifft den Entwurf von Lernszenarien mit unterschiedlichem Umfang und unterschiedlicher Zielgruppe in SAP Analytics Cloud (SAC). Beide Fragen konnten erfolg- reich beantwortet werden. Die Ziele der Arbeit wurden erreicht
Das Ziel ist es, einen Workflow zu erstellen, mit dem Produkte von Kunden im 3D-Format aufbereitet und in einer webbasierten Echtzeit-360°-Anwendung zur Schau gestellt werden. Dabei können Betrachter mit dem Produkt interagieren und sich darüber informieren.
Dabei soll sich der Workflow auf den 3D-Artist richten und der Aufwand des Entwicklers möglichst minimiert werden.
Mit dem Öffnen der Webseite wird eine ThreeJS-Anwendung geladen. Die Anwendung enthält eine Szenendatei, in welcher sich eine GLB-Datei (Graphics Language Binary) des 3D-Modells befindet. Diese Datei wurde in 3DsMax, einem gängigen 3D-Programm, aufbereitet und exportiert. Neben der GLB-Datei enthält die Webseite ein Lichtsetting und ein Environment mit separatem Background.
This book, now in its third, completely revised and updated edition, offers a critical approach to the challenging interpretation of the latest research data obtained using functional neuroimaging in whiplash injury. Such a comprehensive guide to recent and current international research in the field is more necessary than ever, given that the confusion regarding the condition and the medicolegal discussions surrounding it have increased further despite the publication of much literature on the subject. In recent decades especially the functional imaging methods – such as single-photon emission tomography, positron emission tomography, functional MRI, and hybrid techniques – have demonstrated a variety of significant brain alterations. Functional Neuroimaging in Whiplash Injury - New Approaches covers all aspects, including the imaging tools themselves and the various methods of image analysis. Details on biomechanics, including the finite element method and facts on historical whiplash experiments and crash tests have now been added to this new edition. The book will continue to help physicians, patients and their relatives and friends, and others to understand this condition as a disease.
Purpose: Participation and accessibility issues faced by gamers with multi-sensory disabilities are themes yet to be fully understood by accessible technology researchers. In this work, we examine the personal experiences and perceptions of individuals with deafblindness who play games despite their disability, as well as the reasons that lead some of them to stop playing games.
Materials and methods: We conducted 60 semi-structured interviews with individuals living with deafblindness in five European countries: United Kingdom, Germany, Netherlands, Greece and Sweden.
Results: Participants stated that reasons for playing games included them being a fun and entertaining hobby, for socialization and meeting others, or for occupying the mind. Reasons for stop playing games included essentially accessibility issues, followed by high cognitive demand, changes in gaming experience due their disability, financial reasons, or because the accessible version of a specific game was not considered as fun as the original one.
Conclusions: We identified that a considerable number of individuals with deafblindness enjoy playing casual mobile games such as Wordfeud and Sudoku as a pastime activity. Despite challenging accessibility issues, games provide meaningful social interactions to players with deafblindness. Finally, we introduce a set of user-driven recommendations for making digital games more accessible to players with a diverse combination of sensory abilities.
IMPLICATIONS FOR REHABILITATION
- Digital games were considered a fun and entertaining hobby by participants with deafblindness. Furthermore, participants play games for socialization and meeting others, or for occupying the mind.
- Digital games provide meaningful social interactions and past time to persons with deafblindness.
- On top of accessibility implications, our findings draw attention to the importance of the social element of gaming for persons with deafblindness.
- Based on interviews, we introduce a set of user-driven recommendations for making digital games more accessible to players with a diverse combination of sensory abilities.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
Due to the increasing aging of the population, the number of elderly people requiring care is growing in most European countries. However, the number of caregivers working in nursing homes and on daily care services is declining in countries like Germany or Italy. This limits the time for interpersonal communication. Furthermore, as a result of the Covid-19 pandemic, social distancing during contact restrictions became more important, causing an additional reduction of personal interaction. This social isolation can strongly increase emotional stress. Robotic assistance could contribute to addressing this challenge on three levels: (1) supporting caregivers to respond individually to the needs of patients and residents in nursing homes; (2) observing patients’ health and emotional state; (3) complying with high hygiene standards and minimizing human contact if required. To further the research on emotional aspects and the acceptance of robotic assistance in care, we conducted two studies where elderly participants interacted with the social robot Misa. Facial expression and voice analysis were used to identify and measure the emotional state of the participants during the interaction. While interpersonal contact plays a major role in elderly care, the findings reveal that robotic assistance generates added value for both caregivers and patients and that they show emotions while interacting with them.
Reibung und Verschleiß in tribologischen Kontakten verursachen knapp ein Viertel des weltweiten Primärenergiebedarfs. Dies stellt ein enormes Potential zur Minderung von Treibhausgasemissionen und Absenkung von Kosten dar. Aufgrund dessen ist die Optimierung von Reibkontakten ein Kernthema der Tribologie. Hierfür ist der Supraschmierzustand, bei welchem die Reibung aufgrund spezieller Schmiermechanismen annähernd vollständig verschwindet (Reibungszahl 𝜇 ⩽ 0,01), von besonderem Interesse. Die jährlich steigende Anzahl an Veröffentlichungen belegt das hohe wissenschaftliche Interesse an dem Thema. Bisher konnte Supraschmierung jedoch nur für Modellsysteme nachgewiesen werden, das Übertragen auf technische Systeme ist noch nicht gelungen.
Ziele dieser Arbeit waren der Nachweis von Supraschmierung in einem punktförmigen Modellkontakt und die Überführung in den Flächenkontakt eines realen Gleitlagers durch Verwendung von technischer Keramik und/oder DLC-Beschichtungen.
Hierfür wurde zunächst das Schmierverhalten einiger Modellschmierstoffe in einem Stahl/a-C:H:Si- Kontakt untersucht. Die niedrigsten Reibwerte wurden bei Verwendung von Glycerol erzielt. Daher wurde Glycerol als Modellschmierstoff für weitere tribologische Untersuchungen an unterschiedlichen Oberflächen (a-C:H, ta-C, Keramik) verwendet.
Die besten Ergebnisse hinsichtlich Reibung und Verschleiß wurden mit technischer Keramik erzielt. Mit einer Stahl/Si3N4-Paarung wird bei 80 °C Supraschmierung für Gleitgeschwindigkeiten von 0,007 𝑚/𝑠 bis 0,965 𝑚/𝑠 nachgewiesen. Als kleinste Reibungszahl wird 𝜇 = 0,0015 gemessen.
Die geringste Reibung in einem Stahl/DLC-Kontakt wird mit einer a-C:H:Si-Schicht erreicht. Hierbei konnte Supraschmierung bei 80 °C für Gleitgeschwindigkeiten von 0,029𝑚/𝑠 bis 0,484𝑚/𝑠 nachgewiesen werden. Die kleinste Reibungszahl für das System beträgt 𝜇 = 0,0063.
Der Nachweis von Supraschmierung gelingt für anwendungsnahe Betriebsparameter, dies stellt einen Fortschritt gegenüber den meisten Literaturdaten dar. Um die Übertragbarkeit auf technische Systeme zu demonstrieren,werden die besten identifizierten Oberflächen und Schmierstoffe auf einem anwendungsnahen Gleitlagerprüfstand untersucht. Durch Verwendung von a-C:H:Si-beschichteten Wellen und Glycerol als Schmierstoff kann der Reibwert bei Raumtemperatur von 𝜇 = 0,965 im Referenzsystem auf 𝜇 = 0,038 gesenkt werden.
Um die Arbeit fortzusetzen, werden die identifizierten Systeme in axiallagerähnlicher Anordnung (Gleitring/Gleitpad) untersucht.
Um gezielt DLC-Schichten zu entwickeln, sind Reibungssimulationen notwendig. Im nächsten Schritt sollen umfassende Oberflächenanalysen durchgeführt werden, um die nötige Datenbasis für die Simulation zu erstellen.
Towards a Formal Verification of Seamless Cryptographic Rekeying in Real-Time Communication Systems
(2022)
This paper makes two contributions to the verification of communication protocols by transition systems. Firstly, the paper presents a modeling of a cyclic communication protocol using a synchronized network of transition systems. This protocol enables seamless cryptographic rekeying embedded into cyclic messages. Secondly, we test the protocol using the model checking verification technique.
Today, Additive Manufacturing (AM) is an important part of teaching for the education of future engineers. Therefore, a variety of approaches have been developed in recent years on how to bring the design for additive manufacturing (DfAM) into university teaching. In a detailed literature review, the advantages and disadvantages of the previous approaches are considered and analysed. Based on this, an extended approach is presented in which students analyse and optimize a given product with respect to additive manufacturing. In doing so, the students have to solve challenging tasks in optimization in product development with the help of methodical approaches and practically implement their developed solutions with state-of-the-art additive processes. To work on this task, the students have two different 3D printers at their disposal, which work with different processes and materials. Thus, the students learn to adapt the design to different manufacturing processes and to consider the restrictions of different materials. The assessment of the results from this course is done through feedback and a written survey.
For some years now, additive manufacturing (AM) has offered an alternative to conventional manufacturing processes. The strengths of AM are primarily the rapid implementation of ideas into a usable product and the ability to produce geometrically complex shapes. It has also significantly advanced the lightweight design of products made of plastic. So far, the strength of printed components made of polymers is previously very limited.
Recently, new AM processes have become available that allow the embedding of short and also long fibers in polymer matrix. Thus, the manufacturing of components that provide a significant increase in strength becomes possible. In this way, both complex geometries and sophisticated applications can be implemented. This paper therefore investigates how this new technology can be implemented in product development, focusing on sports equipment. An extensive literature research shows that lightweight design plays a decisive role in sports equipment. In addition, the advantages of AM in terms of individualized products and low quantities can be fully exploited.
An example of this approach is the steering system for a seat sled used by paraplegic athletes in the Olympic discipline of Nordic paraskiing. A particular challenge here is the placement and alignment of the long carbon fibers within the polymer matrix and the verification of the strength by means of Finite-Element-Analysis (FEA). In addition, findings from bionics are used to optimize the lightweight design of the steering system. Using this example, it can be shown that the weight of the steering system can be drastically reduced compared to conventional manufacturing. At the same time, a number of parts can be saved through function integration and thus the manufacturing and assembly effort can be reduced significantly.
This paper presents an extended version of a previously published Bayesian algorithm for the automatic correction of the positions of the equipment on the map with simultaneous mobile object trajectory localization (SLAM) in underground mine environment represented by undirected graph. The proposed extended SLAM algorithm requires much less preliminary data on possible equipment positions and uses an additional resample move algorithm to significantly improve the overall performance.
Due to its potential in improving the efficiency of energy supply, smart energy metering (SEM) has become an area of interest with the surge in Internet of Things (IoT). SEM entails remote monitoring and control of the sensors and actuators associated with the energy supply system. This provides a flexible platform to conceive and implement new data driven Demand Side Management (DSM) mechanisms. The IoT enablement allows the data to be gathered and analyzed at requisite granularity. In addition to efficient use of energy resources and provisioning of power, developing countries face an additional challenge of temporal mismatch in generation capacity and load factors. This leads to widespread deployment of inefficient and expensive Uninterruptible Power Supply (UPS) solutions for limited power provisioning during resulting blackouts. Our proposed “Soft-UPS” allows dynamic matching of load and generation through a combination of managed curtailment. This eliminates inefficiencies in the energy and power value chain and allows a data-driven approach to solving a widespread problem in developing countries, simultaneously reducing both upfront and running costs of conventional UPS and storage. A scalable and modular platform is proposed and implemented in this paper. The architecture employs “WiMODino” using LoRaWAN with a “Lite Gateway” and SQLite repository for data storage. Role based access to the system through an android application has also been demonstrated for monitoring and control.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Um ein neues System zur Korrektur des Tool Center Points des Roboterwerkzeugs zu finden, wurde diese Bachelorarbeit von der Firma Badische Staal Enginering angeboten. Das Ziel ist es, die Position und den Winkel des TCP1 des an den Roboter angebrachten Tools zu korrigieren, basierend auf dem Messergebnis des TCP. Für diese Arbeit wurde eine Roboterstation bereitgestellt, die auch mit einer Triangulationskamera ausgestattet war.
Nach einer Analyse und Entwicklung des Systems wurde ein Programm erstellt, das Bewegungen, Messungen und Berechnungen kombiniert. Sobald dieses Korrektursystem entwickelt ist, wird eine Testbasis an die Projektbedingungen angepasst, um seine Zuverlässigkeit und Wiederholbarkeit unter realen Bedingungen zu testen. Diese Arbeit wird in der Testumgebung der Halle der BSW2 Anlagenbau und Ausbildung GmbH durchgeführt.
Diese Thesis umfasst mit dem hybriden Rendering, Headless CMS und Progressive Web Apps drei moderne technologische Ansätze aus dem Bereich der Webentwicklung. Ziel der vorliegenden Arbeit ist es dabei, auf Basis eines Einblicks in die Grundlagen des modernen Web Developments zunächst die drei Konzepte einzeln zu betrachten, zu analysieren, Vor- und Nachteile herauszustellen und deren technologische Möglichkeiten zu erklären, um schließlich auch das Zusammenspiel dieser, derzeit relevanten Entwicklungsansätze im Hinblick auf die zugrunde liegende Forschungsfrage zu untersuchen: Ist es möglich verschiedene, aktuelle Trends der Webentwicklung sinnvoll miteinander zu kombinieren und so auf Basis eines Headless CMS, einem Frontendframework für verschiedene Renderingmethoden und der Idee der Progressive Web Apps eine performante und benutzerfreundliche protoytpsiche Web-applikation zu implementieren? Um dies zu überprüfen, wurde auf den zuvor erarbeiteten theoretischen Grundlagen mit MovieRec eine WebApp als interaktives Filmportal konzipiert und schlussendlich mit einem entsprechenden Technologiestack implementiert. Diese Schritte sowie die Umsetzung der Kernfunktionen der Anwendung wurden dabei anhand von Codeausschnitten erklärt.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
Memento mori!
(2022)
Das plötzliche Ende des romantischen Komponisten Felix Mendelssohn Bartholdy (1809–1847) gibt uns auch heute noch Rätsel auf. Einiges deutet auf ein rupturiertes zerebrales Aneurysma mit konsekutiver Subarachnoidalblutung hin. Das Quellenmaterial zu den Symptomen seiner Todeskrankheit wird in dieser Arbeit ausführlich vorgestellt und diskutiert. Eine mögliche familiäre Disposition im Sinne eines Ehlers-Danlos-Syndroms Typ IV wird erörtert.
Dieser Beitrag beschreibt, wie mit Campbells Schema der „Heldenreise“ personalisierte Narrative der obersten Führungsebene aufgebaut werden können, um für interne und externe Stakeholder eine Orientierung zu bieten und die Unternehmenskultur bewusst zu prägen und zu beeinflussen. Das Beispiel der Preisträgerportraits des Manager Magazins zeigt, dass diese Methode breite Anwendung findet und dabei auch unterschiedliche funktionale Zuschreibungen der Führungsrolle erfolgen können.
are you okay?
(2022)
Die Frage “Wie geht es dir?” ist in unserer Gesellschaft eine Höflichkeitsfloskel geworden. Die meisten Menschen antworten mit einem “Gut, und selbst?” und dann wird über etwas anderes gesprochen. Der Großteil redet nicht allzu oft darüber, was sie wirklich beschäftigt. Aber warum eigentlich nicht? Ist es Scham, Angst vor Ablehnung oder einfach nur „gutes“ Benehmen?
Besonders negative Gefühle, wie Wut und Trauer haben in unserem Leben wenig Platz. Sie werden als nicht gut betrachtet und alles was nicht “gut” ist, sollte laut der Gesellschaft lieber versteckt werden. Dieses Buch steht für mehr Gefühlsbewusstsein und soll einen offeneren Austausch mit sich selbst und anderen anstoßen. Denn auch negative Gefühle sollen einen Platz bekommen und können sanftmütig und bewusst gelebt werden.
Dieses Buch ist eine bunte Mischung aus ausgedachten aber realitätsnahen Geschichten vom Scheitern, Texten von Musikern und Bildern zum Träumen und Interpretieren. Es scheint zuerst ungewöhnlich, ausschließlich deutsche Rapper statt alte Philosophen zu zitieren. Doch die Hip-Hop-Kultur hat einiges zu sagen und bringt alltägliche Probleme und Ängste unverblümt auf den Punkt. Manchmal müssen wir nur etwas genauer hinhören.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Zu Beginn dieser Arbeit wurde das Problem beschrieben, dass das Ersetzen von einzelnen Modulen innerhalb TYPO3s durch React bisher nicht möglich war. Dadurch ergab sich die Aufgabe eine Lösung zu finden, mit der die Vorteile von React in TYPO3 eingebracht werden können, möglichst ohne große Veränderungen und Aufwände zu betreiben. Als zusätzliche Anforderung wurde definiert, dass React in TypeScript geschrieben werden soll.
Um dem Leser dieser Arbeit die Möglichkeit zu geben, den angefertigten Code verstehen und interpretieren zu können, wurden zunächst Grundlagen in TypeScript, React und TYPO3 geschaffen. Daraufhin wurde der Ist-Stand beschrieben, welcher ein simples TYPO3-Plugin beschreibt. Dies wurde für die grundsätzliche Umwandlung in React möglichst simpel gehalten, war dennoch mit einigen Grundsätzen wie AJAX und Rerendering ausgestattet, um gewisse Vorteile und Problematiken bei der Umsetzung aufzeigen zu können. Daraus ergab sich ein Soll-Stand, welcher zugleich weitere Anforderungen an die spätere Lösung definierte.
Um ein mögliches Lösungskonzept erarbeiten zu können wurden im Kapitel „Stand der Technik“ 2 verwandte Arbeiten und Möglichkeiten vorgestellt. Daraufhin wurden die beiden zu entwickelnden Plugins beschrieben, zunächst das Dummy-TYPO3-Plugin, gefolgt vom in React entwickelten Äquivalent.
In Kapitel 8 wurde ein Konzept erstellt und daraufhin die Umsetzung Schritt für Schritt durchgeführt. Dabei konnte erfolgreich React in TYPO3 aufgesetzt und zur Entwicklung genutzt werden. Das Dummy-Plugin konnte ohne größere Probleme umgesetzt werden und zeigte somit eine mögliche Lösung für die Umwandlung von TYPO3 zu React auf. Um diese Lösung zu validieren, wurde im Folgekapitel das ProofOfConcept entwickelt. Dabei handelte es sich um ein produktiv eingesetztes Projekt, welches auf einer älteren Version basiert und verschiedene Anforderungen mitbrachte. Dies wurde nach Vorstellung des Projektes und Lösungskonzept Schritt für Schritt umgesetzt.
Es ist von großem Nutzen, wenn energieeffiziente Leichtbaufahrzeuge einen effizienten und leichten Antrieb besitzen. Der aktuell verbaute Hatz-Dieselmotor des Schluckspecht S5 erfüllt diese Anforderungen nur teilweise. Aus diesem Grund wird der Motor zukünftig durch einen leichteren und effizienteren ethanolbetriebenen Ottomotor ersetzt. Da der Versuchsmotor keineswegs an die Anforderungen des Shell Ecomarathons angepasst ist und bis auf dessen Hubraum von 125 cm³ kaum Motordaten vorhanden sind, gilt es den Versuchsmotor verbrauchsoptimal zu applizieren. Die vorliegende Abschlussarbeit befasst sich mit den experimentellen Untersuchungen und einigen Optimierungen des ethanolbetriebenen Ottomotors am Motorenprüfstand. Um in Zukunft die Durchführung der Untersuchungen zu gewährleisten und den bestmöglichen Betrieb des Versuchsmotors zu garantieren, ist es elementar alle optimierten Bauteile für den Kraftstoff Ethanol auszulegen. Neben der Überarbeitung des Kraftstoffsystems liegt das Hauptaugenmerk hierbei auf der Optimierung des Kolbens und der Nockenwelle. Durch den optimierten Kolben soll die Verdichtung des Verbrennungsmotors erhöht und durch die optimierte Nockenwelle die Ventilsteuerzeiten perfektioniert werden. Demnach besteht die Aufgabe die Bauteile zu besorgen, die Fertigung zu koordinieren und den Umbau der optimierten Komponenten zu realisieren. Des Weiteren erfolgt die Konstruktion einer Kupplung, welche in Zukunft zwischen Verbrennungsmotor und Elektromotor montiert werden soll. Ein zentrale Tätigkeit ist die Fehlerbeseitigung am Motorenprüfstand, sodass der Versuchsalltag reibungslos abläuft. Die letzte Tätigkeit umfasst die Durchführung der experimentellen Untersuchungen des Verbrennungsmotors sowie das Anlegen von Kennfeldern, welche einen effizienten Motorlauf garantieren. Das Betriebskennfeld hinsichtlich der Last und Drehzahl wird mittels verschiedener Einstellparameter appliziert. Zur Unterstützung dienen dabei die Kalibrierungssoftware EcoCal und die Indizierungssoftware IndiCom.
Im Rahmen dieser Arbeit wird die Fertigung der beiden vorderen Radkästen des Fahrzeugs einschließlich konstruktiver Auslegung und Berechnung aufgezeigt. Zu Beginn der Bachelorthesis ist bereits eine Vorauslegung der Radkasten-Konstruktion auf Basis der Strömungsoptimierung vorhanden, welche für die Auslegung und Fertigung dieser Arbeit herangezogen wird.
Über eine geeignete Konzeptfindung hinsichtlich den an die Radkästen gestellten Anforderungen und über die fertigungsgerechte Auslegung des auf Leichtbau getrimmten Bauteils wird demzufolge die eigentliche Fertigung mittels CFK-Prepreg erläutert.
Die Konzeptionsphase beinhaltet nach einer Wettbewerbsanalyse sowie dem Belehren über diverse Analogien die generelle Lösungsfindung des Konzepts über eine Nutzwertanalyse.
Im Bereich der Konstruktion wird die vorhandene Vorauslegung weiter optimiert und zusammen mit den benötigten Aussparungen sowie den Befestigungselementen für den Verbau beschrieben. Hinsichtlich Konstruktion wird zudem eine gewisse Bauteilfestigkeit vorausgesetzt, die über eine Modalanalyse abgesichert wird. Betreffend Befestigung werden 3D-Druck-Teile modelliert und eingesetzt. Zur Umsetzung der Befestigung an der Radnabe wird darüber hinaus die Radverschraubung so überarbeitet, dass eine simultane Befestigung des Radkastens und des Rades ermöglicht wird.
Für die Fertigung der Radkästen wird auf die CFK-Prepreg Technologie zurückgegriffen, für welche im Vorfeld diverse Versuchs- und Einstellparameter geklärt werden. Zu den Parametern zählen in erster Linie die angefahrenen Druck- und Temperaturwerte für die Aushärtung sowie ein präziser Aufbau der einzelnen Lagen für die Prepreg-Fertigung.
Konstruktiv besteht ein Radkasten aus zwei Hälften, die im Anschluss der Fertigung mittels geeigneter Verbindungsteile und über das Verfahren des Nasslaminierens zusammengefügt werden.
Den Abschluss der Bachelorthesis bildet das Einpflegen des vollständigen CAD-Modells sowie der Verbau der beiden Radkästen am Gesamtfahrzeug.
Musik und Emotionen
(2021)
Um das Auslösen von Emotionen durch Musik näher zu verstehen, umfasst diese Arbeit verschiedene Aspekte, welche die Thematik aus mehreren Perspektiven beleuchtet. Das Ziel ist demnach, der Ursache dieser Korrelation auf den Grund zu gehen und herauszufinden, welchem Auslöser die Entwicklung von Emotionen während dem Musizieren oder Musikhören zu Grunde liegt. Um dies zu erreichen, werden theoretische Ansätze und Ergebnisse von Experimenten bzw. Studien erläutert. So zeigt sich, dass einige Faktoren Einfluss auf diese Verbindung haben. Mit bestimmter Musik verknüpfte Erinnerungen und Erfahrungen sowie bestimmte Assoziationen stellen eine Ursache dar. Daneben spielen ebenfalls musikbezogene Komponenten, wie nicht erfüllte Erwartungen und gewisse Ausprägungen innerhalb des Stücks, eine Rolle beim Hervorrufen von Emotionen. Gleichzeitig sind bestimmte Aktivitäten im Gehirn beteiligt. Dies zeigt, dass eine Korrelation von Musik und Emotionen vorhanden ist und wissenschaftlich nachgewiesen werden kann. Es liegen jedoch mehrere Kriterien vor, die eine Entwicklung von Emotionen durch Musik begründen, sodass nicht ermittelt werden kann, welcher genaue Faktor in welchem Verhältnis dazu steht. Es stellte sich heraus, dass dieses Erlebnis rein subjektiv wahrgenommen wird und individuell variiert.
Im Weiteren beinhaltet diese Arbeit einen praktischen Teil, der die Produktion und Emotionalität dreier Musikstücke integriert. Hier wird die emotionale Komponente der Stücke aus Sicht des Produzenten beschrieben. Konkret wird der Aufbau der Stücke wiedergegeben sowie die vom Produzenten intendierten und beim Hörer ausgelösten Emotionen. Anhand dieses Teils kann die variierende subjektive Wahrnehmung gezeigt werden, da jeder Hörer diese Stücke auf eine eigene Art und Weise beurteilt.
Aufgabe dieser Arbeit ist es, eine Fertigungskombination aus zwei unterschiedlichen Fügetechniken zu untersuchen. Bei den beiden Fügetechniken handelt es sich einmal um das Ultraschallschweißen von Polyamid und das Fügen einer Schneidklemmverbindung, kurz SKV. Diese beiden Verfahren sollen in einer Anlage kombiniert werden. Die sogenannte Schneidklemmverbindung ist eine Kontaktiertechnik aus dem Elektronikbereich, welche seit einigen Jahren verstärkt im Bereich Automotive eingesetzt wird. Die Kombination dieser beiden Verfahren soll es ermöglichen, eine höhere Produktqualität zu erzeugen und Maschinen- sowie Fertigungskosten zu senken.
Im Fokus dieser Arbeit steht die Schneidklemmverbindung. Die Energie, welche durch das Ultraschallschweißen der Fügepartner in das Bauteil gelangt, kann dafür sorgen, dass sich die Kontaktierung der Schneidklemme verschlechtert. Dieser Einfluss soll durch verschiedene Messungen sichtbar und bewertbar gemacht werden. Zusätzlich wird die Schweißnaht der Fügepartner untersucht, um die Vorteile und Nachteile gewisser Designkriterien besser einschätzen zu können.
Inhaltlich wird das Unternehmen Robert Bosch GmbH vorgestellt sowie die Aufgabenstellung erläutert. Das Kapitel 2 dieser Arbeit beinhaltet Informationen bezüglich der in der Fertigung bisher verwendeten Prozesse und beschäftigt sich außerdem mit den Grundlagen zur Untersuchung dieses neuen Kombinationsprozesses sowie mit den bisher vorliegenden Ergebnissen. Das darauffolgende Kapitel legt dar, wodurch der untersuchte Prozess kostensparend sein könnte. Weiterhin befasst sich dieses Kapitel mit der ultraschallgerechten Konstruktion, den verwendeten Schweißanlagen und den geforderten Anforderungen. Kapitel 4 beschreibt, wie die Prüfkörper der zwei Messreihen präpariert und bearbeitet werden, um neue Erkenntnisse des Verbundprozesses hinsichtlich der Schneidklemme zu erhalten. Die tatsächlichen Messungen und deren Auswertung finden sich im Kapitel 5. Die beiden Messreihen werden getrennt voneinander betrachtet und ausgewertet. In Kapitel 6 werden die Ergebnisse der Prüf- und Testverfahren diskutiert und bewertet. Das letzte und abschließende Kapitel fasst die gesamte Arbeit nochmals zusammen und gibt einen Ausblick in Richtung neuer Prüfkörper und deren Konstruktion.
Das Team Schluckspecht der Hochschule Offenburg fährt seit 1998 bei dem Wettbewerb Shell-Eco-Marathon beachtliche Erfolge mit Leichtbaufahrzeugen ein. Seit der ersten Teilnahme an diesem Wettbewerb, werden die Fahrzeuge kontinuierlich weiterentwickelt und den von der Rennleitung vorausgesetzten Bedingungen an-gepasst. Im Jahr 2020 soll der mittlerweile schon 17 Jahre alte Schluckspecht 3 durch den neu entwickelten Schluckspecht 6 ersetzten werden.
Zu Beginn dieser Bachelorthesis liegt bereits eine gefertigte Negativform des Monocoques aus glasfaserverstärktem Kunststoff vor. Das Ziel der Bachelorthesis ist die Fertigung des Monocoques aus kohlenstofffaserverstärktem Kunststoff. Nach der Recherche zu den theoretischen Grundlagen erfolgen das Planen und Durchführen von Versuchen. Die Versuche dienen zur Lösungsfindung der zuvor festgelegten Aufgabenstellungen für die Fertigung des Monocoques. Es werden Versuche zu den im Fahrzeug zu platzierenden Inlays, der Fensterbefestigung, den Ab-schusskanten und Übergängen am Fahrzeug und dem Kabelkanal durchgeführt. Anhand der Versuchsergebnisse wird die Zielvariante für das zu fertigende Monocoque festgelegt. Alle relevanten festgelegten Maßnahmen müssen mit den im Projekt beteiligten Bauteilverantwortlichen abgeklärt werden. Die Bearbeitung der Negativform beinhaltet das Versteifen mit Holzstreben und eine Wärmebehandlung. Daraufhin werden zwei Backvorgänge zum Aushärten des Fahrzeugs durchgeführt. Abgeschlossen wird die Fertigung mit dem Finishing des Monocoques. Die Herausforderung dieses Projekts besteht darin, das angeeignete Wissen zunächst auf die Versuche und schlussendliche auf die Fertigung des gesamte Monocoque zu übertragen.