Refine
Year of publication
Document Type
- Master's Thesis (205) (remove)
Has Fulltext
- yes (205)
Is part of the Bibliography
- no (205)
Keywords
- IT-Sicherheit (9)
- E-Learning (7)
- Deep learning (6)
- Maschinelles Lernen (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Computersicherheit (4)
- Internet of Things (4)
- JavaScript (4)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (53)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (39)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34)
- Fakultät Wirtschaft (W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (5)
- INES - Institut für nachhaltige Energiesysteme (4)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (72)
- Open Access (32)
- Diamond (6)
Steroid hormones (SHs) are a rising concern due to their high bioactivity, ubiquitous nature, and prolonged existence as a micropollutants in water, they pose a potential risk to both human health and the environment, even at low concentrations. Estrogens, progesterone, and testosterone are the three important types of steroids essential for human development and maintaining multiorgan balance, are focus to this concern. These steroid hormones originate
from various sources, including human and livestock excretions, veterinary medications, agricultural runoff, and pharmaceuticals, contributing to their presence in the environment. According to the recommendation of WHO, the guidance value for estradiol (E2) is 1 ng/L. There are several methods been attempted to remove the SH micropollutant by conventional water and wastewater technologies which are still under research. Among the various methods, electrochemical membrane reactor (EMR) is one of the emerging technologies that can address the challenge of insufficient SHs removal from the aquatic environment by conventional treatment. The degradation of SHs can be significantly influenced by various factors when treated with EMR.
In this project, the removal of SH and the important mechanism for the removal using carbon nanotube CNT-EMR is studied and the efficiency of CNT-EMR in treating the SH micropollutant is identified. By varying different parameters this experiment is carried out with the (PES-CNTs) ultrafiltration membrane. The study is carried out depending upon the SH removal based on the limiting factor such as cell voltage, flux, temperature, concentration, and type of the SH.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Linux and Linux-based operating systems have been gaining more popularity among the general users and among developers. Many big enterprises and large companies are using Linux for servers that host their websites, some even require their developers to have knowledge about Linux OS. Even in embedded systems one can find many Linux-based OS that run them. With its increasing popularity, one can deduce the need to secure such a system that many personnel rely on, be it to protect the data that it stores or to protect the integrity of the system itself, or even to protect the availability of the services it offers. Many researchers and Linux enthusiasts have been coming up with various ways to secure Linux OS, however new vulnerabilities and new bugs are always found, by malicious attackers, with every update or change, which calls for the need of more ways to secure these systems.
This Thesis explores the possibility and feasibility of another way to secure Linux OS, specifically securing the terminal of such OS, by altering the commands of the terminal, getting in the way of attackers that have gained terminal access and delaying, giving more time for the response teams and for forensics to stop the attack, minimize the damage, restore operations, and to identify collect and store evidence of the cyber-attack. This research will discuss the advantages and disadvantages of various security measures and compare and contrast with the method suggested in this research.
This research is significant because it paints a better picture of what the state of the art of Linux and Linux-based operating systems security looks like, and it addresses the concerns of security enthusiasts, while exploring new uncharted area of security that have been looked at as a not so significant part of protecting the OSes out of concern of the various limitations and problems it entails. This research will address these concerns while exploring few ways to solve them, as well as addressing the ideal areas and situations in which the proposed method can be used, and when would such method be more of a burden than help if used.
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
AI-based Ground Penetrating Radar Signal Processing for Thickness Estimation of Subsurface Layers
(2023)
This thesis focuses on the estimation of subsurface layer thickness using Ground Penetrating Radar (GPR) A-scan and B-scan data through the application of neural networks. The objective is to develop accurate models capable of estimating the thickness of up to two subsurface layers.
Two different approaches are explored for processing the A-scan data. In the first approach, A-scans are compressed using Principal Component Analysis (PCA), and a regression feedforward neural network is employed to estimate the layers’ thicknesses. The second approach utilizes a regression one-dimensional Convolutional Neural Network (1-D CNN) for the same purpose. Comparative analysis reveals that the second approach yields superior results in terms of accuracy.
Subsequently, the proposed 1-D CNN architecture is adapted and evaluated for Step Frequency Continuous Wave (SFCW) radar, expanding its applicability to this type of radar system. The effectiveness of the proposed network in estimating subsurface layer thickness for SFCW radar is demonstrated.
Furthermore, the thesis investigates the utilization of GPR B-scan images as input data for subsurface layer thickness estimation. A regression CNN is employed for this purpose, although the results achieved are not as promising as those obtained with the 1-D CNN using A-scan data. This disparity is attributed to the limited availability of B-scan data, as B-scan generation is a resource-intensive process.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Im Rahmen dieser Masterarbeit soll ein Radträger für ein Leichtbaufahrzeug entwickelt werden. Dieser soll ein niedriges Gewicht sowie eine hohe Steifigkeit aufweisen und fertigbar sein.
Dabei wird über einen iterativen Prozess aus Simulation, Topologieoptimierung und Neukonstruktion ein neues Radträgerdesign entwickelt.
Zu Beginn der Arbeit wird auf die wissenschaftlichen Grundlagen eingegangen. Dabei spielen vor allem das Thema Leichtbau sowie die finite Elemente Methode eine Rolle. Es wird auf Prinzipien der Konstruktion eingegangen, um das Bauteil fertigungsgerecht und auch effizient zu gestalten.
Im nächsten Kapitel wird der aktuelle Stand der Technik genauer untersucht. Hierbei wird der Entwicklungsprozess der aktuellen Radträger-Varianten untersucht und diese mittels FEM nachgerechnet. Zuvor werden noch die für die Simulation benötigten wirkenden Kräfte berechnet und Plausibilitätstests durchgeführt, bei denen Computersimulationen mit realen Messwerten auf deren Richtigkeit überprüft werden.
In den letzten Kapiteln geht es um die Entwicklung des Radträgers. Hier werden einige Konzepte entwickelt und mittels FEM-Simulationen getestet. Durch den Einsatz von Topologieoptimierungen wird versucht, das Gewicht des Radträgers bei gleichbleibender Steifigkeit zu senken.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
Ein Sachcomic von Schlogger:
- Warum streiten wir?
- Welche gesellschaftlichen und psychologischen Probleme erschweren moderne Beziehungen?
- Wie streiten wir?
- Warum lohnt es sich Streiten zu lernen?
- Was ist Kommunikation und was kann dabei schief laufen?
- Wie streiten wir konstruktiver?
Diese Fragen versucht "STREIT[SAM]"anhand vieler grafischer Beispiele und Theorien wie z.B."Das Vier-Seiten-Modell" von Schulz von Thun, den "Axiomen zur Kommunikationspsychologie"
von Paul Watzlawick oder der Gewaltfreien Kommunikation nach Rosenberg zu beantworten.
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
E-Learning hat als ergänzendes Erlösmodell ein hohes Potenzial im Online-Journalismus, findet bisher allerdings wenig Beachtung. Insbesondere Garten- und Pflanzenthemen lassen sich aufgrund ihrer Praxisnähe gut über Onlinekurse vermitteln. Die Arbeit untersucht die Ansprüche der gartenjournalistischen Zielgruppe an einen entsprechenden Onlinekurs sowie an das dazugehörige Erlösmodell. Dazu gibt die Masterthesis theoretische Einblicke in die Themen Online-Journalismus, Erlösmodelle und E-Learning und betrachtet diese im Kontext der Erfolgsfaktoren von Onlinekursen. Neben der Themenrelevanz und dem Anbietervertrauen wurden die Motivierung und der Unterhaltungswert, Verständlichkeit und Praxisbezug sowie Betreuungsleistung und Kollaborationsmöglichkeiten als Erfolgsfaktoren ermittelt. Be- züglich des Erlösmodells stellen der Leistungsumfang sowie die Erlösform und Preisattraktivität ele- mentare Faktoren dar. Mit Hilfe qualitativer Sozialforschung am Beispiel der Zielgruppe von Mein schö- ner Garten wurden die Aspekte analysiert und deren Bedeutsamkeit bestätigt. Besonders die Wissens- vermittlung durch eine kompetente Lehrkraft, eine individuelle Betreuung, Live-Events und Community-Aspekte stellen einen Mehrwert gegenüber anderen gartenjournalistischen Angeboten dar. Jedoch unterscheiden sich die konkreten Ansprüche an die Gestaltung der Faktoren und die Gewichtung ihrer Relevanz ist abhängig vom Lerntyp. Das zeigt sich auch in einer variierenden Zahlungsbereitschaft, die wesentlich von den persönlichen Erwartungen und dem gebotenen Zusatznutzen abhängt. Individuelle Tarife und eine ergänzende Werbefinanzierung sind deshalb sinnvoll.
Um die Akzeptanz und Relevanz von Mailings zu steigern, ist es für Unternehmen wichtig, die Kundeninteressen möglichst gezielt anzusprechen. Bereits jetzt wird die E-Mail-Marketing Lösung Inxmail Professional zusammen mit Recommender Systemen eingesetzt, was das Erstellen und Versenden von E-Mails mit personalisierten Produktempfehlungen ermöglicht. Das notwendige Wissen für den Aufbau und den Betrieb dieser Recommender Systeme liegt dabei jedoch bei (externen) Technologie-Partnern, wodurch höhere Kosten und zusätzliche Abhängigkeiten für Inxmail und seine Kunden entstehen.
Mit dieser Arbeit wurde erforscht, was es für das Unternehmen Inxmail bedeutet, mit Open-Source-Software ein eigenständiges Recommender System aufzubauen und in die E-Mail-Marketing Lösung Inxmail Professional zu integrieren. Hierfür wird Inxmail Professional in einem typischen Kontext mit einem angebundenen Onlineshop System betrachtet. Das Recommender System soll anhand der Daten, die es aus dem Onlineshop System bekommt, individuelle Produktempfehlungen berechnen, um diese automatisiert beim Versand für jeden Empfänger abfragen und in die E-Mail integrieren zu können.
Auf Basis des Machine Learning Servers Harness und der integrierten Universal Recommender Engine wurde ein Recommender System aufgebaut.
Für die Integration des Onlineshop Systems Shopware wurde ein Plugin entwickelt, welches das Recommender System über alle relevanten Benutzeraktionen benachrichtigt. Die Inxmail Professional Integration basiert auf einem Webservice, der implementiert wurde, um die individuellen Produktempfehlungen für einen Kunden/Empfänger beim Recommender System abzufragen und mit den Detailinformationen zu den Produkten aus dem Onlineshop aufzubereiten.
Es konnte gezeigt werden, dass auf der Grundlage von Open-Source-Technologien ein eigenständiges Recommender System aufgebaut, evaluiert und in Inxmail Professional mit angebundenem Onlineshop System integriert werden kann. Der Gesamtprozess für die Evaluation des Systems wurde weitestgehend automatisiert, wodurch viele manuelle und zeitintensive Schritte über Steuerungsskripte abgehandelt werden können. Das System erlaubt die reibungslose Verarbeitung großer Datenmengen (> 19.000.000 Events) auf einem einzelnen Server. Die Vorhersagequalität wurde anhand realer Interaktionsdaten aus öffentlichen E-Commerce-Datensätzen mit Offline-Tests gemessen. Dadurch wurde sichergestellt, dass das System in der Lage ist, bei stetig wachsender Eventmenge zuverlässige aufempfehlungen zu berechnen. Die Tests haben gezeigt, dass bei mehreren Millionen Events von mehreren Tausend Benutzern für mehrere Tausend Produkte, 13 % bis 15 % aller tatsächlichen Käufe in den Top-10 der vom System vorgeschlagenen Empfehlungen enthalten waren.
Damit wurde die Grundlage für den selbstständigen Aufbau und Betrieb eines Recommender Systems gelegt, was eine sinnvolle und kostengünstige Alternative zu externen Systemen sein kann.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
Cloud computing is a combination of technologies, including grid computing and distributed computing, that use the Internet as a network for service delivery. Organizations can select the price and service models that best accommodate their demands and financial restrictions. Cloud service providers choose the pricing model for their cloud services, taking the size, usage, user, infrastructure, and service size into account. Thus, cloud computing’s economic and business advantages are driving firms to shift more applications to the cloud, boosting future development. It enlarges the possibilities of current IT systems.
Over the past several years, the ”cloud computing” industry has exploded in popularity, going from a promising business concept to one of the fastest expanding areas of the IT sector. Most enterprises are hosting or installing web services in a cloud architecture for management simplicity and improved availability. Virtual environments are applied to accomplish multi-tenancy in the cloud. A vulnerability in a cloud computing environment poses a direct threat to the users’ privacy and security. In our digital age, the user has many identities. At all levels, access rights and digital identities must be regulated and controlled.
Identity and access management(IAM) are the process of managing identities and regulating access privileges. It is considered as a front-line soldier of IT security. It is the goal of identity and access management systems to protect an organization’s assets by limiting access to just those who need it and in the appropriate cases. It is required for all businesses with thousands of users and is the best practice for ensuring user access control. It identifies, authenticates, and authorizes people to access an organization’s resources. This, in turn, enhances access management efficiency. Authentication, authorization, data protection, and accountability are just a few of the areas in which cloud-based web services have security issues. These features come under identity and access management.
The implementation of identity and access management(IAM) is essential for any business. It’s becoming more and more business-centric, so we need more than technical know-how to succeed. Organizations may save money on identity management and, more crucially, become much nimbler in their support of new business initiatives if they have developed sophisticated IAM capabilities. We used these features of identity and access management to validate the robustness of the cloud computing environment with a comparison of traditional identity and access management.
Viralität auf TikTok
(2023)
Die Social Media Plattform TikTok erfreut sich spätestens seit der Corona-Pandemie einer immer größer werdenden Gemeinschaft. Mittlerweile verfügt die App über mehr als 20 Millionen Nutzer:innen - alleine in Deutschland. Virale Videos sprießen förmlich aus dem Boden. Diese Masterarbeit beschäftig sich mit der Frage, welche Faktoren der Viralität zu Grunde liegen und ob man die Viralität maßgeblich beeinflussen kann. Dies erfolgt mittels theoretischer Grundlagen, einer quantitativen Nutzerumfrage und Experteninterivews mit erfolgreichen deutschen Creatorn. Abschließend werden Videos für TikTok konzipiert und analysiert.
Die rasante Digitalisierung verändert die Hochschule Offenburg nachhaltig. Jedes Semester entstehen zahlreiche akademische Arbeiten und Prüfungsdaten, die von hoher Bedeutung für die Qualitätssicherung und den Bildungsprozess sind. Bisher fehlte jedoch eine effiziente Lösung zur Archivierung dieser Daten. Meine Masterarbeit präsentiert ein neues Archivierungskonzept, das eine zentrale, digitale Plattform schafft. Diese ermöglicht es Lehrenden und Studierenden, leicht auf ihre Daten zuzugreifen, sei es für Projektarbeiten, Seminarleistungen oder Prüfungen. Ich stelle nicht nur das Konzept vor, sondern auch die Umsetzung eines Prototyps auf Intrexx, einer Low-Code-Entwicklungsplattform. Mein Ziel ist es, ein Handbuch für zukünftige Entwickler zu hinterlassen, um zur digitalen Transformation der Hochschule beizutragen und die Bildungsprozesse zu optimieren.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
Das übergeordnete Ziel dieser Arbeit ist die Entwicklung einer Lernanwendung für die Theorieausbildung von Gleitschirm- und Drachenfliegern. Daraus abgeleitete Ziele sind eine Überprüfung der Tätigkeit auf ihre Wirtschaftlichkeit sowie eine vollständige Analyse der Anforderungen von Nutzern und anderen Stakeholdern.
Die Analyse von Markt, Anforderungen und Technologien liefert wertvolle und hilfreiche Erkenntnisse für die Umsetzung der Lernanwendung. Die Berechnungen in der Marktanalyse zeigen, dass eine Umsetzung der Anwendung grundsätzlich wirtschaftlich möglich ist. Die bestehende und potentielle Konkurrenz wurde ermittelt und ihr Angebot detailliert verglichen und analysiert. Die Ermittlung der notwendigen Kennzahlen zur Berechnung der Wirtschaftlichkeit der unternehmerischen Tätigkeit ergeben sich durch die Berechnung von Marktvolumen Marktsättigungsgrad und Marktpotential. Im Kapitel Anforderungsmanagement wird zunächst eine umfangreiche Anforderungsermittlung durchgeführt. Diese besteht aus einem Interview und der Durchführung und Auswertung einer Online-Umfrage. Die Ergebnisse der Anforderungsermittlung werden analysiert und anschließend in Form eines Lasten- und eines Pflichtenhefts dokumentiert. Es zeigt sich, dass die ermittelten und analysierten Daten eine solide Grundlage für die weiteren Arbeiten bilden. Ein Experten-Interview und die Umfrage unter Gleitschirmfliegern ergeben keine in Konflikt stehenden Anforderungen und die aus der Auswertung der Umfrage ermittelten Anforderungen bestätigen viele bereits aus dem Interview ermittelten Anforderungen. Die ausgewertete Umfrage bietet außerdem wichtige Erkenntnisse über gewünschte Funktionen und die Zahlungsbereitschaft der Ziel- gruppe. Diese Erkenntnisse sind besonders in Anbetracht der anzustrebenden Marktpositionierung hilfreich. Die Spezifikation von Anforderungen im Lastenheft ermöglicht es, ein passendes Konzept zu erstellen und den Anforderungen gerecht werdende Technologien auszuwählen. Für die Konzeption der Anwendung wurden Personas, Wireframes und Strukturdiagramme erstellt, die den Anforderungen aus dem Lastenheft gerecht werden. Der Konzeption der Anwendung wurde, verglichen mit den anderen Arbeits- schritten, weniger Platz eingeräumt, da erstens kaum restriktive Anforderungen an das Design bestehen und zweitens die Anwendungsentwicklung mit UI-Frameworks kein fotorealistisches Layout voraussetzt, um ästhetische und benutzerfreundliche Anwendungen zu konzipieren. Es zeigt sich, dass für die gegebenen Anforderungen die Erstellung von Wireframes ausreichend ist. Im Kapitel „Technologieauswahl“ wird eine umfangreiche analytische Arbeit betrieben, um eine optimale Auswahl von passenden Technologien zu erhalten. Die analytische Arbeit besteht dabei aus dem Vergleich verschiedener Systemumgebungen, App-Technologien und Frameworks. Dabei wird deutlich, dass eine Progressive Web-App in einer cloudbasierten Systemumgebung mit einem Backend-as-a-Service Modell die Anforderungen am besten erfüllt. Im Kapitel „Umsetzung“ wird dokumentiert, wie die Anwendung realisiert wurde. Für die Umsetzung der Lernanwendung und des dazugehörigen Administrationsbereiches wurden etwa 6000 Zeilen Code geschrieben. Sowohl den Administrationsbereich als auch die Lernanwendung konnte zu großen Teilen fertig gestellt werden.
Zusammenfassend lässt sich festhalten, dass die Zielsetzung dieser Arbeit erfüllt wurde, indem die wichtigsten Grundlagen zur späteren vollständigen Umsetzung erarbeitet wurden. Mit Spannung zu erwarten ist, wie sich die gewählte BaaS-System-umgebung in Zukunft entwickelt und ob diese auch weiterhin den Anforderungen gerecht wird. Neben den noch ausstehenden Arbeiten bei der Umsetzung sind auch mögliche Erweiterungen denkbar. So konnte das Lernsystem noch weiter optimiert werden, zum Beispiel durch automatische Erstellung eines Lernplans, basierend auf dem Prüfungstermin oder durch Implementierung von Push-Benachrichtigungen, die den Nutzer zum Öffnen der Anwendung auffordern. Denkbar ist auch eine Übertragung des Anwendungskonzepts auf andere Sportarten oder Ausbildungen. Dabei müsste überlegt werden, ob sich die jeweilige Prüfungsform zum Lernen mit einer Lernkartei eignet oder welche Aufwände für eine Anpassung an andere Sportarten notwendig wären.
In this work, an implementation of the somewhat homomorphic BV encryption scheme is presented. During the implementation, care was taken to ensure that the resulting program will be as efficient as possible i.e. fast and resource-saving. The basis for this is the work of Arndt Bieberstein, who implemented the BV scheme with respect to functionality. The presented implementation supports the basics of the BV scheme, namely (symmetric and asymmetric) encryption, decryption and evaluation of addition as well as multiplication. Additionally, it supports the encoding of positive and negative numbers, various gaussian sampling methods, basically infinitely large polynomial coefficients, the generation of suitable parameters for a use case, threading and relinearization to reduce the size of a ciphertext after multiplications. After presenting the techniques used in the implementation, it’s actual efficiency is determined by measuring the timings of the operations for various parameters.
In den letzten Jahrzehnten haben permanentmagneterregte Synchronmaschinen und deren Regelung immer mehr Einzug in industrielle Applikationen erhalten. Durch die weltweit wachsende Elektromobilität partizipiert das Automobil an deren fortschreitenden Einsatzmöglichkeit.
Die Modellierung eines physikalisch-technischen Systems ist ein wichtiger Bestandteil in der Entwicklung einer Regelung. Inhaltlich setzt sich die Abschlussarbeit mit dieser Vorgehensweise für eine 6-phasige permanentmagneterregte Synchronmaschine auseinander. Durch die doppelte Anzahl an Statorwicklungen existieren unter anderem zwei verschiedene Wicklungskonzepte, wie eine elektrische Maschine aufgebaut sein könnte. Beide Wicklungskonzepte, bei dem entweder eine volle magnetische Kopplung oder keine magnetische Kopplung der betrachteten Teilsysteme vorliegt, werden untersucht. Ziel der Masterthesis ist es, eine mathematische Grundlage für die Modellbildung einer 6-phasigen permanentmagneterregten Synchronmaschine herzuleiten, um darauf aufbauend eine feldorientierte Regelung zu entwerfen. Wie in der industriellen Antriebstechnik gebräuchlich, erfolgt die Regelung in einem rotierenden Koordinatensystem. Die Stromregelung basiert auf einen zeitkontinuierlichen PI-Regler samt Spannungsbegrenzung und einer Anti-Windup-Struktur. In der Ausarbeitung wird mithilfe zweier Simulationsmodelle bewiesen, dass sowohl das mathematische Modell einer 6-phasigen permanentmagneterregten Synchronmaschine als auch deren Regelung simulationstechnisch die erwarteten Resultate liefern.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
Annotated training data is essential for supervised learning methods. Human annotation is costly and laborsome especially if a dataset consists of hundreds of thousands of samples and annotators need to be hired. Crowdsourcing emerged as a solution that makes it easier to get access to large amounts of human annotators. Introducing paid external annotators however introduces malevolent annotations, both intentional and unintentional. Both forms of malevolent annotations have negative effects on further usage of the data and can be summarized as spam. This work explores different approaches to post-hoc detection of spamming users and which kinds of spam can be detected by them. A manual annotation checking process resulted in the creation of a small user spam dataset which is used in this thesis. Finally an outlook for future improvements of these approaches will be made.
Reibung und Verschleiß in tribologischen Kontakten verursachen knapp ein Viertel des weltweiten Primärenergiebedarfs. Dies stellt ein enormes Potential zur Minderung von Treibhausgasemissionen und Absenkung von Kosten dar. Aufgrund dessen ist die Optimierung von Reibkontakten ein Kernthema der Tribologie. Hierfür ist der Supraschmierzustand, bei welchem die Reibung aufgrund spezieller Schmiermechanismen annähernd vollständig verschwindet (Reibungszahl 𝜇 ⩽ 0,01), von besonderem Interesse. Die jährlich steigende Anzahl an Veröffentlichungen belegt das hohe wissenschaftliche Interesse an dem Thema. Bisher konnte Supraschmierung jedoch nur für Modellsysteme nachgewiesen werden, das Übertragen auf technische Systeme ist noch nicht gelungen.
Ziele dieser Arbeit waren der Nachweis von Supraschmierung in einem punktförmigen Modellkontakt und die Überführung in den Flächenkontakt eines realen Gleitlagers durch Verwendung von technischer Keramik und/oder DLC-Beschichtungen.
Hierfür wurde zunächst das Schmierverhalten einiger Modellschmierstoffe in einem Stahl/a-C:H:Si- Kontakt untersucht. Die niedrigsten Reibwerte wurden bei Verwendung von Glycerol erzielt. Daher wurde Glycerol als Modellschmierstoff für weitere tribologische Untersuchungen an unterschiedlichen Oberflächen (a-C:H, ta-C, Keramik) verwendet.
Die besten Ergebnisse hinsichtlich Reibung und Verschleiß wurden mit technischer Keramik erzielt. Mit einer Stahl/Si3N4-Paarung wird bei 80 °C Supraschmierung für Gleitgeschwindigkeiten von 0,007 𝑚/𝑠 bis 0,965 𝑚/𝑠 nachgewiesen. Als kleinste Reibungszahl wird 𝜇 = 0,0015 gemessen.
Die geringste Reibung in einem Stahl/DLC-Kontakt wird mit einer a-C:H:Si-Schicht erreicht. Hierbei konnte Supraschmierung bei 80 °C für Gleitgeschwindigkeiten von 0,029𝑚/𝑠 bis 0,484𝑚/𝑠 nachgewiesen werden. Die kleinste Reibungszahl für das System beträgt 𝜇 = 0,0063.
Der Nachweis von Supraschmierung gelingt für anwendungsnahe Betriebsparameter, dies stellt einen Fortschritt gegenüber den meisten Literaturdaten dar. Um die Übertragbarkeit auf technische Systeme zu demonstrieren,werden die besten identifizierten Oberflächen und Schmierstoffe auf einem anwendungsnahen Gleitlagerprüfstand untersucht. Durch Verwendung von a-C:H:Si-beschichteten Wellen und Glycerol als Schmierstoff kann der Reibwert bei Raumtemperatur von 𝜇 = 0,965 im Referenzsystem auf 𝜇 = 0,038 gesenkt werden.
Um die Arbeit fortzusetzen, werden die identifizierten Systeme in axiallagerähnlicher Anordnung (Gleitring/Gleitpad) untersucht.
Um gezielt DLC-Schichten zu entwickeln, sind Reibungssimulationen notwendig. Im nächsten Schritt sollen umfassende Oberflächenanalysen durchgeführt werden, um die nötige Datenbasis für die Simulation zu erstellen.
Im Rahmen dieser Arbeit wurde ein Telepräsenzsystem entwickelt, bei dem ein Teleroboter mit beweglicher Kamera zum Einsatz kommt, der seine Ausrichtung über ein Head-mounted Display synchronisiert. Der Anwender des Systems sieht auf dem Display das Abbild der Umgebung des Teleroboters. Jede Kopfbewegung des Anwenders wird in Echtzeit auf die Kamerabewegung umgesetzt. Der Anwender kann sozusagen seinen Sehsinn temporär auf den Roboter auslagern, der ihn in einer entfernten Umgebung repräsentiert.
Im Bereich des Bevölkerungsschutzes versteht man unter Krisensituationen, unerwartet auftretende Katastrophen, die ernste Folgen für Mensch und Natur haben. Einsatzkräfte stehen in Krisensituationen unter einer erhöhten physischen und psychischen Belastung. Im Ernstfall bleibt nicht viel Zeit und verschiedene Vorgehensweisen können über Leben und Tod entscheiden. Schnelle Entscheidungen sind in diesem zeitkritischen Nutzungskontext unumgänglich. Interaktive Systeme können die Einsatzkräfte in ihrer täglichen Arbeit unterstützen, vorausgesetzt, die Systeme sind intuitiv und einfach zu bedienen.
Um diese Systeme auf deren intuitive Bedienung einschätzen zu können, wird im Rahmen dieser Masterarbeit eine Bewertungsmethodik erarbeitet und angewandt. Zunächst wird hierfür ein Reifegradmodell erarbeitet, das Aufschluss darüber gibt, inwiefern ausgewählte Software-entwicklungsunternehmen im Bereich des Bevölkerungsschutzes Usability-Praktiken einsetzen. Dieses wird auf drei unterschiedliche Unternehmen im Bereich des Bevölkerungsschutzes angewandt. Im Anschluss daran werden drei Anwendungen der Unternehmen durch Usability Tests mit Endanwendern auf deren tatsächlich wahrgenommene Usability geprüft. So kann erforscht werden, inwiefern der Usability-Reifegrad eines Softwareentwicklungsunter-nehmens auch Aussagen auf die Gebrauchstauglichkeit seiner Software zulässt.
Diese Forschungsarbeit stellt fest, dass eine Messung des Usability-Reifegrades Aufschluss darüber gibt, wie gebrauchstauglich die untersuchten Anwendungen sind. Daher ist eine Messung des Usability-Reifegrades im Bevölkerungsschutz grundsätzlich als sinnvoll einzustufen.
Empfehlungssysteme sind auf E-Commerce-Webseiten omnipräsent und unterstützen die Nutzer an bestimmten Touchpoints beim Onlineshopping, indem sie auf Produkte aufmerksam machen. In den meisten Anwendungsfällen werden Produkte empfohlen, die den Interessen der Nutzer entsprechen oder einen Warenkorb komplettieren sollen. Während klassische Empfehlungssysteme die Nutzer meistens zu Beginn oder zum Ende einer Produktannäherung erreichen, finden sie dazwischen selten Anwendung. Dabei könnten Empfehlungssysteme bereits in die Navigations-Journey der Nutzer integriert werden und so maßgeblich zur Produktauffindbarkeit beitragen. Trotz der Tatsache, dass Empfehlungssysteme maßgeblich zum Geschäftserfolg im Online-Handel beitragen, ist ihre Integration in die Navigation von E-Commerce-Plattformen noch wenig erforscht.
Ziel dieser Arbeit ist es daher zu ergründen, wie ein Empfehlungssystem in der lokalen Navigation von E-Commerce-Plattformen ausgestaltet sein sollte. Dabei soll der Prototyp eines Empfehlungssystems in der lokalen Navigation konzipiert werden, indem einerseits echte Warenkorbdaten einer E-Commerce-Plattform und andererseits Nutzerpräferenzen untersucht werden. Die Untersuchung umfasst die algorithmische Datenverarbeitung von Warenkorbdaten und die Durchführung einer quantitativen Befragung. Darüber hinaus wurde domänenspezifisches Wissen über die Verfahren, Algorithmen, Designkriterien und weitere Erfolgsfaktoren recherchiert.
Die Ergebnisse deuten darauf hin, dass die alleinige Verarbeitung von Warenkorbdaten nicht ausreichend für ein navigatorisches Empfehlungssystem ist, obwohl sich die Alternating Least Squares Matrixfaktorisierung als geeignetes Verfahren herausgestellt hat. Des Weiteren können Empfehlungssysteme in der lokalen Navigation sowohl einen positiven als auch einen negativen Einfluss auf die Nutzerzufriedenheit haben. Aus den Ergebnissen konnte ein detaillierter Prototyp konzipiert und vorgestellt werden. Bei diesem Prototyp handelt es sich um ein Session-basiertes Empfehlungssystem, das den Onlineshopping-Kontext der Nutzer ermitteln kann. Auf dieser Basis kann das System Produktkategorien in Echtzeit empfehlen, die zu diesem Kontext komplementär sind oder einen Social Proof abbilden.
The status quo of PROFINET, a commonly used industrial Ethernet standard, provides no inherent security in its communication protocols. In this thesis an approach for protecting real-time PROFINET RTC messages against spoofing, tampering and optionally information disclosure is specified and implemented into a real-world prototype setup. Therefor authenticated encryption is used, which relies on symmetric cipher schemes. In addition a procedure to update the used symmetric encryption key in a bumpless manner, e.g. without interrupting the real-time communication, is introduced and realized.
The concept for protecting the PROFINET RTC messages was developed in collaboration with a task group within the security working group of PROFINET International. The author of this thesis has also been part of that task group. This thesis contributes by proofing the practicability of the concept in a real-world prototype setup, which consists of three FPGA-based development boards that communicate with each other to showcase bumpless key updates.
To enable a bumpless key update without disturbing the deterministic real-time traffic by dedicated messages, the key update annunciation and status is embedded into the header. By provisioning two key slots, of which only one is in used, while the other is being prepared, a well-synchronized coordinated switch between the receiver and the sender performs the key update.
The developed prototype setup allows to test the concept and builds the foundation for further research and implementation activities, e.g. the impact of cryptographic operations onto the processing time.
Ziel dieser Arbeit ist die Modellierung und Nutzung eines digitalen Zwillings am Beispiel eines realen Tiny-Houses. Dazu werden für die Komponenten der technischen Gebäudeausrüstung Wärmepumpe, thermische Speicher, thermoaktives Bauteilsystem, PVT-Kollektoren und Batterie als Grey-Box-Modelle modelliert und in der Python-Umgebung umgesetzt. In dieser Arbeit wird auf die physikalischen Hintergründe und mathematischen Formulierungen für jede Komponente eingegangen.
In einem automatisierten Programm werden die digitalen Komponenten mit Messwerten aus dem realen Anlagenbetrieb verknüpft. Dieses Skript wird zu Fehlererkennung verwendet. Dabei konnte ein fehlerhafter Betrieb der PVT-Kollektoren bewiesen werden.
Die Verknüpfung der einzelnen Komponenten zum digitalen Zwilling wird zur Betriebsoptimierung verwendet. Hierzu wird die Simulation des Ausgangszustands mit verschiedenen Optimierungsstrategien verglichen. Dabei konnte der Anlagenbetrieb hinsichtlich Komfortbedingungen und Energieeffizienz deutlich optimiert werden. Die finale Optimierungsstrategie basiert auf einereinfachen Wettervorhersage.
Mit der Modellierung und Nutzung eines digitalen Zwillings trägt diese Arbeit dazu bei, innovative Lösungen für die zukünftige Entwicklung und Gestaltung von Gebäuden sowie die Optimierung bereits bestehender Gebäude mithilfe digitaler Zwillinge voranzutreiben.
It is generally agreed that the development and deployment of an important amount of IoT devices throughout the world has revolutionized our lives in a way that we can rely on these devices to complete certain tasks that may have not been possible just years ago which also brought a new level of convenience and value to our lives.
This technology is allowing us in a smart home environment to remotely control doors, windows, and fridges, purchase online, stream music easily with the use of voice assistants such as Amazon Echo Alexa, also close a garage door from anywhere in the world to cite some examples as this technology has added value to several domains ranging from household environments, cites, industries by exchanging and transferring data between these devices and customers. Many of these devices’ sensors, collect and share information in real-time which enables us to make important business decisions.
However, these devices pose some risks and also some security and privacy challenges that need to be addressed to reach their full potential or be considered to be secure. That is why, comprehensive risk analysis techniques are essential to enhance the security posture of IoT devices as they can help evaluate the robustness and reliability towards potential susceptibility to risks, and vulnerabilities that IoT devices in a smart home setting might possess.
This approach relies on the basis of ISO/IEC 27005 methodology and risk matrix method to highlight the level of risks, impact, and likelihood that an IoT device in smart home settings can have, map the related vulnerability, threats and risks and propose the necessary mitigation strategies or countermeasures that can be taken to secure a device and therefore satisfying some security principles. Around 30 risks were identified on Amazon Echo and the related IoT system using the methodology. A detailed list of countermeasures is proposed as a result of the risk analysis. These results, in turn, can be used to elevate the security posture of the device.
Die akustischen Emissionen von Wasserinstallationsgeräten, insbesondere während der nächtlichen Ruhezeit in angrenzenden Räumen, können erhebliche Störungen verursachen. Die primäre Ursache dieser Belästigungen liegt in der spezifischen Funktionsweise von Wasserarmaturen, welche somit als Hauptquelle der Lärmemissionen identifiziert werden können. Hydrodynamische und -akustische Simulationen erweisen sich in diesem Zusammenhang als wertvolle Werkzeuge zur Identifikation von kritischen Bereichen, welche für die Schallabstrahlung verantwortlich sind.
In dieser vorliegenden Arbeit werden die hydrodynamischen und -akustischen Eigenschaften eines Installationsgeräuschnormals mithilfe numerischer Methoden untersucht, wobei gleichzeitig ein kommerzielles Berechnungswerkzeug zur Vorhersage von akustischen Schallfeldern in Bezug auf ein hybrides Verfahren evaluiert und validiert wird. Das Installationsgeräuschnormal dient dabei als Testfall, um die Leistungsfähigkeit des hybriden Akustikmodells in Verbindung mit einem RANS- sowie RANS/LES-Ansatz zu überprüfen. Es werden verschiedene Varianten des Installationsgeräuschnormals untersucht und mit experimentellen Messdaten validiert.
Die hydrodynamischen Simulationsergebnisse der verschiedenen Varianten zeigen eine hervorragende Übereinstimmung mit den experimentellen Daten bei der Verwendung eines RANS/LES-Ansatzes. Der Einsatz eines solchen Hybrid-Modells zur Turbulenzmodellierung hat gezeigt, dass eine verbesserte Wiedergabe von zeitabhängigen Phänomenen in der Strömung erreicht werden kann, welche in direktem Zusammenhang mit der Vorhersage der Schallausbreitung stehen und somit eine bedeutende Auswirkung darauf haben.
Die akustische Untersuchung der verschiedenen Varianten des Installationsgeräuschnormals zeigt, dass die Schallabstrahlung ausschließlich in breitbandigen Frequenzspektren erfolgt. Im Rahmen des Vergleichs mit den Messdaten lässt sich erkennen, dass eine akustische Analyse auf Basis eines hybriden Modells in Verbindung mit dem Akustikmodell vielversprechende Ergebnisse bezüglich der Vorhersage des Schallfelds liefern kann und dabei im Vergleich zu einfachen RANS-Modellen Vorteile aufweist.
As the population grows, so does the amount of biowaste. As demand for energy grows, biogas is a promising solution to the problem. Lignocellulosic materials are challenged of slow degradability due to the presence of polymers such as cellulose, lignin and hemicellulose. There are several pretreatment methods available to enhance the degradability of such materials, including enzymatic pretreatment. In this pretreatment, there are few parameters that can influence the results, the most important being the enzyme to solid ratio and the solid to liquid ratio. During this project, experiments were conducted to determine the optimal conditions for those two factors. It was discovered that a solid to liquid ratio of 31 g of buffer per 1 gram of organic dry matter produced the highest reducing sugar release in flasks when combined with 34 mg of protein per 1 gram of organic dry mass. Additionally, another experiment was carried out to investigate the impact of enzymatic pretreatment on biogas production using artificial biowaste as a substrate. Artificial biowaste produced 577,9 NL/kg oDM, while enzymatically pretreated biowaste produced 639,3 NL/kg oDM. This resulted in a 10,6% rise in cumulative biogas production compared to its use without enzymatic pretreatment. By the conclusion of the investigation, specific cumulative dry methane yields of 364,7 NL/kg oDM and 426,3 NL/kg oDM were obtained from artificial biowaste without and with enzymatic pretreatment, respectively. This resulted in a methane production boost of 16,9%. Additionally in case of the reactors with enzymatically pretreated substrate kinetic constant was lower more than double, where maximum volume of biogas increased, comparing to the reactors without enzymatic pretreatment.
Die Belastungen und Anforderungen in der heutigen Arbeitswelt sind teilweise sehr gross. Faktoren wie Zeitdruck, Kostendruck, persönliche und externe Qualitätsan-sprüche, Schadensrisiko, Menge und Vielseitigkeit der Aufgaben, Führungsmängel etc. sowie eigene Einstellungen und Denkmuster erhöhen das Stresslevel bei vielen Angestellten unterschiedlichster Positionen. Ein aktueller Burn-Out Fall bei der TK CONSULT AG unterstreicht diese These. Gemäss aktueller Studien in der Schweiz liegt der volkswirtschaftliche Schaden (ohne Berufsunfälle, Berufskrankheiten, Inva-lidität und frühzeitiger Tod) bei ca. 4.2 Milliarden CHF, was ca. 1.2% des Bruttoin-landsprodukts der Schweiz entspricht (vgl. [2] S. ii). Des Weiteren zeigen verschie-dene Stressstudien, dass eine Zunahme der Stressbelastung stattfindet [1] [2]. Aufgrund dessen ist es sinnvoll, etwas gegen diesen Trend und die damit verbun-denen Kosten zu unternehmen.
Ziel dieser Thesis ist es, Massnahmen auf der persönlichen als auch der betriebli-chen Ebene zu erarbeiten. Diese sollen leicht verständlich und leicht umsetzbar sein.
Bei den persönlichen Massnahmen steht vor allem die Verbesserung des Selbst-managements durch eigene Zielsetzungen, Anpassung von eigenen Einstellungen und Denkmustern, Erholungsstrategien, Erweiterung der eigenen Kompetenzen und Verbesserung des Zeitmanagements im Vordergrund.
Bei den betrieblichen Massnahmen soll durch Mitarbeiterschulungen, Coaching, aktiver Gesundheitsförderung und Verbesserung der allgemeinen Arbeitsbedingun-gen eine Verbesserung der Stressbelastung erzielt werden.
One of the most critical areas of research and expansion has been exploiting new technologies in supply chain risk management. One example of this is the use of Digital Twins. The performance of physical systems can be analyzed and simulated using digital twins, virtual versions of these systems that use real-time data, and sophisticated algorithms. Inside the supply chain risk management field, digital twins present a one-of-a-kind opportunity to improve an organization's ability to anticipate, address, and react to the possibility of problems within the supply chain.
The objective of this study is to identify and assess the advantages that accrue to supply chain risk management as a result of Digital Twins' adoption into the system, as well as to identify the challenges associated with achieving those benefits. In the context of supply chain risk management, a thorough literature study is conducted to analyze the essential traits and capabilities of digital twins and how these qualities lead to enhanced risk management methods. This study investigates the essential properties and capacities of digital twins. In addition, the state of digital twin technology and its applications in supply chain risk management are evaluated, and prospective areas for further study and development are highlighted.
The primary purpose of this investigation is to provide a comprehensive and in-depth analysis of the digital twins' role in supply chain risk management through the utilization of digital twins, as well as to highlight the potential benefits and challenges associated with the implementation of digital twins. The research was carried out based on the existing body of written material and the replies of 27 individuals who had previous experience making use of digital twins and took part in an online questionnaire.
The results of this study will be relevant to a diverse group of stakeholders, including specialists in risk management and researchers, amongst others.
Decarbonisation Strategies in Energy Systems Modelling: Biochar as a Carbon Capture Technology
(2022)
The energy system is changing since some years in order to achieve the climate goals from the Paris Agreement which wants to prevent an increase of the global temperature above 2 °C. Decarbonisation of the energy system has become for governments a big challenge and different strategies are being stablished. Germany has set greenhouse gas reduction limits for different years and keeps track of the improvement made yearly. The expansion of renewable energy systems (RES) together with decarbonisation technologies are a key factor to accomplish this objective.
This research is done to analyse the effect of introducing biochar, a decarbonisation technology, and study how it will affect the energy system. Pyrolysis is the process from which biochar is obtained and it is modelled in an open-source energy system model. A sensibility analysis is made in order to assess the effect of changing the biomass potential and the costs for pyrolysis.
The role of pyrolysis is analysed in the form of different future scenarios to evaluate the impact. The CO2 emission limits from the years 2030 and 2045 are considered to create the scenarios, as well as the integration of flexibility technologies. Four scenarios in total are assessed and the result from the sensibility analysis considering pyrolysis are always compared to the reference scenario, where pyrolysis is not considered.
Results show that pyrolysis has a bigger impact in the energy system when the CO2 limit is low. Biochar can be used to compensate the emissions from other conventional power plant and achieve an energy transition with lower costs. Furthermore, it was also found that pyrolysis can also reduce the need of flexibility. This study also shows that the biomass potential and the pyrolysis costs can affect a lot the behaviour of pyrolysis in the energy system.
Windows Registry Forensik - Analyse von Shellbags im Rahmen digitalforensischer Untersuchungen
(2019)
Digitalforensische Untersuchungen sind heute ebenso wichtig wie herkömmliche forensische Untersuchungen. Neben leicht sichtbaren Spuren wie Internethistorie oder Suchmaschinenanfragen befinden sich auch in der Windows Registry verwertbare Spuren. Zu diesen Spuren zählen auch die Shellbags. Sie werden vom System genutzt, um Ordnereinstellungen zu speichern.
Diese Arbeit beleuchtet neben den Grundlagen digitaler Forensik und der Windows Registry diese Shellbags. Es wird untersucht, welche Aktionen am System unter Windows 7 und Windows 10 Shellbags erzeugen oder diese verändert. Um dieses Ziel zu erreichen, wird ein Katalog an Experimenten durchgeführt. Dieser beinhaltet unterschiedliche Aktionen am System, vom Erstellen bis zum Löschen eines Ordners. Dabei wird der Zustand der Shellbags in Registry-Abbildern vor und nach der Aktion verglichen und somit untersucht, welche Veränderungen zu erkennen sind. Die Ergebnisse werden dokumentiert und interpretiert. Somit wird eine Übersicht über die Auswirkungen dieser Aktionen auf die Shellbags erstellt, an dem sich orientiert werden kann.
Abschließend wird in einer prototypischen Implementierung ein eigenes Tool in Python entwickelt, das Shellbags aus der Registry auslesen und ausgeben kann.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
Mobile Anwendungen werden im beruflichen Umfeld immer häufiger eingesetzt und dienen als praktische Helfer für Vertriebsmitarbeiter oder im Kundendienst. Dagegen ist ein Einsatz in der Baubranche ein recht neues Feld. Die tägliche Erfassung der Leistungsergebnisse einer Baustelle samt Geräteeinsatz, Mitarbeiterstunden, Lieferungen und Wetterdaten in Tagesberichten wird von vielen Bauunternehmen bisher noch auf Papier erledigt und später von Hand in ein Verwaltungsprogramm übertragen. Die Dokumentation direkt vor Ort mit einem mobilen Endgerät bietet den Vorteil, dass die Daten sofort verfügbar sind und auch besser ausgewertet werden können. Im Rahmen der vorliegenden Masterthesis wird nun in Zusammenarbeit mit dem Bauunternehmen Grafmüller untersucht, wie eine mobile Anwendung zu diesem Zweck aussehen kann. Dabei werden zunächst die Betriebsdatenerfassung im Allgemeinen und die Hintergründe der mobilen Anwendungsentwicklung analysiert. Dies dient dann als Basis für die Konzeption und die Umsetzung der Anwendung. Dabei werden bereits existierende Konkurrenzprodukte und die aktuelle Situation der Tagesberichtserstellung betrachtet. Besonderes Augenmerk liegt auf der plattformunabhängigen Entwicklung. Dazu wird der Einsatz von Webtechnologien zur Erstellung von hybriden Apps mit Hilfe entsprechender Werkzeuge untersucht. Die Umsetzung selbst beinhaltet den generellen Aufbau der mobilen Anwendung auf Basis eines hybriden App-Frameworks. Dazu zählt die persistente Datenspeicherung und die Synchronisation mit einer Administrationsanwendung sowie weitere Zusatzfunktionen, die gerätespezifische Eigenschaften nutzen, beispielsweise GPS.
Diese Arbeit umfasst erste Tests und die Inbetriebnahme eines neuen Prüfplatzes bei der QMK-GmbH. Der Prüfplatz selbst soll in der Lage sein, Leistungsshuntwiderstände kalibrieren zu können. Leistungsshuntwiderstände sind meist eher groß und schwer, damit durch viel Material die Wärmeentwicklung kompensiert werden kann. Zudem sind die Kontaktflächen dementsprechend groß, damit der Übergangswiderstand an den Kontaktflächen möglichst gering ist. Der Widerstandswert selbst ist sehr klein. Standardmäßig liegen Widerstände hier im Bereich von 10 bis 100 Ω. Um so kleine Widerstände möglichst genau messen zu können, muss technisch viel Aufwand betrieben werden. In der Regel wird dies mit einer Vierleitermessung realisiert. Leistungsshuntwiderstände werden aber generell mit einem eher hohen Strom im Bereich von 100 bis 10 000 . Mit dem neuen Prüfplatz soll dies auch umgesetzt werden. Die Widerstände sollen mithilfe von hohen Strömen bis 2 kA kalibriert werden, damit der, für den Prüfling, zutreffende Arbeitsbereich unter Berücksichtigung seiner Eigenerwärmung abgebildet werden kann. Für diese Anwendung wurde ein Prüfplatz entwickelt, der 2 kA zur Verfügung stellen kann und mithilfe eines genauen und kalibrierten Referenzwiderstandes den Widerstand des Kalibriergegenstandes ermitteln kann. Würde man den Aufbau messtechnisch beschreiben, so wird durch eine Konstantstromquelle ein Gleichstrom erzeugt, der beide in Reihe geschalteten Widerstände durchströmt. Damit ist der Strom an beiden Widerständen identisch und kann ermittelt werden. An den Widerständen wird gleichzeitig dessen Spannungsabfall gemessen. Mit dem ermittelten Strom kann anschließend über das Ohmsche Gesetz der „unbekannte“ Widerstandswert des Kalibriergegenstandes ermittelt werden. Dieser wird mit dem Sollwert seines Datenblattes verglichen und in einem Protokoll unter Berücksichtigung der eigenen Messunsicherheit bewertet. Die Messergebnisse werden nach der Messung bzw. Kalibrierung in einem Zertifikat zusammen gefasst, und dem Kunden ausgestellt.
Ziel der Arbeit ist es, eine Kalibriereinrichtung zu entwickeln und zu bewerten, die den Richtlinien und Grundlangen der DAkkS entspricht oder zumindest als Grundlage für eine Akkreditierung bei der DAkkS dient. In erster Linie, soll es mit der Kalibriereinrichtung möglich sein, ISO-Kalibrierungen nach der 9001 Norm durchzuführen und zu bewerten.
Die vorliegende Masterarbeit setzt sich mit dem Thema „Digitale Medien und soziale Anerkennung“ auseinander. Dabei wird der Frage nachgegangen, welchen Einfluss die Nutzung digitaler Medien auf das Selbstbild junger Erwachsener, auf das Thema Cybermobbing und den zwischenmenschlichen Umgang in der Gesellschaft hat. Als Praxisbeispiel wurde exemplarisch die Folge „Nosedive“ der dystopischen Sci-Fi-Serie „Black Mirror“ ausgewählt, in der eine Gesellschaft porträtiert wird, deren Leben durch ein soziales Bewertungssystem bestimmt wird. Im Zuge dessen soll ein Bezug zu realen Sozialkredit-Systemen hergestellt werden. Das Ziel der Forschung ist es, eine umfangreiche Analyse der Auswirkungen des Medienkonsums von Fiktion und Realität vor dem Hintergrund sozialer Anerkennung durchzuführen.
Im theoretischen Teil der Arbeit soll allgemein auf digitale Medien, das Nutzungsverhalten von Jugendlichen sowie auf die Bedeutung von Identität und Selbstbild (im Netz) eingegangen werden. Sowohl die Einflüsse der digitalen Mediennutzung auf die Identität, das Selbstbild sowie die Selbstdarstellung als auch die allgemeinen positiven und negativen Auswirkungen durch exzessiven Medienkonsum von Jugendlichen sollen in dieser Arbeit näher beleuchtet und einander gegenübergestellt werden. Im nächsten Schritt sollen die Auswirkungen auf die Bereiche Cybermobbing sowie die zwischenmenschliche Kommunikation und soziale Beziehungen untersucht werden. Nach Abhandlung der Einflüsse und Auswirkungen auf die Jugendlichen unserer Gesellschaft folgt der praktische Teil der Arbeit, in dem zunächst die Anthologie-Serie „Black Mirror“ und die Inhalte der Folge „Nosedive“ vorgestellt werden sollen. Anhand ausgewählter Merkmale soll die fiktionale Welt mit unserer modernen Gesellschaft analysiert und verglichen werden. Abschließend soll auf die Sozialkredit-Systeme in China eingegangen und ein Bezug zur Folge hergestellt werden. In der Analyse sollen die Ergebnisse der vorangegangenen Kapitel miteinbezogen werden. Die Ergebnisse der Arbeit zeigen, dass digitale Medien einen weitreichenden sowohl positiven als auch negativen Einfluss auf Jugendliche haben. Die Nutzung hat viele Bereiche unseres Lebens bereits verändert. Besonders soziale Medien hinterlassen ihre Spuren in der Identität und Werteentwicklung von Kindern und Jugendlichen. Obwohl sie in der jüngeren Generation hohes Ansehen genießen, bestimmen sie jedoch (noch) nicht über andere Bereiche des Lebens.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Das Team "magmaOffenburg" nimmt seit 2009 an der 3D-Simulationsliga des RoboCups teil. Wie gut das Laufen auf zwei Beinen in der verwendeten Simulationsumgebung "SimSpark" funktioniert ist einer der zentralen Faktoren für ein erfolgreiches Abschneiden. Bisher wird für das Laufen ausschließlich eine inverskinematische Walk-Engine verwendet.
In dieser Arbeit wird mit genetischen Algorithmen und einer modellfreien Parametrisierung Laufen komplett "from scratch" gelernt. Derselbe Ansatz wurde zuvor bereits erfolgreich für das Lernen von Kicks eingesetzt. Gegenüber der alten Walk-Engine zeichnet diesen Ansatz besonders aus, dass zum ersten Mal die Zehengelenke genutzt werden, welche eines der verfügbaren Robotermodelle besitzt. Dies ermöglicht einen natürlicheren und schnelleren Gang. Zwar ist die Stabilität des gelernten Laufens noch nicht vergleichbar mit dem bisherigen (der Spieler fällt etwa 26% häufiger hin), aber beispielsweise beim Vorwärtslaufen konnten mit einer Geschwindigkeit von 1.3 m/s statt 1 m/s Steigerungen von 30% erzielt werden.
Darüber hinaus wurde untersucht, wie dem Agenten im Anschluss an das gelernte Laufen wieder ein Übergang zur alten Walk-Engine gelingen kann. Der erfolgreichste Ansatz basiert ebenfalls wieder auf einer mit genetischen Algorithmen trainierten Bewegung. Er ist in etwa der Hälfte der Fälle erfolgreich.
Die vorliegende Arbeit beschäftigt sich am Beispiel der Vorlesung Risikomanagement mit der Konzepterstellung eines Blended Learning Szenarios. Die Vorlesung wird im Studiengang Unternehmens- und IT-Sicherheit der Hochschule Offenburg angeboten. Ziel ist es, das Konzept einer Probeveranstaltung zu erstellen, diese Veranstaltung durchzuführen und anschließend zu evaluieren. Die Ergebnisse und Learnings, welche aus der Veranstaltung
gezogen werden können, werden anschließend verwendet, um Handlungsempfehlungen für die Umsetzung eines Blended Learning Szenarios abzuleiten. Eine Umsetzung kann
nach einer inhaltlichen Konzeption, also erst nach Abschluss dieser Arbeit erfolgen. Das entwickelte Lernszenario baut auf den an der Hochschule Offenburg eingesetzten und lizenzierten Werkzeugen auf, dem LMS Moodle und der Virtual Classroom Software Adobe
Connect. Zusätzlich wurden weitere Werkzeuge recherchiert, diese sollen den Dozierenden die Erstellung von Lernmedien erleichtern, beispielhaft werden sie in den erstellten Lernlektionen eingesetzt. Vor der Konzepterstellung werden zunächst die Begriffe des E-Learning und Blended
Learning definiert. Das Konzept des Selbststudiums in der Hochschullehre wird anschließend anhand der Veröffentlichung „Begleitetes Selbststudium“ von Landwehr
und Müller beschrieben. Schließlich werden die Rahmenbedingungen der Lern-, Gedächtnis- und Motivationspsychologischen Grundlagen zur Entwicklung eines Blended Learning Szenarios definiert. Aufbauend auf diesen Grundlagen wird die Probeveranstaltung im Rahmen der Veranstaltung geplant und durchgeführt. Die Dokumentation der einzelnen Planungsschritte wird ausführlich dargestellt. Es wurden zwei unterschiedliche Veranstaltungsteile geplant, eine ca. 45-minütige Selbststudieneinheit, welche mit Online-Lernmaterialien umgesetzt wird sowie eine Präsenzveranstaltung.
Diese wurde mit Adobe Connect, ebenfalls online, durchgeführt. Die erste Veranstaltung soll den Studierenden zur selbstständigen Erarbeitung von Vorlesungsinhalten dienen und verschiedene Lernmedien präsentieren. Der zweite Veranstaltungsteil dient der Vorstellung von Adobe Connect. Aus der Reflexion der Veranstaltungen wurde ein Leitfaden abgeleitet, welcher einige zu beachtende Handlungsempfehlungen zusammenfasst, um ein Blended Learning Szenario erfolgreich umzusetzen.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
Instagram-Marketing: Erfolgsfaktoren und Handlungsempfehlungen am Beispiel der Kosmetikindustrie
(2015)
Das Ziel dieser Arbeit lag darin, Faktoren, die den Erfolg eines Instagram-Auftritts von Kosmetik produzierenden oder vertreibenden Unternehmen aus dem deutsch-sprachigen Raum steigern, zu ermitteln und auf Grundlage der Ergebnisse Handlungs-empfehlungen auszusprechen. Im Zuge dessen wurden sieben qualitative Befragungen von Experten durchgeführt und anschließend mit Hilfe der zusammen-fassenden Inhaltsanalyse nach Mayring ausgewertet. Aus der empirischen Studie geht hervor, dass Instagram bereits jetzt eine große Rolle im Social-Media-Mix einnimmt und Unternehmen primär Ziele des Brandings und der Markenrepräsentation auf Instagram verfolgen. Desweiteren konnten mit Hilfe der leitfadengestützten Experteninterviews 15 Faktoren identifiziert werden, die positiven Einfluss auf das Instagram-Marketing ausüben: Persönlichkeit, Qualität, Authentizität, Aktualität, Kanalmix, Hashtags, Videos, die Verknüpfung mit anderen Unternehmensbereichen, Transparenz, Relevanz, Influencer-Relations, Community, Bestätigung und Management. Als am bedeutend-sten haben sich die Punkte Persönlichkeit, Qualität und Relevanz gezeigt: Marken stehen demnach vor der Herausforderung, ästhetische, zielgruppenrelevante Inhalte, die an die Eigenheiten Instagrams als Plattform angepasst sind, zu veröffentlichen und auf Augenhöhe mit den Nutzern zu kommunizieren, ohne sich selbst als Marke zu verlieren. Ferner führte die Expertenbefragung zu der Erkenntnis, dass Instagram sowohl als Community als auch als Marketing-Tool weiterhin an Bedeutung gewinnen wird, vor allem im deutschen Raum und in der Beauty-Branche.
Es ist von großem Nutzen, wenn energieeffiziente Leichtbaufahrzeuge einen effizienten und leichten Antrieb besitzen. Der aktuell verbaute Hatz-Dieselmotor des Schluckspecht S5 erfüllt diese Anforderungen nur teilweise. Aus diesem Grund wird der Motor zukünftig durch einen leichteren und effizienteren ethanolbetriebenen Ottomotor ersetzt. Da der Versuchsmotor keineswegs an die Anforderungen des Shell Ecomarathons angepasst ist und bis auf dessen Hubraum von 125 cm³ kaum Motordaten vorhanden sind, gilt es den Versuchsmotor verbrauchsoptimal zu applizieren. Die vorliegende Abschlussarbeit befasst sich mit den experimentellen Untersuchungen und einigen Optimierungen des ethanolbetriebenen Ottomotors am Motorenprüfstand. Um in Zukunft die Durchführung der Untersuchungen zu gewährleisten und den bestmöglichen Betrieb des Versuchsmotors zu garantieren, ist es elementar alle optimierten Bauteile für den Kraftstoff Ethanol auszulegen. Neben der Überarbeitung des Kraftstoffsystems liegt das Hauptaugenmerk hierbei auf der Optimierung des Kolbens und der Nockenwelle. Durch den optimierten Kolben soll die Verdichtung des Verbrennungsmotors erhöht und durch die optimierte Nockenwelle die Ventilsteuerzeiten perfektioniert werden. Demnach besteht die Aufgabe die Bauteile zu besorgen, die Fertigung zu koordinieren und den Umbau der optimierten Komponenten zu realisieren. Des Weiteren erfolgt die Konstruktion einer Kupplung, welche in Zukunft zwischen Verbrennungsmotor und Elektromotor montiert werden soll. Ein zentrale Tätigkeit ist die Fehlerbeseitigung am Motorenprüfstand, sodass der Versuchsalltag reibungslos abläuft. Die letzte Tätigkeit umfasst die Durchführung der experimentellen Untersuchungen des Verbrennungsmotors sowie das Anlegen von Kennfeldern, welche einen effizienten Motorlauf garantieren. Das Betriebskennfeld hinsichtlich der Last und Drehzahl wird mittels verschiedener Einstellparameter appliziert. Zur Unterstützung dienen dabei die Kalibrierungssoftware EcoCal und die Indizierungssoftware IndiCom.
Decarbonisation Strategies in Energy Systems Modelling: APV and e-tractors as Flexibility Assets
(2023)
This work presents an analysis of the impact of introducing Agrophotovoltaic technologies and electric tractors into Germany’s energy system. Agrophotovoltaics involves installing photovoltaic systems in agricultural areas, allowing for dual usage of the land for both energy generation and food production. Electric tractors, which are agricultural machinery powered by electric motors, can also function as energy storage units, providing flexibility to the grid. The analysis includes a sensitivity study to understand how the availability of agricultural land influences Agrophotovoltaic investments, followed by the examination of various scenarios that involve converting diesel tractors to electric tractors. These scenarios are based on the current CO2 emission reduction targets set by the German Government, aiming for a 65% reduction below 1990 levels by 2030 and achieving zero emissions by 2045. The results indicate that approximately 3% of available agricultural land is necessary to establish a viable energy mix in Germany. Furthermore, the expansion of electric tractors tends to reduce the overall system costs and enhances the energy-cost-efficiency of Agrophotovoltaic investments.
Für Unternehmen ist es zunehmend von Interesse, durch Social-Media-Kommunikation nicht nur die Aufmerksamkeit der Zielgruppe zu wecken, sondern mit der aufmerksamkeitsstarken Ansprache die Wahrnehmung ihrer Marke und das marktbezogene Verhalten zu beeinflussen. Humorvolle Appelle sind in diesem Zusammenhang zur gängigen Werbepraxis geworden und finden auf Social Media in der direkten Interaktion zwischen Marken und ihrer Zielgruppe statt. Mit der vorliegenden Arbeit wird humorvoll-schlagfertige Unternehmenskommunikation auf Social Media untersucht. Das Ziel war es, die Wirkungszusammenhänge zwischen derartiger Kommunikation, deren Bewertung, dem Markenimage, der Markenauthentizität und den Handlungsabsichten besser zu verstehen. Die Erkenntnisse über diese Zusammenhänge können sowohl der weiteren Erforschung als auch künftigen Marketingentscheidungen dienen.
Im Zuge dessen wurden die theoretischen Hintergründe moderner Markenkommunikation sowie der Konzepte Humor und Schlagfertigkeit ausgearbeitet. Der empirische Teil der Arbeit besteht aus der Konzipierung, Durchführung, Analyse und Ergebnisdiskussion einer quantitativen Studie. Zu den zentralen Ergebnissen zählt, dass sich der Grad an Humor und an Schlagfertigkeit darauf auswirkt, wie sehr die Kommunikation gefällt. Wenn diese gut gefällt, stärkt das wiederum das Markenimage. Auch die wahrgenommene Markenauthentizität bestimmt das Markenimage und wird selbst vor allem durch den Grad der Schlagfertigkeit bestimmt. Das Markenimage beeinflusst die Weiterleitungsabsicht der Kommunikation (virale Effekte) und die Kaufabsicht. Dabei unterscheidet sich humorvoll-schlagfertige Unternehmenskommunikation von neutraler Vergleichskommunikation hinsichtlich der Weiterleitungsabsicht signifikant.
Die durch den Konsumenten intensive Nutzung des Smartphones im Alltag sowie der fortwährend technologische Wandel erzeugen eine Abwanderung der Konsumenten in die Onlinewelt. Das infolgedessen zunehmend veränderte Konsumentenverhalten zwingt Unternehmen, ihre Kommunikationskanäle anzupassen sowie zu überdenken, um so bestmöglich mit ihren Kunden zu interagieren. Vor diesem Hintergrund beschäftigt sich die vorliegende Arbeit mit der Thematik des Conversational Commerce, einem derzeit noch jungen Trend innerhalb des E-Commerce.
Das Ziel dieser Masterarbeit ist es, eine fundierte Wissensgrundlage zum Gebiet Conversational Commerce zu schaffen, einschließlich den wichtigsten, damit in Verbindung stehenden Begriffen.
Als Einstieg in das Thema wird zu Beginn der Arbeit die Entwicklung des E-Commerce, hinsichtlich der Transformation dessen durch die Digitalisierung, thematisiert sowie auf die Marktentwicklung von Messaging Applikationen eingegangen. Neben der Unterteilung in text- und sprachbasierte Dialogsysteme, sprich Bots und Sprachassistenten, sollen die derzeit aktuell am Markt befindlichen Systeme vorgestellt und detailliert erläutert werden. Darüber hinaus werden diese anhand ihrer unterschiedlichen Typologien klassifiziert.
Anhand der Einbindung zweier Studien zum Thema Conversational Commerce sowie der Untersuchung dreier Chat Applikationen, soll nicht nur der künftige Einsatz von messaging-basierter Kommunikation geprüft, sondern auch, der für den Kunden und das Unternehmen entsprechende Mehrwert herausgearbeitet werden. Zusätzlich setzt sich die Arbeit mit den Herausforderungen aus Kunden-, Anbieter- und Händlersicht auseinander. Die daraus resultierenden Ergebnisse führen zu einem abschließenden Gesamtfazit dieser Arbeit.
Im ersten Teil der vorliegenden Master-Thesis geht es um die Entwicklung einer Low-Power Wireless-Lichtschranke. Der Hardware-Aufbau wird ausführlich beschrieben und Besonderheiten für die Low-Power-Auslegung, wie beispielsweise Power-Management, werden vorgestellt. Optische Einheiten, Power-Management-Einheiten, System-On-Chip und Funkstufe werden ausführlich angesprochen. Die interrupt-gesteuerte und zeitlich optimierte Programmierung wird im Anschluss an den Hardware-Aufbau vorgestellt. Auch hier werden Low-Power-Eigenschaften diskutiert. Die Anbindung der Lichtschranke an einen Hub im 868 MHz ISM Band (engl.: Industrial, Scientific and Medical Band) und die Datenübertragung mittels Bluetooth an einen Computer, sowie die Programmierung einer Anzeige-GUI zur Visualisierung der Funkdaten mit LabVIEW werden weiterführend behandelt. Ergänzend hierzu wird die entwickelte Hardware vermessen und charakterisiert. Die Messergebnisse werden ausgewertet und vorgestellt.
Im zweiten Teil der Master-Thesis geht es um die Entwicklung eines Schulungskonzepts. In der Sick AG halten sich alle Abteilungen (Divisions) beim Entwickeln eines Produktes an einen vorgegebenen Produktentstehungsprozess. Division 1 hat im Rahmen dieses Produktentstehungsprozesses eine Konkretisierung vorgenommen: den Masterplan. Für die Einführung des Masterplans wurde ein teilnehmerorientiertes Schulungskonzept entwickelt. Es wird zuerst auf die Inhalte eingegangen. Im Anschluss werden die Teilnehmer untersucht und Motive und Lernvoraussetzungen charakterisiert. Nachdem diese und weitere Rahmenbedingungen geklärt sind, wird ein didaktisch durchdachtes Schulungskonzept entwickelt, ausführlich vorgestellt und diskutiert.
Im Rahmen dieser Arbeit wird eine digitale Volkshochschule, die Onrhein vhs, konzipiert und umgesetzt. Ziel ist es, eine neue Zielgruppe im Alter von 18- bis 35-Jahren zu erreichen und die Digitalisierung in den Volkshochschulen zu fördern. Dies umfasst die Entwicklung einer für diese Zielgruppe attraktive Internetpräsenz, bestehend aus einem neuen Design, einer neuen Webseite und einem Social-Media-Kanal. Während der Pilotphase der Weiterbildungsoffensive WEITER.mit.BILDUNG@BW werden Erkenntnisse für den zukünftigen digitalen Betrieb der Volkshochschulen gesammelt und evaluiert. Um die Entwicklungen auf die Bedürfnisse der Zielgruppe anzupassen, wird im Verlauf der Arbeit eine Umfrage zur Weiterentwicklung der Volkshochschulen durchgeführt und ausgewertet. Gemeinsam mit der Region werden Ansätze zur Zusammenarbeit unter den bestehenden Volkshochschulen und der Onrhein vhs erarbeitet, um die Digitalisierung gemeinsam zu bewältigen.
Gegenstand der hier vorgestellten Master-Thesis stellt das sogenannte Mobile Location Based Couponing, eine Erweiterung des Mobile Marketing dar. Dabei handelt es sich um ein ortsbasiertes Kommunikationsinstrument, welches Konsumenten, abhängig von ihrer aktuellen Position, Sonderangebote über das mobile Endgerät zur Verfügung stellt. Für lokale Unternehmen eröffnen sich somit neue Geschäftsmöglichkeiten. Im Verlauf der Arbeit soll das Potenzial des Mobile Location Based Couponing hinsichtlich des deutschen Marktes mit Hilfe diverser Studien analysiert werden. Darüber hinaus sollen für ein besseres Verständnis Anwendungsmöglichkeiten am Beispiel des Dienstes „Facebook Check-In Deals“ dargestellt werden.
Cloud computing has revolutionized the way businesses operate by providing them with access to scalable, cost-effective, and flexible IT resources. This technology has enabled businesses to store, manage, and process data more efficiently, leading to improved competitiveness and increased revenue. The purpose of this thesis is to explore the impacts of using cloud computing from a business perspective. The research employs both primary and secondary sources of data, including a literature review, interviews with employees who have more than 5 years of experience, a questionnaire, and observations from Billwerk+ company.
The findings of this research indicate that cloud computing has had a significant impact on businesses, providing them with cost savings, improved agility and flexibility, and enhanced access to data and applications. However, it has been revealed that the benefits of cloud computing for companies may vary according to the departments of the employees. The results of this research contribute to the existing body of knowledge on the topic of cloud computing and its impact on businesses. The findings of this thesis can be used by business owners, managers, technology professionals, and students to make informed decisions about the adoption and use of cloud computing technology.
In conclusion, this thesis provides a comprehensive understanding of the impacts of using cloud computing from a business perspective, highlighting the factors that companies consider when deciding to use cloud environments and the views from different departments. The results of this research will be valuable to a wide range of individuals interested in exploring the implications of cloud computing for businesses.
Wassermangel in Deutschland
(2023)
Die Arbeit beschäftigt sich mit der medialen Berichterstattung von vier deutschen Leitmedien in Bezug auf das Thema Wassermangel in Deutschland. Ziel ist es, das in der Gesellschaft vorhandene Bewusstsein für die Umwelt zu stärken und ein besonderes Augenmerk auf die Problematik des sich verschärfenden Wassermangels zu lenken.
Zunächst wird hierfür die Vorgehensweise einer Medieninhaltsanalyse dargelegt und mit dem konkreten Beispiel in jedem Schritt verknüpft. Dabei werden die relevantesten Schwerpunkte der Berichterstattung zwischen April und Oktober 2022 herausgearbeitet. Es wird angenommen, dass die Berichterstattung vor allem im Sommer besonders hoch ist und es sowohl thematische als auch regionale Unterschiede zwischen den vier Verlagen gibt. Die gewonnenen Beobachtungen werden sowohl im Gesamtzusammenhang der untersuchten Artikel als auch in einer Einzelbetrachtung der vier Medien, Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung, Focus und Spiegel, grafisch aufbereitet und interpretiert. Die Ergebnisse zeigen, dass die Kategorien Hitze und Dürre besonders häufig codiert werden. Damit stehen vor allem die Ursachen und Auswirkungen, aber nicht der Wassermangel selbst, im Fokus der Berichterstattung.
Diese Erkenntnisse werden anschließend in eine Online-Kampagne überführt, mit dem Ziel, das Bewusstsein einer jungen, medienaffinen Zielgruppe auf den steigenden Wassermangel in Deutschland zu lenken.
Ziel der vorliegenden Arbeit ist die Durchführung einer Stadtklimasimulation vom Campus Offenburg. Um die Simulation auf Plausibilität überprüfen zu können, werden zudem Mikroklimamessungen vom Offenburger Campus durchgeführt. Die Ergebnisse der Simulation sollten im Anschluss mit den Messergebnissen verglichen werden.
Für die Durchführung der Stadtklimasimulation sowie der Mikroklimamessung werden zunächst verschiedene Vorbereitungen getroffen. Für die Stadtklimasimulation müssen im wesentlichen zwei Dateien vorbereitet werden. Eine Datei enthält Informationen zur Topologie, während die andere Datei Informationen zur Initialisierung der Simulation beinhaltet. Um den Rechenaufwand der Simulation gering halten zu können, müssen verschiedene Vereinfachungen getroffen werden. Für die Mikroklimamessung muss ein Messsystem entwickelt werden, welches sich aus stationären sowie mobilen Temperaturmessungen zusammensetzt. Für die stationäre Temperaturmessung werden Sensoren, verteilt über den ganzen Campus, platziert. Bei der mobilen Messung kommt eine Messvorrichtung mit GPS System, welches auf einem Fahrrad aufgebaut wird, zum Einsatz. Für Innenraum-temperaturen stehen fest installierte Sensoren zur Verfügung.
Der Vergleich zwischen Simulation und Messung zeigt auf, dass die Außentemperaturen der Simulation zu hoch sind. Die simulierten Temperaturdifferenzen können unter Berücksichtigung der getroffenen Vereinfachungen plausibilisiert werden. Die simulierten Innenraumtemperaturen weisen große Unterschiede im Vergleich zu den Messungen auf. Dies kann auf die getroffenen Vereinfachungen bei der Simulation zurückgeführt werden. Der Vergleich der Ergebnisse zeigt, dass Anpassungen in der Simulation erforderlich sind.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.
"The web’s greatest strength, I believe, is often seen as a limitation, as a defect. It is the nature of the web to be flexible, and it should be our role as designers and developers to embrace this flexibility, and produce pages which, by being flexible, are accessible to all. The journey begins by letting go of control, and becoming flexible."
Mit diesem Satz schloss Allsopp sein im Jahre 2000 auf alistapart.com publiziertes Essay 'A Dao of Webdesign'. Obwohl die Veröffentlichung nun über ein Jahrzehnt zurückliegt, hat der diesem Zitat zugrundeliegende Gedanke der Flexibilität, Anpassungsfähigkeit und Zugänglichkeit des Web, nichts an seiner Aktualität verloren. Vielmehr hat er in außerordentlichem Maße an Relevanz hinzugewonnen, denn nie in seiner noch jungen Geschichte war das Web unbeständiger, die verwendeten Technologien kurzlebiger und die internetfähigen Geräte vielfältiger als heute.
Im Jahr 2007 stellte Apple mit dem iPhone erstmals ein mobiles Endgerät vor, welches in der Lage war, dem Nutzer ein akzeptables Surferlebnis zu bieten. Seitdem ist der Siegeszug mobiler, internetfähiger Devices ungebrochen. Dabei sind Smartphones nicht die einzigen Geräte, die für Aufruhr sorgen. Tablets und Netbooks besetzen die Nische zwischen Smartphone und Laptop und auch E-Book Reader und Handheld- Konsolen sind in der Lage, auf das Web zuzugreifen. Gleichermaßen steigt die Vielfalt internetfähiger Geräte im stationären Sektor. Klassische Spielkonsolen werden ebenso mit Browser ausgeliefert wie Blu-ray-Player, Receiver und Smart-TVs. Smartwatches, Fuelbands, Kühlschränke oder Autos mit internetfähigen Komponenten bilden die nächste Stufe dieser Entwicklung.
Das Web ist damit jenseits des Desktops angekommen. Es hat sich von einem Computermedium zu einem universellen Medium entwickelt, das überall und auf einer unüberschaubaren Vielzahl von Geräten stattfindet. Die Geräte unterscheiden sich dabei nicht nur in ihrer Bildschirmgröße. Auch das Leistungsvermögen ihrer Hardware, die Fähigkeiten ihrer Betriebssysteme und Browser, das Ausmaß der Unterstützung von Standards und die Interaktionsmethoden variieren. Immer unklarer wird auch der Kontext, in dem ein internetfähiges Gerät verwendet wird. Neben der Anzahl und Vielfalt internetfähiger Geräte jenseits des Desktops, wächst auch der Umfang der Internetnutzung mit diesen Geräten. Im Jahr 2013 nutzten in Deutschland 70 Prozent der Internetuser das Web über Smartphones . Im ersten Quartal 2014 wurden bereits 31,2 Prozent des weltweiten Traffics durch mobile Geräte generiert. In den USA, Großbritannien und Italien verbringen die Nutzer bereits heute über mobile Geräte mehr Zeit im Internet als über Desktop-PCs.
Die bislang üblichen statischen und für die Spezifikationen eines Desktop-Computers optimierten Websites, sind nicht in der Lage auf die mannigfachen Anforderungen der verschiedenen Devices angemessen zu reagieren. Konzepte, die darauf beruhen für verschiedene Gerätetypen separate Websites zu entwickeln, sind angesichts der Vielzahl und der Heterogenität der vorhandenen Geräte ebenfalls nicht mehr oder nur noch in Ausnahmefällen praktikabel.
Vielmehr geht es darum einen flexiblen geräteagnostischen Designansatz für das Web zu verfolgen, um geräteübergreifend eine bestmögliche User Experience gewährleisten zu können. Dieser muss neben Anpassungen an die Bildschirmgröße auch darüber hinausgehende Faktoren wie Performance, Interaktionsmethoden und die individuellen Leistungsmerkmale der Geräte berücksichtigen. Responsive Web Design beschreibt solch ein Konzept. Dieser Ansatz erfordert die Anwendung einiger neuer Techniken und ein konzeptionelles Umdenken beim Entwickeln von Websites. Gleichermaßen bedarf es einer Abkehr vom bisherigen linearen Workflow hin zu einem iterativen, kollaborativen Prozess zwischen den Disziplinen, der es ermöglicht, den neuen Herausforderungen responsiven Webdesigns gerecht zu werden.
Aluminiumgussbauteile spielen heutzutage in vielen Branchen, wie der Automobilindustrie und der Luft- und Raumfahrtindustrie eine wichtige Rolle. Sie zeichnen sich durch hohe Festigkeit und Steifigkeit bei vergleichsweise geringem Gewicht aus. Bei der Herstellung von Aluminiumgussbauteilen, kommt es prozessbedingt immer zu Defekten im Werkstoff. Mit Computer Tomographie Aufnahmen können diese Defekte zerstörungsfrei detektiert werden. Anschließend sollen die Defekte in Finite-Elemente-Methode Berechnungen berücksichtigt werden. Dies bietet einen entscheidenden Vorteil bei der Schadensvorhersage dieser Bauteile.
In dieser Masterarbeit wurde zwei Programme entwickelt, welche das Mapping von Defekten aus CT-Aufnahmen eines Aluminiumgussbauteils auf ein LS-Dyna Netz ermöglichen. Dadurch können die Defekte und damit die Porosität eines Gussbauteils in der Festigkeitsberechnung berücksichtigt und die Schadensvorhersage verbessert werden. Die Programmierung erfolgte in Python.
Das weiterentwickelte Mapping-Programm benötigt zwei Input Dateien. Zum einen wird die Defektdatei aus den CT-Aufnahmen benötigt und zum anderen ein LS-Dyna Netz. Die komplexen Defektgeometrien werden in dem Mapping-Programm vereinfacht als umschließende Kugeln um den Defekt beschrieben. Diese Vereinfachung ist aufgrund der benötigten Rechenleistung notwendig. Anschließend prüft das Mapping-Programm alle Kollisionen zwischen Elementen des FE-Netzes und den Defekten und ermittelt für jedes Element ein Schnittvolumen. Aus dem Schnittvolumen und dem Elementvolumen wird die Porosität berechnet. Die Rechenzeit für ein Bauteil mit 107379 Elementen beträgt 480 Minuten.
Ein zweites, neu entwickeltes Programm ermöglicht das Mapping der wahren Porengeometrie auf FE-Netze. Durch die optimierte Porenbeschreibung wird eine höhere Genauigkeit beim Mapping der Defekte erreicht. Die Rechenzeit beträgt bei einem Bauteil mit 107379 Elementen lediglich 15 Minuten.
Ziel dieser Masterarbeit ist es, das Mapping-Programm zu optimieren, damit es neben Hexaedern weitere Elementtypen verarbeiten kann. Darüber hinaus sollte die Porenbeschreibung verbessert werden, um genauere Ergebnisse zu erhalten. Dafür wurde ein zweites Programm mit einer verbesserter Porenbeschreibung entwickelt, dass zudem deutlich geringere Rechenzeiten benötigt.
Data Mining of the Edge
(2016)
Kleine, intelligente Systeme prägen zunehmend unsere Umwelt, dass sogenannte Internet of Things wird immer mehr Teil unseres Alltages. Diese Geräte sind immer mehr dazu in der Lage Daten aufzunehmen und zu verarbeiten. Doch wie jede Technische Revolution, führt auch der Ausbau des IoT zu neuen Herausforderungen. Das Ziel dieser Arbeit ist die Bewertung der Qualität von verschiedenen Data Mining Frameworks im Edge Bereich, die Erstellung mehrere Demonstatoren eines Edge Szenario Aufbaus sowie deren Evaluation.
In der vorliegenden Thesis werden Empfehlungsalgorithmen zur Verbesserung von Wein-Empfehlungen evaluiert. Der Algorithmus wird zur Entscheidung zwischen zwei Weinen eingesetzt, so dass der jeweils für den Kunden geeignetere Wein empfohlen wird. Das derzeitige System setzt Collaborative Filtering durch den Alternating Least Squares (ALS) Algorithmus um. Bei Kunden und Weinen, die nicht die notwendigen Bedingungen für die Anwendung von ALS erfüllen, wird durch Zufall entschieden.
Dem bestehenden Ansatz wurden folgenden Verfahren gegenübergestellt: Content-based Filtering mit einen Autoencoder und Hybrid Filtering mit einem neuronalen Netz sowie mit der Empfehlungsbibliothek LightFM. Die neuen Ansätze berücksichtigen immer die Weineigenschaften und können für noch nicht gekaufte Weine eingesetzt werden (Cold-Start Problem). Verglichen wurden die Ansätze durch zwei Ranking-Methoden und einen selbst-entwickelten offline A/B-Test.
Unter den neuen Ansätzen schnitt LightFM am besten ab. ALS lieferte insgesamt die besten Ranking-Werte. Durch ein online A/B-Test zwischen ALS und LightFM konnten keine signifikanten Ergebnisse ermittelt werden. Insgesamt konnte auf Basis der in den Tests gesammelten Daten keine Verbesserung der Empfehlungslogik gegenüber dem bestehenden Verfahren mittels ALS nachgewiesen werden. Für eine abschließende statistisch signifikante Beurteilung müssten mehr online A/B-Tests durchgeführt werden.
Das Lokalisationssystem besteht aus einem Anwender-PC mit Bluetooth-Adapter, einem Lautsprecherkreis sowie einem Tablet. Eine Funktion im Programm Matlab auf dem Anwender-PC dient zur Eingabe der Steuerparameter, welche in einer Textdatei an eine Schnittstelle, die ebenfalls auf dem Anwender-PC installiert ist, übergeben und via Bluetooth an eine native App auf einem Tablet gesendet wird. Die Schnittstelle wurde mithilfe der IDE Eclipse mit der Programmiersprache Java erstellt und kann unter der Bedingung, dass auf dem verwendeten PC JRE Version 1.8.0 oder jünger vorinstalliert ist, systemunabhängig ausgeführt werden. Je nach gesendeten Parametern wird eine von sechs möglichen GUIs auf dem Bildschirm des Tablets angezeigt, welche die Anordnung der Lautsprecher im Audiometrieraum wiedergibt. Nach dem Schallereignis hat der Proband die Möglichkeit, je nach gewählter GUI, einen von sieben bzw. zwölf angezeigten Lautsprechersymbolen oder einen beliebigen Punkt auf dem Bildschirm anzutippen. Diese Eingabe entspricht der Richtung, welche der Proband als Schallquelle lokalisierte. Nach Eingabe der Probandenantwort wird diese via Bluetooth an die Schnittstelle und somit an Matlab gesendet, wo die Antwort ausgewertet werden kann.
Die vorliegende Masterthesis erarbeitet eine Handlungsempfehlung für die erfolgreiche Umsetzung von Datenstrategien im strategischen Management. Dazu wird im Voraus eine Definition des Begriffs Datenstrategie erstellt und eine Einordnung in die Prozesse des strategischen Managements vorgenommen.
Im ersten Teil der empirischen Studien wird eine systematische Literaturrecherche zum Gegenstand der Arbeit durchgeführt, um einen Überblick des aktuellen Forschungsstands zu geben und eventuelle Forschungslücken aufzuzeigen. Ferner wird durch die Methodologie einer fallstudienbasierten Grounded Theory eine Theorie zur Entwicklung von Datenstrategien induktiv hergeleitet.
Das Ergebnis der Arbeit ist eine Handlungsempfehlung für die Entwicklung von Datenstrategien, die unabhängig von Branche und Unternehmensform angewandt werden kann. Sowohl die Definition als auch die Handlungsempfehlung zeigen deutlich, dass die Anwendungsbereiche, Funktionen und Prozesse, die zu einer Datenstrategie beitragen können, im Rahmen von Big Data und Strategietheorien bereits bekannt sind und in der Praxis Anwendung finden. Die Handlungsempfehlung verbindet demnach bestehende Methoden und bietet einen Leitfaden zu deren korrekten Anwendung innerhalb einer Datenstrategie.
Durch die Umstrukturierung in der Automobilindustrie hinsichtlich Elektromobilität steigen die technischen und wirtschaftlichen Anforderungen an die Zulieferunternehmen von Automobilherstellern. Um im Wettbewerb konkurrenzfähig zu sein, müssen die jeweiligen Prozesse stetig geprüft und optimiert werden. Anhand dieser Masterarbeit wird daher die Produktion von Komfortaktuatoren bezüglich Wirtschaftlichkeit sowie Kapazitätserweiterung analysiert und demnach ein Konzept zur Fertigungsoptimierung entwickelt.
Für diese Konzeptentwicklung wird zunächst die bestehende Produktion der Komfortaktuatoren anhand der Prozesskette bezüglich des Automatisierungsgrades erforscht. Eine Taktzeitanalyse der Endmontage weist den Engpass am manuellen Handarbeitsplatz auf, an dem die Bestückung des Transferträgers stattfindet. Die Betrachtung des Produktionsvolumens zeigt die Verdopplung der Stückzahlen ab 2024 bei den Aktuatoren mit Getriebelage rechts. Um diese Produktionsstückzahlen zu fertigen und den Engpass auszugleichen, ist eine Automatisierung der bestehenden Endmontage erforderlich. Die wirtschaftliche Investition in die Automatisierung bedeutet eine erhöhte Amortisationszeit, die sich je nach Stückzahlen zwischen acht und 15 Jahre befindet.
Eine geringere Kapitalrückflussdauer kann mit der Erweiterung der Fertigungslinie mit einem höheren Automatisierungsgrad sowie einer geringeren Taktzeit erreicht werden. Der benötigte Platzbedarf für diese Erweiterung der Fertigungslinie wird auf ungefähr 5,7 m abgeschätzt. Mit einer kompakten Anordnung der Fertigungsstationen kann dieser Einbau erfolgen. Für die Entwicklung des Transfersystems wird eine Anforderungsliste erstellt und anhand dieser ein Transfer-Konzept innerhalb der Fertigungslinie entwickelt. Aufgrund der Kostenschätzung und des Platzbedarfs erzielt das Konzept mit einem Transferträger die höhere Wertigkeit. Mit dem in dieser Masterarbeit erarbeiteten planerischen Konzept zur Fertigungsoptimierung wird eine Einsparung der Vorgabezeit von 11,3 min im Vergleich zum aktuellen Stand erzielt. Die Kosten der Neubau-Stationen und die anfallenden Umbaumaßnahmen werden auf etwa 950.000 € geschätzt. Der zeitliche Beginn dieser Erweiterungsmaßnahmen ist auf Anfang 2023 terminiert.
Die vorliegende Masterarbeit hat sich zum Ziel gesetzt, den Messeauftritt für die ABI-Sicherheitssysteme GmbH zu gestalten. Aufgrund des Corona-Virus und den damit einhergehenden Kontaktbeschränkungen wurden dabei die ersten Planungsdaten für einen konventionellen Messestand in eine digitale Variante umgewandelt. Als Basis wird eine ausführliche Analyse der Kommunikationspolitik des Unternehmens durchgeführt, um darauf die Planung des digitalen Messestandes und der Inhalte aufzubauen. Zusätzlich werden bereits bestehende digitale Messestände detailliert betrachtet, um daraus Rückschlüsse für die Planung zu generieren. Auf der Grundlage der Analysen wird dann der digitale Messeauftritt ausgearbeitet. Dazu gehört der Aufbau des Messestandes, die Gestaltung der Grafiken, die Auswahl der Inhalte sowie die Produktion des Informationsmaterials. Die Planung der Kommunikationsmaßnahmen, mit denen der digitale Messestand an die Zielgruppe herangeführt werden soll, ist ebenfalls Teil dieser Arbeit.
In dieser Arbeit geht es um das Thema des digitalisierten Scrum Prozesses. Scrum ist eine agile Projektmanagement Methode und ist mittlerweile nicht mehr aus der Softwarebranche wegzudenken.
Die Forschungsfrage, mit der sich dieser wissenschaftlichen Arbeit beschäftigt, lautet:
Wie lässt sich der Scrum Prozess bei der App-Entwicklung mittels einer geeigneten Softwarelösung effizienter durchführen?
Dabei wird zunächst die aktuelle Situation der eyeworkers GmbH in Bezug auf den Einsatz von Softwarelösungen im Projektmanagement beleuchtet und vorhandene Probleme her- ausgearbeitet.
Danach werden mit Hilfe einer Anforderungserhebung und -Analyse alle Anforderungen gesammelt und analysiert, die das Scrum Team und die Geschäftsleitung der Agentur an die gesuchte Softwarelösung stellen.
Im weiteren Schritt wird durch die Filterung eines Generators, der sich mit Scrum Software- lösungen befasst, eine Vorauswahl für weitere Einzelanalyse potenzieller Anwendungen durchgeführt. Diese Auswahl wird weiter verfeinert, sodass am Ende nur noch drei Systeme übrigbleiben, denen eine weitere Analyse unterzogen wird.
Bei den Einzelanalysen werden die drei Softwarelösungen – Jira, GitLab und Hansoft – auf die Erfüllung aller gesammelten Anforderungen geprüft. Dabei erweist sich die Jira Software als das am besten geeignetste Projektmanagement Tool für die Durchführung des Projekts „Die Sitema-App“.
Im vorletzten Schritt wird der Prozess mit der Anwendung GitLab durchlaufen und kritisch evaluiert um der Software dann die Empfehlung, Jira, gegenüberzustellen und herauszuarbeiten, wie der Verlauf mit dieser Software von Statten gegangen wäre. Dies beruht auf Annahmen der Verfasserin.
Zuletzt werden alle Forschungsergebnisse noch einmal zusammengefasst und ein Ausblick in die zukünftige Nutzung agiler Projektmanagement Tools bei der eyeworkers GmbH gegeben.
Kooperativer Unterricht im Kontext des Lernfeldkonzepts an beruflichen Schulen - Chancen und Grenzen
(2021)
Obwohl Lehrkräfte die Kooperation heutzutage als wichtig ansehen und diese durch das Lernfeldkonzept an Berufsschulen impliziert wird, ist es in der praktischen Umsetzung nach Aussagen der Lehrkräfte immer noch eine Ausnahme, mit Kollegen direkt zusammenzuarbeiten. An diesem Punkt setzt die Fragestellung dieser Arbeit an, in welcher geklärt werden soll, welche hemmenden Faktoren bei Lehrkräften an beruflichen Schulen im Rahmen von kooperativer Zusammenarbeit innerhalb des Kollegiums bestehen.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
Diese Arbeit beschäftigt sich mit dem Thema NoSQL-Datenbanken in Webanwendungen. Dabei solle die verschiedenen Konzepte aktueller NoSQL-Datenbanken erläutert und exemplarische Implementierungen der einzelnen Konzepte vorgestellt werden. Anschließend wird der Einsatz in modernen Webanwendungen gezeigt. Hierzu soll eine einfache Social-Community-Plattform erstellt werden, welche zuerst auf Basis eines relationalen Datenbank Management System erstellt wird. Um die Einsatzmöglichkeiten der NoSQL-Vertreter zu zeigen werden anschließend einzelne Funktionen mit NoSQL-Datenbank implementiert und die Vor- und Nachteile erörtert.
Quarz crystal microbalances allow the monitoring of the adsorption process of mass from a liquid to their surface. The adsorbed mass can be analysed regarding to its protein content using mass spectromety. To ensure the protein identification the results of several measurements can be combined. A high content QCM-D array was developed to allow up to ten measurements parallel. The samples can be routed inside the array distributing one sample to several chips. The fluidic parts were prototyped using 3D printing. The assembled array was tight and the sample routing function could be demonstrated. A temperature controller was developed and implemented. The parameters for the PID controller were determined and the controller was shown to be able to keep the temperature constant over long time with high accuracy.
Elektronische Musik wird heute häufig mit erschwinglichen, digitalen Mitteln produziert. Die vorliegende Arbeit geht der Frage nach, welche Lernpotenziale das Internet im Hinblick auf die digitale Produktion elektronischer Musik bietet. Auf Basis einer umfassenden Literatur- und Medienrecherche, insbesondere in den Bereichen ELearning und Musikpädagogik, sowie eigenen Überlegungen werden zum einen Online-Lernvorgänge charakterisiert, zum anderen wird beleuchtet, welche Besonderheiten und Herausforderungen die digitale elektronische Musikproduktion als spezielles Lerngebiet mit sich bringt. Verschiedene Formen von Online-Lernmöglichkeiten werden dabei jeweils anhand diverser Praxisbeispiele dargestellt und deren Lernpotenziale untersucht.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
Die vorliegende Masterthesis befasst sich mit dem Entwicklungsprozess und der Vorstellung eines Konzepts einer selbst entworfenen Mini-Jugendserie TOA. Wesentliche Merkmale dieser Serie sind eine zeitdeckende und kammerspielartige Erzählstruktur.
Das Ziel dieser Arbeit ist es, einen Einblick in das Zusammenspiel von theoriegestützter Entwicklung und kreativen Schreibens einer Serie zu ermöglichen. Zum allgemeinen Verständnis der Serie und deren Faszination wird dabei zunächst ihre zeitliche Entwicklung beleuchtet und der Begriff „Quality-TV“ sowie die Herausforderungen deutscher Qualitätsserien erörtert. Basierend auf der Definition der wichtigsten Merkmale erfolgreicher Serien wird im Anschluss im Hauptteil dieser Arbeit ein Konzept für die Mini-Jugendserie TOA erarbeitet. Dazu werden neben dem Genre und der Zielgruppe weitere wesentliche Bestandteile eines Serienkonzepts bestimmt.
Eine kurze Zusammenfassung der Grundidee in Form eines Exposés liefert dabei eine erste Vorstellung von der Welt von TOA. Anschließend werden mithilfe ausgewählter Methoden zur Figurentwicklung die sechs Hauptfiguren der Serie charakterisiert und im Folgenden die Thematik, Struktur und Erzählweise herausgearbeitet. Anhand von drei beispielhaften Episoden wird zudem ein kurzer Einblick in den Handlungsverlauf der Serie gewonnen. Abschließend werden nach dem Festlegen des Stils und der jeweiligen Gestaltungsmittel der Entwicklungsprozess des Formats reflektiert und die Chancen des Formats am deutschen Serienmarkt beurteilt.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
Im Berufsbereich Medien existieren innerhalb einer Berufsuntergruppe die duale Ausbildung zur/zum Mediengestalter/-in Digital und Print sowie die vollzeitschulische Ausbildung zur/zum staatlich-geprüften Grafikdesigner/-in. In der vorliegenden Arbeit werden anhand dieser beiden Ausbildungsberufe die Ausbildungsformen verglichen, deren Stellenwert beleuchtet sowie die Vor- und Nachteile analysiert. Hierfür werden zunächst die theoretischen Hintergründe erarbeitet und die verschiedenen Perspektiven untersucht. Dieser Teil der Arbeit bildet dann die Basis zur Erstellung konkreter Fragen, anhand derer mit einer geeigneten Forschungsmethode empirische Daten erhoben werden sollen. Diese sollen im Anschluss ausgewertet, analysiert und interpretiert werden um möglichst präzise die Forschungsfrage beantworten zu können.
Das Konzept der Thermoaktiven Bauteilsysteme (TABS) zur Heizung und Kühlung von Gebäuden gewinnt aufgrund seiner Kompatibilität mit erneuerbaren Energiequellen an Popularität. Die Steuerung von TABS und somit auch die Gewährleistung eines behaglichen Raumklimas erweist sich allerdings aufgrund der hohen Systemträgheit als komplex. Kurzfristige Witterungsänderungen sorgen für unerwünschte Raumtemperaturänderungen, die nur langsam korrigiert werden können. Bei Nichtwohngebäuden wie dem Regionalen Innovationszentrum für Energie (RIZ Energie) in Offenburg wird dieser Umstand durch die unregelmäßige Gebäudenutzung zusätzlich erschwert, da innere Wärmelasten stark variieren und nicht vorhersehbar sind.
Konventionelle TABS-Steuerungen können Störgrößen im TABS-Betrieb nur bedingt und zeitverzögert berücksichtigen, weswegen eine dauerhafte Gewährleistung des thermischen Komforts im Gebäude oft nicht erreichbar ist – dies ist auch am RIZ Energie der Fall. Als Lösung dient der Einsatz prädiktiver Steuerungsalgorithmen, die Störgrößen prognostizieren und den TABS-Betrieb dementsprechend anpassen können.
Diese Arbeit überprüft das Potenzial von intelligenten TABS-Steuerungsalgorithmen für den Einsatz am RIZ Energie anhand der Umsetzung mit einem digitalen Zwilling des Gebäudes. Dabei konnte unter Verwendung der Algorithmen und Berücksichtigung von inneren und äußeren Störgrößen im TABS-Betrieb ein verbessertes Raumklima simuliert werden. Infolgedessen konnte zudem der digitale Zwilling optimiert werden.
Automation research has become one of the most important tools for future thinking organizations. It includes studying the economic and social aspects to determine how accountants were affected by automating the accounting profession. Moreover, this research studied the social aspect of automation, including the accountants' satisfaction and agreement towards the shift from manual-based accounting to automated accounting. Additionally, the purpose of the research was to comprehend the aspects that affect the variance of the satisfaction and agreement levels before and after automation and whether there is a relationship between those satisfaction and agreement levels and the demographic profile of accountants.
A quantitative method was used to answer the research questions. The findings and results were gathered through an online survey. The respondents in the study represent forty-three accountants who are located and working in Germany. The implications and conclusions of the research were observed from the accountants' perspective.
The research results presented that the automation of accounting significantly impacted the accountants' profession. It indicated that accountants are satisfied with automated accounting and agree with its effects and impacts on their profession. Accountants agreed that automated accounting tasks made the accounting process more effective and valuable. The findings also showed that educational level and length of experience in automated accounting are correlated with the satisfaction of accountants towards automated accounting. It presented that the more experience in automation and higher education accountants have, the more satisfied they are with automated accounting. Due to this phenomenon, higher qualifications and more basic IT knowledge are required in comparison with previous times.
Wie können sich Unternehmen erfolgreich im Social-Media-Umfeld ihrer Kunden platzieren? Mit dieser Fragestellung beschäftigt sich die vorliegende Forschungsarbeit. Die sozialen Netzwerke bieten viele Möglichkeiten, um potenzielle und bestehende Kunden zu erreichen, bringen aber gleichzeitig verschiedene Herausforderungen mit sich. Der Fokus dieser Arbeit liegt auf der Plattform Instagram. Dabei wird der Nutzer fokussiert, denn der Trend im Marketing geht zur Customer Centricity.
Maßnahmen, die Nutzer zum Abonnieren animieren, können nicht eindeutig benannt werden. Sie sind individuell vom Nutzer, aber auch vom Unternehmen und den jeweiligen Inhalten abhängig. Die Probanden der Umfragenstichprobe verhalten sich nach eigener Angabe beim Konsum, der Interaktion und dem Abonnieren zurückhaltend. Lediglich 8,94 Prozent gaben an, sich regelmäßig Profile von Unternehmen anzuschauen. Noch seltener als der Konsum findet die Interaktion mit Unternehmensinhalten statt. Die Hürde zur Interaktion und dem Abonnieren ist scheinbar hoch. Die Ergebnisse zeigen, dass es keine signifikanten Unterschiede im Nutzungsverhalten zwischen den Geschlechtern, den Beschäftigungsarten oder dem Budget gibt. Das lässt darauf schließen, dass das Handeln individuell und von anderen Faktoren abhängig ist. Jedoch bestätigt dies auch, dass der Trend des Content Marketings und der Customer Centricity weiterhin eine wichtige Rolle spielen. Der Nutzer möchte individuell angesprochen werden. Dabei sollen die Inhalte sinnvoll und inspirierend sein sowie nicht werblich wirken. Es bleibt die größte Herausforderung für Unternehmen in das private Umfeld der Nutzer auf Instagram einzutreten, ohne als „störend“ empfunden zu werden. Aus diesen Gründen ist eine weitere Forschung im Bereich „Unternehmen auf Instagram“ nötig. Die Schattenseite dieses Themenbereichs ist die Schnelllebigkeit und die fehlende Transparenz, beispielsweise zum Instagram-Algorithmus. Die vorliegende Forschung dient lediglich einer ersten Einschätzung des Themas, die ein möglichst breites Bild der Wahrnehmung von Unternehmen auf Instagram sowie vom Beispiel-Unternehmen Deinzigartig abbilden soll.
This research presents a comprehensive exploration of hydroponic systems and their practical applications, with a focus on innovative solutions for managing environmental and analytical sensors in hydroponic setups. Hydroponic systems, which enable soilless cultivation, have gained increasing importance in modern agriculture due to their resource-efficient and high-yield nature.
The study delves into the development and deployment of the SensVert system, an adaptable solution tailored for hydroponic environments. SensVert offers adaptability and accessibility to farmers across various agricultural domains, addressing contemporary challenges in supervising and managing environmental and analytical sensors within hydroponic setups. Leveraging LoRa technology for seamless wireless data transmission, SensVert empowers users with a feature-rich dashboard for real-time monitoring and control. The study showcases the practical implementation of SensVert through a single sensor node, seamlessly integrating temperature, humidity, pressure, light, and pH sensors. The system automates pH regulation, employing the Henderson-Hasselbalch equation, and precisely controls liquid dosing using a PID controller. At the core of SensVert lies an architecture comprising The Things Stack as the network server, Node-Red as the application server, and Grafana as the user interface. These components synergize within a local network hosted on a Raspberry Pi; effectively mitigating challenges associated with data packet transmission in areas with limited internet connectivity.
As part of ongoing research, this work also paves the way for future advancements. These include the establishment of a wireless sensor network (WSN) utilizing LoRa technology, enabling seamless over-the-air sensor node updates for maintenance or replacement scenarios. These enhancements promise to further elevate the system's reliability and functionality within hydroponic cultivation, fostering sustainable agricultural practices.
Bei dem deutsch-französischen Kulturkanal ARTE ist die Corporate Social Responsibility (CSR, dt. gesellschaftliche Verantwortung von Unternehmen) ein wichtiger Aspekt ihrer Unternehmensstrategie. Soziale und ökologische Belange sollen in den Unternehmensstrukturen und -tätigkeiten sowie in der Herstellung ihres Programms verbessert werden. Diese CSR-Strategie verfolgt ARTE in einem inkrementellen Prozess, welcher in dieser Arbeit einem organisatorischen Wandel 1. Ordnung (evolutionär, gradual change) zugeordnet wird. Von den Maßnahmen und Veränderungen, welche in der CSR bei ARTE verfolgt werden, sind auch die ARTE-Mitarbeitenden betroffen. Ein organisatorischer Wandel bedeutet nicht nur eine Veränderung auf der Sachebene, er wirkt sich auch auf die psychologische Ebene der betroffenen Mitarbeitenden aus und verlangt Veränderungen in ihren Gewohnheiten. Daher setzen Unternehmen zunehmend auf die Veränderungsbegleitung (Change Management), welche darauf abzielt, eine Veränderung aktiv zu steuern und zu beeinflussen. Eine spezifische Form des Change Managements, die Organisationsentwicklung, hat zum Ziel, bei der Veränderung die Betroffenen zu Beteiligten zu machen. Ein zentraler Aspekt der Organisationsentwicklung bildet daher die Mitarbeitendenbeteiligung (oder Partizipation).
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie die Mitarbeitendenbeteiligung im CSR-Wandel von ARTE erfolgreich eingesetzt werden kann. Im Rahmen eines Praktikums im CSR-Bereich bei ARTE, konnte der Autor durch Beobachtungen, Mitarbeit und Dokumentenanalysen diesen Fragen nachgehen und die Ergebnisse durch fünf qualitative Expert:inneninterviews mit Personen aus dem Top-Management, dem CSR-Bereich und der Herstellungsleitung bei ARTE ergänzen und bekräftigen. Es zeigt sich, dass verschiedene Voraussetzungen erfüllt werden müssen, um eine Partizipation zielführend einsetzen zu können. Zudem kann die Mitarbeitendenbeteiligung in Form von Lösungserarbeitung und/oder in Form der Kommunikation eingesetzt werden. Die Mitarbeitendenbeteiligung wurde bei ARTE im CSR-Bereich bereits punktuell angewendet und es gibt Bestrebungen, künftig in der CSR noch stärker einen partizipativen Ansatz zu verfolgen. Für künftige Anwendungen der Mitarbeitendenbeteiligung im CSR-Wandel bei ARTE werden eine Reihe an Empfehlungen aufgestellt.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.
Videokonferenzen, überregionale Teamarbeit und ständig mögliche Kommunikation: Durch den in den letzten Jahrzehnten vorangetriebenen technischen Fortschritt sind die Möglichkeiten, global vernetzt zu arbeiten immer weiter gestiegen. Auch die Digitalisierung von Organisationen und die globale Wirtschaft erfordern durch den damit einhergehenden Wandel an Wettbewerb eine verstärkte und sogar notwendige Auseinandersetzung mit virtuellen Unternehmens- und Arbeitsstrukturen. So ergibt sich die Notwendigkeit, virtuelle Teambildung und die damit verbundenen Strukturen zu beleuchten. Ziel dieser Arbeit ist es, ein Modell zur virtuellen Teamentwicklung zu erarbeiten, das als Planungsrahmen für digitale Führungskräfte dienen soll.
Diese Thesis befasst sich mit der Konzeption, Kommunikation und Umsetzung eines eigens ins Leben gerufenen Non-Profit Projekts namens green&easy. Der Name verdeutlicht den Ursprungsgedanken, aus dessen Überzeugung die Idee entstand: „green“ steht für einen nachhaltigen Lifestyle und „easy“ für den Gedanken, dass Umweltschutz nicht kompliziert oder belastend sein muss. Das Projekt ist der Versuch Umweltschutz mal anders anzugehen. Statt sich auf die Politik und wissenschaftliche Durchbrüche zu verlassen, setzt green&easy mit einem Buttom-Up-Ansatz bei den kleinen alltäglichen Handlungen an. Umweltschutz einfach und attraktiv zu machen, um den Einzelnen zum Handeln zu ermuti-gen – das ist das Ziel von green&easy.
Das Ziel der Arbeit ist zu erforschen, ob die Erstellung eines Digital Twin des Hamburger Hafens durch Open Source Lösungen realisierbar ist. Die Grundlagen führen in die Themen Digital Twin und Smart City ein. Es wird darauf eingegangen, welche Vorteile durch die Verwendung eines Digital Twins gewonnen werden können und wie sich die verschiedenen Digital Twin-Typen unterscheiden. Es werden verschiedene Architekturen anhand eines Smart City Index weltweit evaluiert, um ein geeignetes Digital Twin-Framework zu finden. FIWARE hat sich als geeignetes Frame- work erwiesen und wird im Anschluss analysiert. Anhand der Evaluierung wird ebenfalls das 3D-Visualisierungs Framework CesiumJS als Open Source Lösung ermit- telt. Das Unternehmen Hamburg Port Authority wird vorgestellt und die interne IT- Infrastruktur betrachtet. Anhand der Architekturdokumentation arc42 werden die Anforderungen und die erforderliche Architektur in Zusammenarbeit mit der Hamburg Port Authority ermittelt. Im Anschluss wird der Architekturentwurf anhand eines Prototyps implementiert. Probleme oder Anforderungen, die nicht erfüllt werden können, werden beschrieben. Abschließend werden die Ergebnisse und das Fazit der Hamburg Port Authority zusammengefasst.
Vergleichende Untersuchung von „Platform as a Service“-Angeboten für das „Internet of Things“
(2016)
Im Rahmen der Master Thesis werden eine Auswahl von Platform as a Service-Angeboten für das Internet of Things untersucht und miteinander verglichen. Auf Grundlage der Untersuchung erfolgt die Implementierung einer IoT-Anwendung für drei der Plattformen. Durch die theoretische Einleitung in die Themen Platform as a Service und Internet of Things, sowie die für das IoT typischen Verbindungsprotokolle HTTP und MQTT wird ein grundlegendes Verständnis für das Sachgebiet vermittelt.
Nach den erklärenden Definitionen folgt die Untersuchung der PaaS-Angebote. Hier werden zunächst die Untersuchungskriterien vorgestellt und erklärt, nach denen die einzelnen Plattformen untersucht werden. Diese umfassen die quantitativen Kriterien Verbreitung, Preis, Verbindungsrate, Datenmenge und Schnittstellen, sowie die qualitativen Kriterien API, Visualisierung, Weiterverarbeitung, Dokumentation, Usability und Sicherheit. Danach erfolgt die detailierte Untersuchung der Plattformen nach den festgelegten Kriterien. Untersucht wurden hierbei die Plattformen ThingSpeak, data.sparkfun.com, RunAbove IoT Lab, flowthings.io, Carriots, Ubidots, GroveStreams, Exosite, Beebotte, MODE, Initial State, Temboo, Oracle Cloud, IBM Watson Internet of Things, Azure IoT Hub, AWS IoT und Google Pub/Sub.
Im Anschluss an die Untersuchung werden die Ergebnisse gegliedert nach den Untersuchungskriterien miteinander verglichen und abschließend ausgewertet. Das Ergebnis der Plattformuntersuchung bietet die Grundlage für die Implementierung einer Internet of Things Anwendung.
Für die Anwendung werden zunächst die Anforderungen beschrieben, welche die eines realitätsnahen Nutzungsfall nachbilden sollen. Das Konzept und die Funktionsweise stellt das Zusammenspiel der einzelnen Komponenten dar. Die Anwendung soll hierbei die Funktionalität eines Infoterminals nachstellen, welches über NFC Informationen an mobile Endgeräte bereitstellt. Dieses sendet die Anzahl der Zugriffe an das PaaS-Angebot, welches wiederum als Schnittstelle zu Twitter und einer externen Webanwendung dient. Über die Webanwendung kann die Nachricht des Infoterminals aktualisiert werden. Im Folgenden werden die zum Einsatz kommende Hardware und Software beschrieben. Es handelt sich hierbei um einem Arduino Uno Rev3, welcher über ein Adafruit CC3000 Wifi Shield und ein Seeed Studio NFC Shield V2.0 die benötigten Schnittstellen zur Verfügung stellt.
Anschließend erfolgt die Auswahl der drei für die Implementierung verwendeten Plattformen anhand der zuvor durchgeführten Untersuchung. Hierbei wurden als Vertreter verschiedener Benutzergruppen ThingSpeak, Flowthings.io und IBM Watson Internet of Things gewählt.
Im Anschluss an die Plattformauswahl wird die konkrete Umsetzung beschrieben. Zuerst erfolgt der Aufbau und die Programmierung der Grundfunktionalitäten zur Datenübertragung des Arduinos. Danach wird im Detail auf den allgemeinen Teil der Webanwendung eingegangen, welche mit HTML, CSS und jQuery realisiert wurde. Danach erfolgt die Beschreibung der plattformspezifischen Umsetzung der jeweiligen Kommunikation zwischen Arduino und Plattform, sowie der Webanwendung. Hierbei belaufen sich die Unterschiede hauptsächlich auf die verschiedene Implementierung der Authentifizierung, sowie den verwendeten Übertragungsprotokollen HTTP und MQTT.
Nach der Implementierung wird diese ausgewertet um die konkreten Herausforderungen, sowie Vor- und Nachteile der Plattformen, der verwendeten Hardware und Protokolle herauszustellen.
Im letzten Kapitel wird die Arbeit zusammengefasst und abschließend anhand aller gesammelten Erkenntnisse bewertet.
In der Dokumentation dieser Masterthesis wird die Produktion eines zweidimensionalen Platformer-Spiels beschrieben, in dem mit mehreren Fähigkeiten und dem Lösen von diversen Rätseln verschiedene Level durchquert werden können. Zudem wird in dieser Dokumentation anhand einer Tabelle alle möglichen Eingaben zur Tastatur- und Controller-Steuerung gezeigt. Des weiteren wird das gestalterische Konzept dargestellt. Dazu gehört die Beschreibung der Synopsis der in dem Spiel erzählten Geschichte, das Darstellen des Designs der vorkommenden Charaktere und das Beschreiben des Aufbaus und der gestalterischen Intention der verschiedenen Level. Der Fokus in dieser Dokumentation liegt im detaillierten Beschreiben der in dem Spiel vorkommenden Elemente und wie diese in der gewählten Spiele-Engine Godot implementiert wurden. Dazu zählen wie der Spieler-Charakter aufgebaut ist und wie dieser mit den einzelnen Objekten oder anderen Charakteren im Spiel interagieren kann. Zudem wird die Implementierung eines umfangreichen Dialog-Systems mit seinen Bausteinen beschrieben. Des weiteren werden alle weiteren wichtigen Elemente, die das Spiel spielbar machen, erklärt.
An organized strategy to ensure the security of an organization is an information security management system. During various security crises, hazards, and breaches, this strategy aids an organization in maintaining the confidentiality, integrity, and accessibility of information. Organizations are getting ready to comply with information security management system criteria. Despite this, security concerns continue to plague ineffective controls, have poor connectivity, or cause a silo effect, which is a common cause. One of the causes is a low maturity model that is not synchronized with the organization’s business processes. For a higher level of maturity, it is best to evaluate the practices.
Different maturity models on information security and cyber security capacity, management processes, security controls, implementation level, and many more have already been developed by numerous international organizations, experts, and scholars. The present models, however, do not assess a particular organization's particular practices. The evaluation of the business process is frequently neglected because measurement requirements for models are typically more concentrated on examining specific elements. For this reason, it caused the maturity assessment to not be executed explicitly and broadly.
We developed an organizational information security maturity model, a combination of work of different maturity models currently existing. While making this model, we considered that any size or type of organization could use this model. The model considers the success elements of the information security management system when assessing the implementation's effectiveness. We employed a mixed-method strategy that included both qualitative and quantitative research. With the help of a questionnaire survey, we evaluated the previous research using a qualitative methodology. In the quantitative method, we'll figure out how mature the information security management system is now. The proposed model could be used to reduce security incidents by improving implementation gaps.
Die Grundlage meiner Masterarbeit ist die Musikvideoproduktion „Honey“ in Zusammenarbeit mit der Band Sebamana. Der vorliegende theoretische Teil der Arbeit ergänzt die Musikvideoproduktion auf wissenschaftlicher Ebene. Er soll die einzelnen Schritte einer Filmproduktion aufzeigen, vom Drehbuch bis zur Verwertung, und auf die Arbeits- und Rollenverteilung im Team eingehen.
Die verschiedenen Rollen innerhalb eines Projektes werden mit ihren jeweiligen Aufgabenbereichen vorgestellt. Dabei machen sich auch Unterschiede zwischen kleinen und großen Produktionen bemerkbar und ihre Vor- und Nachteile werden deutlich. Kommunikation und Transparenz zwischen den Departments ist die Voraussetzung für eine gute Zusammenarbeit im Team.
Sowohl die allgemeinen Erfolgsfaktoren von Start-ups als auch die Erfolgsfaktoren durch die Beteiligung eines Medienunternehmens werden in dieser Arbeit näher beleuchtet und einander gegenübergestellt. Im Fokus steht insbesondere die Frage, wie ein Medienunternehmen zu einer Wertsteigerung beitragen kann, damit das Start-up erfolgreicher ist, als es ohne die Beteiligung wäre.
Die vorliegende Arbeit befasst sich mit dem Thema Influencer in der Gaming-Branche. Dabei wird untersucht, wie wichtig Influencer auch für Gamer und ihr Kaufverhalten, sowie für Gaming-Unternehmen und die Platzierung von Influencern in der Mediaplanung sind. Die Fragestellung wird aufgrund einer Online-Befragung mit Gamern, leitfadengestützten Interviews mit Influencern und Literaturrecherchen diskutiert.
Die Ergebnisse der Arbeit zeigen, dass Influencer auch in der Gaming-Branche einen sehr hohen Stellenwert einnehmen. Die Umfrage hat ergeben, dass Let's Player, Live Streamer und YouTuber einen großen, auch aktiven Einfluss auf die Kaufentscheidung besitzen. Besonders interessant sind in diesem Zusammenhang die rechtlichen Bestimmungen, die sehr viele Vorgaben für Influencer mit sich bringen, sowie die unbewusst und bewusst beeinflussenden Aspekte im Kaufentscheidungsprozess. Vor diesem Hintergrund werden in einer SWOT-Analyse einige Strategien entwickelt um beispielsweise rechtlichen Problemen entgegen zu wirken und die Stärken der Gaming-Influencer, wie beispielsweise hohe Reichweite, hohes Vertrauen und zielgruppengenaue Platzierung der Inhalte zu gewährleisten.
Virtual Reality ist auf dem Vormarsch. Die Technik wird immer besser, das Erlebnis als solches intensiver und glaubwürdiger. Auch abseits der interaktiven Unterhaltung wie dem Gaming-Bereich findet VR zunehmend Anwendung, wie etwa in der Inneneinrichtung von Wohnflächen, Autos oder Büros oder virtuellen Touren durch kulturelle Einrichtungen oder Touristenattraktionen.
Diese Arbeit widmet sich dem Filmbereich. Anhand eines funktionalen Prototyps, aufgebaut auf der Unreal Engine 4, wird eine Umgebung geschaffen, in welcher Studenten in einem virtuellen Filmstudio die Möglichkeit gegeben wird, Filmsets zu planen, gestalten und auszuprobieren. Dies geschieht in Anlehnung an das real-existierende Filmstudio der Hochschule Offenburg.
Des Weiteren wird ausführlich eine mögliche finale Anwendung beschrieben, welche das ganze Potential eines solchen Ansatzes beschreibt.