Refine
Year of publication
Document Type
- Bachelor Thesis (604)
- Master's Thesis (208)
- Conference Proceeding (69)
- Book (15)
- Study Thesis (13)
- Article (reviewed) (8)
- Other (3)
Conference Type
- Konferenzband (64)
- Konferenzartikel (5)
Is part of the Bibliography
- no (920) (remove)
Keywords
- Mikroelektronik (60)
- Marketing (30)
- IT-Sicherheit (24)
- JavaScript (17)
- Social Media (16)
- Biomechanik (15)
- Internet der Dinge (15)
- Künstliche Intelligenz (15)
- Webentwicklung (15)
- COVID-19 (14)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (295)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (173)
- Fakultät Medien (M) (ab 22.04.2021) (165)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (101)
- Fakultät Wirtschaft (W) (33)
- IfTI - Institute for Trade and Innovation (13)
- INES - Institut für nachhaltige Energiesysteme (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (6)
- IUAS - Institute for Unmanned Aerial Systems (3)
Open Access
- Closed Access (463)
- Open Access (229)
- Closed (228)
- Bronze (60)
- Diamond (16)
- Gold (1)
Die Internationalisierung ist mittlerweile ein zentraler Aspekt der gegenwärtigen ökonomischen Debatte. Inzwischen sind nämlich immer mehr Unternehmungen von der internationalen Verschmelzung der Märkte und Branchen betroffen. Haben lange Zeit überwiegend Großunternehmen und Konzerne über die nationalen Grenzen hinweg agiert, stellt sich zunehmend auch der Mittelstand der Herausforderung der Internationalisierung. Schließlich bieten sich international tätigen Firmen durch die Erschließung neuer Märkte unter anderem eine Reihe von attraktiven Wachstumschancen.
Meiner Meinung nach ist Christopher Nolans Meisterwerk „Oppenheimer“ eindeutig der Film des Jahres. Nolan zählt für mich zu einem der bedeutendsten Regisseure der Filmkunst. Im Kino zog mich der Film in den Bann. 3 Stunden vergingen wie im Flug. Doch warum fasziniert mich dieser Film so sehr? Wie hat Nolan hier gearbeitet? Diese wissenschaftliche Arbeit soll dieses Lichtspiel filmästhetisch analysieren. Diese Analyse beschäftigt sich einerseits mit dem Film und andererseits mit der Biografie „J. Robert Oppenheimer“ von Kai Bird und Martin J. Sherwin als Hauptquellen. Es werden die Handlung, die Kameraarbeit, das Szenenbild, die Audiogestaltung, die Filmmusik und die Montage analysiert. Zum Schluss werden Filmkritiken untersucht, um zu analysieren, wie der Film in der breiten Masse ankam.
Für Unternehmen ist es zunehmend von Interesse, durch Social-Media-Kommunikation nicht nur die Aufmerksamkeit der Zielgruppe zu wecken, sondern mit der aufmerksamkeitsstarken Ansprache die Wahrnehmung ihrer Marke und das marktbezogene Verhalten zu beeinflussen. Humorvolle Appelle sind in diesem Zusammenhang zur gängigen Werbepraxis geworden und finden auf Social Media in der direkten Interaktion zwischen Marken und ihrer Zielgruppe statt. Mit der vorliegenden Arbeit wird humorvoll-schlagfertige Unternehmenskommunikation auf Social Media untersucht. Das Ziel war es, die Wirkungszusammenhänge zwischen derartiger Kommunikation, deren Bewertung, dem Markenimage, der Markenauthentizität und den Handlungsabsichten besser zu verstehen. Die Erkenntnisse über diese Zusammenhänge können sowohl der weiteren Erforschung als auch künftigen Marketingentscheidungen dienen.
Im Zuge dessen wurden die theoretischen Hintergründe moderner Markenkommunikation sowie der Konzepte Humor und Schlagfertigkeit ausgearbeitet. Der empirische Teil der Arbeit besteht aus der Konzipierung, Durchführung, Analyse und Ergebnisdiskussion einer quantitativen Studie. Zu den zentralen Ergebnissen zählt, dass sich der Grad an Humor und an Schlagfertigkeit darauf auswirkt, wie sehr die Kommunikation gefällt. Wenn diese gut gefällt, stärkt das wiederum das Markenimage. Auch die wahrgenommene Markenauthentizität bestimmt das Markenimage und wird selbst vor allem durch den Grad der Schlagfertigkeit bestimmt. Das Markenimage beeinflusst die Weiterleitungsabsicht der Kommunikation (virale Effekte) und die Kaufabsicht. Dabei unterscheidet sich humorvoll-schlagfertige Unternehmenskommunikation von neutraler Vergleichskommunikation hinsichtlich der Weiterleitungsabsicht signifikant.
3D Produktpräsentationen im Internet sind komplexe Rich Media Anwendungen, bei deren Erstellung es viel zu beachten gilt. Diese Arbeit beleuchtet verschiedene Aspekte zur Erstellung von 3D Produktpräsentationen. Das Zielmedium Internet, die Gestaltung von 3D Produkten und Layouts, die Interaktivität von 3D Produktseiten, Technologien zu Erstellung, technische Hürden des Mediums, Visionen und ein Projektablauf sowie eine Perspektive zur Entwicklung von 3D Produktpräsentationen sind die inhaltlichen Schwerpunkte der Arbeit.
Technologie spielt im Sport schon immer eine große Rolle. Mit steigender Leistungsdichte im Spitzensport wird versucht mithilfe technischer Hilfsmittel dem Sportler die optimalen Umstände zu ermöglichen. Dazu gehört nicht nur Technik im Sportequiptment, sondern auch Sportuntersuchungen wie Leistungsdiagnostiken. Im Laufsport zählen dazu Ausdauer- und Krafttests. Bei Ausdauertests werden physiologische Parameter wie Laktat, Herzfrequenz oder Sauerstoffaufnahme gemessen. Zusätzlich wird die Lauftechnik für einen kurzen Zeitpunkt analysiert. Wie sich diese unter anhaltender Belastung verhält, wird nicht untersucht. Mit neuen Technologien im Bereich Bewegungsanalyse, können immer schneller größere Datensätze ausgewertet werden. Aus diesem Grund wird in dieser Studie die Lauftechnik über mehrere Zeitpunkte aufgezeichnet und nach Ermüdungserscheinungen untersucht.
Dazu wurde am Institut für angewandte Trainingswissenschaften (IAT) während einer komplexen Leistungsdiagnostik im März 2021 bei einem Laufbandstufentest (4x2000m oder 4x3000m) die Lauftechnik von 15 Elite- und Elitenachwuchsläufer:innen (m=8, w=7) mithilfe eines 3D-Bewegungsanalyse Systems nach Veränderungen in Winkelstellung und Bodenreaktionskraft untersucht. Als physiologische Vergleichsparameter wurde Herzfrequenz und Laktat aufgenommen.
Bei der Analyse der Daten wurden diese in der Gruppe betrachtet. Dabei haben sich schwach signifikante Veränderungen (p=0,047) der vertikalen Bodenreaktionskraft links am Ende der Stufe aufgezeigt. Weitere signifikante Unterschiede (p=0,020) sind im maximalen Kniehub links zu einem größerer Hüftwinkel am Ende sichtbar. Da sonst keine signifikanten Unterschiede zu sehen sind, lässt sich, bei dem hier durchgeführten Protokoll, nicht statistisch gesichert feststellen, ob auftretende Ermüdungserscheinungen die Lauftechnik beeinflussen und verändern. Um festzustellen, ob es geschlechts- oder protokollanhängige Effekte hinsichtlich einer ermüdungsbedingte Lauftechnikveränderung gibt, wurde auch dies statistisch untersucht.
Hier zeigten sich jeweils in einzelnen Parametern signifikante Unterschiede (Parameter TO\_knee\_left; p=0,026) in der Geschlechtsspezifik und in der protokollabhängigen Untersuchung (Parameter TSw\_hip\_left; p=0,04)
Für weitere Studien zur Untersuchung von Lauftechnikveränderung sollten umfangreichere physiologische Daten zur genaueren Betrachtung der Ermüdung verwendet werden. Grundsätzlich müsste das Protokoll auf eine maximale Ausbelastung (beispielsweise Dauerstufentest von 10-15km oder Ausbelastungs-/Abbruchtest) ausgelegt sein.
Grundlegend ist festzustellen, dass sich Simi-Shape als 3D-Bewegungsanalyse-Methode eignet, um spezifische Parameter in der Lauftechnik zu diagnostizieren, gerade hinsichtlich der Effizienz im Auswerteprozess.
3D-Druck für Privatanwender
(2014)
„It’s basically like a hot-glue gun that uses the same kind of plastic used to make Legos“
So beschreibt Bre Pettis, CEO von Makerbot Industries, das 3D-Druckverfahren welches bei den meisten 3D Druckern für den privaten Gebrauch verwendet wird. Was ist der 3D-Druck eigentlich? Wo kann er eingesetzt werden? Wird irgendwann ein 3D-Drucker in jedem Haushalt zu finden sein? Um Antworten auf diese Fragen zu finden, habe ich im Rahmen meiner Bachelorarbeit einen 3D-Drucker zusammengebaut und versucht mehr über diese spannende Zukunftstechnologie zu erfahren.
Die Arbeit behandelt das Thema 3D-Gestensteuerungen als MIDI-Controller in Audioanwendungen. Es wird anhand der momentan verfügbaren 3D-Gesten-Steuerungstechnik erforscht, welche Einsatzmöglichkeiten im Bereich der Audiotechnik beziehungsweise im Sounddesign gegeben sind. Die Erforschung der technischen Grundlagen aus Software und Hardware-Modulen als auch die Performance-Bewertungen bilden die technischen Grundlagen ab, während anschliessend ausgewählte Audioanwendungen beschrieben werden, welche in einer Befragung auf ihre Nutzbarkeit überprüft werden. Es wird beschrieben wie man mit einer 3D-Gestensteuerung, wie dem Kinect-Sensor, Musik oder Sounds produzieren kann, und wie man diese Technik sinnvoll einsetzten kann.
Die vorliegende Bachelorthesis befasst sich mit der Reproduktion der ersten „eisernen Hand“ des Götz von Berlichingen. Die Aufgabenstellung ist es, einen Öffnungsmechanismus zu entwickeln, welcher die zwei Fingerblöcke in die geöffnete Grundstreckstellung zurückführt, wenn die Finger zur Handinnenfläche eingefahren sind. Außerdem sollen die Fingerblöcke in drei verschiedenen Positionen einrasten können, wenn sie nach innen gedrückt werden. Insgesamt soll die Mechanik der Fingerblöcke durch 3D-unterstützte Optimierung von Bauteilen verbessert und unterstützt werden.
Der neukonstruierte Öffnungsmechanismus beinhaltet eine Drehfeder pro Fingerblock. Zudem begünstigt die CAD-Optimierung des Daumensystems und des Fingersystems die Mechanik der Fingerblöcke.
5 Jahre OHRbits - Resümee und neue Ideen Ziel dieser Arbeit war die Untersuchung des privaten Rundfunks in kleinen Regionen wie der Ortenau, binnen der letzten 20 Jahre, gesondert der Privaten Rundfunkgesellschaft Ortenau KG. Hierzu wurden die Möglichkeiten von Kundenbindungsmassnahmen im Hörfunk, wie den seit fünf Jahren existierenden OHRbits, untersucht und deren Entwicklung, Stärken und Schwächen, untersucht. Um Konzepte für die Zukunft entwickeln zu können wurde eine Umfrage unter 800 Programmteilnehmern sowie einer Auswahl an Partnerunternehmen der OHRbits durchgeführt. Auf diesen Resultaten basierend wurden nun neue Konzepte entwickelt. Neben diesem Zweig wurden überregionale Systeme wie Payback oder Happy Digits untersucht und vorgestellt, sowie das OHRbits-System mit Systemen anderer Zeitungsverlage, verglichen, genauer mit der LeserPlus-Card der Mittelbadischen Presse, der BZCard der Badischen Zeitung, sowie der CleverKarte der Lüneburger Landeszeitung.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
It is generally agreed that the development and deployment of an important amount of IoT devices throughout the world has revolutionized our lives in a way that we can rely on these devices to complete certain tasks that may have not been possible just years ago which also brought a new level of convenience and value to our lives.
This technology is allowing us in a smart home environment to remotely control doors, windows, and fridges, purchase online, stream music easily with the use of voice assistants such as Amazon Echo Alexa, also close a garage door from anywhere in the world to cite some examples as this technology has added value to several domains ranging from household environments, cites, industries by exchanging and transferring data between these devices and customers. Many of these devices’ sensors, collect and share information in real-time which enables us to make important business decisions.
However, these devices pose some risks and also some security and privacy challenges that need to be addressed to reach their full potential or be considered to be secure. That is why, comprehensive risk analysis techniques are essential to enhance the security posture of IoT devices as they can help evaluate the robustness and reliability towards potential susceptibility to risks, and vulnerabilities that IoT devices in a smart home setting might possess.
This approach relies on the basis of ISO/IEC 27005 methodology and risk matrix method to highlight the level of risks, impact, and likelihood that an IoT device in smart home settings can have, map the related vulnerability, threats and risks and propose the necessary mitigation strategies or countermeasures that can be taken to secure a device and therefore satisfying some security principles. Around 30 risks were identified on Amazon Echo and the related IoT system using the methodology. A detailed list of countermeasures is proposed as a result of the risk analysis. These results, in turn, can be used to elevate the security posture of the device.
It is demonstrated that microwave structures incorporating dielectric resonators (DR) are accurately characterised by means of a 3-dimensional finite-difference CAD package. All major assumptions made so far have been dropped, offering the possibility of a rigorous analysis of the embedding of dielectric resonators into microwave structures. In particular, a finite thickness for the microstrip conductor has been taken into account. The coupling of the DR to a microstrip placed in a metallic housing has been theoretically and experimentally investigated. Theoretical and experimental results are in good agreement and give new insight into DR coupling to microstrip circuits.
In dieser Abschlussarbeit wurde die bisherige Spielstrategie des RoboCup3D-Clients an die durch den FatProxy möglich gewordenen perfekten Kicks angepasst. Dazu wurde die aktive Entscheidungslogik am Ball komplett überarbeitet und eine neue Positionierungsstrategie anhand der bisher verwendeten Architektur entwickelt.
Die neue aktive Entscheidungslogik verwendet dabei eine neue, von den Mitspielerpositionen abhängige, Positionsberechnung und mehrere neue Bewertungsmethoden, die diese Positionen bewerten. Zusätzlich gibt es nun auch eine Funktionalität, die den neu benötigten vertikalen Schusswinkel für jede Position bestimmt. Für die neue Positionierung wurde eine Rautenformation gewählt, bei der die verschiedenen Rollen jetzt eigene Spielfeldbereiche zugewiesen bekommen, die sich teilweise überlappen. Diese Bereiche sind nötig geworden, da die Rollen sich jetzt weniger am Ball und mehr direkt am Spielfeld orientieren.
Bei der zum Schluss durchgeführten Evaluation der Spielergebnisse zwischen neuen und alten Strategiekonfigurationen hat sich ergeben, dass die komplett neue Strategiezusammenstellung mit durchschnittlich zwei Toren Vorsprung gegen die alte Strategie gewinnt und damit besser mit den neuen Möglichkeiten interagiert. Mischt man neue und alte Strategiekomponenten hat das jedoch den gegenteiligen Effekt, da die Mischvarianten gegen die alte Strategie verlieren. Die neuen Komponenten benötigen also das gegenseitige Zusammenspiel, um effizient zu funktionieren.
Eine schlechte Erreichbarkeit junger Zielgruppen und hohe Preise, sind Gründe für die schwindende Beliebtheit des Werbeformats TV-Werbung. Unternehmen greifen zunehmend auf Online-Werbung zurück, um ihre Produkte kostengünstig und gezielt zu vermarkten. Eine neue, digitale Form der TV-Werbung, Addressable TV, verspricht nun neue Chancen für eine Rückkehr der Werbung über den "Big Screen".
Ziel der vorliegenden Arbeit ist es Handlungsempfehlungen für Werbetreibende in Bezug auf Addressable TV abzuleiten. Es soll geklärt werden unter welchen Umständen und für welche Art von Unternehmen eine Nutzung erfolgversprechend sein kann.
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
This Master's Thesis discusses intelligent sensor networks considering autonomous sensor placement strategies and system health management. Sensor networks for an intelligent system design process have been researched recently. These networks consist of a distributed collective of sensing units, each with the abilities of individual sensing and computation. Such systems can be capable of self-deployment and must be scalable, long-lived and robust. With distributed sensor networks, intelligent sensor placement for system design and online system health management are attractive areas of research. Distributed sensor networks also cause optimization problems, such as decentralized control, system robustness and maximization of coverage in a distributed system. This also includes the discovery and analysis of points of interest within an environment. The purpose of this study was to investigate a method to control sensor placement in a world with several sources and multiple types of information autonomously. This includes both controlling the movement of sensor units and filtering of the gathered information depending on individual properties to increase system performance, defined as a good coverage. Additionally, online system health management was examined in this study regarding the case of agent failures and autonomous policy reconfiguration if sensors are added to or removed from the system. Two different solution strategies were devised, one where the environment was fully observable, and one with only partial observability. Both strategies use evolutionary algorithms based on artificial neural networks for developing control policies. For performance measurement and policy evaluation, different multiagent objective functions were investigated. The results of the study show that in the case of a world with multiple types of information, individual control strategies performed best because of their abilities to control the movement of a sensor entity and to filter the sensed information. This also includes system robustness in case of sensor failures where other sensing units must recover system performance. Additionally, autonomous policy reconfiguration after adding or removing of sensor agents was successful. This highlights that intelligent sensor agents are able to adapt their individual control policies considering new circumstances.
AI-based Ground Penetrating Radar Signal Processing for Thickness Estimation of Subsurface Layers
(2023)
This thesis focuses on the estimation of subsurface layer thickness using Ground Penetrating Radar (GPR) A-scan and B-scan data through the application of neural networks. The objective is to develop accurate models capable of estimating the thickness of up to two subsurface layers.
Two different approaches are explored for processing the A-scan data. In the first approach, A-scans are compressed using Principal Component Analysis (PCA), and a regression feedforward neural network is employed to estimate the layers’ thicknesses. The second approach utilizes a regression one-dimensional Convolutional Neural Network (1-D CNN) for the same purpose. Comparative analysis reveals that the second approach yields superior results in terms of accuracy.
Subsequently, the proposed 1-D CNN architecture is adapted and evaluated for Step Frequency Continuous Wave (SFCW) radar, expanding its applicability to this type of radar system. The effectiveness of the proposed network in estimating subsurface layer thickness for SFCW radar is demonstrated.
Furthermore, the thesis investigates the utilization of GPR B-scan images as input data for subsurface layer thickness estimation. A regression CNN is employed for this purpose, although the results achieved are not as promising as those obtained with the 1-D CNN using A-scan data. This disparity is attributed to the limited availability of B-scan data, as B-scan generation is a resource-intensive process.
Aktivität gibt Energie
(2017)
Jeder Mensch ist ständig unfreiwillig von einer Flut akustischer Reize umgeben. Diese Situation stellt für Menschen mit Hörverlust eine besondere Herausforderung dar. Menschen mit Hörverlust hören durch Hörgeräte zwar alles verstärkt, jedoch stellt sich die Frage, ob ein Hörgerät lediglich eine einfache Verstärkung von Schallwellen ist oder ob es darüber hinausgehende Funktionen bieten kann.
Die vorliegende Thesis widmet sich der akustischen Szenenanalyse in Hörgeräten, wobei der Schwerpunkt auf der Integration von Machine Learning liegt. Das Ziel besteht darin, eine automatisierte Erkennung und Anpassung an verschiedene akustische Situationen zu ermöglichen. Die Arbeit konzentriert sich insbesondere auf die Analyse grundlegender Szenarien wie: Sprache in Ruhe, absolute Ruhe, Sprache in Störgeräuschen und Störgeräuschen in Audiodaten.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Mit zunehmender Digitalisierung ist zu erwarten, dass die Informationsflut, hinsichtlich der täglich auf die Rezipienten einprasselnden Werbebotschaften, immer weiter zunimmt. Dies mag für Werbetreibende mit hohen Budgets und vorhandener Reichweite keine Herausforderung darstellen, dennoch gibt es einen großen Teil der Unternehmen in Deutschland, welche von eben jene bereits bestehenden Voraussetzungen nicht profitieren können. Im Bereich der klein- und mittelständischen Unternehmen, zu denen auch ein Großteil der Handwerksunternehmen zählen, ist ein übermäßig großes Werbebudget meist nicht vorhanden. Um das eigene Unternehmen von Mitbewerbern und Konkurrenz abzuheben, finden immer innovativere Werbeformen den Einsatz in der Unternehmenskommunikation. Hierbei lässt sich eine Tendenz weg von der klassischen Push-Kommunikation hin zu einer wohlbedachten Pull-Kommunikation entdecken. In diesem Bereich ist das Buzzwort Content-Marketing in aller Munde und fungiert als übergeordnete Instanz des Storytellings. Ferner bietet die Entwicklung von rein informativen Werbebotschaften hin zum ,Geschichten erzählen‘ eine Vielzahl von Vorteilen. Neben einer größeren Viralkraft, bleiben Geschichten durch bessere Verknüpfung im ,neuronalen Netz‘ des Gehirns länger und nachdrücklicher im Gedächtnis der Zielgruppe. Darüber hinaus bietet Storytelling, online wie offline, hervorragende Möglichkeiten hinsichtlich der Distribution.
Die vorliegende Bachelorarbeit bietet einen Implementierungsleitfaden für Storytelling-Maßnahmen für die Bereich Print und Screen, sowie eine Bewertung der Plattformen hinsichtlich der Distribution. Zu den Vorüberlegungen einer Implementierung von Storytelling in die Unternehmenskommunikation, wurden in den Unterthemen außerdem die strategischen Aspekte der Integrationsstufen und der Distributionskanäle vorgenommen. Durch eine Befragung potenzieller Kunden von Handwerksunternehmen, können Rückschlüsse auf die beliebtesten Inhalte einer Storytelling-Kampagne von Handwerksunternehmen gewonnen werden. Somit kann die Kundenansprache durch Storytelling effektiver und gewinnbringender betrieben werden.
In dieser Arbeit wird ein Grundverständnis für Farben am Bildschirm und deren Nutzen speziell für Onlineshops geschaffen. Dafür werden die physikalischen Grundlagen des Farbsehens erklärt, die Bedeutung des Farbkreises an Hand dessen Regeln für das Zusammenspiel von Farben verdeutlicht sowie aktuelle Modelle zur Farbordnung vorgestellt. Außerdem werden technische Möglichkeiten zur Farbdarstellung erläutert, gefolgt von der Farbpsychologie, welche die Wirkung von Farben auf den Menschen verdeutlicht. Anschließend werden aktuelle Farbtrends ermittelt. Der Einsatz und die Funktionsweise von Farben wird an Hand von Beispielwebseiten veranschaulicht. Am Ende liegt der Focus auf dem Nutzen von Farben im Online-Marketing, wobei deren Einfluss auf Verkaufsentscheidungen ermittelt wird. An Hand eines eigenen Klickdummys eines Mode-Onlineshops, der auf Basis von zuvor gewonnenem Know-How gestaltet und umgesetzt ist, werden die gesammelten Erkenntnisse in die Praxis umgesetzt und erprobt. Abschließend wird mittels einer Umfrage der Farbeinsatz und seine Wirkung auf Kunden getestet.
Analyse der Finanzierungs- und Überlebensstrategien von Bands im Streaming-Zeitalter in Deutschland
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der Finanzierungs- und Überlebensstrategien von Bands im Streaming-Zeitalter in Deutschland. Hierbei soll untersucht werden, wie Musikstreaming die finanziellen Einkünfte für Musiker verändert hat, warum Musiker vom Streaming nur in geringem Maße profitieren und wie sie versuchen den geringen Streaming-Einnahmen entgegenzuwirken.
Die Arbeit führt durch theoretische Betrachtungen der Musikindustrie auf die heute herrschende Problematik durch Streaming hin. Dabei werden einzelne Akteure der Musikindustrie, die Erlösquellen für Musiker und Bands, der Einfluss des Musikkonsums auf die finanziellen Erlöse und die Veränderungen, die Streaming für die Musikwelt mit sich bringt, betrachtet. Darüber hinaus wurde eine multiple Fallstudie mit fünf Bands unterschiedlicher Bekanntheit durchgeführt. Zu den in der Studie untersuchten Bands zählen die Leoniden, Heisskalt, Blackout Problems, Killerpilze und City Light Thief. Die Studie soll einen Einblick geben, welche Möglichkeiten deutsche Bands nutzen, um im Streaming-Zeitalter erfolgreich zu sein. Daraus werden abschließend einige Faktoren abgeleitet, die zur Finanzierung und zum Überleben deutscher Bands
beitragen können.
Die vorliegende Bachelorarbeit gibt einen Überblick über die Positionierung der Krisenkommunikation im Krisenmanagement. Hierbei soll die Arbeit als Leitfaden dienen, um ein umfangreiches Verständnis über die Einflussnahme und die effektive Anwendung von interner und externer Krisenkommunikation zu entwickeln. Neben der Erläuterung mithilfe von Fallbeispielen, ermöglicht die Arbeit auch einen Einblick des Einsatzes im Krisenmanagement. Mithilfe des BSI-Standards 100-4 Notfallmanagement, wird dies verdeutlicht. Besonderes Augenmerk erhält die externe Krisenkommunikation mithilfe von Social Media.
Die Basis der Bachelorarbeit stellt die Auswertung von zahlreicher Literatur dar. Hierbei wurde auf Monographien, Sammelwerke, Forenbeiträge, Handbücher und internationale Standards zurückgegriffen.
Diese Arbeit bietet an, ein tieferes Verständnis über den Bereich der Krisenkommunikation zu erhalten. Ebenfalls zeigt sie Optimierungsmöglichkeiten auf, wo interne sowie externe Krisenkommunikation noch erfolgreicher umgesetzt werden kann.
Der wachsende Trend zur Individualisierung von Produkten wird von immer mehr Unternehmen aufgegriffen und umgesetzt. Mithilfe von Produktkonfiguratoren bieten sie ihren Kund*innen die Möglichkeit, ihr eigenes Produkt nach Wunsch zu kreieren. Die Konfiguratoren stehen mit dieser Interaktion vor der Herausforderung die Nutzer*innen als Nicht-Experten erfolgreich durch den Prozess zu leiten. Ein zentraler Bestandteil der erfolgreichen Umsetzung ist die Benutzerfreundlichkeit und dessen anwendungsorientierte Gestaltung.
Diese Arbeit befasst sich mit der Analyse und Optimierung der Usability des Möbelkonfigurators der mycs GmbH. Das Ziel der Arbeit ist die Aufdeckung von Schwachstellen und die Entwicklung passender Handlungsempfehlungen für die Optimierung der Benutzerfreundlichkeit.
Zu diesem Zweck wird der IST-Zustand des Konfigurators ermittelt und darauf aufbauend ein Usability-Test erstellt und durchgeführt. Die verwendeten Methoden des Tests sind Remote-Usability-Interviews, eine qualitative Nachbefragung und die Think-Aloud-Methode. Die im Anschluss ermittelten Handlungsempfehlungen stellen Lösungen zu den analysierten Schwachstellen des Usability-Tests dar.
Die Ergebnisse der Analyse zeigen Schwachstellen in der Orientierung und Unterstützung von Nutzer*innen. Sie bestätigen zudem die Wichtigkeiten dieser beiden Kriterien für die Auseinandersetzung mit einem Möbelkonfigurator. Die entwickelten Handlungsempfehlungen zeigen einige Verbesserungen der Bereiche mit geringem Umsetzungsaufwand auf.
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
Das Ziel dieser Arbeit war es zu prüfen, ob bei der Verwendung von Perturbationen in einem Laufschuhvergleich eine Adaptations-Phase im Voraus durchgeführt werden sollte, um den Einfluss potenzieller Adaptationseffekte zu reduzieren. Dafür absolvierten die acht Probanden insgesamt 15 Perturbationen auf einem Laufband, welche sich durch die kurzzeitige Beschleunigung des Laufbands von 2,5 𝑚/𝑠 auf 3,5 𝑚/𝑠 kennzeichneten. Anschließend wurden aus den normalisierten Daten die initialen Gelenkswinkel bei Bodenkontakt im Knie und Sprunggelenk, die minimale bzw. maximale Bodenreaktionskraft in x- bzw. z-Richtung und die Bodenkontaktzeit bestimmt. Um sowohl potenzielle Vorwärtssteuerungen als auch Feedbackbezogene lokomotorische Anpassung zu berücksichtigen, wurden die zwei Schritte vor der Perturbation, der perturbierte Schritt und die drei Schritte nach der Perturbation analysiert. Neben deskriptiver Statistik wurden die einzelnen Schritte mittels Varianzanalyse und paarweisen t-Tests aufeinanderfolgender Trials untersucht. Der initiale Sprunggelenkswinkel zeigt zwar einen Einfluss der Perturbationen im zweiten und dritten Schritt nach der Perturbation, aber es lässt sich keine Anpassung im Verlauf der Messung feststellen. Auch bei der Bodenkontaktzeit lassen sich Unterschiede in den Messwerten und zwischen den Schritten finden, diese können allerdings ebenfalls nicht der Adaptation zugeordnet werden. Die Entwicklung der Mittelwerte und signifikante Ergebnisse in ANOVA und t-Tests deuten beim initialen Kniewinkel für den zweiten und dritten Schritt nach der Perturbation auf eine sukzessive Anpassung des Parameters an den Einfluss der Störung hin, welche nach acht Perturbationen abgeschlossen ist. Für die minimale Bodenreaktionskraft in x-Richtung (Bremskraft) befinden sich die Daten dagegen bereits nach einem Trial auf einem stabilen Niveau, wobei die Abweichungen hier ebenfalls im zweiten Schritt nach der Beschleunigung des Laufbands auftreten. Die maximale vertikale Bodenreaktionskraft (z-Richtung) zeigt Tendenzen zu einer fortschreitenden Anpassung im ersten und zweiten Schritt nach der Perturbation. Hier lassen sich aufgrund des Verlaufs der Mittelwerte und signifikanter Unterschiede beim ersten Schritt sechs Trials als Mindestanzahl für eine Adaptations-Phase ausmachen. Somit konnten in drei von fünf analysierten Parameter Merkmale von Adaptationseffekten gefunden werden, die sich alle in den Schritten nach der Perturbation zeigten und somit Feedbackbezogener Anpassung zuzuordnen sind. Sofern alle Parameter in der anschließenden Messung verwendet werden, sollten in der Adaptations-Phase mindestens acht Perturbationen durchgeführt werden, damit der Einfluss von Anpassungseffekten im Vergleich vernachlässigbar ist.
Mit der neuen Abgasnorm Euro VI und den steigenden Kraftstoffpreisen müssen Nutzfahrzeugantriebe eine Reduzierung der CO2-Emission und eine höhere Effizienz vorweisen (Umweltbundesamt, 2015). Um diese Anforderungen erfüllen zu können, wird bei vielen Nutzfahrzeugherstellern intensiv an Systemen zur Rückgewinnung von Abgasenergie, den sogenannten Waste-Heat-Recovery-Systemen, geforscht. Eine Kraftstoffersparnis von rund 5 % wird dabei angestrebt.
Das System basiert auf einem ORC-Prozess. Bei diesem thermodynamischen Kreisprozess wird die Abwärme des Abgases über einen Wärmetauscher geführt, der das organische Arbeitsfluid Ethanol in einem geschlossenen Kreislauf erhitzt. Durch den Dampfdruckaufbau wird eine Turbine angetrieben. Zur Transformation der Enthalpie des Ethanoldampfes in mechanische Energie sind Drehzahlen von bis zu 120000 U/min notwendig, um eine hohe Effizienz des Systems vorweisen zu können. Systemdrücke bis 50 bar und Temperaturen des Ethanoldampfes von maximal 300 °C treten im WHR-System auf und führen zu extremen Beanspruchungen. Eine besondere Herausforderung stellen hierbei die Wellendichtungen, vor allem bei nutzfahrzeugtypischen Lebensdauern, dar. Als interessante Alternative zeigt sich die Zentrifugal-Wellendichtung, um die hohen Dichtungsanforderungen über die geforderten Laufzeiten zuverlässig zu erfüllen.
Durch methodisch stufenweise ablauforientiertes Vorgehen wird die Analyse der Zentrifugal-Wellendichtungen durchgeführt. Hierbei wird zuallererst das Wirkprinzip untersucht. Ein besonderes Augenmerk wird dabei auf die Wärmeeinträge aus der Umgebung und Verwendung unterschiedlicher Sperrfluide gelegt.
Für eine Testdrehzahl von 15000 U/min ergibt sich, bei einer beidseitig glatten Scheibe mit einem Scheibenradius von 8,7 mm, eine maximal abdichtbare Druckdifferenz von 0,04 bar. Im Sperrfluid herrschen hierbei Temperaturen von rund 50 °C. Die Versuche zeigen Korrelationen zu den bekannten theoretischen Ansätzen von Ketola und McGrey. Die maximale Druckdifferenz beträgt in diesem Fall 0,043 bar. Nachdem stationäre Betrachtungen ausreichend untersucht werden, widmet sich diese Arbeit dem Anfahr- und Not-Aus-Verhalten. Die Optimierung des Projekts wird durch abschließende Verbesserungsvorschläge, für die Realisierung höherer Sperrdrücke, erzielt.
Seit 2009 nimmt das Team ”magmaOffenburg” an der 3D-Simulationsliga des RoboCups teil. Für das erfolgreiche Abschneiden in Turnieren ist die Qualität der erlernten Bewegungsabläufe ein zentraler Faktor. Bisher wurden genetische Algorithmen verwendet, um verschiedenste Aktionen zu erlernen sowie zu optimieren. In dieser Arbeit wird der Deep Reinforcement Learning Algorithmus Proximal Policy Optimization für das Erlernen bestimmter Bewegungen verwendet. Um ein Verständnis für dessen einflussreichen Parameter zu erhalten, werden Größen wie paralleles Lernen, Hyperparameter, Netzwerktopologie, Größe des Observationspace sowie asynchronem Lernen anhand dem Kicken aus dem Stand evaluiert. Durch die Ergebnisse der Evaluierung konnte der erlernte Kick signifikant verbessert werden und sein genetisch erlerntes Gegenstück im Spiel ablösen. Drüber hinaus wurden die Erkenntnisse anhand dem Laufen lernen evaluiert und Zusammenhänge bzw. Unterschiede der zwei Lernprobleme festgestellt.
Analyse domänenseitiger Optimierungen für Deep Reinforcement Learning in der RoboCup Umgebung
(2021)
Mit dem Team "magmaOffenburg" nimmt die Hochschule Offenburg seit 2009 am internationalen Wettbewerb "RoboCup" in der 3D-Simulationsliga für Fußball teil. Dabei kommt es vor allem auf den Einsatz guter Lauf- und Kickverhalten an. Seit 2019 ist es dem Team magmaOffenburg möglich auch Deep Reinforcement Learning für die Weiterentwicklung der Verhalten einzusetzen. Während auf diese Weise schon verwendbare Ergebnisse für das Kicken produziert wurden, so fehlt noch ein Fortschritt beim Laufen lernen. Diese Arbeit beschäftigt sich mit den nötigen Optimierungen auf der Domänenseite, um das gelernte Laufen zu verbessern. Das beinhaltet die Optimierung des Observation- und Actionspaces, sowie auch eine Optimierung der Rewardfunktion. Dabei wurde versucht, die einzelnen Einflüsse verschiedener Parameter und Techniken innerhalb dieser drei Bereiche zu evaluieren. So konnte zum Schluss eine Verbesserung in der Laufgeschwindigkeit von etwas unter einem Meter pro Sekunde auf bis zu 1,8 Metern pro Sekunde erreicht werden. Ausschlaggebend für dieses Ergebnis waren vor allem der Verbesserungen in der Rewardfunktion.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
Die vorliegende Arbeit legt mit der Analyse der globalen Hoteltrends und der Rahmenbedingungen den Grundstein für strategische und operative Entscheidungen im Internationalisierungsprozess der Bohemian Hostels. Dabei werden die globalen Hoteltrends ermittelt, die Wettbewerbsfähigkeit der Bohemian Hostels herausgearbeitet und somit die Sinnhaftigkeit einer
Internationalisierung abgewägt. Als Basis für die Marketingziele und die Marketingstrategie wird in der Branchen- und Konkurrenzanalyse das Wettbewerbsumfeld des Regionalmarktes Accra analysiert. Dadurch sollen die
Rentabilität des Marktes untersucht sowie Positionierungslücken und
Differenzierungsmöglichkeiten aufgezeigt werden. Von der Entwicklung der Marketingziele und -strategie sowie deren Maßnahmen wird jedoch abgesehen.
Stattdessen wird, resultierend aus den Ergebnissen, die Unternehmensphilosophie und das Corporate Design als Teil der Kommunikationspolitik in einem Markenhandbuch festgehalten.
Die Austragung der FIFA Fußball-Weltmeisterschaft 2022 im Emirat Katar polarisierte die deutsche Gesellschaft. In dieser Arbeit wurde nachgeforscht, wie deutsche Medien über die Veranstaltung berichteten und bei welchen Themen die Schwerpunkte gesetzt wurden.
Die Forschung erfolgte unter Anwendung der Techniken qualitativer Inhaltsanalyse nach Philipp Mayring.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
Längst hat Cloud Computing Einzug in allen Bereichen der Wirtschaft und Industrie gehalten. Dennoch sehen sich Entscheidungsträger angesichts der Heterogenität des Cloudmarkts häufig ratlos mit der Entscheidung konfrontiert, welches Produkt von welchem Anbieter am besten den jeweiligen Bedürfnissen entspricht.
Zwar gibt es mittlerweile eine Vielzahl von Methoden zur Ermittlung der geeignetsten Lösung, dennoch hat sich in Fachkreisen noch kein anerkannter Standard daraus hervorgetan.
In der vorliegenden Thesis werden daher bestehende Strategieansätze analysiert, um sowohl Stärken als auch Schwächen dieser aufzuzeigen. Im Anschluss daran wird eine Möglichkeit vorgestellt, mit der zuvor aufgezeigte Schwächen der bestehenden Ansätze ausgeglichen werden können.
Die Arbeit stützt sich dabei vollständig auf die Recherche einschlägiger Fachliteratur, welche im Rahmen dieser Thesis vorgenommen wurde.
Aus der Forschung ging die Erkenntnis hervor, dass die Mehrheit der Publikationen und der darin enthaltenen Lösungen jeweils nur einen Teilbereich des Selektionsprozesses abdecken, während andere Bereiche vernachlässigt oder gar vollständig ausgelassen werden. Das eben beschriebene Phänomen betrifft vor allem die Auswahl und Aufschlüsselung der Bewertungskriterien.
Gerade auf Letzteres ging keine der untersuchten Publikationen näher ein, so blieben Fragen zur Zusammensetzung und Abgrenzung von Bewertungskriterien bei allen Methoden weitgehend unbeantwortet.
Diese Erkenntnis bildet die Grundlage für das in der Thesis erarbeitete multikriterielle Mapping Verfahren, welches eben jene Schwäche in bestehenden Ansätzen auszugleichen versucht.
Das multikriterielle Mapping bildet darüber hinaus eine Kernkomponente der Evaluationsmethodik, welche im Rahmen der Thesis ebenfalls entwickelt und als Python Anwendung implementiert wurde.
Sowohl die entwickelte ganzheitliche Methode als auch die daraus resultierende Python Anwendung verfolgen den Zweck von Beginn des Selektionsprozesses bis zu deren Abschluss ein lückenloses Vorgehen zu etablieren, welches für jedes Anwendungsszenario geeignet ist.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
In dieser Arbeit wird das Verformungsverhalten und die Stabilität des Frontflügels des Formula Student Rennwagens der HS Offenburg untersucht. Die Analyse wird mittels der Finiten-Elemente-Methode durchgeführt (Programm: ANSYS Workbench). In der Simulation wird das Modell mit verschiedenen statischen Kräften belastet, unter anderem die Kräfte aus dem technischen Reglement und die auftretende Abtriebskraft. Neben der Verformung werden auch verschiedene Stabilisierungsmöglichkeiten analysiert. Zusätzlich zu den Simulationsergebnissen selbst werden in dieser Arbeit der Simulationsvorbereitungsprozess sowie die Konstruktion des Frontflügels und Grundlagen der FEM beschrieben. Eine Besonderheit bildet dabei die Verwendung des ANSYS Composite PrePost um die verwendeten Verbundwerkstoffe zu untersuchen.
Das Black Forest Formula Team hat es sich nach der Neugründung im Jahre 2019 zum Ziel gemacht, mit einem eigens konstruierten Elektro-Rennwagen beim Formula Student Germany (folgend FSG genannt) Wettbewerb teilzunehmen.
Zu Beginn der Bachelorarbeit wurde bereits ein Fahrzeugrahmen konstruiert und in der Schweißwerkstatt der Hochschule Offenburg fertig geschweißt. Da bei der Konstruktion der Hauptfokus auf das Fertigstellen eines Rahmens gesetzt wurde, verfolgt diese Bachelorarbeit das Ziel, den Rahmen mittels der Finite Elemente Methode zu analysieren und erste Verbesserungsvorschläge für das Nachfolgerfahrzeug zu erarbeiten. Um sich seinen Möglichkeiten bewusst zu werden, wurde zunächst das Reglement ausgiebig studiert. Nach ausgiebiger Recherche wurde das CAD-Modell des Rahmens für die Simulation vorbereitet, folglich durch verschiedene Lasteinwirkungen simuliert und dessen Auswirkungen analysiert. Um die Simulationsergebnisse zu validieren, wurden die in der Simulation vorkommenden Lasteinwirkungen in der Realität nachgestellt und miteinander verglichen.
Für zukünftig folgende Fahrzeugrahmen werden Verbesserungs- bzw. Optimierungsmethoden erarbeitet, um vor allem das Fahrzeuggewicht zu zu reduzieren und die Steifigkeit möglichst hoch zu halten.
Der Eignungsnachweis von Prüfprozessen ist sowohl für die Industrie, als auch für Forschungszwecke ausschlaggebend. Dabei sind die Genauigkeit, Präzision sowie die Messbeständigkeit der Messergebnisse von der zu untersuchenden Messeinrichtung mit statistischen Methoden auszuwerten. Mit Leitfäden wird unter einer sog. Messsystemanalyse die Fähigkeit einer Messeinrichtung mit den dazugehörigen statistischen Kennwerten beurteilt. Die Messsystemanalyse unterteilt sich in zwei Typen, wobei die Konsistenz bzw. Messdatenstreuung mit den entsprechenden Kennwerten beurteilt werden können. Unter MSA Typ 1 wird anhand Mittelwerte und Standardabweichungen von Wiederholmessungen die Konsistenz und Genauigkeit mit den Cg- bzw. Cgk-Indizes bewertet, die höher als 1,33 sein müssen, um die Messeinrichtung als fähig zu klassifizieren. Durch MSA Typ 2 wird die Präzision mit dem % R&R-Kennwert (Wiederholbarkeit & Reproduzierbarkeit) bewertet. Messeinrichtungen mit einem % R&R-Kennwert unterhalb 20 % liefern Messdaten mit einer ausreichenden Präzision, d.h. dass die Mittelwerte der Messdaten nicht signifikant voneinander unterscheiden. Die im Rahmen dieser Arbeit untersuchte akustische Messeinrichtung weist einen Cg-Index von 1, 58, einen Cgk-Index von 2, 13 und einen % R&R-Wert von 6, 56 % auf, weshalb die Messdaten mit einer hohen Konsistenz und Präzision erfasst werden.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
In dieser Arbeit wird die Funktionsweise, Standardisierung und Verwundbarkeit der Technologien RFID und NFC behandelt. Es wird gezeigt welche Angriffe existieren und wie man sich dagegen schützen kann. Es wird ein Überblick über einige in der Praxis verwendete Protokolle sowie deren Sicherheit gegeben. Außerdem werden grundlegende Fragen beantwortet, die man sich bei Auseinandersetzung mit dieser Technologie stellt (z.B. Reichweiten).
Im Rahmen dieser Abschlussarbeit wurde die Steuereinheit für das elektrisch angetriebene Hocheffizienzfahrzeug Schluckspecht 6 entworfen. Im Detail wurde die bestehende Steuereinheit analysiert. Durch sorgfältiges Betrachten der Leistungselektronik und deren Elemente, der Signalaufbereitungsplatine, der Stromsensorplatine und der DC/DC-Wandlerplatine, wurden die bestehenden Fehler in deren Schaltplänen behoben. Im Zuge dieser Fehlerbehebung, wurde die Übersichtlichkeit der Schaltpläne verbessert. Des Weiteren wurden die Leistungselektronik und deren Elemente zu der neuen Control Unit fusioniert. Um eine möglichst nachhaltige Hardware zu erhalten, wurde die alte Platine optimiert. Dazu sind die Ein-/ und Ausgänge und der CAN-Bus von dem Entwicklerboard an den Leiterplattenrand geführt worden. Damit die CAN-Signale vom Entwicklerboard verarbeitet werden können, wurde zusätzlich eine Schaltung für die Signal-konvertierung entwickelt. Die zusammengeführte Leiterplatte wurde für eine bessere Zugänglichkeit während des Shell-Eco-Marathon, einseitig bestückt. Um die Fehlerbehebung zu erleichtern, sind Messpunkte, zusammen mit einer Messtabelle, auf deren Schaltpläne integriert worden. Zusätzlich wurde ein Jumper für die Energieversorgung des Entwicklerboards hinzugefügt, damit dieses intern oder extern versorgt werden kann. Für die Control Unit wurden Schnittstellen zur besseren Erweiterung ausgesucht. Nach Abschluss des Optimierungsprozesses und der Komponentenauswahl, wurden die Schaltpläne und ein Board der Control Unit entworfen. Für diesen Entwurf wurde eine Leiterplatte bestellt, welche im SMD-Labor bestückt und verlötet wurde. Anschließend wurde an dieser ein Funktionstest und eine Inbetriebnahme im Schluckspecht 6 durchgeführt. Ein weiterer Teil der Arbeit war die Planung des Gehäuses für die neu entworfene Control Unit, die Auswahl der Anschlussstecksysteme und die Fixierung der Leiterplatte in der Energiebox, sowie die Verdrahtung zwischen der Control Unit und den Stecksystemen.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
To date, many experiments have been performed to study how the internal geometrical shapes of the annular liquid seal can reduce internal leakage and increase pump efficiency. These can be time-consuming and expensive as all rotordynamic coefficients must be determined in each case.
Nowadays, accurate simulation methods to calculate rotordynamic coefficients of annular seals are still rare. Therefore, new numerical methods must be designed and validated for annular seals.
The present study aims to contribute to this labour by providing a summary of the available test rig and seals dimensions and experimental results obtained in the following experiments:
− Kaneko, S et al., Experimental Study on Static and Dynamic Characteristics of Liquid Annular Convergent-Tapered Seals with Honeycomb Roughness Pattern (2003) [1] − J. Alex Moreland, Influence of pre-swirl and eccentricity in smooth stator/grooved rotor liquid annular seals, static and rotordynamic characteristics (2016) [2]
A 3D CAD simulation with Siemens NX Software of the test rig used in J. Alex Moreland’s experiment has been made. The following annular liquid seals have also been 3D modelled, as well as their fluid volume:
− Smooth Annular Liquid Seal (SS/GR) (J. Alex Moreland experiment)
− Grooved Annular Liquid Seal (GS/SR)
− Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 mm) (GS/SR)
− Straight Honeycomb Annular Liquid Seal (GS/SR)
− Convergent Honeycomb Annular Liquid Seal (No. 3) (GS/SR)
− Smooth Annular Liquid Seal (SS/SR) (S. Kaneko experiment)
In the case of the seals used in S. Kaneko’s experiments, the test rig has been adapted to each seal, defining interpart expressions which can be easily modified.
Afterwards, it has been done a CFD simulation of the Smooth Annular Liquid Seal using Ansys CFX Software. To do so, the fluid volume geometry has been simplified to do a first approximation. Results have been compared for an eccentricity 𝜀0=0.00 for the following ranges of rotor speeds and differential of pressure:
− Δ𝑃= 2.07, 4.14, 6.21, and 8.27 bar,
− 𝜔= 2, 4, 6 and 8 krpm.
Even results obtained have the same trend as the one proportionated by the literature, they cannot be validated as the error is above 5%. It is also observed that as the pressure drop increases, the relative error decreases considerably.
The Lattice Boltzmann Method is a useful tool to calculate fluid flow and acoustic effects at the same time. Although the acoustic perturbation is much smaller than normal pressure differences in fluid flow, this direct calculation is a great advantage of the Lattice Boltzmann Method (LBM). But each border used in calculation produces a multitude of reflections with the acoustic waves, which lead to an unusable result. Therefore, it is worked on different absorbing techniques.
In this thesis three absorbing layer techniques are described, explained and reviewed with different simulations. The absorbing layers are implemented in a basic LBM code in C++, and with this umpteen simulations within a box were performed to compare the different absorbing layers. The Doppler effect and a cylinder flow are also examined to compare the damping efficiencies.
The three studied absorbing techniques are the sponge layer, the perfectly matched layer and a force based Term II absorbing layer. The sponge layer is easy to implement but gives worse results than a calculation without any absorbing layer. The perfectly matched layer and a force based absorbing term provide very good results but the perfectly matched layer has problems with instability. The force based absorbing layer represents the best compromise between the additional computation time due the absorbing layer and the achieved damping efficiency.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
One of the most critical areas of research and expansion has been exploiting new technologies in supply chain risk management. One example of this is the use of Digital Twins. The performance of physical systems can be analyzed and simulated using digital twins, virtual versions of these systems that use real-time data, and sophisticated algorithms. Inside the supply chain risk management field, digital twins present a one-of-a-kind opportunity to improve an organization's ability to anticipate, address, and react to the possibility of problems within the supply chain.
The objective of this study is to identify and assess the advantages that accrue to supply chain risk management as a result of Digital Twins' adoption into the system, as well as to identify the challenges associated with achieving those benefits. In the context of supply chain risk management, a thorough literature study is conducted to analyze the essential traits and capabilities of digital twins and how these qualities lead to enhanced risk management methods. This study investigates the essential properties and capacities of digital twins. In addition, the state of digital twin technology and its applications in supply chain risk management are evaluated, and prospective areas for further study and development are highlighted.
The primary purpose of this investigation is to provide a comprehensive and in-depth analysis of the digital twins' role in supply chain risk management through the utilization of digital twins, as well as to highlight the potential benefits and challenges associated with the implementation of digital twins. The research was carried out based on the existing body of written material and the replies of 27 individuals who had previous experience making use of digital twins and took part in an online questionnaire.
The results of this study will be relevant to a diverse group of stakeholders, including specialists in risk management and researchers, amongst others.
Android is the most popular mobile operating system. Its omnipresence leads to the fact that it is also the most popular target amongst malware developers and other computer criminals. Hence, this thesis shows the security-relevant structures of Android’s system and application architecture. Furthermore, it provides laboratory exercises on various security-related issues to understand them not only theoretically but also deal with them in a practical way. In order to provide infrastructure-independent education, the exercises are based on Android Virtual Devices (AVDs).
Die Marktentwicklungen der letzten Jahre haben das Feld der adaptiven Audiotechnologien zu einem Flickenteppich verkommen lassen. Das Problem liegt dabei nicht in einem Mangel an Konzepten und Methoden zur nicht-linearen Vertonung, sondern in der Verstreuung dieser Technologien auf eine Vielzahl von Spezialanfertigungen, plattformbezogenen und anderweitig beschränkten Systemen. Im Rahmen dieser Arbeit wurden die vorhandenen, auf Sample- oder MIDI-Phrasen basierenden, konkreten Umsetzungen adaptiver Soundbegleitung auf ihre Funktionsweise untersucht und insbesondere die Verwendung der Techniken Layering, Sequencing, Transitions und aleatorischer Konjunktion sowie Steuerungsmöglichkeiten, etwaige Erweiterungen und Besonderheiten gegenübergestellt und vergleichend analysiert. Bei der Zerlegung in atomare Funktionseinheiten zeigte sich eine hohe Redundanz unter den bekannten Techniken. Einzelne Methoden unterscheiden sich oftmals nur durch unterschiedliche Kombination verschiedener Grundmechanismen. Infolgedessen wurde ein baukastenartiges Modell entwickelt, welches mit einigen wenigen Struktur-, Infrastruktur- , Steuer- und allgemeinen Bausteinen die funktionale Nachbildung jeder der untersuchten Techniken ermöglicht, dabei durch den modularen Aufbau jedoch hochflexibel, skalierbar und darüber hinaus erweiterbar bleibt. Des Weiteren wurde die Übertragung des theoretischen Modells auf eine objektorientierte Softwarestruktur aufgezeigt, sodass sich das erarbeitete Modell insgesamt betrachtet als einheitliches System zur plattformunabhängigen Beschreibung, Weiter- und Wiedergabe nahezu beliebiger adaptiver Sounds verwenden lässt.
Das übergeordnete Ziel dieser Arbeit ist die Entwicklung einer Lernanwendung für die Theorieausbildung von Gleitschirm- und Drachenfliegern. Daraus abgeleitete Ziele sind eine Überprüfung der Tätigkeit auf ihre Wirtschaftlichkeit sowie eine vollständige Analyse der Anforderungen von Nutzern und anderen Stakeholdern.
Die Analyse von Markt, Anforderungen und Technologien liefert wertvolle und hilfreiche Erkenntnisse für die Umsetzung der Lernanwendung. Die Berechnungen in der Marktanalyse zeigen, dass eine Umsetzung der Anwendung grundsätzlich wirtschaftlich möglich ist. Die bestehende und potentielle Konkurrenz wurde ermittelt und ihr Angebot detailliert verglichen und analysiert. Die Ermittlung der notwendigen Kennzahlen zur Berechnung der Wirtschaftlichkeit der unternehmerischen Tätigkeit ergeben sich durch die Berechnung von Marktvolumen Marktsättigungsgrad und Marktpotential. Im Kapitel Anforderungsmanagement wird zunächst eine umfangreiche Anforderungsermittlung durchgeführt. Diese besteht aus einem Interview und der Durchführung und Auswertung einer Online-Umfrage. Die Ergebnisse der Anforderungsermittlung werden analysiert und anschließend in Form eines Lasten- und eines Pflichtenhefts dokumentiert. Es zeigt sich, dass die ermittelten und analysierten Daten eine solide Grundlage für die weiteren Arbeiten bilden. Ein Experten-Interview und die Umfrage unter Gleitschirmfliegern ergeben keine in Konflikt stehenden Anforderungen und die aus der Auswertung der Umfrage ermittelten Anforderungen bestätigen viele bereits aus dem Interview ermittelten Anforderungen. Die ausgewertete Umfrage bietet außerdem wichtige Erkenntnisse über gewünschte Funktionen und die Zahlungsbereitschaft der Ziel- gruppe. Diese Erkenntnisse sind besonders in Anbetracht der anzustrebenden Marktpositionierung hilfreich. Die Spezifikation von Anforderungen im Lastenheft ermöglicht es, ein passendes Konzept zu erstellen und den Anforderungen gerecht werdende Technologien auszuwählen. Für die Konzeption der Anwendung wurden Personas, Wireframes und Strukturdiagramme erstellt, die den Anforderungen aus dem Lastenheft gerecht werden. Der Konzeption der Anwendung wurde, verglichen mit den anderen Arbeits- schritten, weniger Platz eingeräumt, da erstens kaum restriktive Anforderungen an das Design bestehen und zweitens die Anwendungsentwicklung mit UI-Frameworks kein fotorealistisches Layout voraussetzt, um ästhetische und benutzerfreundliche Anwendungen zu konzipieren. Es zeigt sich, dass für die gegebenen Anforderungen die Erstellung von Wireframes ausreichend ist. Im Kapitel „Technologieauswahl“ wird eine umfangreiche analytische Arbeit betrieben, um eine optimale Auswahl von passenden Technologien zu erhalten. Die analytische Arbeit besteht dabei aus dem Vergleich verschiedener Systemumgebungen, App-Technologien und Frameworks. Dabei wird deutlich, dass eine Progressive Web-App in einer cloudbasierten Systemumgebung mit einem Backend-as-a-Service Modell die Anforderungen am besten erfüllt. Im Kapitel „Umsetzung“ wird dokumentiert, wie die Anwendung realisiert wurde. Für die Umsetzung der Lernanwendung und des dazugehörigen Administrationsbereiches wurden etwa 6000 Zeilen Code geschrieben. Sowohl den Administrationsbereich als auch die Lernanwendung konnte zu großen Teilen fertig gestellt werden.
Zusammenfassend lässt sich festhalten, dass die Zielsetzung dieser Arbeit erfüllt wurde, indem die wichtigsten Grundlagen zur späteren vollständigen Umsetzung erarbeitet wurden. Mit Spannung zu erwarten ist, wie sich die gewählte BaaS-System-umgebung in Zukunft entwickelt und ob diese auch weiterhin den Anforderungen gerecht wird. Neben den noch ausstehenden Arbeiten bei der Umsetzung sind auch mögliche Erweiterungen denkbar. So konnte das Lernsystem noch weiter optimiert werden, zum Beispiel durch automatische Erstellung eines Lernplans, basierend auf dem Prüfungstermin oder durch Implementierung von Push-Benachrichtigungen, die den Nutzer zum Öffnen der Anwendung auffordern. Denkbar ist auch eine Übertragung des Anwendungskonzepts auf andere Sportarten oder Ausbildungen. Dabei müsste überlegt werden, ob sich die jeweilige Prüfungsform zum Lernen mit einer Lernkartei eignet oder welche Aufwände für eine Anpassung an andere Sportarten notwendig wären.
Die Entwicklung innovativer Produkte und Dienstleistungen ist ein wesentlicher Grund weshalb sich unsere Gegenwart von der Vergangenheit unterscheidet. Allein in Deutschland werden für die Entwicklung von Innovationen jährlich Milliarden von Euros investiert. Nur knapp vier von zehn Innovationen, die auf dem Markt eingeführt werden, gelingt der Markterfolg. Im Umkehrschluss bedeutet dies, dass über die Hälfte aller Innovationen scheitern. Ein wesentlicher Grund hierfür ist die mangelnde Marktorientierung. Der Fokus dieser Arbeit liegt auf der Forschungsfrage, wie bei der Entwicklung von Innovationen eine Verbindung zum Markt hergestellt werden kann, um innovative Produkte und Dienstleistungen näher an den Bedürfnissen des Endverbrauchers zu entwickeln.
Ansätze für den Einfluss der Social-Media-Kanäle TikTok und Instagram auf die Kaufentscheidung
(2023)
Social-Media-Nutzer und Nutzerinnen sind online und lernen dadurch neue Produkte kennen. Gerade auf Social-Media-Plattformen wie Instagram und TikTok werden die Nutzer und Nutzerinnen durch verschiedene Mittel häufig auf Produkte aufmerksam gemacht und zum Kaufen motiviert.
Das Ziel der vorliegenden Arbeit ist es, herauszufinden welche Aspekte auf den Plattformen Instagram und TikTok die Nutzenden dazu animiert bei einem Drogerieunternehmen einzukaufen. Dazu wird die folgende Forschungsfrage gestellt: Wie kann ein Drogerieunternehmen die Kaufentscheidung auf Instagram und TikTok beeinflussen?
Aus den resultierenden Ergebnissen einer qualitative Studie mittels 8 Interviews werden Handlungsempfehlungen für die Unternehmen der Drogeriebranche abgeleitet. Die Ergebnisse der Forschung sind Ansätze, welche Drogerien auf den Social-Media-Plattformen nutzen können, um die Kaufentscheidung ihrer Follower und Followerinnen positiv zu beeinflussen.
Gegenstand der hier vorgestellten Arbeit ist eine Untersuchung der gängigsten Anwendungsschicht-Protokolle für das Internet der Dinge. Sie umfasst zum einen die Recherche und den theoretischen Vergleich der Protokolle anhand vorher festgelegter Untersuchungskriterien und zum anderen einen praktisch implementierten Versuchsaufbau, der das Zusammenwirken verschiedener Protokolle veranschaulichen soll.
Zunächst wird eine kurze Einführung in das Thema „Internet der Dinge“ gegeben. Dabei wird auf die Entwicklung der letzten Jahre sowie den Stand der Technik eingegangen. Zum einen wird aufgezeigt, inwieweit sich das Thema auf die verschiedenen Bereiche des täglichen Lebens ausgebreitet hat und zum anderen welche verschiedenen Anwendungspakete diverser Software-Hersteller auf dem Markt sind. Bei der Untersuchung dieser Pakete werden die Protokolle ermittelt, die verwendet werden. Diese bilden die Menge an zu untersuchenden Protokolle für den späteren Vergleich. Um diese in einem wissenschaftlichen Rahmen miteinander vergleichen zu können, werden Kriterien als Basis der Untersuchung definiert. Anhand derer werden alle Protokolle untersucht und anschließend in einer Tabelle zusammengefasst.
Im zweiten Teil werden dann einige der untersuchten Protokolle mithilfe von diversen MCUs (Micro Controller Unit) verwendet und deren Funktionsweise/Handhabung miteinander verglichen. Dabei entsteht ein Aufbau, der zukünftigen Studierenden die Möglichkeit bietet, schnell einen Einblick in den Bereich „Internet der Dinge“ zu erhalten.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Diese Thesis beschäftigt sich mit den Techniken von Code Injection und API Hooking, die von Malware verwendet werden, um sich in laufende Prozesse einzuschleusen und deren Verhalten zu manipulieren. Darüber hinaus erklärt sie die Grundlagen der Betriebssystemarchitektur, der DLLs, der Win32 API und der PE-Dateien, die für das Verständnis dieser Techniken notwendig sind. Die Thesis stellt verschiedene Methoden von Code Injection und API Hooking vor, wie z.B. DLL Injection, PE Injection, Process Hollowing, Inline Hooking und IAT Hooking, und zeigt anhand von Codebeispielen, wie sie funktionieren. Des Weiteren wird auch beschrieben, wie man Code Injection und API Hooking mithilfe verschiedene Tools und Techniken wie VADs, Speicherforensik und maschinelles Lernen erkennen und verhindern kann. Die Thesis diskutiert außerdem mögliche Gegenmaßnahmen, die das Betriebssystem oder die Anwendungen anwenden können, um sich vor Code Injection und API Hooking zu schützen, wie z.B. ASLR, DEP, ACG, IAF und andere. Zuletzt wird mit einer Zusammenfassung und einem Ausblick auf die zukünftigen Herausforderungen und Möglichkeiten in diesem Bereich abgeschlossen.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
In each company Top Managers have the responsibility to take major decisions that supports the success of their company, Adopting TQM is one of these decisions, the decision to carry out companies’ operations and procedures within TQM frameworks. (ASQ , n.d.). Applying TQM, involves implementing practices that needs putting extra efforts, otherwise there will be no use of the practices and the execution. (Nicca Jirah F Campos1, 2022).
Specifically in service sector, where the key to success and increased profit, comes directly through a satisfied customer. Therefor there is a need for both management and staff to have big tolerance and willingness to achieve the needed satisfaction, in order to attain the results that every company wants. (Charantimath, 2013)
In Germany in terms of customer care practices there is a famous stereotype ‘Customer is not the king’ A reputation That after DW investigated it, DW expressed it as a phenomenon where both expats and Germans tend to believe that service companies in Germany should do a better job of treating their consumers. (DW, 2016)
New concepts of business have emerged in the late century, for example strategy, leadership, marketing, entrepreneurship and others, these concepts spread internationally among most of the companies around the world. Many studies have been done reviewing these new business structures, some of them addressed the cultural differences within countries upon the applying them. But not many studies concentrated on taking into consideration how cultural differences affects the Implementation of TQM. (Lagrosen, 2002). It was concluded in general that although the comprehensive fundamentals of quality management are applicable and similar worldwide in all nations, but when coming to real practice accurate tunning must be made, it must be taken into account aligning different standards, due to different work cultures and traditions in Europe. (Krueger, 1999)
are you okay?
(2022)
Die Frage “Wie geht es dir?” ist in unserer Gesellschaft eine Höflichkeitsfloskel geworden. Die meisten Menschen antworten mit einem “Gut, und selbst?” und dann wird über etwas anderes gesprochen. Der Großteil redet nicht allzu oft darüber, was sie wirklich beschäftigt. Aber warum eigentlich nicht? Ist es Scham, Angst vor Ablehnung oder einfach nur „gutes“ Benehmen?
Besonders negative Gefühle, wie Wut und Trauer haben in unserem Leben wenig Platz. Sie werden als nicht gut betrachtet und alles was nicht “gut” ist, sollte laut der Gesellschaft lieber versteckt werden. Dieses Buch steht für mehr Gefühlsbewusstsein und soll einen offeneren Austausch mit sich selbst und anderen anstoßen. Denn auch negative Gefühle sollen einen Platz bekommen und können sanftmütig und bewusst gelebt werden.
Dieses Buch ist eine bunte Mischung aus ausgedachten aber realitätsnahen Geschichten vom Scheitern, Texten von Musikern und Bildern zum Träumen und Interpretieren. Es scheint zuerst ungewöhnlich, ausschließlich deutsche Rapper statt alte Philosophen zu zitieren. Doch die Hip-Hop-Kultur hat einiges zu sagen und bringt alltägliche Probleme und Ängste unverblümt auf den Punkt. Manchmal müssen wir nur etwas genauer hinhören.
Art of Merenya
(2021)
The effects of climate change, including severe storms, heat waves, and melting glaciers, are highlighted as an urgent concern, emphasising the need to decrease carbon emissions to restrict global warming to 1.5°C. To accomplish this goal, it is vital to substitute fossil fuel-based power plants with renewable energy sources like solar, wind, hydro, and biofuels. Despite some progress being made, the proportion of renewables used in generating electricity is still lower than the levels needed for 2030 and 2050. Decarbonising the power grid is also critical in lowering the energy consumption of buildings, which is responsible for a substantial percentage of worldwide electricity usage. Even though there has been substantial expansion in the worldwide renewable energy market in the past 15 years, the transition to renewable energy sources also requires taking into account the importance of energy trading.
Peer-to-peer (P2P) electricity trading is an emerging type of energy exchange that can revolutionise the energy sector by providing a more decentralised and efficient way of trading energy. This research deals about P2P electricity trading in a carbon-neutral scenario. 'Python for Power System Analysis' (PyPSA) was used to develop models through which the P2P effect was tested. Data for the entire state of Baden-Württemberg (BW) was collected. Three scenarios were taken into consideration while developing models: 2019 (base), 2030 (coal phase-out), and 2040(climate neutral). Alongside this, another model with no P2P trading was developed to make a comparison. In addition, the use case of community storage in a P2P trading network is also presented.
The research concludes that P2P has a significant positive effect on a pathway to achieve climate neutrality. The findings show that the share of renewables in electricity generation is increasing compared to conventional sources in BW, which can be traded to meet the demand. From the storage analysis, it can be concluded that community storage can be effectively utilised in P2P trading. While the emissions are reduced, the operating costs are also reduced when the grid has P2P trading available. By highlighting the benefits of P2P trading, this research contributed to the growing body of research on the effectiveness of P2P trading in an electricity network grid.
Die vorliegende Bachelorarbeit behandelt das Thema „Attraktivität des Offenburger Weihnachtsmarktes als Event im Stadtmarketing“. Im ersten Teil werden Grundbegriffe und Konzepte vorgestellt und erläutert, warum Weihnachtsmärkte ein wichtiger Teil des Stadtmarketing sind. In Kooperation mit dem Stadtmarketing Offenburg wurde eine Befragung durchgeführt, um die Attraktivität des Offenburger Weihnachtsmarktes zu evaluieren. Schwerpunkte der Befragung waren Besuchsmodalitäten, Angebotsattraktivität, Aktionsräumliches Verhalten sowie Einzugsgebiet und soziodemografisches Profil der Besucher. Die Ergebnisse daraus werden im zweiten Teil der Arbeit vorgestellt. Im dritten Teil werden abschließend Empfehlungen und Ideen entwickelt, wie die Attraktivität des Offenburger Weihnachtsmarktes als Event im Stadtmarketing weiterhin auf hohem Niveau gehalten werden kann.
Audio over IP
(2019)
Der Wandel im Bereich Tontechnik geht stetig weiter. Was vor über 100 Jahren begann, entwickelt sich heutzutage rasend voran. Das Ziel immer vor Augen: Ein Audiosignal soll in bestmöglichster Qualität, möglichst mit einer geringen Datenmenge, in kürzester Zeit von A nach B transportiert und anschließend konserviert werden.
Durch die Digitalisierung werden auch hier völlig neue Anwendungsbereiche und Szenarien ermöglicht, die weit über das klassische Recording oder die Studioinfrastruktur hinausgehen. Die Rede ist zum Beispiel von Klanginstallationen oder Konferenzszenarien. Audionetzwerke bieten durch die Nutzung beliebiger Quellen und Senken in der Produktionsumgebung eine signifikant flexiblere Signalverteilung, als dies noch mit klassischen Verteilern und Steckfeldern möglich war. Übertragungen und Vernetzungen in mehreren Gebäuden sind hiermit kein Problem. Allerdings unterscheidet sich diese Technologie in Punkto Stabilität, Datenrate, Netzwerk-Layer & Qualität deutlich von seinem Pendant, dem Internetstreaming.
Das Ziel in dieser Arbeit ist die Programmierung von einem Mikroprozessor, der als ein Richtmikrofon verwendet wird, um unterschiedlichen Richtcharakteristiken zu erzeugen.
Dabei stellt sich die Frage: Ist es möglich ein Mikroprozessor so zu programmieren, dass er eine Stereoaufnahme so verarbeiten kann, sodass unterschiedliche Richtcharakteristiken erzeugt werden könnten?
Um die Frage zu beantworten, wurde eine technische Ausarbeitung von einem Mikroprozessor und seine Programmierung benötigt. Diese befasst sich mit der Programmierung in C++ / Arduino IDE des Mikrokontrollers und eigene Erstellung von Tests, um die Ergebnisse darzustellen.
Als weitere Basis wurden nur verbraucherorientierten Mikroprozessoren untersucht und die beste Möglichkeit wurde ausgesucht und weiterentwickelt. Zudem lag der Fokus auf der Reproduzierbarkeit der Ergebnisse.
Der aktuell verbaute Hatz-Dieselmotors des Schluckspecht V soll durch einen leichten und effizienten Ottomotor ersetzt werden. Dieser Ottomotor wird zukünftig mit dem Alkohol Ethanol betrieben. Hierfür müssen, auch hinsichtlich des Wettbewerb-Einsatzes beim Shell Eco-marathon, einige Optimierungen durchgeführt werden.
Die hier vorliegende Master-Thesis behandelt den Aufbau und die Optimierung des Ver-suchsprüfstands, welcher für Testzwecke für den neuen Ottomotor entwickelt wurde. Im speziellen wird auf das Thema Kraftstoffsystem, welches für den Betrieb mit Ethanol aus-gelegt wird, eingegangen. Des Weiteren erfolgt die Konstruktion einer optimierten Ansaugstrecke, welche auf den Verbrennungsmotor appliziert werden soll. Hierfür werden mehrere Varianten strömungstechnisch untersucht und am Objekt getestet. Zudem soll die Verdichtung des Verbrennungsmotors durch einen optimierten Kolben erhöht und die Ventilsteuerzeiten durch eine optimierte Nockenkontur perfektioniert werden. Hierbei besteht die Aufgabe darin diese Bauteile zu besorgen und die Fertigung zu koordinieren. Eine weitere Tätigkeit ist die Aufnahme und Beseitigung von Fehlern des Versuchsprüfstands, welche einen reibungslosen Versuchsalltag verhindern bzw. erschweren. Die letzte Tätigkeit umfasst das Durchführen von experimentellen Untersuchungen des Verbrennungsmotors und das Anlegen von Kennfeldern, welche einen effizienten Motorlauf gewährleisten.
Elektrische Antriebssysteme sind in der modernen Welt überall zu finden und sind aus dem Alltag nicht mehr wegzudenken. In vielen industriellen Anwendungen wandeln sie elektrische Energie in mechanische Energie um, womit das Antriebssystem als Motor fungiert. Im umgekehrten Fall, wenn demnach mechanische Energie in elektrische Energie umgewandelt wird, arbeitet das Antriebssystem als Generator. Die dabei umgewandelte Energie soll bei einer Einspeisung in das Versorgungsnetz möglichst sinusförmig verlaufen, damit überwiegend Grundschwingungsleistung fließt. Zusätzlich ist ein geringer Blindanteil wünschenswert, weil diese Stromkomponente dafür sorgt, dass die Versorgungsleitungen unnötig belastet werden.
In dieser Bachelorthesis werden auf die für das Verständnis wichtigen theoretischen Grundlagen der Raumzeiger eingegangen. Bei der Regelung des Netz- oder Ausgangsstroms und der Zwischenkreisspannung werden auf diese Grundlagen zurückgegriffen, weil die Beschreibung von zeitveränderlichen, sinusförmig verteilten dreiphasigen Größen durch Transformationen in andere Bezugssysteme als besonders zweckmäßig erscheint. Damit weitere elektrische Geräte, die am selben Netzanschlusspunkt angeschlossen sind, möglichst wenig beeinflusst werden, sollte der ins Versorgungsnetz zurückgespeiste Strom geringe Oberschwingungen enthalten und somit einen weitestgehend sinusförmigen Verlauf annehmen.
Oberschwingungen sind ganzzahlige Vielfache der Grundschwingung der Netzfrequenz von 50 Hz. Aus regelungstechnischer Sicht ist es daher zweckmäßig, ein nahezu exaktes Modell der Regelung des Netzstroms und der Zwischenkreisspannung zu erstellen. Eine hochdynamische Regelung ist dann gewährleistet.
Die Funkschnittstelle nach dem Bluetooth Standard ist heutzutage nicht mehr aus dem Consumer-Markt wegzudenken. Auch durch die zukünftige Weiterentwicklung des Prinzips von IoT (Internet of Things) wird vor allem die Bluetooth Low Energy Technologie für Unternehmen bei der Entwicklung von Geräten mehr an Bedeutung gewinnen. Um die Studierenden im Bereich der Kommunikationstechnik auf das Thema Bluetooth vorzubereiten, wird der Versuch „Kurzstreckenkommunikation nach dem Bluetooth Standard“ im Telekommunikations-Labor an der Hochschule Offenburg angeboten. Der Versuch wurde im Rahmen dieser Bachelor-Thesis an die heutigen Anforderungen angepasst.
Die nachfolgende Bachelor-Thesis beinhaltet die gesamte Laboranleitung des Versuchs, welche in die drei Teile: Theoretische Grundlagen, vorbereitende Aufgaben und der Versuchsdurchführung aufgeteilt wird. Der Versuchsanleitung folgt ein Teil mit weiteren Anmerkungen für die akademischen Mitarbeiter, welche den Versuch betreuen. Hier wird sichergestellt, dass auch in Zukunft der Versuch problemlos weiter durchgeführt werden kann. Im Anhang befinden sich die Musterlösungen für die vorbereitentenden Aufgaben und der Versuchsdurchführung.
Aufbau/Ansteuerung/Kalibrierung/Pilotierung eines Lautsprecher-Halbkreises für Lokalisationstests
(2019)
Seit September 2018 ist die Hochschule Offenburg im Besitz einer Hörkabine, in der ein Schallquellenlokalisationstest im Rahmen dieser Bachelorarbeit aufgebaut wurde. Eine Schallquellenlokalisation ist im Alltag für Normalhörende in den meisten Fällen keine Schwierigkeit. Wir Menschen sind in der Lage mit einer Genauigkeit von 1° bis 2° eine Schallquelle zu lokalisieren (Feigenspan 2017,S.624). Entfällt jedoch das Hörvermögen auf einer Seite, so verschlechtert sich die Lokalisationsfähigkeit erheb-lich. Um Schallquellen präzise lokalisieren zu können, werden optimaler Weise beide Ohren benötigt. Heutzutage gibt es viele Hörsysteme, um diverse Hörstörungen zu therapieren. Den-noch bleibt die Lokalisationsfähigkeit für Menschen mit einseitiger Taubheit, bezie hungsweise asymmetrischen Hörverlust eine Herausforderung. Ein Schallquellenlo kalisationstest findet Anwendung in der Klinik, um eine bestmögliche Versor gung/Therapie durch Hörsysteme zu gewährleisten. Ziel dieser Bachelorarbeit war der Aufbau eines Lokalisationstestes nach Leitlinien einer wissenschaftlichen Publikation, sowie die Durchführung an fünf freiwilligen Normalhörenden. Die Realisierung umfasste den Aufbau der Lautsprecher, die An-steuerung mithilfe einer externen Soundkarte und MATLAB, eine Kalibrierung der Lautsprecher und die Durchführung der Tests.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Im Zusammenhang mit dem industriellen Internet der Dinge (IIoT) wird die Kommunikationstechnologie, die ursprünglich in Heim- und Büroumgebung eingesetzt wurde, in industrielle Anwendungen eingeführt. Kommerzielle Standardprodukte sowie einheitliche und gut etablierte Kommunikationsprotokolle machen diese Technologie leicht zu integrieren und zu Nutzen. Sowohl die Automatisierungs- als auch die Steuerungstechnik verwenden zunehmend Protokolle, die auf TCP/IP aufsetzen. Diese Protokolle werden nicht nur von intelligenten Steuergeräten genutzt, auch Sensoren oder Aktoren kommunizieren zunehmend darüber. Doch die Steigerung der Protokolle und die Verbindung untereinander bewirkt eine enorme Komplexität solche Netze. Ein gestiegener Informationsaustausch über das Netzwerk verbirgt sicherlich auch Nachteile. Die Problematiken mit den Angriffsszenarien, die wir aus der Informationstechnik kennen, sind nun auch in Produktionsnetzwerken allgegenwärtig. Dies führt zu einer erhöhten Nachfrage nach industriellen Intrusion Detection-Lösungen. Es gibt jedoch Herausforderungen bei der Umsetzung der industriellen Intrusion Detection. Die größte Bedrohung für industrielle Anwendungen geht von staatlich geförderten und kriminellen Gruppen aus. Häufig werden von diesen Angreifern bisher unbekannte Exploits eingesetzt, so genannte 0-Days-Exploits. Sie können mit der signaturbasierten Intrusion Detection nicht entdeckt werden. Daher bietet sich eine statistische oder auf maschinelles Lernen basierende Anomalie-Erkennung an.
Die Grundlage meiner Masterarbeit ist die Musikvideoproduktion „Honey“ in Zusammenarbeit mit der Band Sebamana. Der vorliegende theoretische Teil der Arbeit ergänzt die Musikvideoproduktion auf wissenschaftlicher Ebene. Er soll die einzelnen Schritte einer Filmproduktion aufzeigen, vom Drehbuch bis zur Verwertung, und auf die Arbeits- und Rollenverteilung im Team eingehen.
Die verschiedenen Rollen innerhalb eines Projektes werden mit ihren jeweiligen Aufgabenbereichen vorgestellt. Dabei machen sich auch Unterschiede zwischen kleinen und großen Produktionen bemerkbar und ihre Vor- und Nachteile werden deutlich. Kommunikation und Transparenz zwischen den Departments ist die Voraussetzung für eine gute Zusammenarbeit im Team.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
In der vorliegenden Arbeit wird Augmented Reality (AR) sowohl in der Theorie als auch in der Praxis ausführlich behandelt. Die Technik, welche in den letzten Jahren stark weiterentwickelt wurde, die Entwicklungsgeschichte, sowie die Projektbegleitung (aus Sicht des Auftraggebers einer AR-Anwendung) stehen im Fokus.
Neben den einleitenden Kapiteln wurde die Ausarbeitung thematisch in zwei große Bereiche unterteilt. Der erste, eher theoretische Bereich (Kapitel 2), bildet den wissenschaftlichen Teil dieser Ausarbeitung. Er beinhaltet eine Einführung in Augmented Reality und analysiert aktuelle Techniken. Auch die Funktionsweise wird aufgezeigt, um zu verstehen, was hinter den Kulissen der Anwendungen steckt. Im zweiten, praxisnahen Bereich (Kapitel 3) wird der Entstehungsprozess der Augmented Reality Applikation (App) von Kaba begleitet. Es wurde der Entstehungsprozess der App für Android und iOS ausführlich dokumentiert. Für Leser, die Probleme mit einigen Wissensbereichen haben, gibt es im Anhang eine ausführliche Literaturliste.
Die vorliegende Arbeit, welche im Rahmen des Forschungsprojektes LaDiVo an der Hochschule Offenburg angefertigt wurde, beschäftigt sich mit Aushärten keramischer Farben auf Einscheiben- und Verbundsicherheitsglas mittels eines CO2-Lasers. Zur Erreichung dieses Ziels soll experimentell ein Verfahren erarbeitet werden.
Nach einer ausführlichen Analyse des Stands der Technik und einer Klärung des zur Verfügung stehenden Versuchsaufbaus werden verschiedene Versuche in einer Planungsphase konzeptioniert. Dazu gehören, neben den reinen Aushärteversuchen mittels Laser, ebenso eine mikroskopische Untersuchung der Ergebnisse mittels Licht- und Rasterelektronenmikroskop als auch der Aufbau einer Simulation zur qualitativen Validierung der Versuchsergebnisse.
Durch die Versuche zeigt sich, dass es möglich ist, keramische Farbe auf Einscheibensicherheitsglas mittels Laser auszuhärten, ohne dass es zu einer Schädigung des Glases kommt. Die mikroskopische Untersuchung unterstützt dieses Ergebnis. Beim Verbundsicherheitsglas konnte kein Verfahren zur schädigungsfreien Aushärtung der keramischen Farbe erarbeitet werden.
Auslegung eines Baukastensystems für einen Detektor zur optischen Fehlerprüfung von Mantelflächen
(2016)
Im Projekt der Abschlussarbeit wird an der Konstruktion eines sich automatisch zusammenbauenden Baukastensystems für einen Detektor in Anlagen zur optischen Teileprüfung gearbeitet. Der behandelte Detektoraufbau, bestehend aus Bildsensor, Objektiv und Beleuchtung, detektiert dabei Innen- und Außenmantelflächenfehler bei Serienteilen mit Außendurchmessern von 5 mm bis 80 mm und Höhen von 1 mm bis 60 mm. Der Detektor, auch allgemeiner als Sensor bezeichnet, weist im Konstruktionsprozess eine Problematik auf, welche durch die Erzeugung eines Baukastens gelöst werden soll.
Bifaziale Photovoltaikmodule werden durch ihre höhere Leistung, bezogen auf den Flächenbedarf immer attraktiver. Die meisten der bislang hergestellten Photovoltaik Module sind Monofazial ausgeführtund schöpfen damit nicht ihr vollständiges Potential aus. Weiterhin bestehen die konventionell hergestelltenPhotovoltaik(PV) Module aus einem Verbund aus Glas und Kunststoff sowie verschiedenen Metallen, was die Entsorgung oder ein Recycling kostenaufwendig und kompliziert gestaltet. Die Firma Apollon greift diese Punkte auf und versucht, beides in dem NICE-Modul(Siehe Anhang 12.1)zu vereinen,nämlich ein bifaziales Modul, bei dem die PV-Zellen zwischen zwei Glasplatten, anstelle von zwei Kunststoffen eingespannt werden. Die Hochschule Offenburg ist F&E-Partner der Firma Apollon und betreibt ein kleines Labor zur Herstellung von NICE-Modulen. Zu Testzwecken werden diese der Witterung ausgesetzt und so der Energieertrag,sowie deren Lebensdauer unter geltenden Witterungsbedingungen ermittelt. In der Masterarbeit von Benjamin Smith[1]stellte sich heraus, dass sich bei den Modulen nach weniger als zwei Wochen im Freien die Klebefläche zwischen den Glasplatten löste. Somit fielen die Module beim Witterungstest unter realen Bedingungen durch.Im Anschluss an die Arbeit von Benjamin Smith besteht diese Arbeit darin,einen Außenteststand zu konzipieren und aufzubauen, um das in Zwischenzeit neu entworfene Klebe-konzept, welches einem TC 50 Test standhielt, auf die Lebensdauer im Freien und das PV Modul selbst auf den elektrischen Ertrag zu untersuchen. Für den elektrischen Ertrag werden Strom-und Spannungsverlauf aufgezeichnet. Außerdem musste für eine Charakterisierung der Module die Bestrahlungsstärke,der Temperaturverlauf, sowie die Inho-mogenität der Bestrahlungsstärke auf der Rückseite und die Windgeschwindigkeit ermittelt werden. Um eine Alterung des Modulwechselrichters auszuschließen, werden speziell dafür die Wechselspannung und Leistung auf der Ausgangsseite des Modulwechselrichters aufgezeichnet. Sämtliche modulrelevanten Messwerte werden im 3-5 s Intervall abgespeichert und sind auf einem Webserver sowie für eine spätere Datenanalyse als .csv Datei abrufbar. Somit eignet sich die Messeinrichtung lediglich für eine Bilanzierung,nicht aber für eine Leistungsmessung.
Für den Außenteststand musste eine Unterkonstruktion, geeignet für bifaziale Module entworfen und aufgebaut werden. Die Konstruktion ist vollständig aufgebaut. Das Messsystem wurde auf deren Funktion erfolgreich geprüft und steht bis auf die Strahlungsinhomogenitätsmessung im Technikum am Campus Nord der Hochschule Offenburg bereit zur Inbetriebnahme.
In dieser Bachelorarbeit wird ein fiktives Weingut gegründet. Dabei werden zum einen Grundlagen der Corporate Identity und Gestaltung behandelt, zum anderen wurde eine Marktanalyse durchgeführt. Um eine Marke zu etablieren, erhält das Weingut ein Corporate Design mit gedruckten Anwendungsbeispielen. Dazu zählen Logo, Visitenkarten, Plakate und eine Unternehmensbroschüre.
The research paper provides important findings about the development, difficulties and perception of the support measures for exporters introduced by the Austrian government in times of COVID-19 crisis. Based on a literature review using secondary data, eight qualitative interviews were conducted with experts from the Austrian economy and government, among them the Austrian ECA ‘Oesterreichische Kontrollbank AG’. To balance the effects of the COVID-19 pandemic on the Austrian economy, a broad coverage with financing instruments for a wide range of target groups was established. Although the support measures have been well received by companies, insolvencies cannot completely be prevented. Nevertheless, the actual effects are not yet predictable and need to be assessed in further research at a later point in time.
Auswahl von elektrischen Antriebskomponenten zur Elektrifizierung des Antriebes eines „Tuk-Tuks“
(2019)
Die vorliegende Abschlussarbeit handelt von einem Tuk-Tuk. Im Ausgangszustand ist dieses mit einem 1-Zylinder Ottomotor versehen.
Im Rahmen eines Hochschulprojektes wird dieser Motor durch einen Elektromotor ersetzt. Ziel dieser Thesis ist es, einen passenden Motor zu finden. Dabei soll eine Auslegung erarbeitet werden, die es ermöglicht, sämtliche Widerstandskräfte zu berechnen und daraus auf die notwendigen Antriebsleistungen bzw. Drehmomente zu schließen. Im Anschluss daran kann eine Aussage getroffen werden, ob der Elektromotor die gewünschten Anforderungen erfüllt.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Erarbeitung von zwei unterschiedlichen Marken- und Werbekonzepten zur Ermittlung der Image- und Gestaltungswirkung. Eine einzigartige Werbemittelgestaltung, abgestimmt auf das Markenimage, die Zielgruppe und den Produktnutzen, ist für die Wirkung auf den Konsumierenden und damit den wirtschaftlichen Erfolg von hoher Bedeutung. Im Rahmen der vorliegenden Bachelorarbeit wurde eine qualitative Untersuchung der Image- und Gestaltungswirkung auf den Konsumierenden durchgeführt. Theoretische Ansätze zum Thema Marken und Werbung in Verbindung mit psychologischen Erklärungen bilden dafür eine fundierte Basis. Als Untersuchungsobjekt fungieren zwei eigen kreierte Werbemittel, welche auf Basis theoretischer Grundlagen für das identische fiktive Produkt erstellt wurden. Bei dem Produkt handelt es sich um einen Energy-Drink, welcher eine junge dynamische Zielgruppe ansprechen soll. Dabei zeigen die teilweise gegensätzlich gestalteten Plakate auf, welche Techniken im Hinblick auf das Produkt sowie die vorher definierte Zielgruppe funktionieren und welche nicht.
In the past ten years, applications of artificial neural networks have changed dramatically. outperforming earlier predictions in domains like robotics, computer vision, natural language processing, healthcare, and finance. Future research and advancements in CNN architectures, Algorithms and applications are expected to revolutionize various industries and daily life further. Our task is to find current products that resemble the given product image and description. Deep learning-based automatic product identification is a multi-step process that starts with data collection and continues with model training, deployment, and continuous improvement. The caliber and variety of the dataset, the design selected, and ongoing testing and improvement all affect the model's effectiveness. We achieved 81.47% training accuracy and 72.43% validation accuracy for our combined text and image classification model. Additionally, we have discussed the outcomes from the other dataset and numerous methods for creating an appropriate model.
Automation research has become one of the most important tools for future thinking organizations. It includes studying the economic and social aspects to determine how accountants were affected by automating the accounting profession. Moreover, this research studied the social aspect of automation, including the accountants' satisfaction and agreement towards the shift from manual-based accounting to automated accounting. Additionally, the purpose of the research was to comprehend the aspects that affect the variance of the satisfaction and agreement levels before and after automation and whether there is a relationship between those satisfaction and agreement levels and the demographic profile of accountants.
A quantitative method was used to answer the research questions. The findings and results were gathered through an online survey. The respondents in the study represent forty-three accountants who are located and working in Germany. The implications and conclusions of the research were observed from the accountants' perspective.
The research results presented that the automation of accounting significantly impacted the accountants' profession. It indicated that accountants are satisfied with automated accounting and agree with its effects and impacts on their profession. Accountants agreed that automated accounting tasks made the accounting process more effective and valuable. The findings also showed that educational level and length of experience in automated accounting are correlated with the satisfaction of accountants towards automated accounting. It presented that the more experience in automation and higher education accountants have, the more satisfied they are with automated accounting. Due to this phenomenon, higher qualifications and more basic IT knowledge are required in comparison with previous times.
Um ein neues System zur Korrektur des Tool Center Points des Roboterwerkzeugs zu finden, wurde diese Bachelorarbeit von der Firma Badische Staal Enginering angeboten. Das Ziel ist es, die Position und den Winkel des TCP1 des an den Roboter angebrachten Tools zu korrigieren, basierend auf dem Messergebnis des TCP. Für diese Arbeit wurde eine Roboterstation bereitgestellt, die auch mit einer Triangulationskamera ausgestattet war.
Nach einer Analyse und Entwicklung des Systems wurde ein Programm erstellt, das Bewegungen, Messungen und Berechnungen kombiniert. Sobald dieses Korrektursystem entwickelt ist, wird eine Testbasis an die Projektbedingungen angepasst, um seine Zuverlässigkeit und Wiederholbarkeit unter realen Bedingungen zu testen. Diese Arbeit wird in der Testumgebung der Halle der BSW2 Anlagenbau und Ausbildung GmbH durchgeführt.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.