Refine
Year of publication
Document Type
- Bachelor Thesis (601)
- Master's Thesis (205)
- Conference Proceeding (69)
- Book (15)
- Study Thesis (13)
- Article (reviewed) (8)
- Other (3)
Conference Type
- Konferenzband (64)
- Konferenzartikel (5)
Is part of the Bibliography
- no (914) (remove)
Keywords
- Mikroelektronik (60)
- Marketing (30)
- IT-Sicherheit (23)
- JavaScript (17)
- Biomechanik (15)
- Internet der Dinge (15)
- Künstliche Intelligenz (15)
- Social Media (15)
- Webentwicklung (15)
- COVID-19 (14)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (295)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (172)
- Fakultät Medien (M) (ab 22.04.2021) (162)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (99)
- Fakultät Wirtschaft (W) (33)
- IfTI - Institute for Trade and Innovation (13)
- INES - Institut für nachhaltige Energiesysteme (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (6)
- IUAS - Institute for Unmanned Aerial Systems (3)
Open Access
- Closed Access (462)
- Open Access (229)
- Closed (223)
- Bronze (60)
- Diamond (16)
- Gold (1)
Die Internationalisierung ist mittlerweile ein zentraler Aspekt der gegenwärtigen ökonomischen Debatte. Inzwischen sind nämlich immer mehr Unternehmungen von der internationalen Verschmelzung der Märkte und Branchen betroffen. Haben lange Zeit überwiegend Großunternehmen und Konzerne über die nationalen Grenzen hinweg agiert, stellt sich zunehmend auch der Mittelstand der Herausforderung der Internationalisierung. Schließlich bieten sich international tätigen Firmen durch die Erschließung neuer Märkte unter anderem eine Reihe von attraktiven Wachstumschancen.
Meiner Meinung nach ist Christopher Nolans Meisterwerk „Oppenheimer“ eindeutig der Film des Jahres. Nolan zählt für mich zu einem der bedeutendsten Regisseure der Filmkunst. Im Kino zog mich der Film in den Bann. 3 Stunden vergingen wie im Flug. Doch warum fasziniert mich dieser Film so sehr? Wie hat Nolan hier gearbeitet? Diese wissenschaftliche Arbeit soll dieses Lichtspiel filmästhetisch analysieren. Diese Analyse beschäftigt sich einerseits mit dem Film und andererseits mit der Biografie „J. Robert Oppenheimer“ von Kai Bird und Martin J. Sherwin als Hauptquellen. Es werden die Handlung, die Kameraarbeit, das Szenenbild, die Audiogestaltung, die Filmmusik und die Montage analysiert. Zum Schluss werden Filmkritiken untersucht, um zu analysieren, wie der Film in der breiten Masse ankam.
Für Unternehmen ist es zunehmend von Interesse, durch Social-Media-Kommunikation nicht nur die Aufmerksamkeit der Zielgruppe zu wecken, sondern mit der aufmerksamkeitsstarken Ansprache die Wahrnehmung ihrer Marke und das marktbezogene Verhalten zu beeinflussen. Humorvolle Appelle sind in diesem Zusammenhang zur gängigen Werbepraxis geworden und finden auf Social Media in der direkten Interaktion zwischen Marken und ihrer Zielgruppe statt. Mit der vorliegenden Arbeit wird humorvoll-schlagfertige Unternehmenskommunikation auf Social Media untersucht. Das Ziel war es, die Wirkungszusammenhänge zwischen derartiger Kommunikation, deren Bewertung, dem Markenimage, der Markenauthentizität und den Handlungsabsichten besser zu verstehen. Die Erkenntnisse über diese Zusammenhänge können sowohl der weiteren Erforschung als auch künftigen Marketingentscheidungen dienen.
Im Zuge dessen wurden die theoretischen Hintergründe moderner Markenkommunikation sowie der Konzepte Humor und Schlagfertigkeit ausgearbeitet. Der empirische Teil der Arbeit besteht aus der Konzipierung, Durchführung, Analyse und Ergebnisdiskussion einer quantitativen Studie. Zu den zentralen Ergebnissen zählt, dass sich der Grad an Humor und an Schlagfertigkeit darauf auswirkt, wie sehr die Kommunikation gefällt. Wenn diese gut gefällt, stärkt das wiederum das Markenimage. Auch die wahrgenommene Markenauthentizität bestimmt das Markenimage und wird selbst vor allem durch den Grad der Schlagfertigkeit bestimmt. Das Markenimage beeinflusst die Weiterleitungsabsicht der Kommunikation (virale Effekte) und die Kaufabsicht. Dabei unterscheidet sich humorvoll-schlagfertige Unternehmenskommunikation von neutraler Vergleichskommunikation hinsichtlich der Weiterleitungsabsicht signifikant.
3D Produktpräsentationen im Internet sind komplexe Rich Media Anwendungen, bei deren Erstellung es viel zu beachten gilt. Diese Arbeit beleuchtet verschiedene Aspekte zur Erstellung von 3D Produktpräsentationen. Das Zielmedium Internet, die Gestaltung von 3D Produkten und Layouts, die Interaktivität von 3D Produktseiten, Technologien zu Erstellung, technische Hürden des Mediums, Visionen und ein Projektablauf sowie eine Perspektive zur Entwicklung von 3D Produktpräsentationen sind die inhaltlichen Schwerpunkte der Arbeit.
Technologie spielt im Sport schon immer eine große Rolle. Mit steigender Leistungsdichte im Spitzensport wird versucht mithilfe technischer Hilfsmittel dem Sportler die optimalen Umstände zu ermöglichen. Dazu gehört nicht nur Technik im Sportequiptment, sondern auch Sportuntersuchungen wie Leistungsdiagnostiken. Im Laufsport zählen dazu Ausdauer- und Krafttests. Bei Ausdauertests werden physiologische Parameter wie Laktat, Herzfrequenz oder Sauerstoffaufnahme gemessen. Zusätzlich wird die Lauftechnik für einen kurzen Zeitpunkt analysiert. Wie sich diese unter anhaltender Belastung verhält, wird nicht untersucht. Mit neuen Technologien im Bereich Bewegungsanalyse, können immer schneller größere Datensätze ausgewertet werden. Aus diesem Grund wird in dieser Studie die Lauftechnik über mehrere Zeitpunkte aufgezeichnet und nach Ermüdungserscheinungen untersucht.
Dazu wurde am Institut für angewandte Trainingswissenschaften (IAT) während einer komplexen Leistungsdiagnostik im März 2021 bei einem Laufbandstufentest (4x2000m oder 4x3000m) die Lauftechnik von 15 Elite- und Elitenachwuchsläufer:innen (m=8, w=7) mithilfe eines 3D-Bewegungsanalyse Systems nach Veränderungen in Winkelstellung und Bodenreaktionskraft untersucht. Als physiologische Vergleichsparameter wurde Herzfrequenz und Laktat aufgenommen.
Bei der Analyse der Daten wurden diese in der Gruppe betrachtet. Dabei haben sich schwach signifikante Veränderungen (p=0,047) der vertikalen Bodenreaktionskraft links am Ende der Stufe aufgezeigt. Weitere signifikante Unterschiede (p=0,020) sind im maximalen Kniehub links zu einem größerer Hüftwinkel am Ende sichtbar. Da sonst keine signifikanten Unterschiede zu sehen sind, lässt sich, bei dem hier durchgeführten Protokoll, nicht statistisch gesichert feststellen, ob auftretende Ermüdungserscheinungen die Lauftechnik beeinflussen und verändern. Um festzustellen, ob es geschlechts- oder protokollanhängige Effekte hinsichtlich einer ermüdungsbedingte Lauftechnikveränderung gibt, wurde auch dies statistisch untersucht.
Hier zeigten sich jeweils in einzelnen Parametern signifikante Unterschiede (Parameter TO\_knee\_left; p=0,026) in der Geschlechtsspezifik und in der protokollabhängigen Untersuchung (Parameter TSw\_hip\_left; p=0,04)
Für weitere Studien zur Untersuchung von Lauftechnikveränderung sollten umfangreichere physiologische Daten zur genaueren Betrachtung der Ermüdung verwendet werden. Grundsätzlich müsste das Protokoll auf eine maximale Ausbelastung (beispielsweise Dauerstufentest von 10-15km oder Ausbelastungs-/Abbruchtest) ausgelegt sein.
Grundlegend ist festzustellen, dass sich Simi-Shape als 3D-Bewegungsanalyse-Methode eignet, um spezifische Parameter in der Lauftechnik zu diagnostizieren, gerade hinsichtlich der Effizienz im Auswerteprozess.
3D-Druck für Privatanwender
(2014)
„It’s basically like a hot-glue gun that uses the same kind of plastic used to make Legos“
So beschreibt Bre Pettis, CEO von Makerbot Industries, das 3D-Druckverfahren welches bei den meisten 3D Druckern für den privaten Gebrauch verwendet wird. Was ist der 3D-Druck eigentlich? Wo kann er eingesetzt werden? Wird irgendwann ein 3D-Drucker in jedem Haushalt zu finden sein? Um Antworten auf diese Fragen zu finden, habe ich im Rahmen meiner Bachelorarbeit einen 3D-Drucker zusammengebaut und versucht mehr über diese spannende Zukunftstechnologie zu erfahren.
Die Arbeit behandelt das Thema 3D-Gestensteuerungen als MIDI-Controller in Audioanwendungen. Es wird anhand der momentan verfügbaren 3D-Gesten-Steuerungstechnik erforscht, welche Einsatzmöglichkeiten im Bereich der Audiotechnik beziehungsweise im Sounddesign gegeben sind. Die Erforschung der technischen Grundlagen aus Software und Hardware-Modulen als auch die Performance-Bewertungen bilden die technischen Grundlagen ab, während anschliessend ausgewählte Audioanwendungen beschrieben werden, welche in einer Befragung auf ihre Nutzbarkeit überprüft werden. Es wird beschrieben wie man mit einer 3D-Gestensteuerung, wie dem Kinect-Sensor, Musik oder Sounds produzieren kann, und wie man diese Technik sinnvoll einsetzten kann.
Die vorliegende Bachelorthesis befasst sich mit der Reproduktion der ersten „eisernen Hand“ des Götz von Berlichingen. Die Aufgabenstellung ist es, einen Öffnungsmechanismus zu entwickeln, welcher die zwei Fingerblöcke in die geöffnete Grundstreckstellung zurückführt, wenn die Finger zur Handinnenfläche eingefahren sind. Außerdem sollen die Fingerblöcke in drei verschiedenen Positionen einrasten können, wenn sie nach innen gedrückt werden. Insgesamt soll die Mechanik der Fingerblöcke durch 3D-unterstützte Optimierung von Bauteilen verbessert und unterstützt werden.
Der neukonstruierte Öffnungsmechanismus beinhaltet eine Drehfeder pro Fingerblock. Zudem begünstigt die CAD-Optimierung des Daumensystems und des Fingersystems die Mechanik der Fingerblöcke.
5 Jahre OHRbits - Resümee und neue Ideen Ziel dieser Arbeit war die Untersuchung des privaten Rundfunks in kleinen Regionen wie der Ortenau, binnen der letzten 20 Jahre, gesondert der Privaten Rundfunkgesellschaft Ortenau KG. Hierzu wurden die Möglichkeiten von Kundenbindungsmassnahmen im Hörfunk, wie den seit fünf Jahren existierenden OHRbits, untersucht und deren Entwicklung, Stärken und Schwächen, untersucht. Um Konzepte für die Zukunft entwickeln zu können wurde eine Umfrage unter 800 Programmteilnehmern sowie einer Auswahl an Partnerunternehmen der OHRbits durchgeführt. Auf diesen Resultaten basierend wurden nun neue Konzepte entwickelt. Neben diesem Zweig wurden überregionale Systeme wie Payback oder Happy Digits untersucht und vorgestellt, sowie das OHRbits-System mit Systemen anderer Zeitungsverlage, verglichen, genauer mit der LeserPlus-Card der Mittelbadischen Presse, der BZCard der Badischen Zeitung, sowie der CleverKarte der Lüneburger Landeszeitung.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
It is generally agreed that the development and deployment of an important amount of IoT devices throughout the world has revolutionized our lives in a way that we can rely on these devices to complete certain tasks that may have not been possible just years ago which also brought a new level of convenience and value to our lives.
This technology is allowing us in a smart home environment to remotely control doors, windows, and fridges, purchase online, stream music easily with the use of voice assistants such as Amazon Echo Alexa, also close a garage door from anywhere in the world to cite some examples as this technology has added value to several domains ranging from household environments, cites, industries by exchanging and transferring data between these devices and customers. Many of these devices’ sensors, collect and share information in real-time which enables us to make important business decisions.
However, these devices pose some risks and also some security and privacy challenges that need to be addressed to reach their full potential or be considered to be secure. That is why, comprehensive risk analysis techniques are essential to enhance the security posture of IoT devices as they can help evaluate the robustness and reliability towards potential susceptibility to risks, and vulnerabilities that IoT devices in a smart home setting might possess.
This approach relies on the basis of ISO/IEC 27005 methodology and risk matrix method to highlight the level of risks, impact, and likelihood that an IoT device in smart home settings can have, map the related vulnerability, threats and risks and propose the necessary mitigation strategies or countermeasures that can be taken to secure a device and therefore satisfying some security principles. Around 30 risks were identified on Amazon Echo and the related IoT system using the methodology. A detailed list of countermeasures is proposed as a result of the risk analysis. These results, in turn, can be used to elevate the security posture of the device.
It is demonstrated that microwave structures incorporating dielectric resonators (DR) are accurately characterised by means of a 3-dimensional finite-difference CAD package. All major assumptions made so far have been dropped, offering the possibility of a rigorous analysis of the embedding of dielectric resonators into microwave structures. In particular, a finite thickness for the microstrip conductor has been taken into account. The coupling of the DR to a microstrip placed in a metallic housing has been theoretically and experimentally investigated. Theoretical and experimental results are in good agreement and give new insight into DR coupling to microstrip circuits.
In dieser Abschlussarbeit wurde die bisherige Spielstrategie des RoboCup3D-Clients an die durch den FatProxy möglich gewordenen perfekten Kicks angepasst. Dazu wurde die aktive Entscheidungslogik am Ball komplett überarbeitet und eine neue Positionierungsstrategie anhand der bisher verwendeten Architektur entwickelt.
Die neue aktive Entscheidungslogik verwendet dabei eine neue, von den Mitspielerpositionen abhängige, Positionsberechnung und mehrere neue Bewertungsmethoden, die diese Positionen bewerten. Zusätzlich gibt es nun auch eine Funktionalität, die den neu benötigten vertikalen Schusswinkel für jede Position bestimmt. Für die neue Positionierung wurde eine Rautenformation gewählt, bei der die verschiedenen Rollen jetzt eigene Spielfeldbereiche zugewiesen bekommen, die sich teilweise überlappen. Diese Bereiche sind nötig geworden, da die Rollen sich jetzt weniger am Ball und mehr direkt am Spielfeld orientieren.
Bei der zum Schluss durchgeführten Evaluation der Spielergebnisse zwischen neuen und alten Strategiekonfigurationen hat sich ergeben, dass die komplett neue Strategiezusammenstellung mit durchschnittlich zwei Toren Vorsprung gegen die alte Strategie gewinnt und damit besser mit den neuen Möglichkeiten interagiert. Mischt man neue und alte Strategiekomponenten hat das jedoch den gegenteiligen Effekt, da die Mischvarianten gegen die alte Strategie verlieren. Die neuen Komponenten benötigen also das gegenseitige Zusammenspiel, um effizient zu funktionieren.
Eine schlechte Erreichbarkeit junger Zielgruppen und hohe Preise, sind Gründe für die schwindende Beliebtheit des Werbeformats TV-Werbung. Unternehmen greifen zunehmend auf Online-Werbung zurück, um ihre Produkte kostengünstig und gezielt zu vermarkten. Eine neue, digitale Form der TV-Werbung, Addressable TV, verspricht nun neue Chancen für eine Rückkehr der Werbung über den "Big Screen".
Ziel der vorliegenden Arbeit ist es Handlungsempfehlungen für Werbetreibende in Bezug auf Addressable TV abzuleiten. Es soll geklärt werden unter welchen Umständen und für welche Art von Unternehmen eine Nutzung erfolgversprechend sein kann.
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
This Master's Thesis discusses intelligent sensor networks considering autonomous sensor placement strategies and system health management. Sensor networks for an intelligent system design process have been researched recently. These networks consist of a distributed collective of sensing units, each with the abilities of individual sensing and computation. Such systems can be capable of self-deployment and must be scalable, long-lived and robust. With distributed sensor networks, intelligent sensor placement for system design and online system health management are attractive areas of research. Distributed sensor networks also cause optimization problems, such as decentralized control, system robustness and maximization of coverage in a distributed system. This also includes the discovery and analysis of points of interest within an environment. The purpose of this study was to investigate a method to control sensor placement in a world with several sources and multiple types of information autonomously. This includes both controlling the movement of sensor units and filtering of the gathered information depending on individual properties to increase system performance, defined as a good coverage. Additionally, online system health management was examined in this study regarding the case of agent failures and autonomous policy reconfiguration if sensors are added to or removed from the system. Two different solution strategies were devised, one where the environment was fully observable, and one with only partial observability. Both strategies use evolutionary algorithms based on artificial neural networks for developing control policies. For performance measurement and policy evaluation, different multiagent objective functions were investigated. The results of the study show that in the case of a world with multiple types of information, individual control strategies performed best because of their abilities to control the movement of a sensor entity and to filter the sensed information. This also includes system robustness in case of sensor failures where other sensing units must recover system performance. Additionally, autonomous policy reconfiguration after adding or removing of sensor agents was successful. This highlights that intelligent sensor agents are able to adapt their individual control policies considering new circumstances.
AI-based Ground Penetrating Radar Signal Processing for Thickness Estimation of Subsurface Layers
(2023)
This thesis focuses on the estimation of subsurface layer thickness using Ground Penetrating Radar (GPR) A-scan and B-scan data through the application of neural networks. The objective is to develop accurate models capable of estimating the thickness of up to two subsurface layers.
Two different approaches are explored for processing the A-scan data. In the first approach, A-scans are compressed using Principal Component Analysis (PCA), and a regression feedforward neural network is employed to estimate the layers’ thicknesses. The second approach utilizes a regression one-dimensional Convolutional Neural Network (1-D CNN) for the same purpose. Comparative analysis reveals that the second approach yields superior results in terms of accuracy.
Subsequently, the proposed 1-D CNN architecture is adapted and evaluated for Step Frequency Continuous Wave (SFCW) radar, expanding its applicability to this type of radar system. The effectiveness of the proposed network in estimating subsurface layer thickness for SFCW radar is demonstrated.
Furthermore, the thesis investigates the utilization of GPR B-scan images as input data for subsurface layer thickness estimation. A regression CNN is employed for this purpose, although the results achieved are not as promising as those obtained with the 1-D CNN using A-scan data. This disparity is attributed to the limited availability of B-scan data, as B-scan generation is a resource-intensive process.
Aktivität gibt Energie
(2017)
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Mit zunehmender Digitalisierung ist zu erwarten, dass die Informationsflut, hinsichtlich der täglich auf die Rezipienten einprasselnden Werbebotschaften, immer weiter zunimmt. Dies mag für Werbetreibende mit hohen Budgets und vorhandener Reichweite keine Herausforderung darstellen, dennoch gibt es einen großen Teil der Unternehmen in Deutschland, welche von eben jene bereits bestehenden Voraussetzungen nicht profitieren können. Im Bereich der klein- und mittelständischen Unternehmen, zu denen auch ein Großteil der Handwerksunternehmen zählen, ist ein übermäßig großes Werbebudget meist nicht vorhanden. Um das eigene Unternehmen von Mitbewerbern und Konkurrenz abzuheben, finden immer innovativere Werbeformen den Einsatz in der Unternehmenskommunikation. Hierbei lässt sich eine Tendenz weg von der klassischen Push-Kommunikation hin zu einer wohlbedachten Pull-Kommunikation entdecken. In diesem Bereich ist das Buzzwort Content-Marketing in aller Munde und fungiert als übergeordnete Instanz des Storytellings. Ferner bietet die Entwicklung von rein informativen Werbebotschaften hin zum ,Geschichten erzählen‘ eine Vielzahl von Vorteilen. Neben einer größeren Viralkraft, bleiben Geschichten durch bessere Verknüpfung im ,neuronalen Netz‘ des Gehirns länger und nachdrücklicher im Gedächtnis der Zielgruppe. Darüber hinaus bietet Storytelling, online wie offline, hervorragende Möglichkeiten hinsichtlich der Distribution.
Die vorliegende Bachelorarbeit bietet einen Implementierungsleitfaden für Storytelling-Maßnahmen für die Bereich Print und Screen, sowie eine Bewertung der Plattformen hinsichtlich der Distribution. Zu den Vorüberlegungen einer Implementierung von Storytelling in die Unternehmenskommunikation, wurden in den Unterthemen außerdem die strategischen Aspekte der Integrationsstufen und der Distributionskanäle vorgenommen. Durch eine Befragung potenzieller Kunden von Handwerksunternehmen, können Rückschlüsse auf die beliebtesten Inhalte einer Storytelling-Kampagne von Handwerksunternehmen gewonnen werden. Somit kann die Kundenansprache durch Storytelling effektiver und gewinnbringender betrieben werden.
In dieser Arbeit wird ein Grundverständnis für Farben am Bildschirm und deren Nutzen speziell für Onlineshops geschaffen. Dafür werden die physikalischen Grundlagen des Farbsehens erklärt, die Bedeutung des Farbkreises an Hand dessen Regeln für das Zusammenspiel von Farben verdeutlicht sowie aktuelle Modelle zur Farbordnung vorgestellt. Außerdem werden technische Möglichkeiten zur Farbdarstellung erläutert, gefolgt von der Farbpsychologie, welche die Wirkung von Farben auf den Menschen verdeutlicht. Anschließend werden aktuelle Farbtrends ermittelt. Der Einsatz und die Funktionsweise von Farben wird an Hand von Beispielwebseiten veranschaulicht. Am Ende liegt der Focus auf dem Nutzen von Farben im Online-Marketing, wobei deren Einfluss auf Verkaufsentscheidungen ermittelt wird. An Hand eines eigenen Klickdummys eines Mode-Onlineshops, der auf Basis von zuvor gewonnenem Know-How gestaltet und umgesetzt ist, werden die gesammelten Erkenntnisse in die Praxis umgesetzt und erprobt. Abschließend wird mittels einer Umfrage der Farbeinsatz und seine Wirkung auf Kunden getestet.
Analyse der Finanzierungs- und Überlebensstrategien von Bands im Streaming-Zeitalter in Deutschland
(2020)
Die vorliegende Bachelorarbeit befasst sich mit der Analyse der Finanzierungs- und Überlebensstrategien von Bands im Streaming-Zeitalter in Deutschland. Hierbei soll untersucht werden, wie Musikstreaming die finanziellen Einkünfte für Musiker verändert hat, warum Musiker vom Streaming nur in geringem Maße profitieren und wie sie versuchen den geringen Streaming-Einnahmen entgegenzuwirken.
Die Arbeit führt durch theoretische Betrachtungen der Musikindustrie auf die heute herrschende Problematik durch Streaming hin. Dabei werden einzelne Akteure der Musikindustrie, die Erlösquellen für Musiker und Bands, der Einfluss des Musikkonsums auf die finanziellen Erlöse und die Veränderungen, die Streaming für die Musikwelt mit sich bringt, betrachtet. Darüber hinaus wurde eine multiple Fallstudie mit fünf Bands unterschiedlicher Bekanntheit durchgeführt. Zu den in der Studie untersuchten Bands zählen die Leoniden, Heisskalt, Blackout Problems, Killerpilze und City Light Thief. Die Studie soll einen Einblick geben, welche Möglichkeiten deutsche Bands nutzen, um im Streaming-Zeitalter erfolgreich zu sein. Daraus werden abschließend einige Faktoren abgeleitet, die zur Finanzierung und zum Überleben deutscher Bands
beitragen können.
Die vorliegende Bachelorarbeit gibt einen Überblick über die Positionierung der Krisenkommunikation im Krisenmanagement. Hierbei soll die Arbeit als Leitfaden dienen, um ein umfangreiches Verständnis über die Einflussnahme und die effektive Anwendung von interner und externer Krisenkommunikation zu entwickeln. Neben der Erläuterung mithilfe von Fallbeispielen, ermöglicht die Arbeit auch einen Einblick des Einsatzes im Krisenmanagement. Mithilfe des BSI-Standards 100-4 Notfallmanagement, wird dies verdeutlicht. Besonderes Augenmerk erhält die externe Krisenkommunikation mithilfe von Social Media.
Die Basis der Bachelorarbeit stellt die Auswertung von zahlreicher Literatur dar. Hierbei wurde auf Monographien, Sammelwerke, Forenbeiträge, Handbücher und internationale Standards zurückgegriffen.
Diese Arbeit bietet an, ein tieferes Verständnis über den Bereich der Krisenkommunikation zu erhalten. Ebenfalls zeigt sie Optimierungsmöglichkeiten auf, wo interne sowie externe Krisenkommunikation noch erfolgreicher umgesetzt werden kann.
Der wachsende Trend zur Individualisierung von Produkten wird von immer mehr Unternehmen aufgegriffen und umgesetzt. Mithilfe von Produktkonfiguratoren bieten sie ihren Kund*innen die Möglichkeit, ihr eigenes Produkt nach Wunsch zu kreieren. Die Konfiguratoren stehen mit dieser Interaktion vor der Herausforderung die Nutzer*innen als Nicht-Experten erfolgreich durch den Prozess zu leiten. Ein zentraler Bestandteil der erfolgreichen Umsetzung ist die Benutzerfreundlichkeit und dessen anwendungsorientierte Gestaltung.
Diese Arbeit befasst sich mit der Analyse und Optimierung der Usability des Möbelkonfigurators der mycs GmbH. Das Ziel der Arbeit ist die Aufdeckung von Schwachstellen und die Entwicklung passender Handlungsempfehlungen für die Optimierung der Benutzerfreundlichkeit.
Zu diesem Zweck wird der IST-Zustand des Konfigurators ermittelt und darauf aufbauend ein Usability-Test erstellt und durchgeführt. Die verwendeten Methoden des Tests sind Remote-Usability-Interviews, eine qualitative Nachbefragung und die Think-Aloud-Methode. Die im Anschluss ermittelten Handlungsempfehlungen stellen Lösungen zu den analysierten Schwachstellen des Usability-Tests dar.
Die Ergebnisse der Analyse zeigen Schwachstellen in der Orientierung und Unterstützung von Nutzer*innen. Sie bestätigen zudem die Wichtigkeiten dieser beiden Kriterien für die Auseinandersetzung mit einem Möbelkonfigurator. Die entwickelten Handlungsempfehlungen zeigen einige Verbesserungen der Bereiche mit geringem Umsetzungsaufwand auf.
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
Das Ziel dieser Arbeit war es zu prüfen, ob bei der Verwendung von Perturbationen in einem Laufschuhvergleich eine Adaptations-Phase im Voraus durchgeführt werden sollte, um den Einfluss potenzieller Adaptationseffekte zu reduzieren. Dafür absolvierten die acht Probanden insgesamt 15 Perturbationen auf einem Laufband, welche sich durch die kurzzeitige Beschleunigung des Laufbands von 2,5 𝑚/𝑠 auf 3,5 𝑚/𝑠 kennzeichneten. Anschließend wurden aus den normalisierten Daten die initialen Gelenkswinkel bei Bodenkontakt im Knie und Sprunggelenk, die minimale bzw. maximale Bodenreaktionskraft in x- bzw. z-Richtung und die Bodenkontaktzeit bestimmt. Um sowohl potenzielle Vorwärtssteuerungen als auch Feedbackbezogene lokomotorische Anpassung zu berücksichtigen, wurden die zwei Schritte vor der Perturbation, der perturbierte Schritt und die drei Schritte nach der Perturbation analysiert. Neben deskriptiver Statistik wurden die einzelnen Schritte mittels Varianzanalyse und paarweisen t-Tests aufeinanderfolgender Trials untersucht. Der initiale Sprunggelenkswinkel zeigt zwar einen Einfluss der Perturbationen im zweiten und dritten Schritt nach der Perturbation, aber es lässt sich keine Anpassung im Verlauf der Messung feststellen. Auch bei der Bodenkontaktzeit lassen sich Unterschiede in den Messwerten und zwischen den Schritten finden, diese können allerdings ebenfalls nicht der Adaptation zugeordnet werden. Die Entwicklung der Mittelwerte und signifikante Ergebnisse in ANOVA und t-Tests deuten beim initialen Kniewinkel für den zweiten und dritten Schritt nach der Perturbation auf eine sukzessive Anpassung des Parameters an den Einfluss der Störung hin, welche nach acht Perturbationen abgeschlossen ist. Für die minimale Bodenreaktionskraft in x-Richtung (Bremskraft) befinden sich die Daten dagegen bereits nach einem Trial auf einem stabilen Niveau, wobei die Abweichungen hier ebenfalls im zweiten Schritt nach der Beschleunigung des Laufbands auftreten. Die maximale vertikale Bodenreaktionskraft (z-Richtung) zeigt Tendenzen zu einer fortschreitenden Anpassung im ersten und zweiten Schritt nach der Perturbation. Hier lassen sich aufgrund des Verlaufs der Mittelwerte und signifikanter Unterschiede beim ersten Schritt sechs Trials als Mindestanzahl für eine Adaptations-Phase ausmachen. Somit konnten in drei von fünf analysierten Parameter Merkmale von Adaptationseffekten gefunden werden, die sich alle in den Schritten nach der Perturbation zeigten und somit Feedbackbezogener Anpassung zuzuordnen sind. Sofern alle Parameter in der anschließenden Messung verwendet werden, sollten in der Adaptations-Phase mindestens acht Perturbationen durchgeführt werden, damit der Einfluss von Anpassungseffekten im Vergleich vernachlässigbar ist.
Mit der neuen Abgasnorm Euro VI und den steigenden Kraftstoffpreisen müssen Nutzfahrzeugantriebe eine Reduzierung der CO2-Emission und eine höhere Effizienz vorweisen (Umweltbundesamt, 2015). Um diese Anforderungen erfüllen zu können, wird bei vielen Nutzfahrzeugherstellern intensiv an Systemen zur Rückgewinnung von Abgasenergie, den sogenannten Waste-Heat-Recovery-Systemen, geforscht. Eine Kraftstoffersparnis von rund 5 % wird dabei angestrebt.
Das System basiert auf einem ORC-Prozess. Bei diesem thermodynamischen Kreisprozess wird die Abwärme des Abgases über einen Wärmetauscher geführt, der das organische Arbeitsfluid Ethanol in einem geschlossenen Kreislauf erhitzt. Durch den Dampfdruckaufbau wird eine Turbine angetrieben. Zur Transformation der Enthalpie des Ethanoldampfes in mechanische Energie sind Drehzahlen von bis zu 120000 U/min notwendig, um eine hohe Effizienz des Systems vorweisen zu können. Systemdrücke bis 50 bar und Temperaturen des Ethanoldampfes von maximal 300 °C treten im WHR-System auf und führen zu extremen Beanspruchungen. Eine besondere Herausforderung stellen hierbei die Wellendichtungen, vor allem bei nutzfahrzeugtypischen Lebensdauern, dar. Als interessante Alternative zeigt sich die Zentrifugal-Wellendichtung, um die hohen Dichtungsanforderungen über die geforderten Laufzeiten zuverlässig zu erfüllen.
Durch methodisch stufenweise ablauforientiertes Vorgehen wird die Analyse der Zentrifugal-Wellendichtungen durchgeführt. Hierbei wird zuallererst das Wirkprinzip untersucht. Ein besonderes Augenmerk wird dabei auf die Wärmeeinträge aus der Umgebung und Verwendung unterschiedlicher Sperrfluide gelegt.
Für eine Testdrehzahl von 15000 U/min ergibt sich, bei einer beidseitig glatten Scheibe mit einem Scheibenradius von 8,7 mm, eine maximal abdichtbare Druckdifferenz von 0,04 bar. Im Sperrfluid herrschen hierbei Temperaturen von rund 50 °C. Die Versuche zeigen Korrelationen zu den bekannten theoretischen Ansätzen von Ketola und McGrey. Die maximale Druckdifferenz beträgt in diesem Fall 0,043 bar. Nachdem stationäre Betrachtungen ausreichend untersucht werden, widmet sich diese Arbeit dem Anfahr- und Not-Aus-Verhalten. Die Optimierung des Projekts wird durch abschließende Verbesserungsvorschläge, für die Realisierung höherer Sperrdrücke, erzielt.
Seit 2009 nimmt das Team ”magmaOffenburg” an der 3D-Simulationsliga des RoboCups teil. Für das erfolgreiche Abschneiden in Turnieren ist die Qualität der erlernten Bewegungsabläufe ein zentraler Faktor. Bisher wurden genetische Algorithmen verwendet, um verschiedenste Aktionen zu erlernen sowie zu optimieren. In dieser Arbeit wird der Deep Reinforcement Learning Algorithmus Proximal Policy Optimization für das Erlernen bestimmter Bewegungen verwendet. Um ein Verständnis für dessen einflussreichen Parameter zu erhalten, werden Größen wie paralleles Lernen, Hyperparameter, Netzwerktopologie, Größe des Observationspace sowie asynchronem Lernen anhand dem Kicken aus dem Stand evaluiert. Durch die Ergebnisse der Evaluierung konnte der erlernte Kick signifikant verbessert werden und sein genetisch erlerntes Gegenstück im Spiel ablösen. Drüber hinaus wurden die Erkenntnisse anhand dem Laufen lernen evaluiert und Zusammenhänge bzw. Unterschiede der zwei Lernprobleme festgestellt.
Analyse domänenseitiger Optimierungen für Deep Reinforcement Learning in der RoboCup Umgebung
(2021)
Mit dem Team "magmaOffenburg" nimmt die Hochschule Offenburg seit 2009 am internationalen Wettbewerb "RoboCup" in der 3D-Simulationsliga für Fußball teil. Dabei kommt es vor allem auf den Einsatz guter Lauf- und Kickverhalten an. Seit 2019 ist es dem Team magmaOffenburg möglich auch Deep Reinforcement Learning für die Weiterentwicklung der Verhalten einzusetzen. Während auf diese Weise schon verwendbare Ergebnisse für das Kicken produziert wurden, so fehlt noch ein Fortschritt beim Laufen lernen. Diese Arbeit beschäftigt sich mit den nötigen Optimierungen auf der Domänenseite, um das gelernte Laufen zu verbessern. Das beinhaltet die Optimierung des Observation- und Actionspaces, sowie auch eine Optimierung der Rewardfunktion. Dabei wurde versucht, die einzelnen Einflüsse verschiedener Parameter und Techniken innerhalb dieser drei Bereiche zu evaluieren. So konnte zum Schluss eine Verbesserung in der Laufgeschwindigkeit von etwas unter einem Meter pro Sekunde auf bis zu 1,8 Metern pro Sekunde erreicht werden. Ausschlaggebend für dieses Ergebnis waren vor allem der Verbesserungen in der Rewardfunktion.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
Die vorliegende Arbeit legt mit der Analyse der globalen Hoteltrends und der Rahmenbedingungen den Grundstein für strategische und operative Entscheidungen im Internationalisierungsprozess der Bohemian Hostels. Dabei werden die globalen Hoteltrends ermittelt, die Wettbewerbsfähigkeit der Bohemian Hostels herausgearbeitet und somit die Sinnhaftigkeit einer
Internationalisierung abgewägt. Als Basis für die Marketingziele und die Marketingstrategie wird in der Branchen- und Konkurrenzanalyse das Wettbewerbsumfeld des Regionalmarktes Accra analysiert. Dadurch sollen die
Rentabilität des Marktes untersucht sowie Positionierungslücken und
Differenzierungsmöglichkeiten aufgezeigt werden. Von der Entwicklung der Marketingziele und -strategie sowie deren Maßnahmen wird jedoch abgesehen.
Stattdessen wird, resultierend aus den Ergebnissen, die Unternehmensphilosophie und das Corporate Design als Teil der Kommunikationspolitik in einem Markenhandbuch festgehalten.
Die Austragung der FIFA Fußball-Weltmeisterschaft 2022 im Emirat Katar polarisierte die deutsche Gesellschaft. In dieser Arbeit wurde nachgeforscht, wie deutsche Medien über die Veranstaltung berichteten und bei welchen Themen die Schwerpunkte gesetzt wurden.
Die Forschung erfolgte unter Anwendung der Techniken qualitativer Inhaltsanalyse nach Philipp Mayring.
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
Längst hat Cloud Computing Einzug in allen Bereichen der Wirtschaft und Industrie gehalten. Dennoch sehen sich Entscheidungsträger angesichts der Heterogenität des Cloudmarkts häufig ratlos mit der Entscheidung konfrontiert, welches Produkt von welchem Anbieter am besten den jeweiligen Bedürfnissen entspricht.
Zwar gibt es mittlerweile eine Vielzahl von Methoden zur Ermittlung der geeignetsten Lösung, dennoch hat sich in Fachkreisen noch kein anerkannter Standard daraus hervorgetan.
In der vorliegenden Thesis werden daher bestehende Strategieansätze analysiert, um sowohl Stärken als auch Schwächen dieser aufzuzeigen. Im Anschluss daran wird eine Möglichkeit vorgestellt, mit der zuvor aufgezeigte Schwächen der bestehenden Ansätze ausgeglichen werden können.
Die Arbeit stützt sich dabei vollständig auf die Recherche einschlägiger Fachliteratur, welche im Rahmen dieser Thesis vorgenommen wurde.
Aus der Forschung ging die Erkenntnis hervor, dass die Mehrheit der Publikationen und der darin enthaltenen Lösungen jeweils nur einen Teilbereich des Selektionsprozesses abdecken, während andere Bereiche vernachlässigt oder gar vollständig ausgelassen werden. Das eben beschriebene Phänomen betrifft vor allem die Auswahl und Aufschlüsselung der Bewertungskriterien.
Gerade auf Letzteres ging keine der untersuchten Publikationen näher ein, so blieben Fragen zur Zusammensetzung und Abgrenzung von Bewertungskriterien bei allen Methoden weitgehend unbeantwortet.
Diese Erkenntnis bildet die Grundlage für das in der Thesis erarbeitete multikriterielle Mapping Verfahren, welches eben jene Schwäche in bestehenden Ansätzen auszugleichen versucht.
Das multikriterielle Mapping bildet darüber hinaus eine Kernkomponente der Evaluationsmethodik, welche im Rahmen der Thesis ebenfalls entwickelt und als Python Anwendung implementiert wurde.
Sowohl die entwickelte ganzheitliche Methode als auch die daraus resultierende Python Anwendung verfolgen den Zweck von Beginn des Selektionsprozesses bis zu deren Abschluss ein lückenloses Vorgehen zu etablieren, welches für jedes Anwendungsszenario geeignet ist.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
In dieser Arbeit wird das Verformungsverhalten und die Stabilität des Frontflügels des Formula Student Rennwagens der HS Offenburg untersucht. Die Analyse wird mittels der Finiten-Elemente-Methode durchgeführt (Programm: ANSYS Workbench). In der Simulation wird das Modell mit verschiedenen statischen Kräften belastet, unter anderem die Kräfte aus dem technischen Reglement und die auftretende Abtriebskraft. Neben der Verformung werden auch verschiedene Stabilisierungsmöglichkeiten analysiert. Zusätzlich zu den Simulationsergebnissen selbst werden in dieser Arbeit der Simulationsvorbereitungsprozess sowie die Konstruktion des Frontflügels und Grundlagen der FEM beschrieben. Eine Besonderheit bildet dabei die Verwendung des ANSYS Composite PrePost um die verwendeten Verbundwerkstoffe zu untersuchen.
Das Black Forest Formula Team hat es sich nach der Neugründung im Jahre 2019 zum Ziel gemacht, mit einem eigens konstruierten Elektro-Rennwagen beim Formula Student Germany (folgend FSG genannt) Wettbewerb teilzunehmen.
Zu Beginn der Bachelorarbeit wurde bereits ein Fahrzeugrahmen konstruiert und in der Schweißwerkstatt der Hochschule Offenburg fertig geschweißt. Da bei der Konstruktion der Hauptfokus auf das Fertigstellen eines Rahmens gesetzt wurde, verfolgt diese Bachelorarbeit das Ziel, den Rahmen mittels der Finite Elemente Methode zu analysieren und erste Verbesserungsvorschläge für das Nachfolgerfahrzeug zu erarbeiten. Um sich seinen Möglichkeiten bewusst zu werden, wurde zunächst das Reglement ausgiebig studiert. Nach ausgiebiger Recherche wurde das CAD-Modell des Rahmens für die Simulation vorbereitet, folglich durch verschiedene Lasteinwirkungen simuliert und dessen Auswirkungen analysiert. Um die Simulationsergebnisse zu validieren, wurden die in der Simulation vorkommenden Lasteinwirkungen in der Realität nachgestellt und miteinander verglichen.
Für zukünftig folgende Fahrzeugrahmen werden Verbesserungs- bzw. Optimierungsmethoden erarbeitet, um vor allem das Fahrzeuggewicht zu zu reduzieren und die Steifigkeit möglichst hoch zu halten.
Der Eignungsnachweis von Prüfprozessen ist sowohl für die Industrie, als auch für Forschungszwecke ausschlaggebend. Dabei sind die Genauigkeit, Präzision sowie die Messbeständigkeit der Messergebnisse von der zu untersuchenden Messeinrichtung mit statistischen Methoden auszuwerten. Mit Leitfäden wird unter einer sog. Messsystemanalyse die Fähigkeit einer Messeinrichtung mit den dazugehörigen statistischen Kennwerten beurteilt. Die Messsystemanalyse unterteilt sich in zwei Typen, wobei die Konsistenz bzw. Messdatenstreuung mit den entsprechenden Kennwerten beurteilt werden können. Unter MSA Typ 1 wird anhand Mittelwerte und Standardabweichungen von Wiederholmessungen die Konsistenz und Genauigkeit mit den Cg- bzw. Cgk-Indizes bewertet, die höher als 1,33 sein müssen, um die Messeinrichtung als fähig zu klassifizieren. Durch MSA Typ 2 wird die Präzision mit dem % R&R-Kennwert (Wiederholbarkeit & Reproduzierbarkeit) bewertet. Messeinrichtungen mit einem % R&R-Kennwert unterhalb 20 % liefern Messdaten mit einer ausreichenden Präzision, d.h. dass die Mittelwerte der Messdaten nicht signifikant voneinander unterscheiden. Die im Rahmen dieser Arbeit untersuchte akustische Messeinrichtung weist einen Cg-Index von 1, 58, einen Cgk-Index von 2, 13 und einen % R&R-Wert von 6, 56 % auf, weshalb die Messdaten mit einer hohen Konsistenz und Präzision erfasst werden.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
In dieser Arbeit wird die Funktionsweise, Standardisierung und Verwundbarkeit der Technologien RFID und NFC behandelt. Es wird gezeigt welche Angriffe existieren und wie man sich dagegen schützen kann. Es wird ein Überblick über einige in der Praxis verwendete Protokolle sowie deren Sicherheit gegeben. Außerdem werden grundlegende Fragen beantwortet, die man sich bei Auseinandersetzung mit dieser Technologie stellt (z.B. Reichweiten).
Im Rahmen dieser Abschlussarbeit wurde die Steuereinheit für das elektrisch angetriebene Hocheffizienzfahrzeug Schluckspecht 6 entworfen. Im Detail wurde die bestehende Steuereinheit analysiert. Durch sorgfältiges Betrachten der Leistungselektronik und deren Elemente, der Signalaufbereitungsplatine, der Stromsensorplatine und der DC/DC-Wandlerplatine, wurden die bestehenden Fehler in deren Schaltplänen behoben. Im Zuge dieser Fehlerbehebung, wurde die Übersichtlichkeit der Schaltpläne verbessert. Des Weiteren wurden die Leistungselektronik und deren Elemente zu der neuen Control Unit fusioniert. Um eine möglichst nachhaltige Hardware zu erhalten, wurde die alte Platine optimiert. Dazu sind die Ein-/ und Ausgänge und der CAN-Bus von dem Entwicklerboard an den Leiterplattenrand geführt worden. Damit die CAN-Signale vom Entwicklerboard verarbeitet werden können, wurde zusätzlich eine Schaltung für die Signal-konvertierung entwickelt. Die zusammengeführte Leiterplatte wurde für eine bessere Zugänglichkeit während des Shell-Eco-Marathon, einseitig bestückt. Um die Fehlerbehebung zu erleichtern, sind Messpunkte, zusammen mit einer Messtabelle, auf deren Schaltpläne integriert worden. Zusätzlich wurde ein Jumper für die Energieversorgung des Entwicklerboards hinzugefügt, damit dieses intern oder extern versorgt werden kann. Für die Control Unit wurden Schnittstellen zur besseren Erweiterung ausgesucht. Nach Abschluss des Optimierungsprozesses und der Komponentenauswahl, wurden die Schaltpläne und ein Board der Control Unit entworfen. Für diesen Entwurf wurde eine Leiterplatte bestellt, welche im SMD-Labor bestückt und verlötet wurde. Anschließend wurde an dieser ein Funktionstest und eine Inbetriebnahme im Schluckspecht 6 durchgeführt. Ein weiterer Teil der Arbeit war die Planung des Gehäuses für die neu entworfene Control Unit, die Auswahl der Anschlussstecksysteme und die Fixierung der Leiterplatte in der Energiebox, sowie die Verdrahtung zwischen der Control Unit und den Stecksystemen.