Refine
Year of publication
Document Type
- Bachelor Thesis (604)
- Master's Thesis (208)
- Conference Proceeding (69)
- Book (15)
- Study Thesis (13)
- Article (reviewed) (8)
- Other (3)
Conference Type
- Konferenzband (64)
- Konferenzartikel (5)
Is part of the Bibliography
- no (920) (remove)
Keywords
- Mikroelektronik (60)
- Marketing (30)
- IT-Sicherheit (24)
- JavaScript (17)
- Social Media (16)
- Biomechanik (15)
- Internet der Dinge (15)
- Künstliche Intelligenz (15)
- Webentwicklung (15)
- COVID-19 (14)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (295)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (173)
- Fakultät Medien (M) (ab 22.04.2021) (165)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (101)
- Fakultät Wirtschaft (W) (33)
- IfTI - Institute for Trade and Innovation (13)
- INES - Institut für nachhaltige Energiesysteme (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (6)
- IUAS - Institute for Unmanned Aerial Systems (3)
Open Access
- Closed Access (463)
- Open Access (229)
- Closed (228)
- Bronze (60)
- Diamond (16)
- Gold (1)
Steroid hormones (SHs) are a rising concern due to their high bioactivity, ubiquitous nature, and prolonged existence as a micropollutants in water, they pose a potential risk to both human health and the environment, even at low concentrations. Estrogens, progesterone, and testosterone are the three important types of steroids essential for human development and maintaining multiorgan balance, are focus to this concern. These steroid hormones originate
from various sources, including human and livestock excretions, veterinary medications, agricultural runoff, and pharmaceuticals, contributing to their presence in the environment. According to the recommendation of WHO, the guidance value for estradiol (E2) is 1 ng/L. There are several methods been attempted to remove the SH micropollutant by conventional water and wastewater technologies which are still under research. Among the various methods, electrochemical membrane reactor (EMR) is one of the emerging technologies that can address the challenge of insufficient SHs removal from the aquatic environment by conventional treatment. The degradation of SHs can be significantly influenced by various factors when treated with EMR.
In this project, the removal of SH and the important mechanism for the removal using carbon nanotube CNT-EMR is studied and the efficiency of CNT-EMR in treating the SH micropollutant is identified. By varying different parameters this experiment is carried out with the (PES-CNTs) ultrafiltration membrane. The study is carried out depending upon the SH removal based on the limiting factor such as cell voltage, flux, temperature, concentration, and type of the SH.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Linux and Linux-based operating systems have been gaining more popularity among the general users and among developers. Many big enterprises and large companies are using Linux for servers that host their websites, some even require their developers to have knowledge about Linux OS. Even in embedded systems one can find many Linux-based OS that run them. With its increasing popularity, one can deduce the need to secure such a system that many personnel rely on, be it to protect the data that it stores or to protect the integrity of the system itself, or even to protect the availability of the services it offers. Many researchers and Linux enthusiasts have been coming up with various ways to secure Linux OS, however new vulnerabilities and new bugs are always found, by malicious attackers, with every update or change, which calls for the need of more ways to secure these systems.
This Thesis explores the possibility and feasibility of another way to secure Linux OS, specifically securing the terminal of such OS, by altering the commands of the terminal, getting in the way of attackers that have gained terminal access and delaying, giving more time for the response teams and for forensics to stop the attack, minimize the damage, restore operations, and to identify collect and store evidence of the cyber-attack. This research will discuss the advantages and disadvantages of various security measures and compare and contrast with the method suggested in this research.
This research is significant because it paints a better picture of what the state of the art of Linux and Linux-based operating systems security looks like, and it addresses the concerns of security enthusiasts, while exploring new uncharted area of security that have been looked at as a not so significant part of protecting the OSes out of concern of the various limitations and problems it entails. This research will address these concerns while exploring few ways to solve them, as well as addressing the ideal areas and situations in which the proposed method can be used, and when would such method be more of a burden than help if used.
An der Offenburger Hochschule wurde eine neue Art der Ansteuerungsmethode für Handprothesen und -orthesen entwickelt, die auf der Verwendung einer Augmented Reality Brille basiert. Dieses neue Prothesensystem soll in einer ersten Studie an Probanden auf seine Alltagstauglichkeit getestet werden. Ziel dieser Arbeit ist es, die regulatorischen Anforderungen an eine solche Studie zusammenzustellen, mit Schwerpunkt auf einem Antrag bei einer Ethikkommission. Außerdem sind mittels Literaturrecherche Tests zu identifizieren und zu analysieren, die für die Beurteilung von Handprothesen verwendet werden. Hierfür wird erörtert was Alltagstauglichkeit bedeutet und welche Eigenschaften und Ziele identifizierte Tests haben.
Die Wertschöpfung vorherrschender Datenmengen scheitert, obgleich diese als der Treibstoff der Zukunft gelten, oftmals an den grundlegendsten Dingen. Das Digitalisierungs- und auch Verlagerungsverhalten werden für das Content Management (CM) zunehmend zu einem herausfordernden Fallstrick.
Die Unternehmen sind mit Fragestellungen traktiert, die sich darauf referenzieren, EchtzeitStröme unstrukturierter Daten aus heterogenen Quellen zu analysieren und zu speichern.
Trotz aller Bemühungen, die unaufhaltsam wachsende Menge an Daten- beziehungsweise Content im Rahmen eines effizienten Managements künftig manuell in den Griff zu bekommen, scheint es, als ob die Unternehmen an der kaum zu bewerkstelligenden Herausforderung scheitern werden.
Die vorliegende Arbeit untersucht, inwieweit es einer innovativen Technologie, wie der Künstlichen Intelligenz (KI) gelingen kann, das Content Management nachhaltig zu revolutionieren und damit den Content in seinem Umfang so zu organisieren und zu nutzen, um den Unternehmen eine Perspektive zu bieten, die steigende Welle an Big Data zu bewältigen.
Somit bewegt sich diese Arbeit auf dem Forschungsfeld der KI, als Teilgebiet der Informatik, die enorme Chancen und gleichzeitig Herausforderungen für die Wissenschaft und die Innovationsfähigkeit der Unternehmen mit sich bringt.
Im Rahmen qualitativer Expert*inneninterviews als Lösungsansatz wurde untersucht, inwiefern es KI-gestützten Systemen gelingen kann, Wissensmitarbeiter*innen entlang des Content Life Cycles zu unterstützen und den Nutzer*innen bezüglich der Ausspielung der Inhalte eine optimale Customer Experience zu bieten.
Die fehlende Nachvollziehbarkeit und das Missverständnis des KI-Begriffes sowie die Kluft zwischen der öffentlichen Debatte und der Realität der KI erweisen sich hierbei als die wohl größten Innovationsbremsen des KI-Einsatzes in der Content Management Umgebung.
Die Ergebnisse der Arbeit tragen im Wesentlichen dazu bei, das Verständnis für die KI zu schärfen und gleichzeitig das aufkommende Dilemma des Vertrauensdefizites der Mensch-Maschine-Kommunikation zu entschärfen.
Außerdem wird ein Grundverständnis dafür geschaffen, die KI als geeignetes Tool im Content Management zu erkennen.
Darüber hinaus wird demonstriert, dass sich durch den Einsatz der KI im Content Management ebenfalls immense Vorteile für die Ausspielung user*innenspezifierten Contents ergeben, die im folgenden Verlauf genauer aufgeführt werden.
AI-based Ground Penetrating Radar Signal Processing for Thickness Estimation of Subsurface Layers
(2023)
This thesis focuses on the estimation of subsurface layer thickness using Ground Penetrating Radar (GPR) A-scan and B-scan data through the application of neural networks. The objective is to develop accurate models capable of estimating the thickness of up to two subsurface layers.
Two different approaches are explored for processing the A-scan data. In the first approach, A-scans are compressed using Principal Component Analysis (PCA), and a regression feedforward neural network is employed to estimate the layers’ thicknesses. The second approach utilizes a regression one-dimensional Convolutional Neural Network (1-D CNN) for the same purpose. Comparative analysis reveals that the second approach yields superior results in terms of accuracy.
Subsequently, the proposed 1-D CNN architecture is adapted and evaluated for Step Frequency Continuous Wave (SFCW) radar, expanding its applicability to this type of radar system. The effectiveness of the proposed network in estimating subsurface layer thickness for SFCW radar is demonstrated.
Furthermore, the thesis investigates the utilization of GPR B-scan images as input data for subsurface layer thickness estimation. A regression CNN is employed for this purpose, although the results achieved are not as promising as those obtained with the 1-D CNN using A-scan data. This disparity is attributed to the limited availability of B-scan data, as B-scan generation is a resource-intensive process.
Die vorliegende Bachelorarbeit befasst sich mit den Marketing-Kommunikationsstrategien im zweiseitigen Markt am Beispiel einer Immobilienplattform.
Das primäre Ziel dieser Arbeit besteht darin, auf Grundlage der Netzwerkeffekte im zweiseitigen Markt und durch Anwendung von Onlinemarketingmaßnahmen die Positionierung der Plattform Immobilien Rith in den Internetsuchergebnissen zu optimieren.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
In dieser Bachelorthesis wurde ein Funktionsmuster eines energieautarken elektronischen Türschildes mit einem 7,8” großen E-Paper-Display und NFC-Konfigurationsschnittstelle entwickelt, auf dem per Smartphone-App und NFC einfach Informationen wie Abwesendheitsnachrichten angezeigt werden können. Hierzu wird ein Kommunikationsprotokoll entwickelt, welches die Kommunikation zwischen App und Türschild spezifiziert, und einen Befehlssatz zur Konfiguration des Türschildes bereitstellt. Das System wird aus amorphen Silizium-Solarzellen versorgt und verfügt über einen LiPo-Akku als Energiespeicher. Durch sorgfältiges Hardware- und Software-seitiges Low-Power-Design beträgt die Leistungsaufnahme im Ruhemodus lediglich 1, 5 μW. Bedingt durch den anwenderfreundlichen, jedoch für Low-Power-Designs ungeeigneten Display-Controller, beträgt der Energieverbrauch während eines Updates 300 mW. Trotzdem zeigt sich, dass das System bei einer Zellfläche von knapp 220 cm2 auch bei schlechter Beleuchtung von 10 lx in dunklen Gängen mehrere Türschild-Updates pro Tag bereitstellen kann.
Though the basic concept of a ledger that anyone can view and verify has been around for quite some time, today’s blockchains bring much more to the table including a way to incentivize users. The coins given to the miner or validator were the first source of such incentive to make sure they fulfilled their duties. This thesis draws inspiration from other peer efforts and uses this same incentive to achieve certain goals. Primarily one where users are incentivised to discuss their opinions and find scientific or logical backing for their standpoint. While traditional chains form a consensus on a version of financial "truth", the same can be applied to ideological truths too. To achieve this, creating a modified or scaled proof of stake consensus mechanism is explored in this work. This new consensus mechanism is a Reputation Scaled - Proof of Stake. This reputation can be built over time by voting for the winning side consistently or by sticking to one’s beliefs strongly. The thesis hopes to bridge the gap in current consensus algorithms and incentivize critical reasoning.
The present document is aimed to propose a suitable thermal model for the cooling down process of a one piston air cooled reciprocating compressor. In order to achieve this, a thermographic camera is used to record the temperature of different measuring points throughout different operating conditions. This data is later analyzed, with statistical tools and graphical visualization. The thermal phenomena present in the thermal process is characterized according to the compressors' geometry. Finally, using the analysis and taking into consideration the thermal phenomena the optimal thermal model is selected. This paper belongs to a bigger project and the last step is to simulate the compressor and the accuracy of the proposed model.
Die vorliegende Bachelor-Thesis wurde im Rahmen des Bachelorstudiengangs an der Hochschule Offenburg in der Sparte S der Fertigungsplanung der Hugo Kern und Liebers GmbH und Co. KG verfasst. Ziel dieser Abschlussarbeit ist es, die Lagerung der vorderen Kettenumlenkung weiter zu optimieren, um die Standzeit zu verbessern. Der Fokus der Arbeit liegt dabei in der Optimierung des Seriengleitlagers, bzw. der Entwicklung und Herstellung eines speziell gekapselten Gleitlagers.
Als Optimierungen im seriennahen Bereich, das heißt möglichst ohne große Änderungen am Fertigungs- bzw. Montageablauf, findet vor allem das Borieren der Reibpartner besondere Beachtung. Durch erste Feldversuche zeigte sich, dass das Borieren des Umlenksterns positive Auswirkungen auf die Reibung hat und den Widerstand gegen abrasiven Verschleiß durch Erhöhung der Randschichthärte deutlich verbessert. Zusätzlich zum Einsatz eines borierten Umlenksterns wird untersucht, ob das zusätzliche Borieren des HM-Rings weitere Vorteile bringt, vor allem hinsichtlich der entstehenden zusätzlichen Notlaufeigenschaften durch die Boridschicht.
Als weitere Variante wird der eingesetzte Hartmetallring, welcher aktuell lediglich eine einzige Schmiernut enthält, mit optimierten Schmiernuten hergestellt. Als Vorbild hierfür wird die Gestaltungsrichtlinie von Schmiernuten von hydrodynamischen Gleitlagern verwendet.
Der größte Block und damit auch der, welcher am vielversprechendsten ist, ist die Neuentwicklung und Herstellung einer gekapselten Gleitlagervariante. Diese soll es ermöglichen, dass die Reibpartner komplett von Öl umschlossen sind und so eine Verbesserte und dauerhafte Schmierung erreicht werden soll. Außerdem soll die gekapselte Gleitlagerung so gestaltet werden, dass eine Nachförderung von Öl aus einem in den Bolzen angebrachten Schmiermittelreservoir ermöglicht wird und so eine Lebensdauerschmierung erreicht werden kann.
Um die unterschiedlichen Mustervariationen bewerten zu können, werden jeweils Prüfstandversuche durchgeführt, bei dem die entstehenden Drehmomente und die Temperatur gemessen werden. Als Vergleich dient jeweils der Serienstand mit seinen festgelegten Grenzen.
Außerdem wird für jede Variante ein Sägeversuch durchgeführt, bei welchem die Bau-gruppen bei den beiden kritischen Sägerichtungen Rückwärts und Einstechen überprüft wird. Auch hier erfolgt die Beurteilung über etwaige Verbesserungen mit den Ergebnissen der Sägesysteme aus dem aktuellen Serienzustand.
Bei der Prüfung der Musterbaugruppen zeigt sich, dass vor allem das Borieren der Reibpartner Vorteile gegenüber der Serie bringt und durchaus die Möglichkeit der Umsetzung in der Serienbaugruppe besteht. Die Tests verliefen äußerst positiv, vor allem im Bereich höherer Belastungen zeigt sich, dass das Borieren des Umlenksterns deutliches Verbesserungspotenzial im Vergleich zum aktuellen Serienstand zeigt.
An ein Umsetzen der Baugruppen mit gekapselter Gleitlagervariante ist aktuell nicht zu denken. Die geprüften Baugruppen zeigen deutliche Schwächen bei den Prüfstandsversuchen. Die Ergebnisse der Sägeversuche stellen sich jedoch noch deutlich schlechter dar. Unabhängig vom verwendeten Schmieröl, bzw. den darin enthaltenen Festschmierstoffpartikeln, besteht keine einzige Baugruppe auch nur annähernd die festgelegten Mindestanforderungen.
Um die gekapselte Gleitlagervariante auf einen Stand zu bringen, bei welchem an ein Umsetzen in die Serienbaugruppe gedacht werden kann, bedarf es noch weiterem Entwicklungsaufwand. Das Aufbiegen des Schwertes während des Sägens muss verhindert werden. Außerdem muss die Materialpaarung, die Härte und die Oberflächenqualität von Umlenkstern und Bolzen angepasst werden, um die Ausbildung von Kaltverschweißungen zu vermeiden. Die Kaltverschweißungen zwischen Umlenkstern und Bolzen bewirken, dass der Bolzen nicht mehr drehbar ist was unmittelbar zum Ausfall der Baugruppen führt.
Das Thema Ethnomarketing gewinnt mit der steigenden Anzahl an Mitbürgern mit Migrationshintergrund an Wert. Bestimmte Marketingmaßnahmen für bestimmte Zielgruppen. Diese wissenschaftliche Arbeit befasst sich mit diesem Thema und die Widerspiegelung (Medienintegration) dieser in den Medien. Anhand von verschiedenen Beispielen wird das Thema überschaubar und verständlich beleuchtet.
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
Durch ein wachsendes Bewusstsein für soziale und nachhaltige Konflikte spielt verantwortungsvolles unternehmerisches Handeln eine zunehmend große Rolle für potenzielle Kund*innen. Viele Unternehmen entscheiden sich daher für Corporate-Social-Responsibility-Marketing: Sie greifen wichtige gesellschaftliche Themen in ihren Kampagnen auf. Nicht immer steckt dahinter ein edles Motiv. Wirtschaftliches Interesse steht häufig über ethischem Antrieb. Doch in einigen Fällen durchschauen Kund*innen diese Irreführung.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von unglaubwürdigem Corporate-Social-Responsibility-Marketing auf die Kaufbereitschaft von Studierenden. Die Untersuchung wird anhand des Unternehmens Nike durchgeführt. Hierfür wird den Proband*innen zunächst ein Corporate-Social-Responsibility-Werbespot von Nike gezeigt. Anschließend wird ihnen ein Skandal präsentiert, der eben diesen Werbespot als reine Marketing-Masche enttarnt. Zwischenzeitlich wird die Kaufbereitschaft der Studierenden mit einem Fragebogen gemessen. Zusätzlich werden die Teilnehmer*innen zu ihren Gedanken und Gefühlen befragt, die Kampagne und Skandal hinterlassen.
Aus dem Experiment ging hervor, dass die Teilnehmer*innen nach der Präsentation des Skandals eine signifikant niedrigere Kaufbereitschaft zeigten. Außerdem wurde ein leicht erhöhtes Interesse an Nikes Tätigkeiten als Sponsor ermittelt. Mehr als die Hälfte der Befragten äußerten zudem ihre Enttäuschung und einen veränderten Blick auf das Unternehmen Nike.
Die verstärkte Nachfrage des Marktes nach regelbaren EC-Antrieben mit erhöhten Leistungsdichten fordert das Einsetzen von höherwertigen Elektroblechsorten. Diese weisen durch ihren höheren Siliziumgehalt höhere Härten auf, was zu neue Herausforderungen bei der Montage führt. Das Fügen sogenannter gekerbter Wellen in das Rotorlamellenpaket kann zu Partikelbildung führen, wenn die Härtedifferenz zwischen den beiden Fügepartnern zu gering ausfällt. Dieser Umstand ist zur Einhaltung der steigenden Anforderungen bezüglich technischer Sauberkeit zu vermeiden, da ansonsten kostspielige Reinigungskonzepte in der Montagelinie installiert werden müssen. Für die Montage von Lagern werden die Rotorwellen selektiv induktiv randschichtgehärtet. Hierbei müssen bspw. Lagerstellen eine Mindesthärte erreichen und Kerbzonen unbehandelt bleiben, damit eine entsprechende Umformbarkeit beim Kerben erhalten bleibt sowie der Verschleiß der Kerbwerkzeuge möglichst geringgehalten wird.
Im Rahmen dieser Masterthesis wird die induktive Wärmebehandlung untersucht. Insbesondere wird hier das induktive Hochgeschwindigkeitsvergüten zur Weiterentwicklung der Welle-Nabe-Verbindung im Kerbbereich betrachtet, um bei gleichbleibender Taktzeit die erforderte Härtedifferenz zum Rotorlamellenwerkstoff zu ermöglichen. Hierbei wird der Kerbbereich wie für die Lagermontage induktiv randschichtgehärtet und anschließend bei höheren Temperaturen angelassen (vergütet).
Die Auswertung der Versuchsergebnisse zeigt, dass mit dem vorhandenen Maschinenfuhrpark nur das Anlassen mit Selbstabschreckung die geforderten Härtetoleranzen als Kompromiss zwischen Spanfreiheit beim Fügen und Werkzeugverschleiß ermöglicht. Diese wiederum zeigen aufgrund der ununterbrochene Wärmeleitung eine in Axialrichtung ausgeweiteten Wärmeeinflusszone, die zu unscharfen Härteübergängen im Vergleich zu nach dem Anlassen aktiv gekühlter Rotorwellen führt. Eine höhere Härte in der Kerbzone führt zu einem kleineren Kerbaufwurf unter gleichbleibenden Kerbbedingungen. Der Nachweis einer Prozessfähigkeit für die Härte ist nicht üblich und kann auch aufgrund der hohen Unsicherheit des Härteprüfverfahrens nicht erbracht werden. Das Anlassen verschlechtert nur geringfügig den Rundlauf. Die Einpresskräfte von Rotorlamellenpaketen hängt von der Höhe des Kerbaufwurfs ab und steigt entsprechend mit deren Zunahme. Für eine serientaugliche Umsetzung ist in Abhängigkeit des Anforderungsprofils eine Rücksprache mit der Designabteilung bezüglich axiale Härteübergang und Kerbeindringtiefe notwendig. Für eine dauerhafte Lösung wird die Verwendung eines Mittelfrequenzgenerators für den Anlassprozess empfohlen.
Mit der neuen Abgasnorm Euro VI und den steigenden Kraftstoffpreisen müssen Nutzfahrzeugantriebe eine Reduzierung der CO2-Emission und eine höhere Effizienz vorweisen (Umweltbundesamt, 2015). Um diese Anforderungen erfüllen zu können, wird bei vielen Nutzfahrzeugherstellern intensiv an Systemen zur Rückgewinnung von Abgasenergie, den sogenannten Waste-Heat-Recovery-Systemen, geforscht. Eine Kraftstoffersparnis von rund 5 % wird dabei angestrebt.
Das System basiert auf einem ORC-Prozess. Bei diesem thermodynamischen Kreisprozess wird die Abwärme des Abgases über einen Wärmetauscher geführt, der das organische Arbeitsfluid Ethanol in einem geschlossenen Kreislauf erhitzt. Durch den Dampfdruckaufbau wird eine Turbine angetrieben. Zur Transformation der Enthalpie des Ethanoldampfes in mechanische Energie sind Drehzahlen von bis zu 120000 U/min notwendig, um eine hohe Effizienz des Systems vorweisen zu können. Systemdrücke bis 50 bar und Temperaturen des Ethanoldampfes von maximal 300 °C treten im WHR-System auf und führen zu extremen Beanspruchungen. Eine besondere Herausforderung stellen hierbei die Wellendichtungen, vor allem bei nutzfahrzeugtypischen Lebensdauern, dar. Als interessante Alternative zeigt sich die Zentrifugal-Wellendichtung, um die hohen Dichtungsanforderungen über die geforderten Laufzeiten zuverlässig zu erfüllen.
Durch methodisch stufenweise ablauforientiertes Vorgehen wird die Analyse der Zentrifugal-Wellendichtungen durchgeführt. Hierbei wird zuallererst das Wirkprinzip untersucht. Ein besonderes Augenmerk wird dabei auf die Wärmeeinträge aus der Umgebung und Verwendung unterschiedlicher Sperrfluide gelegt.
Für eine Testdrehzahl von 15000 U/min ergibt sich, bei einer beidseitig glatten Scheibe mit einem Scheibenradius von 8,7 mm, eine maximal abdichtbare Druckdifferenz von 0,04 bar. Im Sperrfluid herrschen hierbei Temperaturen von rund 50 °C. Die Versuche zeigen Korrelationen zu den bekannten theoretischen Ansätzen von Ketola und McGrey. Die maximale Druckdifferenz beträgt in diesem Fall 0,043 bar. Nachdem stationäre Betrachtungen ausreichend untersucht werden, widmet sich diese Arbeit dem Anfahr- und Not-Aus-Verhalten. Die Optimierung des Projekts wird durch abschließende Verbesserungsvorschläge, für die Realisierung höherer Sperrdrücke, erzielt.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Im Rahmen dieser Masterarbeit soll ein Radträger für ein Leichtbaufahrzeug entwickelt werden. Dieser soll ein niedriges Gewicht sowie eine hohe Steifigkeit aufweisen und fertigbar sein.
Dabei wird über einen iterativen Prozess aus Simulation, Topologieoptimierung und Neukonstruktion ein neues Radträgerdesign entwickelt.
Zu Beginn der Arbeit wird auf die wissenschaftlichen Grundlagen eingegangen. Dabei spielen vor allem das Thema Leichtbau sowie die finite Elemente Methode eine Rolle. Es wird auf Prinzipien der Konstruktion eingegangen, um das Bauteil fertigungsgerecht und auch effizient zu gestalten.
Im nächsten Kapitel wird der aktuelle Stand der Technik genauer untersucht. Hierbei wird der Entwicklungsprozess der aktuellen Radträger-Varianten untersucht und diese mittels FEM nachgerechnet. Zuvor werden noch die für die Simulation benötigten wirkenden Kräfte berechnet und Plausibilitätstests durchgeführt, bei denen Computersimulationen mit realen Messwerten auf deren Richtigkeit überprüft werden.
In den letzten Kapiteln geht es um die Entwicklung des Radträgers. Hier werden einige Konzepte entwickelt und mittels FEM-Simulationen getestet. Durch den Einsatz von Topologieoptimierungen wird versucht, das Gewicht des Radträgers bei gleichbleibender Steifigkeit zu senken.
Durch den digitalen Wandel, sowie durch die an Benutzerfreundlichkeit und Leistung zunehmenden technischen Geräte im Endbenutzer-Bereich beginnt die Bedeutung von Augmented-Reality Applikationen zu wachsen. Daher ist das Ziel dieser Arbeit die Entwicklung einer Engine auf iOS Basis, zur Dastellung von Augmented-Reality Inhalten. Die Engine wurde nach dem Vorbild von Komponenten-basierten Game Engines entworfen, da diese beinahe identische Anforderungen besitzen. Die, im Rahmen dieser Arbeit erstellte Engine wurde mit Unterstützung der 5d lab Gmb entwickelt. Durch die Verwendung des, nach Erfahrungswerten, schnellsten Mobile Augmented Reality SDK und einer gelungenen Engine-Architektur konnte ein Produkt entwickelt werden, dass mit bestehenden Applikationen konkurrenzfähig ist.
Erarbeitung von zwei unterschiedlichen Marken- und Werbekonzepten zur Ermittlung der Image- und Gestaltungswirkung. Eine einzigartige Werbemittelgestaltung, abgestimmt auf das Markenimage, die Zielgruppe und den Produktnutzen, ist für die Wirkung auf den Konsumierenden und damit den wirtschaftlichen Erfolg von hoher Bedeutung. Im Rahmen der vorliegenden Bachelorarbeit wurde eine qualitative Untersuchung der Image- und Gestaltungswirkung auf den Konsumierenden durchgeführt. Theoretische Ansätze zum Thema Marken und Werbung in Verbindung mit psychologischen Erklärungen bilden dafür eine fundierte Basis. Als Untersuchungsobjekt fungieren zwei eigen kreierte Werbemittel, welche auf Basis theoretischer Grundlagen für das identische fiktive Produkt erstellt wurden. Bei dem Produkt handelt es sich um einen Energy-Drink, welcher eine junge dynamische Zielgruppe ansprechen soll. Dabei zeigen die teilweise gegensätzlich gestalteten Plakate auf, welche Techniken im Hinblick auf das Produkt sowie die vorher definierte Zielgruppe funktionieren und welche nicht.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
Schluckspecht project
(2022)
Ziel der folgenden Bachelorarbeit ist es, eine Steuerung für einen Motorenprüfstand zu entwickeln. Dieser wurde von Aaron Maier geplant und konstruiert. Die Steuerung soll es ermöglichen, die Motoren des Prüfstands sowohl manuell als auch automatisiert anzusteuern. Dabei sollen die Parameter Drehmoment, Drehzahl, Spannung, Strom sowie die Temperatur der Motoren automatisiert, oder auf Knopfdruck erfasst und abgelegt werden. Die Arbeit umfasst die Auswahl der benötigten Hardwarekomponenten, das Verbauen dieser Komponenten in einem Bedienpult, die elektrische Verschaltung dieser Komponenten, die Programmierung des Microkontrollers und das Erstellen einer Dokumentation.
Die vorliegenden Arbeit befasst sich mit dem datengetriebenen Targeting im Social-Media Advertising. Sie gibt einen Einblick in die verschiedenen Möglichkeiten der datengetriebenen Zielgruppenansprache, welche die sozialen Netzwerke für werbetreibenden Unternehmen zur Verfügung stellen. Zu Beginn werden die Grundlagen des Datenmanagements dargestellt und anschließend die wesentlichen Targeting-Techniken sowie die technischen und juristischen Grenzen präsentiert. Dabei wird auf die Relevanz der Zielgruppenbestimmung eingegangen. Im Weiteren werden die Varianten des Social-Media-Targeting am Beispiel von Facebook ausgearbeitet. Am Ende wird ein Überblick über die Plattformen Facebook, Instagram, Twitter, LinkedIn, Pinterest und YouTube entwickelt.
Ein Sachcomic von Schlogger:
- Warum streiten wir?
- Welche gesellschaftlichen und psychologischen Probleme erschweren moderne Beziehungen?
- Wie streiten wir?
- Warum lohnt es sich Streiten zu lernen?
- Was ist Kommunikation und was kann dabei schief laufen?
- Wie streiten wir konstruktiver?
Diese Fragen versucht "STREIT[SAM]"anhand vieler grafischer Beispiele und Theorien wie z.B."Das Vier-Seiten-Modell" von Schulz von Thun, den "Axiomen zur Kommunikationspsychologie"
von Paul Watzlawick oder der Gewaltfreien Kommunikation nach Rosenberg zu beantworten.
The objective of this thesis is the conceptual design of a battery management system for the first prototype of the UWC (University of the Western Cape) Modular Battery System. The battery system is a lithium-ion battery that aims to be used in renewable energy systems and for niche electric vehicles such as golf carts.
The concept that is introduced in this thesis comprises the parameter monitoring, the safety management and has its main focus on an accurate state of charge estimation.
Another battery system that was already implemented is used as base for the parameter monitoring and the safety management for the new battery management system. In contrast to that, the concept for the state of charge estimation must be developed completely.
Different methods for the state of charge estimation which are based on the measured voltage, current and temperature are discussed, evaluated and the chosen method is conceived in this thesis. The method used for the state of charge estimation is different for the time when the battery is active than when it is inactive. During charge and discharge Coulomb counting is used and when the cell is inactive voltage versus state of charge lookup tables are used to update the estimation.
To have an accurate estimation when the cell is inactive only for a short time, a model of the voltage relaxation is used to predict the voltage when the cells are in equilibrium. This allows the algorithm to reset the state of charge that is estimated by Coulomb counting – which tends to have a growing error over time – frequently.
To evaluate the accuracy of the voltage prediction, cell tests were executed where the voltage relaxation was sampled. The recursive least square method to predict the end voltage was tested with a MATLAB programme. With the help of voltage versus state of charge lookup tables it was possible to determine the state of charge accuracy with the accuracy of the voltage prediction.
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
Patienten mit neurologischen Erkrankungen, die Auswirkungen auf die Muskelaktivität der unteren Extremitäten haben, leiden oft an Gangstörungen in der Schwung- und Standphase. Um diesen Gangstörungen entgegenzuwirken und einzelne Muskeln zu unterstützen oder zu ersetzen, stellt die Versorgung mit Unterschenkelorthesen eine Behandlungsoption dar. Den Ärzten steht dabei eine Vielzahl an Orthesentypen mit verschiedenen mechanischen Eigenschaften zur Verfügung. Zur Beurteilung der Wirksamkeit einer Orthesenversorgung werden dreidimensionale Ganganalysen mit und ohne Orthese durchgeführt. Die Entscheidungsfindung wird durch eine Simulation des Bewegungsapparates, dem muskuloskelettalen Modelling, unterstützt. Aus den Messdaten der Ganganalyse mit Orthese wird mittels der inversen Dynamik auf die bewegungserzeugenden Muskelkräfte im Körper zurückgerechnet. Der-zeit wird das Gesamtmoment um das Sprunggelenk in die Berechnung mit einbezogen, welches sich aus dem internen Moment, erzeugt von Muskeln, Sehnen und Bändern der unteren Extremitäten des Patienten und dem externen Orthesenmoment zusammensetzt. Durch eine isolierte Ermittlung des Unterstützungsmoments einer Unterschenkelorthese kann durch das muskuloskelettale Modelling eine genauere Aussage über die Auswirkungen einer Unterschenkelorthese auf die Muskelaktivität der unteren Extremitäten und die Funktionalität des Bewegungsapparates des Patienten getroffen werden. Zur Bestimmung des Orthesenmoments wird die Rotationssteifigkeit, die wichtigste mechanische Eigenschaft einer Unterschenkelorthese mithilfe einer Testvorrichtung gemessen. Denn diese beschreibt das Widerstandsmoment der Orthese, das sie bei der Deformation in Plantar- oder Dorsalflexion er-zeugt, um eine gewisse Biegung um die Sprunggelenksachse freizugeben. Die Literaturrecherche ergibt, dass die Rotationssteifigkeit einer Unterschenkelorthese auf einem Prüfstand mit einem physischen Ersatzbeinmodell zur Fixierung der Orthese gemessen wird. In der bestehenden Testvorrichtung am Kinderspital Basel werden die Orthesen allerdings ohne Ersatzbeinmodell untersucht. Das Ziel dieser Arbeit ist daher die Ermittlung der Eignung der bestehenden Vorrichtung ohne Ersatzbeinmodell zur Bestimmung der Rotationssteifigkeit. Dazu werden eine steife und drei Karbonfederorthesen auf der Testvorrichtung und am Bein eines gesunden Probanden in vergleichbaren Auslenkungen gemessen. Die Bewegung der Orthese wird mittels dreidimensionalem markerbasiertem Kameramesssystem aufgenommen und die kinetischen Daten über dreidimensionale Kraftmessplatten erfasst.
Für den Vergleich der beiden Testkonditionen werden drei Parameter definiert. Der Erste ist das Deformationsmaß der Orthese. Dieses beschreibt die Deformationslinie des Orthesenschafts in Sagittalebene. Der Vergleich zeigt, dass dieses bei allen getesteten Orthesentypen in starkem Maß zwischen beiden Testkonditionen variiert und damit nicht vergleichbar ist. Der zweite Parameter ist die Betrachtung eines vereinfachten Modells für das Verhalten des Rotationspunkts in der Sagittalebene, um den der Orthesenschaft bei der Verformung rotiert. Hierzu werden Geraden durch die Marker des Schafts und des Fußes gelegt und deren Schnittpunktverhalten bei der Deformation analysiert. Die Bewegung des Schnittpunkts variiert je nach Testkondition, jedoch wird das Maß der Bewegung im Vergleich zu anderen Einflussfaktoren als vernachlässigbar eingestuft. Hier gleichen sich somit die beiden Testkonditionen. Der dritte Parameter ist die Rotationssteifigkeit der Orthese. Hierzu werden mit den Kraftmessplatten die Kräfte gemessen und mit den Positionsdaten der Marker ein Hebelarm und der Deformationswinkel definiert. Die ermittelten Daten weichen zwischen den Testkonditionen in großem Maß voneinander ab. Eine direkte Aussage über die Eignung der Testvorrichtung kann nicht getroffen werden.
Die Ergebnisse zeigen, dass die Messung am Bein des Probanden keine realistischen und da-mit verwertbaren Messdaten zur Bestimmung der Rotationssteifigkeit liefert. Schlussfolgernd sind die Messdaten beider Testkonditionen mit den angewandten Mess- und Berechnungsmethoden nicht vergleichbar. Die Eignung der Testvorrichtung lässt sich somit nur bedingt beurteilen. Einerseits liefert der Aufbau der Vorrichtung und die Messdurchführung Messda-ten zur Bestimmung der Rotationssteifigkeit, andererseits kann noch keine Aussage darüber getroffen werden, ob die Messdaten zu einer qualitativen Ermittlung der Rotationssteifigkeit der Orthese führen können. In zukünftigen Studien muss die Messung am Bein des Proban-den optimiert werden, um Referenzwerte für die Messung auf der Testvorrichtung bereitstellen zu können.
Zur ergonomischen Unterstützung von Industriearbeitern werden zunehmend Exoskelette eingesetzt. Studien über die Wirkung und den Einfluss von Exoskeletten auf den Körper sind jedoch rar. Diese Arbeit beschäftigt sich daher mit der Wirkung des Rückenexoskeletts BionicBack des deutschen Exoskelett Herstellers hTRIUS auf die Wirbelsäulenkrümmung bei industriellen Hebearbeiten. Im Speziellen wird die Wirbelsäulenkrümmung beim Umpalettieren aus drei verschiedenen Hebehöhen (91 cm, 59 cm, 15 cm) mit Hilfe eines markerbasierten 3D Motion Capture Systems untersucht. Um den Versuchsaufbau alltagsnah und realistisch zu gestalten, wurde diese Pilotstudie in Kooperation mit der Firma Zehnder am Standort Lahr durchgeführt, die sowohl die Probanden als auch den Versuchsaufbau zur Verfügung stellte. Vier gesunde männliche Probanden mit einem durchschnittlichen Alter von 39,5 Jahren (SD = 6,5), einem durchschnittlichen Körpergewicht von 72,75 kg (SD = 7,1) und einer durchschnittlichen Körpergröße von 175 cm (SD = 2,6) wurden in zwei Schichten eingeteilt. Mit den Probanden wurden vor und nach der Schicht sowie an zwei aufeinander folgenden Tagen Messungen durchgeführt, wobei an einem Tag das BionicBack während der Arbeit und der Messung getragen wurde und am an-deren Tag nicht. Während einer Messung nahmen die Testpersonen ein Paket mit einem Gewicht von 21,1 kg dreimal von jeder Hebehöhe von einer Palette auf und legten es auf einer anderen ab. Anschließend wurde die Krümmung der Wirbelsäule am tiefsten Punkt der Hebebewegung untersucht, wobei die Gesamtkrümmung in dieser Position durch die Addition von drei repräsentativen Segmentwinkeln dargestellt wird. Die Abweichung dieser Gesamtkrümmungen in der tiefsten Beugeposition von der individuellen neutralen Wirbelsäulenstellung der Probanden im Stehen ergeben die Werte, die zwischen den einzelnen Versuchsbedingungen verglichen werden. Die Ergebnisse zeigen, dass das BionicBack den Abstand zur Neutralstellung bzw. die Gesamtkrümmung des Rückens im Vergleich zu ohne BionicBack bis zu -11,5° (Median: -11,5° (SD = 5,2); Mittelwert: -8,4° (SD = 6,4)) entsprechend -30% vor der Schicht und bis zu -5,6° (Median: -5,6° (SD = 3,5); Mittelwert: -4,1° (SD = 5,4)) ent-sprechend -17% nach der Schicht reduzieren kann. Die Betrachtung der einzelnen Segmentwinkel zeigt, dass die Reduzierung des Abstandes von der Neutralstellung hauptsächlich im Lendenwirbelbereich stattfindet. Der Vergleich der Wirbelsäulen-krümmung vor und nach der Schicht ohne BionicBack zeigt, dass die Wirbelsäulen-krümmung nach der Schicht, mit Ausnahme der tiefsten Hebehöhe, eine größere Abweichung von der Neutralstellung aufweist als vor der Schicht. Der Vergleich mit BionicBack zeigt, dass die Wirbelsäulenkrümmung nach der Schicht mit Ausnahme der niedrigsten Hubhöhe nicht bzw. weniger von der Neutralstellung abweicht als vor der Schicht. Aufgrund der Ergebnisse wird vermutet, dass das BionicBack durch die Unterstützung einer neutraleren Rückenhaltung das Verletzungsrisiko reduzieren kann. Des Weiteren wird vermutet, dass die Muskelermüdung während einer Arbeitsschicht einen Einfluss auf die Wirbelsäulenkrümmung beim Heben hat. Es wird angenommen, dass dieser Einfluss durch das BionicBack reduziert werden kann. Allerdings dürfen die Grenzen dieser Pilotstudie nicht außer Acht gelassen werden. Sei es die Anzahl der Versuchspersonen, die keine Aussage über die Allgemeingültigkeit zu-lässt und keine effektive statistische Analyse erlaubt, oder systematische Fehler, die aufgrund der Modellvereinfachung und der Methodik auftreten können. Weitere Untersuchungen sind erforderlich, um die Ergebnisse zu validieren. Diese Arbeit soll die Grundlage für weitere Studien mit einer weiterentwickelten Methodik und einer größeren Anzahl von Probanden bilden.
In dieser Abschlussarbeit wurden die vorgenommen Ziele seitens der Projektaufgabe im Rahmen der Bachelor-Thesis erfüllt. Hierbei wurde der Ist-Zustand des UniAuSter´s aufgenommen und technisch hinterfragt. Zusätzlich wurden die Grenzen der mechanischen Lösung aufgezeigt und mögliche Ursachen erläutert.
Des Weiteren konnten auf Grundlage der Berechnungen die Taktzeiten bestimmt und daraufhin über die Recherche eine Auswahl des Magnetventils getroffen werden, welches den zuvor ermittelten Anforderungen entspricht. Diese sind zum einen die einfache Anpassung der Taktgeschwindigkeit über eine Maschinensteuerung und die Möglichkeit, bis zu 30.000 Flaschen pro Stunde auszuschleusen.
Der vorgegebene maximale Bauraum, wurde trotz zusätzlich erforderlichen Komponenten nicht überschritten. Hierbei wurden Lösungen in der elektrischen sowie der pneumatischen Versorgung entwickelt. Weiterführend kann durch den Ringverteiler eine optimale Druckluftversorgung durch den integrierten Druckregler realisiert werden, Er ist durch seine Konstruktionsweise für die Anlage kein Störfaktor, sondern dient zusätzlich als Verschlauchungsführung.
Für den weiteren Verlauf des Projekts werden die konstruierten Komponenten weiter ausgearbeitet und die noch nicht vorhandenen technischen Zeichnungen erstellt . Zusätzlich wird eine endgültige Lösung für die Signalverarbeitung der Magnetventile über eine elektrische Drehdurchführung entwickelt. Um die gesamte Konstruktion auf ihre Funktion prüfen zu können, wird von der Hochschule Offenburg zusammen mit dem Projektpartner Kematec, ein Prototyp in naher Zukunft erstellt.
Die Analyse von biomechanischen Parametern erlangt in der Sportwissenschaft und der Biomechanik eine immer größere Bedeutung. Daraus entwickelten sich mit der Zeit neue Analysemethoden, die sich zum Ziel gesetzt haben, eine bessere, schnellere und einfachere Analyse der biomechanischen Parameter zu ermöglichen.
Das Ziel der vorliegenden Arbeit ist es zu evaluieren, ob die Sensor-Technologie für die Analyse von biomechanischen Parametern im Bereich des Skisprungs und Skilanglaufs eingesetzt werden kann und dabei einen Vorteil gegenüber den derzeitig verwendeten Analysemethoden mit sich bringt. Dabei soll ein Lösungskonzept entwickelt werden, welches gezielt die Geschwindigkeiten und Zeiten, im Skisprung und Skilanglauf analysieren kann.
Für die Auswahl der Sensoren, wurden zu Beginn Randbedingungen festgelegt, die ein Sensor erfüllen muss, um für den Einsatz im Skisprung und Langlauf geeignet zu sein. Dabei stehen vor allem die Outdoorfähigkeit, Scanfrequenz und die Reichweite im Fokus der Evaluierung. Auf Basis der Randbedingungen wurden diese mit den Eigenschaften der Sensoren verglichen und eine Vorauswahl getroffen. Dabei kam man zu dem Ergebnis, dass fünf Sensoren für den Einsatz im Skisprung und Skilanglauf geeignet sind. Die Sensoren kommen jeweils aus dem Bereich der LiDAR- (light detection and ranging), RFID- (Radio-Frequency Identification), und Radar-Technologie. Im Anschluss wurde für jeden Sensor ein Lösungskonzept zur Bestimmung von Geschwindigkeiten und Zeiten, unabhängig von dem zu messenden Objekt, erstellt und abschließend auf ihre Verwendbarkeit im Skisprung und Skilanglauf bewertet. Dadurch stellte sich heraus, dass die Kombination aus einem LiDAR-Sensor (LMS5xx) und einem RFID-Sensor (RFU63x) am besten für den Skilanglauf geeignet ist. Für die Verwendung im Skisprung zeigte sich ebenfalls eine Kombination aus dem RFID-Sensor (RFU63x) und einem Radar-Sensor (RMS1000) als bestmögliches Lösungskonzept zur Analyse von Geschwindigkeiten und Zeiten.
Die Arbeit hat gezeigt, dass die Sensor-Technologie in Zukunft eine schnellere, unabhängigere und einfache Methode zur Analyse von biomechanischen Parametern ermöglicht. Dabei muss berücksichtigt werden, dass es sich um eine theoretische Untersuchung handelt, welche als Vorlage für weitere Untersuchungen dienen soll.
Die Analyse des Problems wurde eigenständig mit den seitens ADITION zur Verfügung gestellten Möglichkeiten durchgeführt. Lösungsansätze sind mitunter durch
eigene Vorschläge entstanden, größtenteils stammen diese jedoch von Mitarbeitern.
Die Recherche und Bewertung der Alternativen beruht jedoch auf Eigenleistung. Gleiches gilt für die Konzeption und Implementierung des gewählten Verfahrens.
Der Vorher/Nachher-Vergleich wurde ebenfalls selbstständig durchgeführt. Bei der Optimierung der Objekterstellung, die in Kapitel 6.2 beschrieben wird, wurden unterschiedliche alternative Verfahren getestet, und bewertet. Daran involviert waren,neben mir, noch weitere Mitarbeiter. Einige der in Kapitel 7 beschriebenen zusätzlichen Optimierungsmöglichkeiten wurde durch Mitarbeiter angeregt. Meine Eigenleistung besteht hier aus dem Zusammentragen und Ergänzen dieser Verfahren. Zusammenfassend wurde daher das Projekt selbstständig durchgeführt, wobei Erfahrungen und Anregungen von Mitarbeitern stets eingeflossen sind.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
To date, many experiments have been performed to study how the internal geometrical shapes of the annular liquid seal can reduce internal leakage and increase pump efficiency. These can be time-consuming and expensive as all rotordynamic coefficients must be determined in each case.
Nowadays, accurate simulation methods to calculate rotordynamic coefficients of annular seals are still rare. Therefore, new numerical methods must be designed and validated for annular seals.
The present study aims to contribute to this labour by providing a summary of the available test rig and seals dimensions and experimental results obtained in the following experiments:
− Kaneko, S et al., Experimental Study on Static and Dynamic Characteristics of Liquid Annular Convergent-Tapered Seals with Honeycomb Roughness Pattern (2003) [1] − J. Alex Moreland, Influence of pre-swirl and eccentricity in smooth stator/grooved rotor liquid annular seals, static and rotordynamic characteristics (2016) [2]
A 3D CAD simulation with Siemens NX Software of the test rig used in J. Alex Moreland’s experiment has been made. The following annular liquid seals have also been 3D modelled, as well as their fluid volume:
− Smooth Annular Liquid Seal (SS/GR) (J. Alex Moreland experiment)
− Grooved Annular Liquid Seal (GS/SR)
− Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 mm) (GS/SR)
− Straight Honeycomb Annular Liquid Seal (GS/SR)
− Convergent Honeycomb Annular Liquid Seal (No. 3) (GS/SR)
− Smooth Annular Liquid Seal (SS/SR) (S. Kaneko experiment)
In the case of the seals used in S. Kaneko’s experiments, the test rig has been adapted to each seal, defining interpart expressions which can be easily modified.
Afterwards, it has been done a CFD simulation of the Smooth Annular Liquid Seal using Ansys CFX Software. To do so, the fluid volume geometry has been simplified to do a first approximation. Results have been compared for an eccentricity 𝜀0=0.00 for the following ranges of rotor speeds and differential of pressure:
− Δ𝑃= 2.07, 4.14, 6.21, and 8.27 bar,
− 𝜔= 2, 4, 6 and 8 krpm.
Even results obtained have the same trend as the one proportionated by the literature, they cannot be validated as the error is above 5%. It is also observed that as the pressure drop increases, the relative error decreases considerably.
Printmedien befinden sich in der Krise. Durch die Fülle an frei zugänglichen Inhalten im Internet, verlieren immer mehr Printmedien an Leser. Mediale Inhalte sind nicht mehr nur über die klassischen Vertriebskanäle abrufbar, sondern auch digital. Dennoch zeigen hohe Reichweiten, dass Zeitungen und Zeitschriften noch eine Relevanz am deutschen Markt besitzen.
In der vorliegenden Arbeit wird untersucht, wie sich der Markt in den letzten 15 Jahren verändert hat. Durch die Digitalisierung entstehen neue Märkte und Endgeräte, wodurch sich neue crossmediale Medienangebote bilden. Die Rolle der Printmedien hat sich verändert und das Internet wird bereits von vielen Unternehmen als zusätzlicher Medienkanal für die Distribution von Druckprodukten genutzt. Anhand des Magazins GEO wird die Veränderung des Printproduktes Zeitschrift verdeutlicht. Wie haben sich die Auflagen und Reichweiten entwickelt? Es wird ebenfalls beleuchtet, inwieweit sich die Zugänglichkeit und Darstellung des Produktes verändert hat.
Die Zielsetzung der Arbeit liegt in der Ermittlung von Erfolgsfaktoren für Rundfunkapplikationen, um der Branche eine Orientierungshilfe für die Umsetzung oder Überarbeitung ihrer Applikationen bereit zu stellen. Durch die Arbeit soll das Verständnis von Apps als innovative Produktplattform und mobiles Kommunikationsinstrument bei den Rundfunkanstalten zukünftig besser verankert werden. In diesem Zusammenhang wurde eine empirische Untersuchung zu den Erfolgsfaktoren für Applikationen in der Rundfunkbranche durchgeführt. Hierdurch sollten Kenntnisse über die Bedürfnisse der Nutzer gewonnen werden. Im Fokus standen dabei die Inhalte, die vom User gefordert werden, und die Bereitschaft der Bezahlung. Die Befragung wurde in verschiedenen Foren, die sich mit der Benutzung von Smartphones und Tablet-PCs beschäftigen, und über Facebook durchgeführt. Insgesamt wurden 109 Fragebögen komplett ausgefüllt. Die Zielgruppe, die mit mobilen Endgeräten überwiegend erreicht werden kann, ist zwischen 14 und 29 Jahren alt. Da diese Zielgruppe in der Untersuchung sehr stark vertreten ist, kann die Umfrage als repräsentativ angesehen werden. Ergänzend wird die momentane Marktsituation von Applikationen in der Rundfunkbranche durchleuchtet und analysiert. Während sich die Öffentlich Rechtlichen Sender über die Rundfunkgebühren finanzieren, ergibt sich für die privaten Sendeanstalten ein Dreieck aus Rundfunksender, Rezipienten und werbungtreibender Wirtschaft. Im Verlauf der Arbeit wird dabei vorwiegend auf die Faktoren eingegangen, die für eine gute Verbindung zwischen dem Sender und den Rezipienten sorgen. Nur so kann eine konstant hohe Reichweite erzielt werden, durch welche die mobilen Anwendungen für die Wirtschaft interessant werden.
Der Heel-Rise Test (HRT) wird in der Klinik und der Therapie benutzt, um die Funktionsfähigkeit der Wadenmuskulatur einzuschätzen. Eine Orientierung am Normwert von 25 Wiederholungen hilft dabei, die Muskulatur als normal oder anormal einzustufen. Dieser Wert beruht jedoch auf eine älteren und nicht mehr zeitgemäßen Studie. Auch ist fraglich, ob der absolut erreichte Wert eines HRTs eine direkte Aussage über die Funktionsfähigkeit der Plantarflexoren geben kann.
Das Ziel dieser Arbeit ist somit den HRT mit einer Maximalkraftmessung auf dem Isokineten zu vergleichen und diese auf einen möglichen Zusammenhang zu prüfen. Dazu kann folgende Forschungsfrage aufgestellt werden: „Können die Messergebnisse des HRT eine positive Korrelation mit einer Maximalkraftmessung am Isokineten eingehen?“
Für die Beantwortung der Forschungsfrage ist eine quantitative Untersuchung der beidseitigen Wadenkraft von 20 jungen und gesunden Teilnehmer*innen durchgeführt worden. Dabei wurde das Bein, mit dem die Kraftuntersuchung beginnt, randomisiert. Da ein linearer Zusammenhang zwischen den HRT-Messwerten und einer Maximalkraftmessung auf dem Isokineten vermutet wird, wird dieser durch eine Korrelationsanalyse nach Bravais-Pearson geprüft.
Der Vergleich der Kraftmessungen zeigt, dass die HRT-Ergebnisse eine moderate bis hohe positive Korrelation mit den Maximalkraftwerten auf dem Isokineten eingehen. Dabei hat die Beindominanz sowie die Testreihenfolge der Beine keinen großen Einfluss auf die Ergebnisse. Untersucht man Männer und Frauen getrennt, hebt sich jedoch die positive Korrelation auf und es kann ein geringer, bis kein Zusammenhang zwischen dem HRT und der Maximalkraft auf dem Isokineten festgestellt werden. Zudem ist zu erkennen, dass Männer in allen Kraftuntersuchungen höhere Kraftergebnisse erzielt haben. Da die Stichprobe nur junge, gesunde und aktive Menschen umfasst, sind Aussagen über erkrankte Personen, ältere Menschen oder den Einfluss der Leistungsfähigkeit nicht möglich.
Durch die positive Korrelation des HRT mit dem Goldstandard der Kraftdiagnostik, der Isokinetitk, scheint die Kritik am HRT entkräftet zu werden. Jedoch sind die Ergebnisse mit Vorsicht zu betrachten, da sich bei Betrachtung des Geschlechts die positive Korrelation aufhebt. Das Ergebnis der Arbeit soll, im Anbetracht der Limitation, trotzdem ermutigen, den HRT weiterhin für die Kraftdiagnostik der Wadenmuskulatur zu nutzen. Die eingeschränkte Stichprobengröße, eine fehlende Standardisierung der HRT-Durchführung, sowie die vielen Auswahlwahlmöglichkeiten in der Isokinetik machen es kompliziert die Ergebnisse dieser Arbeit auf andere Personengruppen oder Messmethoden zu übertragen. Dennoch gibt die Untersuchung einen ersten Einblick und ermöglicht die Aussagekraft des HRT zu stützen und somit seine Bedeutung und Qualität für die Kraftdiagnostik zu verbessern.