Refine
Year of publication
Document Type
- Master's Thesis (208) (remove)
Has Fulltext
- yes (208)
Is part of the Bibliography
- no (208)
Keywords
- IT-Sicherheit (10)
- E-Learning (7)
- Maschinelles Lernen (7)
- Deep learning (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Social Media (5)
- Computersicherheit (4)
- Internet of Things (4)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (55)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (40)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34)
- Fakultät Wirtschaft (W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (5)
- INES - Institut für nachhaltige Energiesysteme (4)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (75)
- Open Access (32)
- Diamond (6)
AI-based Ground Penetrating Radar Signal Processing for Thickness Estimation of Subsurface Layers
(2023)
This thesis focuses on the estimation of subsurface layer thickness using Ground Penetrating Radar (GPR) A-scan and B-scan data through the application of neural networks. The objective is to develop accurate models capable of estimating the thickness of up to two subsurface layers.
Two different approaches are explored for processing the A-scan data. In the first approach, A-scans are compressed using Principal Component Analysis (PCA), and a regression feedforward neural network is employed to estimate the layers’ thicknesses. The second approach utilizes a regression one-dimensional Convolutional Neural Network (1-D CNN) for the same purpose. Comparative analysis reveals that the second approach yields superior results in terms of accuracy.
Subsequently, the proposed 1-D CNN architecture is adapted and evaluated for Step Frequency Continuous Wave (SFCW) radar, expanding its applicability to this type of radar system. The effectiveness of the proposed network in estimating subsurface layer thickness for SFCW radar is demonstrated.
Furthermore, the thesis investigates the utilization of GPR B-scan images as input data for subsurface layer thickness estimation. A regression CNN is employed for this purpose, although the results achieved are not as promising as those obtained with the 1-D CNN using A-scan data. This disparity is attributed to the limited availability of B-scan data, as B-scan generation is a resource-intensive process.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Estimation and projecting total steel industry production costs from 2019 to 2030 for Germany
(2023)
This thesis analyses the total production cost of the German steel industry from 2019 to 2022, as well as a projection of the German steel industry's total production cost until 2030. The research separates the costs of steel production into their primary components, such as raw materials, energy, CO2 cost, capital expenses and operating expenses. The cost of steel production is determined separately for primary steelmaking with the blast furnace and basic oxygen furnace (BF-BOF) and secondary steelmaking with the electric arc furnace (EAF).
The analysis indicates that, following the COVID-19 disaster and the fuel crisis, the overall cost of producing steel in Germany has progressively risen over the previous few years, reaching its peak in the first half of 2022. In addition, there are considerable disparities between the production costs of primary and secondary steelmaking processes, with primary steelmaking generally being more expensive.
In this analysis, the total cost of production for the German steel industry in the year 2030 has been estimated by taking into account historical trends as well as other predictions that are currently available.
This thesis provides overall insights on the economics of the German steel sector. By giving thorough information on production costs and changes over time, this research can assist guide crucial future investment decisions in this essential industry. To ensure long-term success, our findings emphasize the significance of investing in more sustainable and ecologically friendly steel production processes.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
Cloud computing is a combination of technologies, including grid computing and distributed computing, that use the Internet as a network for service delivery. Organizations can select the price and service models that best accommodate their demands and financial restrictions. Cloud service providers choose the pricing model for their cloud services, taking the size, usage, user, infrastructure, and service size into account. Thus, cloud computing’s economic and business advantages are driving firms to shift more applications to the cloud, boosting future development. It enlarges the possibilities of current IT systems.
Over the past several years, the ”cloud computing” industry has exploded in popularity, going from a promising business concept to one of the fastest expanding areas of the IT sector. Most enterprises are hosting or installing web services in a cloud architecture for management simplicity and improved availability. Virtual environments are applied to accomplish multi-tenancy in the cloud. A vulnerability in a cloud computing environment poses a direct threat to the users’ privacy and security. In our digital age, the user has many identities. At all levels, access rights and digital identities must be regulated and controlled.
Identity and access management(IAM) are the process of managing identities and regulating access privileges. It is considered as a front-line soldier of IT security. It is the goal of identity and access management systems to protect an organization’s assets by limiting access to just those who need it and in the appropriate cases. It is required for all businesses with thousands of users and is the best practice for ensuring user access control. It identifies, authenticates, and authorizes people to access an organization’s resources. This, in turn, enhances access management efficiency. Authentication, authorization, data protection, and accountability are just a few of the areas in which cloud-based web services have security issues. These features come under identity and access management.
The implementation of identity and access management(IAM) is essential for any business. It’s becoming more and more business-centric, so we need more than technical know-how to succeed. Organizations may save money on identity management and, more crucially, become much nimbler in their support of new business initiatives if they have developed sophisticated IAM capabilities. We used these features of identity and access management to validate the robustness of the cloud computing environment with a comparison of traditional identity and access management.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
Für Unternehmen ist es zunehmend von Interesse, durch Social-Media-Kommunikation nicht nur die Aufmerksamkeit der Zielgruppe zu wecken, sondern mit der aufmerksamkeitsstarken Ansprache die Wahrnehmung ihrer Marke und das marktbezogene Verhalten zu beeinflussen. Humorvolle Appelle sind in diesem Zusammenhang zur gängigen Werbepraxis geworden und finden auf Social Media in der direkten Interaktion zwischen Marken und ihrer Zielgruppe statt. Mit der vorliegenden Arbeit wird humorvoll-schlagfertige Unternehmenskommunikation auf Social Media untersucht. Das Ziel war es, die Wirkungszusammenhänge zwischen derartiger Kommunikation, deren Bewertung, dem Markenimage, der Markenauthentizität und den Handlungsabsichten besser zu verstehen. Die Erkenntnisse über diese Zusammenhänge können sowohl der weiteren Erforschung als auch künftigen Marketingentscheidungen dienen.
Im Zuge dessen wurden die theoretischen Hintergründe moderner Markenkommunikation sowie der Konzepte Humor und Schlagfertigkeit ausgearbeitet. Der empirische Teil der Arbeit besteht aus der Konzipierung, Durchführung, Analyse und Ergebnisdiskussion einer quantitativen Studie. Zu den zentralen Ergebnissen zählt, dass sich der Grad an Humor und an Schlagfertigkeit darauf auswirkt, wie sehr die Kommunikation gefällt. Wenn diese gut gefällt, stärkt das wiederum das Markenimage. Auch die wahrgenommene Markenauthentizität bestimmt das Markenimage und wird selbst vor allem durch den Grad der Schlagfertigkeit bestimmt. Das Markenimage beeinflusst die Weiterleitungsabsicht der Kommunikation (virale Effekte) und die Kaufabsicht. Dabei unterscheidet sich humorvoll-schlagfertige Unternehmenskommunikation von neutraler Vergleichskommunikation hinsichtlich der Weiterleitungsabsicht signifikant.
Ziel der vorliegenden Arbeit ist das netzdienliche Betreiben einer Wärmepumpe. Um diese Netzdienlichkeit zu erreichen, wird ein modellprädiktiver Regler entwickelt und implementiert, dessen Ziel es ist die Stromkosten einer Wärmepumpe zu senken. Dazu werden die Variablen Stromkosten und ein simulierter Heizbetrieb betrachtet.
Die Entwicklung eines modellprädiktiven Reglers setzt zunächst eine Modellierung der Komponenten des Heizsystems voraus. Ebenfalls muss eine Kostenfunktion formuliert werden, die es zu minimieren gilt. In einem Optimierungsproblem werden die Modelle als Randbedingungen und die Kostenfunktion als Zielfunktion der Optimierung formuliert. Dazu müssen gewisse Vereinfachungen getroffen werden, um das Optimierungsproblem zuverlässig und ohne enormen Rechenaufwand in einer Regelungsschleife lösen zu können.
Nun wird das Optimierungsproblem mit externen Modulen verknüpft, die eine Kommunikation mit der realen Wärmepumpen, Strompreisprognosen und Wettervorhersagen ermöglichen. Der dabei entwickelte Algorithmus wird auf einem Raspberry Pi Einplatinencomputer gespeichert und dort in einem regelmäßigen Zeitintervall von 15 Minuten ausgeführt, um den Betrieb der Wärmepumpe zu regeln.
Schließlich wird der modellprädiktive Regler in Betrieb genommen. Anschließend kann der modellprädiktive Betrieb mit dem konventionellen Betrieb verglichen werden. Aus dem Vergleich wird deutlich, dass eine modellprädiktive Regelung tatsächlich die Netzdienlichkeit einer Wärmepumpe verbessern kann. Andererseits werden auch die Entwicklungspotentiale identifiziert.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.
Die rasante Digitalisierung verändert die Hochschule Offenburg nachhaltig. Jedes Semester entstehen zahlreiche akademische Arbeiten und Prüfungsdaten, die von hoher Bedeutung für die Qualitätssicherung und den Bildungsprozess sind. Bisher fehlte jedoch eine effiziente Lösung zur Archivierung dieser Daten. Meine Masterarbeit präsentiert ein neues Archivierungskonzept, das eine zentrale, digitale Plattform schafft. Diese ermöglicht es Lehrenden und Studierenden, leicht auf ihre Daten zuzugreifen, sei es für Projektarbeiten, Seminarleistungen oder Prüfungen. Ich stelle nicht nur das Konzept vor, sondern auch die Umsetzung eines Prototyps auf Intrexx, einer Low-Code-Entwicklungsplattform. Mein Ziel ist es, ein Handbuch für zukünftige Entwickler zu hinterlassen, um zur digitalen Transformation der Hochschule beizutragen und die Bildungsprozesse zu optimieren.
Wassermangel in Deutschland
(2023)
Die Arbeit beschäftigt sich mit der medialen Berichterstattung von vier deutschen Leitmedien in Bezug auf das Thema Wassermangel in Deutschland. Ziel ist es, das in der Gesellschaft vorhandene Bewusstsein für die Umwelt zu stärken und ein besonderes Augenmerk auf die Problematik des sich verschärfenden Wassermangels zu lenken.
Zunächst wird hierfür die Vorgehensweise einer Medieninhaltsanalyse dargelegt und mit dem konkreten Beispiel in jedem Schritt verknüpft. Dabei werden die relevantesten Schwerpunkte der Berichterstattung zwischen April und Oktober 2022 herausgearbeitet. Es wird angenommen, dass die Berichterstattung vor allem im Sommer besonders hoch ist und es sowohl thematische als auch regionale Unterschiede zwischen den vier Verlagen gibt. Die gewonnenen Beobachtungen werden sowohl im Gesamtzusammenhang der untersuchten Artikel als auch in einer Einzelbetrachtung der vier Medien, Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung, Focus und Spiegel, grafisch aufbereitet und interpretiert. Die Ergebnisse zeigen, dass die Kategorien Hitze und Dürre besonders häufig codiert werden. Damit stehen vor allem die Ursachen und Auswirkungen, aber nicht der Wassermangel selbst, im Fokus der Berichterstattung.
Diese Erkenntnisse werden anschließend in eine Online-Kampagne überführt, mit dem Ziel, das Bewusstsein einer jungen, medienaffinen Zielgruppe auf den steigenden Wassermangel in Deutschland zu lenken.
The purpose of this master's thesis was to set up a test bed for the absorption of chemical compounds by carbon-based sorbents and polymers and to develop a method for the detection of these substances applied by liquid chromatography.
The study made it possible to demonstrate the effectiveness of both polymers and biochars sorbents for the adosorption of specific substances. The results obtained open new paths on the study of biochar for the treatment of contaminated water. Some biochars made from plant-based materials have been shown to be almost as effective as commercial products used in plants. The developed chromatography method allows efficient separation of substances and their detection.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.
Self-sufficient enzymes belong to the cytochrome P450 (CYP) group and are known for their superior hydroxylation catalytic activity. In the pursuit of identifying new pesticides to combat antimicrobial-resistant pathogens, we employed BM3 wild type (BM3-WT), the fastest monohydroxylating CYP, along with its seven homologs, to investigate the production of potential hydroxylated derivatives from the established pesticide, 4-oxocrotonic acid using high-pressure liquid chromatography (HPLC) method. Following the recombinant production of BM3-WT and three other homologs in E. coli, and their subsequent purification using Immobilized Metal Affinity Chromatography (IMAC), a novel enzyme assay approach was developed as a substitute for the carbon monoxide (CO) assay. This new method relied on the measurement of NADPH consumption at 340 nm by BM3-WT for palmitic acid. Leveraging this established technique, we explored the substrate specificity of BM3-WT and its homologs not only on palmitic acid but also on other structurally similar compounds, including 4-oxocrotonic acid. The results obtained from the established NADPH assay indicate that all tested enzymes displayed greater catalytic activity on 4-oxocrotonic acid in comparison to other substrates with similar structures. However, the impact of BM3-WT and its homologs on 4-oxocrotonic acid varied in terms of product specificity. Enzymes such as Poh, Trr and Bas-CYP D exhibited specificity in producing solely monohydroxylated products, while others tended to yield dehydroxylated and ketol metabolites.
Das Konzept Nudging bezieht sich auf die gezielte Anwendung von verhaltensökonomischen Prinzipien. Menschen sollen dazu angestoßen werden, Entscheidungen zu treffen, welche ihnen zugutekommen. Dabei werden Reize, sogenannte Nudges, gesetzt. Ein Ziel der vorliegenden Arbeit ist es zu beantworten, ob und wie effektiv das Konzept in der Gesundheitskommunikation genutzt wird. Ein weiteres Ziel ist die Identifikation von Risiken und Chancen des Ansatzes. Dazu wurden zunächst die Grundlagen der Verhaltensökonomik erläutert. So werden zwei kognitive Systeme unterschieden: Das automatische bzw. intuitive System sowie das rationale bzw. reflexive System. Menschen nutzen häufig das automatische System, um aufgrund von Erfahrungen und Emotionen Entscheidungen zu treffen. Dieses System ermöglicht eine schnelle Reaktion, ist aber anfällig für kognitive Verzerrungen und Urteilsheuristiken. Während kognitive Verzerrungen systematische Abweichungen von rationalen Entscheidungen bezeichnen, werden unter Urteilsheuristiken Faustregeln verstanden, welche auf vereinfachten Denkvorgängen beruhen. Nudges werden hinsichtlich dieser Erkenntnisse eingesetzt, indem die Denkmuster gezielt angesprochen werden. Im Bereich der Gesundheitskommunikation spielt die psychologische Reaktanz eine Rolle. Diese bezieht sich auf die menschliche Eigenschaft, die eigene Freiheit und Autonomie zu verteidigen, sobald diese eingeschränkt scheint. Demnach können Gesundheitsbotschaften nicht den gewünschten Effekt erzielen, sobald Menschen sich genötigt oder bevormundet fühlen. Forschungen zur Akzeptanz und Effektivität von Nudge-Instrumenten zeigen, dass die Maßnahmen eine moderate Wirkung haben, von der Zielgruppe akzeptiert werden und somit Vorteile gegenüber anderen Ansätzen wie Verboten und Vorschriften aufweisen. Innerhalb einer qualitativen Inhaltsanalyse von vier Gesundheitskampagnen wurden unterschiedliche Kampagnenbestandteile auf den Einsatz von vorher festgelegten Instrumenten, welche auf der Literatur beruhen, analysiert. Alle Instrumente der Überkategorien Ansprache, Einfachheit sowie Incentivierung konnten identifiziert werden, deren Instrumente somit zu den meist genutzten zählen. Ungenutztes Potenzial lässt sich bei der Anwendung der Instrumente Kurzfristige Vorteile, Verbindlichkeit und Standardoption ausmachen. Ein Risiko bei der Verwendung von Nudges in der Praxis stellt die teilweise ungenaue Definition des Ansatzes in der Forschung und damit eine fehlerhafte Implementierung der Maßnahmen dar. Das Nudging kann bei unsachgemäßer Anwendung den Vorwurf der Manipulation nach sich ziehen oder den gewünschten Effekt verfehlen. Abschließend wurde eine Gesundheitskampagne mit dem Titel Lebensgefühl konzipiert, die sich mit dem Thema Diabetes Typ 2 auseinandersetzt. Anhand dieses praktischen Teils wird die Umsetzung von Nudging in der Gesundheitskommunikation veranschaulicht.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
The primary objective of this thesis is to examine the lean accounting transformation, which involves applying lean management principles to the accounting domain. In recent years, various sectors, including manufacturing, healthcare, and services, have experienced success with lean management practices. Nevertheless, the implementation of lean accounting within financial management has not been as extensively explored. This research aims to bridge that gap by scrutinizing the benefits and potential drawbacks of adopting lean accounting practices in business operations.
This research uses a combination of qualitative techniques and an extensive literature review to better understand the present subject matter. By describing the ideas of lean management and standard accounting and highlighting the fundamental distinctions between the two systems, the literature study lays a theoretical framework. The case studies illustrate the benefits of adopting lean accounting processes with real-world examples of firms that have made the transition effectively.
In the quantitative analysis of lean accounting's impact, both financial and operational factors are examined extensively. The results indicate that companies embracing lean accounting practices experience significant improvements in productivity, cost reduction, and decisionmaking quality. By highlighting the potential gains to be made by incorporating lean techniques into accounting procedures, this study adds to the current body of information on lean management. The findings offer practical implications for accounting professionals, business leaders, and policymakers interested in leveraging lean accounting to drive organizational performance improvement. The thesis finishes with suggestions for further study in this area, lean accounting.
Empfehlungssysteme sind auf E-Commerce-Webseiten omnipräsent und unterstützen die Nutzer an bestimmten Touchpoints beim Onlineshopping, indem sie auf Produkte aufmerksam machen. In den meisten Anwendungsfällen werden Produkte empfohlen, die den Interessen der Nutzer entsprechen oder einen Warenkorb komplettieren sollen. Während klassische Empfehlungssysteme die Nutzer meistens zu Beginn oder zum Ende einer Produktannäherung erreichen, finden sie dazwischen selten Anwendung. Dabei könnten Empfehlungssysteme bereits in die Navigations-Journey der Nutzer integriert werden und so maßgeblich zur Produktauffindbarkeit beitragen. Trotz der Tatsache, dass Empfehlungssysteme maßgeblich zum Geschäftserfolg im Online-Handel beitragen, ist ihre Integration in die Navigation von E-Commerce-Plattformen noch wenig erforscht.
Ziel dieser Arbeit ist es daher zu ergründen, wie ein Empfehlungssystem in der lokalen Navigation von E-Commerce-Plattformen ausgestaltet sein sollte. Dabei soll der Prototyp eines Empfehlungssystems in der lokalen Navigation konzipiert werden, indem einerseits echte Warenkorbdaten einer E-Commerce-Plattform und andererseits Nutzerpräferenzen untersucht werden. Die Untersuchung umfasst die algorithmische Datenverarbeitung von Warenkorbdaten und die Durchführung einer quantitativen Befragung. Darüber hinaus wurde domänenspezifisches Wissen über die Verfahren, Algorithmen, Designkriterien und weitere Erfolgsfaktoren recherchiert.
Die Ergebnisse deuten darauf hin, dass die alleinige Verarbeitung von Warenkorbdaten nicht ausreichend für ein navigatorisches Empfehlungssystem ist, obwohl sich die Alternating Least Squares Matrixfaktorisierung als geeignetes Verfahren herausgestellt hat. Des Weiteren können Empfehlungssysteme in der lokalen Navigation sowohl einen positiven als auch einen negativen Einfluss auf die Nutzerzufriedenheit haben. Aus den Ergebnissen konnte ein detaillierter Prototyp konzipiert und vorgestellt werden. Bei diesem Prototyp handelt es sich um ein Session-basiertes Empfehlungssystem, das den Onlineshopping-Kontext der Nutzer ermitteln kann. Auf dieser Basis kann das System Produktkategorien in Echtzeit empfehlen, die zu diesem Kontext komplementär sind oder einen Social Proof abbilden.
As e-commerce platforms have grown in popularity, new difficulties have emerged, such as the growing use of bots—automated programs—to engage with e-commerce websites. Even though some algorithms are helpful, others are malicious and can seriously hurt e-commerce platforms by making fictitious purchases, posting fictitious evaluations, and gaining control of user accounts. Therefore, the development of more effective and precise bot identification systems is urgently needed to stop such actions. This thesis proposes a methodology for detecting bots in E-commerce using machine learning algorithms such as K-nearest neighbors, Decision Tree, Random Forest, Support Vector Machine, and Neural Network. The purpose of the research is to assess and contrast the output of these machine learning methods. The suggested approach will be based on data that is readily accessible to the public, and the study’s focus will be on the research of bots in e-commerce.
The purpose of the study is to provide an overview of bots in e-commerce, as well as information on the different kinds and traits of bots, as well as current research on bots in e-commerce and associated work on bot detection in e-commerce. The research also seeks to create a more precise and effective bot detection system as well as find critical factors in detecting bots in e-commerce.
This research is significant because it sheds light on the increasing issue of bots in e-commerce and the requirement for more effective bot detection systems. The suggested approach for using machine learning algorithms to identify bots in ecommerce can give e-commerce platforms a more precise and effective bot detection system to stop malicious bot activities. The study’s results can also be used to create a more effective bot detection system and pinpoint key elements in detecting bots in e-commerce.