Refine
Year of publication
Document Type
- Bachelor Thesis (590)
- Master's Thesis (200)
- Conference Proceeding (164)
- Contribution to a Periodical (164)
- Article (reviewed) (153)
- Working Paper (97)
- Periodical Part (50)
- Book (20)
- Report (14)
- Study Thesis (13)
Conference Type
- Konferenzartikel (94)
- Konferenzband (64)
- Konferenz-Abstract (3)
- Sonstiges (2)
- Konferenz-Poster (1)
Has Fulltext
- yes (1491) (remove)
Keywords
- Mikroelektronik (62)
- Marketing (38)
- COVID-19 (24)
- Social Media (24)
- IT-Sicherheit (23)
- E-Learning (22)
- Künstliche Intelligenz (17)
- Internet der Dinge (16)
- JavaScript (16)
- Biomechanik (15)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (386)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (326)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (213)
- Fakultät Medien (M) (ab 22.04.2021) (205)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (163)
- Fakultät Wirtschaft (W) (88)
- INES - Institut für nachhaltige Energiesysteme (66)
- Zentrale Einrichtungen (62)
- IfTI - Institute for Trade and Innovation (27)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (27)
Open Access
- Open Access (820)
- Closed Access (466)
- Closed (203)
- Bronze (155)
- Gold (62)
- Diamond (38)
- Hybrid (37)
- Grün (9)
Implementation and Evaluation of an Assisting Fuzzer Harness Generation Tool for AUTOSAR Code
(2024)
The digitalization in vehicles tends to add more connectivity such as over-the-air (OTA) updates. To achieve this digitization, each ECU (Electronic Control Unit) becomes smarter and needs to support more and more different externally available protocols such as TLS, which increases the attack surface for attackers. To ensure the security of a vehicle, fuzzing has proven to be an effective method to discover memory-related security vulnerabilities. Fuzzing the software run- ning on a ECU is not an easy task and requires a harness written by a human. The author needs a deep understanding of the specific service and protocol, which is time consuming. To reduce the time needed by a harness author, this thesis aims to develop FuzzAUTO, the first assistant harness generation tool targeting the AUTOSAR (AUTomotive Open System ARchitecture) BSW (Basic Software) to support manual harness generation.
The aim of this paper is to identify indicators at country level that could prove useful in improving the effectiveness of fraud detection in European Structural and Investment Funds. We analyse data for 454 funds, belonging to the period 2014-2020, from the 28 countries that were members of the European Union in 2014. Explanatory results suggest the convenience of tracking funds, especially in countries with higher GDP and higher transparency levels, and the lesser relevance of the number of irregularities for countries with higher GDP and those receiving larger funds. Fraud and fraud detection rates in individual funds vary significantly across states. Federal states, such as the Federal Republic of Germany, are comparatively successful in detecting fraud in EU funds.
Steroid hormones (SHs) are a rising concern due to their high bioactivity, ubiquitous nature, and prolonged existence as a micropollutants in water, they pose a potential risk to both human health and the environment, even at low concentrations. Estrogens, progesterone, and testosterone are the three important types of steroids essential for human development and maintaining multiorgan balance, are focus to this concern. These steroid hormones originate
from various sources, including human and livestock excretions, veterinary medications, agricultural runoff, and pharmaceuticals, contributing to their presence in the environment. According to the recommendation of WHO, the guidance value for estradiol (E2) is 1 ng/L. There are several methods been attempted to remove the SH micropollutant by conventional water and wastewater technologies which are still under research. Among the various methods, electrochemical membrane reactor (EMR) is one of the emerging technologies that can address the challenge of insufficient SHs removal from the aquatic environment by conventional treatment. The degradation of SHs can be significantly influenced by various factors when treated with EMR.
In this project, the removal of SH and the important mechanism for the removal using carbon nanotube CNT-EMR is studied and the efficiency of CNT-EMR in treating the SH micropollutant is identified. By varying different parameters this experiment is carried out with the (PES-CNTs) ultrafiltration membrane. The study is carried out depending upon the SH removal based on the limiting factor such as cell voltage, flux, temperature, concentration, and type of the SH.
Batteries typically consist of multiple individual cells connected in series. Here we demonstrate single-cell state of charge (SOC) and state of health (SOH) diagnosis in a 24 V class lithium-ion battery. To this goal, we introduce and apply a novel, highly efficient algorithm based on a voltage-controlled model (VCM). The battery, consisting of eight single cells, is cycled over a duration of five months under a simple cycling protocol between 20 % and 100 % SOC. The cell-to-cell standard deviations obtained with the novel algorithm were 1.25 SOC-% and 1.07 SOH-% at beginning of cycling. A cell-averaged capacity loss of 9.9 % after five months cycling was observed. While the accuracy of single-cell SOC estimation was limited (probably owed to the flat voltage characteristics of the lithium iron phosphate, LFP, chemistry investigated here), single-cell SOH estimation showed a high accuracy (2.09 SOH-% mean absolute error compared to laboratory reference tests). Because the algorithm does not require observers, filters, or neural networks, it is computationally very efficient (three seconds analysis time for the complete data set consisting of eight cells with approx. 780.000 measurement points per cell).
Globale Ereignisse politischen, wirtschaftlichen oder kulturellen Ursprungs führen dazu, dass Unternehmen sich gezwungen sehen zu handeln, um wettbewerbsfähig zu bleiben. In vielen Fällen wird dabei so vorgegangen, dass versteckte Preiserhöhungen vollzogen werden. Auch Unternehmen, die mit ihrem Angebot einen gesellschaftlichen Zusatznutzen erbringen, erhöhen die Preise, da nur so der verfolgte ökologische oder soziale Purpose erhalten werden kann, kommunizieren dies jedoch offen und erhöhen dadurch ihre Kundenloyalität. Dieses Vorgehen ist bislang jedoch überwiegend in den USA zu beobachten. Da das Thema Purpose auch in Deutschland immer höhere Relevanz erfährt, stellt sich die Frage der Übertragbarkeit. Die Forschungsfrage lautet deshalb: Inwiefern beeinflusst die Kommunikation von purpose-getriebenen Preissteigerungen das Markenimage von B2C-Unternehmen in Deutschland? Um der Forschungsfrage nachzugehen, wurde ein empirischer Forschungsansatz gewählt, der in Form einer quantitativen Studie umgesetzt wurde, die die Meinung der Studierendenschaft der Gen Z und Y der Hochschule Offenburg abbildet. Die Ergebnisse der Umfrage zeigten, dass die Glaubwürdigkeit und Akzeptanz von purpose-getriebenen Preiserhöhungen vom gegenwärtigen Markenimage bzw. dem übergeordneten Image einer Branche abhängen. Purpose wird eine hohe Bedeutung zugesprochen, die sich jedoch aufgrund der Preissensibilität der Zielgruppe nicht immer in der Markenwahl widerspiegelt. Dies verdeutlicht, dass Purpose das Potenzial besitzt, das Markenimage nachhaltig zu beeinflussen und zu prägen und die Zielgruppe der Gen Z und Y zukünftig an sich zu binden. Ferner wurde deutlich, dass bei der Umsetzung von Purpose bestimmte Kriterien verfolgt werden sollten, die bei der Kommunikation zu berücksichtigen sind, um eine authentische Wirkung zu erzielen.
In der Marketingstrategie von Event- und Club-Veranstaltern ist eine zielgerichtete Ansprache der Kundschaft unerlässlich, um eine nachhaltige Beziehung zur Zielgruppe aufzubauen und so den geschäftlichen Erfolg zu sichern. Während erhebliche Investitionen in herkömmliche Werbekanäle wie soziale Medien fließen, bleiben diese Plattformen oft ohne Garantie, dass die Werbemittel die relevanten Nutzer erreichen. Die White-Label-App beabsichtigt dieses Problem zu beheben, indem es Veranstaltern ermöglicht wird, eine engagierte Community direkt über die mobile Plattform aufzubauen und mit dieser zielgerichtet zu kommunizieren.
Das Kernziel der Bachelorarbeit ist die prototypische Entwicklung dieser Smartphone-App als individualisierbare und modulare White-Label-Lösung, die präzise auf die Bedürfnisse von Veranstaltern und deren Kunden zugeschnitten ist. Hierbei ist die zentrale Forschungsfrage: Wie kann eine modulare und individualisierbare White-Label-App effizient implementiert werden?
Zur Beantwortung dieser Frage werden auf Basis einer Wettbewerbsanalyse und der gründlichen Bewertung aktueller Best Practices im Bereich der App-Entwicklung verschiedene Aspekte untersucht. Hierzu zählen die Identifikation von möglichen Marktlücken und -chancen, die Eignung verschiedener Technologien und Entwurfsmuster, die Überwindung spezifischer Herausforderungen bei der Implementierung einer White-Label-App und die performante Integration der API.
Um einen praxisorientierten Ansatz zu gewährleisten, werden darüber hinaus verschiedene Kernfunktionalitäten der App beispielhaft implementiert. Dazu gehören Features wie eine Eventübersicht mit Informationen zu Veranstaltungen und ein Ticketingsystem mit Reservierungsmöglichkeiten.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
An in-depth study of U-net for seismic data conditioning: Multiple removal by moveout discrimination
(2024)
Seismic processing often involves suppressing multiples that are an inherent component of collected seismic data. Elaborate multiple prediction and subtraction schemes such as surface-related multiple removal have become standard in industry workflows. In cases of limited spatial sampling, low signal-to-noise ratio, or conservative subtraction of the predicted multiples, the processed data frequently suffer from residual multiples. To tackle these artifacts in the postmigration domain, practitioners often rely on Radon transform-based algorithms. However, such traditional approaches are both time-consuming and parameter dependent, making them relatively complex. In this work, we present a deep learning-based alternative that provides competitive results, while reducing the complexity of its usage, and, hence simplifying its applicability. Our proposed model demonstrates excellent performance when applied to complex field data, despite it being exclusively trained on synthetic data. Furthermore, extensive experiments show that our method can preserve the inherent characteristics of the data, avoiding undesired oversmoothed results, while removing the multiples from seismic offset or angle gathers. Finally, we conduct an in-depth analysis of the model, where we pinpoint the effects of the main hyperparameters on real data inference, and we probabilistically assess its performance from a Bayesian perspective. In this study, we put particular emphasis on helping the user reveal the inner workings of the neural network and attempt to unbox the model.
A novel peptidyl-lys metalloendopeptidase (Tc-LysN) from Tramates coccinea was recombinantly expressed in Komagataella phaffii using the native pro-protein sequence. The peptidase was secreted into the culture broth as zymogen (~38 kDa) and mature enzyme (~19.8 kDa) simultaneously. The mature Tc-LysN was purified to homogeneity with a single step anion-exchange chromatography at pH 7.2. N-terminal sequencing using TMTpro Zero and mass spectrometry of the mature Tc-LysN indicated that the pro-peptide was cleaved between the amino acid positions 184 and 185 at the Kex2 cleavage site present in the native pro-protein sequence. The pH optimum of Tc-LysN was determined to be 5.0 while it maintained ≥60% activity between pH values 4.5—7.5 and ≥30% activity between pH values 8.5—10.0, indicating its broad applicability. The temperature maximum of Tc-LysN was determined to be 60 °C. After 18 h of incubation at 80 °C, Tc-LysN still retained ~20% activity. Organic solvents such as methanol and acetonitrile, at concentrations as high as 40% (v/v), were found to enhance Tc-LysN’s activity up to ~100% and ~50%, respectively. Tc-LysN’s thermostability, ability to withstand up to 8 M urea, tolerance to high concentrations of organic solvents, and an acidic pH optimum make it a viable candidate to be employed in proteomics workflows in which alkaline conditions might pose a challenge. The nano-LC-MS/MS analysis revealed bovine serum albumin (BSA)’s sequence coverage of 84% using Tc-LysN which was comparable to the sequence coverage of 90% by trypsin peptides.
The growing threat posed by multidrug-resistant (MDR) pathogens, such as Klebsiella pneumoniae (Kp), represents a significant challenge in modern medicine. Traditional antibiotic therapies are often ineffective against these pathogens, leading to high mortality rates. MDR Kp infections pose a novel challenge in military medical contexts, particularly in Medical Biodefense, as they can be deliberately spread, leading to resource-intensive care in military centres. Recognizing this issue, the European Defence Agency initiated a prioritised research project in 2023 (EDF Resilience PHAGE- SGA 2023). To address this challenge, the Bundeswehr Institute of Microbiology (IMB) leads BMBF- (Federal Ministry of Education and Research) and EU-funded projects on the use of bacteriophages as adjuvant therapy alongside antibiotics. Since 2017, the IMB has isolated and characterised Kp phages, collecting over 600 isolates and optimizing their production for therapy, in compliance with the EMA (European Medicine Agency) guidelines. This involves in vitro phage genome packaging to minimize endotoxin load, reduce manufacturing costs, and shorten production times. The goal of this work was to establish MinION sequencing (Oxford Nanopore Technology) as a quick and reliable way for initial identification and characterisation of phage genomes. Especially as a quick screening method for isolated on Kp, prior to more precise but also more expensive and time consuming sequencing methods like Illumina. This characterisation is crucial for developing a personalized pipeline aimed at producing magistral or Good Manufacturing Practice (GMP) quality medicinal phage solutions tailored individually for each patient. DNA extraction methods were compared to identify suitable input DNA for sequencing purposes. Additionally, the quality of this DNA was as- sessed to determine its suitability for in vitro phage packaging, which was successfully done achieving a phage titer of 103, confirming that the DNA used for MinION sequencing could indeed be used for acellular packaging. The created genomes were annotated and compared with Illumina sequencing, revealing high similarity in all five individually tested cases. Between the generated sequences only a 4% maximal percentual difference in genome size was observed, while simultaneously showing high similarity in the actual sequence. Throughout the course of this study, a total of 645.15 GB of sequencing data were generated. In total, 38 phages were successfully characterised, with 21 phage genomes assembled and annotated, and saved in the IMB database.
Entwicklung eines unabhängigen Systems zur Verstellung schiebergesteuerter Werkzeuge im Prozess
(2024)
Die Aufgabenstellung der Arbeit beinhaltete das Ausarbeiten eines unabhängigen Antriebssystems für Werkzeuge mit verstellbaren Schneiden. Hierbei bestand der Antrieb der Werkzeuge bisher aus einem rein mechanischen Anstriebsflansch. Dieser hat durch eine Drehspindel die rotatorische Bewegung der Maschinenspindel zu einer axialen Bewegung der Zugstange umgewandelt. Da die mechanische Drehspindel nicht in jeder Maschinenspindel vorhanden war, konnten die Werkzeuge von LMT Kieninger nur beschränkt eingesetzt werden. Aus diesem Grund sollte ein Antriebssystem entwickelt werden, welches auf jedem Bearbeitungszentrum unabhängig von der Maschinenspindeltechnologie eingesetzt werden konnte.
Für die Entwicklung des unabhängigen Antriebsflansches wurde zunächst eine Marktanalyse durchgeführt. Diese vergleichte bestehende Lösungsansätze auf dem Markt miteinander und untersuchte, welche davon für ein eigenes Lösungskonzept infrage kam. Hierbei wurde insbesondere der Antrieb, der die Bewegung erzeugen sollte, die Übergabe des Steuersignals und die Energieversorgung betrachtet. Ein vielversprechendes Lösungskonzept, das den vorliegenden Anforderungen entsprach, war eine elektrische Antriebsvariante mit einer Akkueinheit und einer Funksteuerung.
Um die elektronischen Komponenten in den bestehenden Antriebsflansch zu integrieren, mussten die Prozessparameter bestimmt werden. Dafür wurde ein Werkzeug als Referenz verwendet, das zum Ausspindeln der Laufflächen von Zylinderbuchsen verwendet wurde. In diesem Werkzeug befanden sich unterschiedliche Bauteile, welche den Mechanismus der Schneidenverschleißkompensation ermöglichten und die Drehbewegung des Antriebsflansches in den Verstellweg der Schneiden umsetzte. Unter Berücksichtigung der Bauteile sowie der vorhandenen Reibung und Verluste ergab sich ein Drehmoment, welches benötigt wurde, um die Schneiden zu verstellen. Nach der rechnerischen Ermittlung des benötigten Drehmoments konnte ein Kompaktantrieb von Maxon vorgeschlagen werden. Dies erfolgte unter Berücksichtigung der Anforderungen an den verfügbaren Bauraum, die Energieversorgung und die Akkueinheit. Dieser Kompaktantrieb bestand aus einem Motor, einem Planetenradgetriebe, einem Hall-Sensor zur Positionsbestimmung sowie einer Steuereinheit.
Die Konstruktion mit den einzelnen Bauteilen konnte nun erstellt werden. Der Konstruktionsprozess wurde durch die schrittweise und aufbauende Integration der Lösungen für die verschiedenen Funktionen des Bauteils systematisch und methodisch umgesetzt. Dabei erfolgte die Umsetzung in einem Modell, wobei jeder Schritt auf den vorherigen Überlegungen und Entscheidungen basierte. Der erste Schritt bestand darin, den Kompaktantrieb, der die Hauptfunktion darstellt, in den Grundkörper mit der HSK-Aufnahme zu integrieren. Anschließend wurden die Nebenfunktionen wie die axiale Lagerung, die Kühlmitteldurchführung und die Anpassung der Flanschgeometrie zur Aufnahme des Werkzeuges implementiert. Im nächsten Schritt wurden die Steuerung und die Akkueinheit als Blackbox positioniert sowie die Kabelkanäle in den Grundkörper konstruiert.
Abschließend wurden für die eigens entwickelten Bauteile technische Zeichnungen erstellt. Auf ihnen wurden alle relevanten technischen Merkmale hinterlegt, die für die Fertigung der Bauteile benötigt wurden. Hierzu gehörten beispielsweise Angaben zum Werkstoff, Toleranzen, Passungen, Oberflächenangaben sowie Form- und Lagetoleranzen. Zudem wurde eine Baugruppenzeichnung erstellt, die die Anordnung der einzelnen Bauteile mit ihrer Stückzahl und Positionsnummer in einer Stückliste klar und deutlich erkennbar machte.
Damit wurde die Neuentwicklung eines unabhängigen Antriebsflansches abgeschlossen und bot einen Einblick in die mögliche Integration eines mechatronischen Antriebs in den Antriebsflansch.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
Photovoltaic-heat pump (PV-HP) combinations with battery and energy management systems are becoming increasingly popular due to their ability to increase the autarchy and utilization of self-generated PV electricity. This trend is driven by the ongoing electrification of the heating sector and the growing disparity between growing electricity costs and reducing feed-in tariffs in Germany. Smart control strategies can be employed to control and optimize the heat pump operation to achieve higher self-consumption of PV electricity. This work presents the evaluation results of a smart-grid ready controlled PV-HP-battery system in a single-family household in Germany, using 1-minute-high-resolution field measurement data. Within 12 months evaluation period, a self-consumption of 43% was determined. The solar fraction of the HP amounts to 36%, enabled also due to higher set temperatures for space heating and domestic hot water production. Accordingly, the SPF decreases by 4.0% the space heating and by 5.7% in the domestic hot water mode. The combined seasonal performance factor for the heat pump system increases from 4.2 to 6.7, when only considering the electricity taken from the grid and disregarding the locally generated electricity supplied from photovoltaic and battery units.
"Ad fontes!"
Francesco Petrarca (1301–1374)
In the beginning, there was an idea: the reconstruction of the first "Iron Hand" of the Franconian imperial knight Götz von Berlichingen (1480–1562). We found that with this historical prosthesis, simple actions for daily use, such as holding a wine glass, a mobile phone, a bicycle handlebar grip, a horse’s reins, or some grapes, are possible without effort. Controlling this passive artificial hand, however, is based on the help of a healthy second hand.
In einer digitalisierten Welt wird das Smartphone zunehmend multifunktional eingesetzt. Auch Anwendungen für eine eindeutige Identifikation wie bei Banking-Apps sind bereits verfügbar, weshalb das Smartphone auch als Ersatz des klassischen Schlüssels genutzt werden kann.
Ziel der Thesis ist es, genau das unter Beweis zu stellen. Im Rahmen der Arbeit soll eine mobile Applikation in Android Studio für ein Google Pixel 7 Pro entwickelt werden, die mit einem Türschloss interagieren und dieses ansteuern kann. Eine Besonderheit dieses Systems besteht in der präzisen Positionsbestimmung mithilfe der Ultra-Wideband Technologie. Diese wird genutzt, um die Position des Smartphones zum Türschloss genau zu bestimmen und festzulegen, ab welcher Position das Schloss auf die Interaktion des Smartphones reagieren soll.
Die im Rahmen der Thesis entwickelte App hat das Ziel erfüllt. Sie fungiert als Demo-App für ein funktionierendes Tür-System, bei dem die Positionsbestimmung mit Ultra-Wideband umgesetzt wurde. Ebenfalls wurde der Datenaustausch mit mehreren Sicherheitsmechanismen wie einem AES-Algorithmus, einem Running Counter oder einem Hash-Wert umgesetzt.
Dennoch muss erwähnt werden, dass das Ziel, den Datenaustausch ebenfalls mit Ultra-Wideband zu implementieren, nicht gelungen ist. Hierfür wird in der bestehenden App Bluetooth Low Energy genutzt.
Im Laufe der Arbeit hat sich gezeigt, dass Ultra-Wideband im Zusammenhang mit dem angedachten Tür-System zur Positionsbestimmung geeignet ist. Es konnte eine hohe Präzision mit einer Aktualisierungsrate von mehreren Ranging-Ergebnissen pro Sekunde erreicht werden.
Allerdings ist ein abgeschlossenes Konzept, das ausschließlich auf Ultra-Wideband basiert, bislang nicht möglich. Ebenfalls erschweren fehlende Standards die Implementierung. Hier mangelt es an einer Vereinheitlichung.
Auch besteht Potenzial zur Entwicklung von Konzepten für die Umsetzung des Datenaustauschs über Ultra-Wideband in mobilen Applikationen. Somit wäre es möglich, Ultra-Wideband als alleinige Technologie für solche Systeme zu nutzen.
Abschließend zeigt diese Arbeit jedoch, dass Positionsbestimmung mit Ultra-Wideband im in der Thesis untersuchten Konzept möglich ist und die Technologie für eine Indoorpositionierung in Kombination mit einem smarten Türschloss genutzt werden kann. Die herausragende Präzision in Echtzeit kann in diesem Prototyp verdeutlicht werden und als ein funktionierendes System als Grundlage für zukünftige Arbeiten genutzt werden.
Die Beschleunigungsleistung ist ein großer limitierender Faktor beim Sprinten. Es stellt sich die Frage, mit welcher Technik diese verbessert werden kann.
Das Ziel der vorliegenden Arbeit ist es, zu klären, ob die Unterschenkelkinematik einen Einfluss auf die Beschleunigungsleistung beim Sprintstart hat. Dafür wurden die Annahmen von Alt et al. (2022) über Schlüsselpositionen des Unterschenkels herangezogen und überprüft. Die gestellte Forschungsfrage lautet: Können die Annahmen von Alt et al. (2022) in die Praxis übertragen und angewendet werden?
Um die Forschungsfrage zu beantworten, wurde jeweils der erste Schritt nach dem Sprintstart aus einem Startblock analysiert. Hierfür wurden ein markerbasiertes 3D Motion Capture System und im Boden integrierte Kraftmessplatten verwendet. Insgesamt 30 Proband:innen haben jeweils sechs Starts ausgeführt. Die Auswertung wurde mit Hilfe von MATLAB Skripten durchgeführt. Mit linearen und quadratischen Regressionsberechnungen wurden die Zusammenhänge zwischen den Schlüsselpositionen des Unterschenkels und der Beschleunigungsleistung analysiert.
Die Ergebnisse zeigen, dass keine allgemeingültigen Aussagen über eine erfolgreiche Unterschenkelkinematik getroffen werden können. Werden die Proband:innen aber individuell betrachtet, ist teilweise zu erkennen, dass die Beschleunigungsleistung mit der Unterschenkelkinematik zusammenhängt.
Weiterführende Forschung in diesem Bereich könnte individueller und auf Trainingsanweisungen mit Technikverbesserung ausgerichtet sein.
Entwicklung eines Ansatzes zur Validierung von Beckenmodellen in Anlehnung an die ASME V&V-40
(2024)
Die Relevanz von In-silico Studien in der Medizin gewinnt für Ingenieure, Mediziner und Wissenschaftler stetig an Wert. In-silico Studien helfen dabei, kostspielige und zeitaufwendige Kadaverstudien sowie langjährige Ergebnisstudien einzugrenzen. Zum Thema Becken herrschen schon einige Berechnungsmodelle vor, jedoch nicht in dieser Ausführung und in Kombination mit einem Abgleich zu einer Kadaverstudie mit den gleichen Randbedingungen. Ein sehr wichtiger weiterer Bestandteil ist die Verifizierung und Validierung eines solchen Rechenmodells. Da kein Versuch im eigentlichen Raum, dem Körper, sondern in einer Simulationsumgebung stattfindet, muss das Modell verifiziert und validiert werden, um auf gewisse Weise die Glaubwürdigkeit des Modells darzulegen. In dieser Arbeit wurden verschiedene Ansätze zur bestmöglichen Abbildung der Kadaverstudie entwickelt. Die beste Übereinstimmung kam mit dem Modellansatz 3 zustande. Der Modellansatz 3 berücksichtigt die Unterteilung von der Spongiosa zur Kortikalis, die Lendenwirbel L3-L5, das Sacrum und die Ilia zuzüglich der Bandscheiben und der Symphysis pubica mit einem hyperelastischen Materialmodell, alle relevanten Ligamente sowie die verschiedenen Materialeigenschaften für jede einzelne Kortikalis, Spongiosa und der Weichteile aus der Kadaverstudie. Definiert wurde der Modellansatz 3 über die kinematisch nähere Beschreibung der Z-Achsen Sperrung, einer veränderten Krafteinleitung sowie einer Feinjustierung der Ligamenten Steifigkeiten. Aus diesem Modellansatz ging vor allem eine physiologische Kinematik wie auch eine überaus gute Konvergenz an den Markern der Anterior superior iliac spine rechts und links, Sacrum und L5 hervor. Die Verifizierung und Validierung des Rechenmodells wurde anhand der ASME V&V-40 geschaffen. Die dafür entscheidende Question of Interest lautet: Liegen die Stabilität, Belastungen und Verformungen von patientenspezifischen Frakturversorgungen unter standardisierten Lasten? Daraus ergaben sich drei Context of Use, von denen der erste (Context of Use 1: Deformation) im Fokus dieser Arbeit lag. Die Entscheidungskonsequenz sowie das Modellrisiko für den Context of Use und das Modell wurde als Low/Medium eingestuft. Mit Hilfe dieser Einstufung konnten die Model Credibility Factor Goals für das Modell definiert werden. Diese gaben schlussendlich den Grad der Validierung für das bestehende Modell vor.
Diese Arbeit widmet sich dem Anleger der aktuellen Maschinengeneration der HEIDELBERG Speedmaster XL 106, diese erreicht eine maximale Druckgeschwindigkeit von 21 000 bedruckten Bögen pro Stunde (Bg/h) und stößt bei einer Bedruckstoffdicke von 0,6 mm an ihre technischen Grenzen. Ein vollautomatisierter Auto-Non-Stopp-Wechsel (ANS-Wechsel) zur Gewährleistung einer kontinuierlichen Bedruckstoffzufuhr an der Druckmaschine ist bei maximaler Druckgeschwindigkeit von 21 000 Bg/h oberhalb dieser Bedruckstoffdicke nicht mehr möglich. Es besteht die Forderung nach höheren Bedruckstoffdicken bei unverändert maximaler Druckgeschwindigkeit von 21 000 Bg/h und gleichzeitiger Gewährleistung eines sicheren ANS-Wechselvorgangs.
Im Zuge dieser Arbeit wird durch eine Analyse zahlreicher Kundenmaschinen eine präzise Zielsetzung definiert. Eine eingehende Untersuchung des vollautomatischen ANS-Wechselvorgangs zur kontinuierlichen Bedruckstoffversorgung der Druckmaschine folgt. Dieser Wechselprozess wird im Laufe der Arbeit in seine Einflussfaktoren aufgeschlüsselt, die anschließend schrittweise und methodisch bezüglich der Zielsetzung definiert werden. Dabei wird der technische Grenzbereich des aktuellen Systems identifiziert und erweitert. Als Ergebnis gilt es, die betroffenen Komponenten erneut auf ihre Auslegung zu überprüfen, da sie aufgrund dieses erweiterten Grenzbereichs möglicherweise höheren Belastungen ausgesetzt sind. Die Untersuchung zeigt, dass es Situationen gibt, in denen sicherheitsrelevante Komponenten unzulässig stark beansprucht werden. Daher werden Lösungskonzepte vorgestellt, um die geforderten technischen Grenzen und sicherheitstechnischen Anforderungen zu erfüllen.
Das Ziel der vorliegenden Arbeit ist es, Strategien und Ratschläge für die Kosmetikindustrie zu erarbeiten, die es ermöglichen, Influencer Marketing erfolgreich in ihre Marketingkommunikationsstrategie zu integrieren, um die Generation Z effektiv anzusprechen. Dazu werden folgende Leitfragen in dieser Arbeit behandelt:
Was ist Influencer-Marketing und welche Herausforderungen, Chancen und Risiken sind mit Influencer-Marketing verbunden?
Welche Bedeutung hat die Generation Z als Zielgruppe?
Wie gestaltet sich das Kaufverhalten der Generation Z und wie kann es beeinflusst werden?
Welche erfolgreichen Beispiele und erfolgsversprechenden Aspekte gibt es im Influencer-Marketing?
Wie kann Influencer-Marketing in die Marketingkommunikationsstrategie der Kosmetikbranche integriert werden, um die Generation Z erfolgreich anzusprechen?
Basierend auf den Erkenntnissen einer quantitativen Online-Befragung, die an der Medienfakultät der Hochschule Offenburg durchgeführt wurde, lassen sich Implikationen für Unternehmen in der Kosmetikindustrie ableiten. Die Forschungsergebnisse bieten Ansätze dafür, wie die Kosmetikindustrie die Social-Media-Plattformen Instagram und TikTok nutzen kann, um die Generation Z effektiv zu erreichen und ihre Kaufentscheidungen zu beeinflussen.
Die Videospielindustrie liefert zahlreiche Spiele, die auf literarischen Werken basieren. Im Vergleich zu anderen Medien werden Videospiele in der Umsetzung von literarischen Werken bisher nur unzureichend erforscht. Daher ist es sinnvoll zu untersuchen, wie Videospiele literarische Vorlagen umsetzen.
Ziel der Arbeit ist es, die verschiedenen Möglichkeiten der Umsetzung literarischer Werke in Videospiele zu ermitteln. Die Forschungsfrage lautet dabei: "Welche verschiedenen Ansätze gibt es, literarische Vorlagen in Videospiele umzusetzen?
Um diese Frage zu beantworten, wurde eine Fallstudie zu vier verschiedenen Videospielen, die auf literarischen Vorlagen basieren, durchgeführt. Dazu wurde eine Kriterienliste mit insgesamt vier Kriterien untersucht, analysiert und bewertet. Die Kriterien beziehen sich hierbei auf das Storytelling, das Worldbuilding, das Character Design und die Game Mechanics in Bezug auf die literarische Vorlage. Aus den einzelnen Ergebnissen der Kriterien wurden anschließend die Ergebnisse des jeweiligen Spiels ermittelt.
Die Ergebnisse der Fallstudie zeigen, dass drei verschiedene Ansätze zur Umsetzung vorliegen. Es handelt sich um Neuinterpretation, um eine Mischform aus Interpretation und Adaption sowie um eine grundlegende Adaption.
Um weitere Erkenntnisse über die verschiedenen Ansätze und mögliche Unterschiede zu erhalten, bedarf es weiterer Forschungen mit anderen auf literarischen Werken basierenden Videospielen.
Diese Arbeit befasst sich mit dem Thema der sogenannten „Advanced-Spike-Technology“. Dabei wird ein fortschrittliches Vorfußdämpfungselement betrachtet, dessen Kompressionssteifigkeit variiert wird. Die Technik soll die Sprint-Spikes maßgeblich verbessern. Die Arbeit untersucht, ob die Variation der Kompressionssteifig-keit der Sprint-Spikes einen Einfluss auf die sportliche Leistungsfähigkeit beim Sprinten hat. Es werden drei Prototypen von Adidas getestet, die jeweils unterschiedliche Steifigkeiten im Vorfußbereich aufweisen (hart, mittel und weich). Das Ziel besteht darin, die Auswirkungen der Variation der Kompressionssteifigkeit auf den Start bis 10 Meter und den Sprint auf etwa 50 bis 60 Meter zu untersuchen. Dabei werden die Geschwindigkeit und die Beschleunigung des Körperschwerpunktes in Matlab R2023b berechnet. Anhand der Ergebnisse wird die Fragestellung beantwortet. Zu Beginn werden folgende Hypothesen aufgestellt: Die Variation der Kompressionssteifigkeit hat keinen signifikanten Einfluss auf die sportliche Leistungsfähigkeit. Allerdings können individuelle Präferenzen der Sportler*innen in Bezug auf die Steifigkeit der Spikes berücksichtigt werden.
Die Untersuchung wird am Advanced Motion Lab in Offenburg (AMLO) der Hochschule Offenburg durchgeführt. Die Messung erfolgt auf einer Tartanbahn, wobei Kraftmessplatten im Bodenbelag integriert sind, um die Bodenreaktionskräfte beim Fußaussatz zu messen. Zusätzlich werden acht High-Speed-Videokameras eingesetzt, um die Sprintbewegung mittels markerlosem 3D-Motion-Capturing aufzuzeichnen. Es werden 30 Proband*innen getestet, davon 20 männliche und 10 weibliche Teilnehmer*innen, die eine saisonale persönliche Bestleistung von 12,5 Sekunden beziehungsweise 13,5 Sekunden über 100 Meter besitzen. Außerdem dürfen die Proband*innen in den letzten sechs Monaten keine kardiovaskulären Einschränkungen oder Verletzungen aufgewiesen haben. Nach Unterzeichnung der Einverständniserklärung und einem kurzen individuellen Warm-up wird die Kalibrierung der verwendeten Software beziehungsweise Messgeräte durchgeführt. Anschließend beginnt die eigentliche Messung. Pro Person werden jeweils mindestens zwei gültige Starts und ein gültiger maximaler Sprint pro Schuhbedingung durchgeführt. Die Pausengestaltung zwischen den einzelnen Messungen wird individuell gewählt, um Ermüdung zu vermeiden. Nach der Durchführung erfolgt die Auswertung und Verarbeitung der Daten durch das Programm Theia Markerless.
Zu Beginn wird die Berechnung in Matlab realisiert. Der erste allgemeine Schritt in der Berechnung des Startes und Sprints ist identisch. Die verarbeiteten Daten aus Theia werden unter Einsatz einer Funktion eingelesen. Diese Funktion durchläuft eine Ordnerstruktur, die zuvor manuell erstellt werden muss und die die einzelnen Daten der Proband*innen beinhaltet.
Um den Start berechnen zu können, müssen zunächst die Daten der vertikalen Bodenreaktionskraft umgerechnet werden. Daraufhin folgt eine Filterung der vertikalen Bodenreaktionskraft mit einer Schwelle von -3 Newton, da um die Nulllinie ein Rauschen vorliegen kann. Die Daten unterhalb dieser Schwelle entsprechen denen des Fußaufsatzes der Kraftmessplatte. Im Anschluss werden die Indizes unterhalb der Schwelle identifiziert. Auch die Daten des Körperschwerpunktes müssen gefiltert werden, da ungültige Datenauswertungen in Theia für den Wert des Körperschwerpunktes -999999 annehmen. Um diese Daten zu eliminieren, wird eine Schwelle von -100 eingeführt. Daraufhin folgt die Zuordnung der Indizes der Bodenreaktionskraft zu den Werten des Körperschwerpunktes und die Extraktion der Daten des Körperschwerpunktes. Im nächsten Schritt werden die Geschwindigkeit und die Beschleunigung anhand der internen Funktion „gradient“ berechnet. Weiterführend folgt die Berechnung der minimalen, mittleren und maximalen Werte der Geschwindigkeit und Beschleunigung. Letztendlich werden die Parameter als Excel-Datei exportiert, um eine statistische Auswertung durchzuführen.
Der erste Schritt zur Berechnung des maximalen Sprints besteht darin, den Körperschwerpunkt bei der Startfilterung zu identifizieren. Hierbei wird erneut die Schwelle von -100 verwendet und es werden die lokalen Maxima (Höhepunkte) in der Sagittalebene des Körperschwerpunkts identifiziert. Das Ziel ist es, die Daten zwischen zwei Maxima zu extrahieren, was genau einem Schritt entspricht. Es wird eine Mindestsuchhöhe für die Maxima festgelegt. Der Code unterscheidet zwischen den Fällen, in denen ein, zwei, drei oder vier und mehr Maxima gefunden werden. Des Weiteren werden verschiedene Abfragen und Unterscheidungen durchgeführt, um die beiden besten Maxima zu ermitteln. Danach werden die Indizes im Intervall von Maxima zu Maxima identifiziert und dem Körperschwerpunkt zugeordnet. Im Folgenden werden die Geschwindigkeitsberechnungen mithilfe der Funktion „gradient“ sowie die minimalen, mittleren und maximalen Geschwindigkeiten dargestellt. Abschließend erfolgt der Export der Parameter für die statistische Auswertung.
Nachfolgend wird die Leistungsfähigkeit der erstellten Programme in Matlab manuell überprüft. Beim Start und Sprint ergibt sich eine Genauigkeit von 98,89 und 96,66 %. Dies ermöglicht eine präzise statistische Auswertung, die im Programm „Jasp“ durchgeführt wird. Es wird eine einfaktorielle Varianzanalyse (ANOVA) mit Messwiederholung angewendet, wobei einige Voraussetzungen erfüllt sein müssen. Es lässt sich feststellen, dass die Variation der Kompressionssteifigkeit keinen signifikanten Einfluss auf die Geschwindigkeit oder Beschleunigung hat. Beim maximalen Sprint ist der Einfluss größer als beim Start, jedoch nicht signifikant. Diese Ergebnisse bestätigen die Hypothese.
Organized by the Fraunhofer Additive Manufacturing Alliance, the bi-annual Direct Digital Manufacturing Conference brings together researchers, educators and practitioners from around the world. The conference covers the entire range of topics in additive manufacturing, starting with methodologies, design and simulation, right up to more application-specific topics, e.g. from the realm of medical engineering and electronics.
In Deutschland wird zur Bewertung von KWK-Anlagen die Stromgutschriftmethode angewendet. Dies ist die Standardmethode dieses Arbeitsblattes und der DIN V 18599-1. Die vorliegende Fassung der FW 309-1 ist wie seine früheren Fassungen als Anwendungs- und Auslegungshilfe zu den geltenden Normen und Gesetzen konzipiert, da diese Dokumente Regelungslücken aufweisen. Das Bilanzierungsprinzip, die meisten Primärenergiefaktoren und die KWK-Bewertungsmethode wurden beibehalten.
Änderung gegenüber der Fassung 2021:
Anhang A, Tabelle A.3: In der Neufassung des Gebäudeenergiegesetzes ab dem 1.1.2023 wird ein neuer Primärenergiefaktor für netzbezogenen Strom von 1,2 für Großwärmepumpen festgelegt. Diese Festlegung wird in dieses Dokument übernommen.
Diese Arbeit befasst sich mit der Entwicklung eines umfassenden Konzepts zur Umsetzung des Lieferkettensorgfaltspflichtengesetzes (LkSG), welches ab dem 01.01.2024 für Unternehmen mit mehr als 1.000 Beschäftigten in Kraft tritt.
Die Bachelorarbeit ist in zwei Teile aufgebaut: zum einen den Theorieteil, der die Lieferkette in einem Verkehrsunternehmen und das Lieferkettensorgfaltspflichtengesetz umfasst, um eine Wissensbasis zu schaffen und zum anderen den Hauptteil, bestehend aus der Konzeptionierung. Da das Gesetz bereits im Jahr 2023 für große Unternehmen mit mehr als 3.000 Beschäftigten in Kraft trat, stehen bereits zahlreiche Systeme zur Unterstützung der Umsetzung zur Verfügung. Im Verlauf der Arbeit wurde eine Marktrecherche durchgeführt, bei der die geeignetste Softwarelösung für SWEG identifiziert wird. Um diese Untersuchung effektiv durchzuführen, wurden zwei Softwareauswahl-Tools entwickelt, die bei der Analyse und Bewertung helfen. Zusätzlich zum Software-Lösungsansatz wurde ein alternativer Lösungsansatz erarbeitet, der die eigenständige Handlung im Unternehmen vorsieht. Diese beiden Lösungsansätze werden zum Schluss verglichen, um die Geschäftsführung bei der Entscheidung, welche Version sie schließlich verwenden möchte, zu unterstützen.
Das erarbeitete Konzept bildet auch die Grundlage für die zukünftige Entwicklung und Umsetzung von Gesetzen und Richtlinien im Bereich Menschenrechte und Umweltaspekte. Für die Zukunft werden weitere Gesetze in Kraft treten, beispielsweise die kommende EU-Richtlinie.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.
This study investigates the impact of global payroll outsourcing on organizational efficiency and cost reduction based on the analysis of diverse implications stemming from thirty one (31) survey results. The findings reveal multifaceted challenges and benefitsassociated with outsourcing global payroll processing.
The research also unveils the most benefits of global payroll outsourcing. Notably, there's a consensus on the reduction in time-to-process payroll, cost per payroll processed, and improved payroll accuracy rate. Outsourcing streamlines processes, enhances operational efficiency, and contributes to faster, more accurate financial reporting.
Despite these benefits and challenges, statistical analysis reveals weak correlations between outsourcing global payroll and cost reduction or improved efficiency in various parameters, indicating a lack of a significant relationship. Consequently, the results, suggest no substantial correlation between global payroll outsourcing and enhanced efficiency or cost reduction based on this study's data.
Vorhofflimmern ist die häufigste tachykarde Herzrhythmusstörung weltweit. Dabei verliert das Herz seinen normofrequenten Sinusrhythmus und schlägt nicht mehr regelmäßig, sondern zu schnell und unregelmäßig. Vorhofflimmern ist normalerweise keine lebensbedrohliche Herzrhythmusstörung, aber es kann zu einem Schlaganfall führen. Die Ursache dieser Herzrhythmusstörung sind die Kreisende bzw. die fokalen Erregungen im linken Atrium, die hauptsächliche aus einer oder mehreren Pulmonalvenen kommen. Die übliche Therapieverfahren des Vorhofflimmerns ist die Pulmonalvenenisolation.
Diese Bachelorthesis beschäftigt sich daher mit der Modellierung unterschiedlicher linksatrialer Fokus-Modelle und intrakardialer Elektrodenkatheter für die Diagnostik und Terminierung von Vorhofflimmern mittels Pulmonalvenenisolation im Offenburger Herzrhythmusmodell nach Schalk, Krämer und Benke, welches in CST
Studio Suite realisiert wurde.
Zu Beginn wurden die verschiedenen linksatrialen fokalen Flimmerquellen modelliert und daraufhin simuliert. Hierbei wurde jeweils eine Simulation mit linksatrialen fokalen Flimmerquellen, die aus einzelnen, dualen oder allen vier Pulmonalvenen kommen, durchgeführt. Es wurde ebenfalls eine weitere Simulation mit Biosignalen (aus der Realität) erstellt. Mit diesen Simulationen konnte nun der elektrische Erregungsablauf sichtbar gemacht werden. Daraufhin wurden die Katheter für die Diagnostik und für die Pulmonalvenenisolation modelliert und in das bestehende Offenburger Herzrhythmusmodell integriert. Bei den Diagnostik-Kathetern handelte es sich um 10-polige Lasso® Katheter, zwei Varianten von PentaRay® NAV eco Katheter und 4-polige Diagnostik-Katheter „OSYPKA FINDER pure®“. Ablationskatheter sind zwei Varianten von Pentaspline Basket pose Katheter und HELIOSTAR™ Ablation Ballon. Abschließend wurden verschiedene Varianten von Isolationsverfahren der Pulmonalvenen modelliert und daraufhin die linksatrialen fokalen Flimmerquellen nach der Isolation der Pulmonalvenen simuliert.
Decarbonisation Strategies in Energy Systems Modelling: APV and e-tractors as Flexibility Assets
(2023)
This work presents an analysis of the impact of introducing Agrophotovoltaic technologies and electric tractors into Germany’s energy system. Agrophotovoltaics involves installing photovoltaic systems in agricultural areas, allowing for dual usage of the land for both energy generation and food production. Electric tractors, which are agricultural machinery powered by electric motors, can also function as energy storage units, providing flexibility to the grid. The analysis includes a sensitivity study to understand how the availability of agricultural land influences Agrophotovoltaic investments, followed by the examination of various scenarios that involve converting diesel tractors to electric tractors. These scenarios are based on the current CO2 emission reduction targets set by the German Government, aiming for a 65% reduction below 1990 levels by 2030 and achieving zero emissions by 2045. The results indicate that approximately 3% of available agricultural land is necessary to establish a viable energy mix in Germany. Furthermore, the expansion of electric tractors tends to reduce the overall system costs and enhances the energy-cost-efficiency of Agrophotovoltaic investments.
Die Bachelorarbeit „Forensic Chain – Verwaltung digitaler Spuren in Deutschland“ untersucht die Anwendung eines Blockchain-basierten Chain of Custody Systems im deutschen rechtlichen und regulatorischen Kontext. Die digitale Forensik, die sich mit der Sicherung und Analyse digitaler Spuren befasst, gewinnt an Bedeutung, da kriminelle Aktivitäten vermehrt im digitalen Raum stattfinden. Die Blockchain-Technologie bietet transparente und unveränderliche Aufzeichnungen, die sich für die Speicherung von Informationen im Zusammenhang mit digitalen Beweismitteln eignen. Das Hautpziel der Arbeit besteht darin, die Umsetzung eines Chain of Custody Prozesses im Forensic Chain System zu untersuchen und die Eignung dieses Systems im deutschen Raum zu bewerten. Hierfür wird ein Prototyp des Forensic Chain Systems entwickelt, um das erstellte Konzept zu testen. Die Ergebnisse tragen zum Verständnis der Wichtigkeit der digitalen Forensik in Deutschland bei und bieten Einblicke in die Einführung von Blockchain-basierten Chain of Custody-Systemen in diesem Bereich. Sie leisten einen Beitrag zur Weiterentwicklung der digitalen Forensik.
KI-gestützte Cyberangriffe
(2023)
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des Deep Learning haben in den letzten Jahren enorme Fortschritte gemacht. Insbesondere Technologien wie Large Language Models (LLMs) machen KI-Technologie innerhalb kurzer Zeit zugänglich für die Allgemeinheit. Die Generierung von Text, Bild und Sprache durch künstliche Intelligenz erzielt innerhalb kurzer Zeit gute Ergebnisse. Parallel zu dieser Entwicklung hat die Cyberkriminalität in den vergangenen Jahren im Bereich der KI zugenommen. Cyberangriffe verursachen im Zuge der Digitalisierung größeren Schaden und Angriffe entwickeln sich kontinuierlich weiter, um bestehende Schutzmaßnahmen zu umgehen.
Diese Arbeit bietet eine Einführung in das Themengebiet KI-gestützte Cyberangriffe. Sie präsentiert aktuelle KI-gestützte Cyberangriffsmodelle und analysiert, inwiefern diese für Anfänger*innen in der Cyberkriminalität zugänglich sind.
Die Arbeit beinhaltet die Konzeption und den Aufbau eines Prüfstandes für den Elektromotor sowie den Antriebsstrang des Hocheffizienzfahrzeugs "Schluckspecht S6" der Hochschule Offenburg. Neben Beschreiben des Vorgehens bei dem Entwerfen von benötigten CAD-Modellen wird auch auf die Auswahl und Implementierung elektronischer Komponenten sowie die Programmierung des verwendeten Mikrocontrollers eingegangen. Die Ergebnisse eines ersten Tests des Prüfstandes werden außerdem aufgezeigt und diskutiert.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
This research presents a comprehensive exploration of hydroponic systems and their practical applications, with a focus on innovative solutions for managing environmental and analytical sensors in hydroponic setups. Hydroponic systems, which enable soilless cultivation, have gained increasing importance in modern agriculture due to their resource-efficient and high-yield nature.
The study delves into the development and deployment of the SensVert system, an adaptable solution tailored for hydroponic environments. SensVert offers adaptability and accessibility to farmers across various agricultural domains, addressing contemporary challenges in supervising and managing environmental and analytical sensors within hydroponic setups. Leveraging LoRa technology for seamless wireless data transmission, SensVert empowers users with a feature-rich dashboard for real-time monitoring and control. The study showcases the practical implementation of SensVert through a single sensor node, seamlessly integrating temperature, humidity, pressure, light, and pH sensors. The system automates pH regulation, employing the Henderson-Hasselbalch equation, and precisely controls liquid dosing using a PID controller. At the core of SensVert lies an architecture comprising The Things Stack as the network server, Node-Red as the application server, and Grafana as the user interface. These components synergize within a local network hosted on a Raspberry Pi; effectively mitigating challenges associated with data packet transmission in areas with limited internet connectivity.
As part of ongoing research, this work also paves the way for future advancements. These include the establishment of a wireless sensor network (WSN) utilizing LoRa technology, enabling seamless over-the-air sensor node updates for maintenance or replacement scenarios. These enhancements promise to further elevate the system's reliability and functionality within hydroponic cultivation, fostering sustainable agricultural practices.
Der True-Crime-Podcast erfreut sich in Deutschland einer großen Hörerschaft, die ganz unterschiedliche Nutzungsmotivationen mitbringt. Die Faszination für wahre Kriminalfälle kommt nicht von ungefähr – das Phänomen, welches dieser zugrunde liegt, ist die Morbid Curiosity. Da bislang noch nicht allzu viel Forschung in diesem Gebiet betrieben wurde, gibt diese Arbeit durch einen Vergleich verschiedener Untersuchungen Aufschluss darüber, wo diese Neugier für morbide Ereignisse herkommt. Gleichzeitig soll ein Überblick über das Genre True Crime und das Medium Podcast gegeben werden. Das Ziel ist es, eine Verbindung zwischen dem Phänomen Morbid Curiosity und dem Format True-Crime-Podcast herzustellen. Die Forschungsfrage lautet: Welche Rolle spielt Morbid Curiosity bei der Nutzungsmotivation der Konsumenten von True-Crime-Podcasts? Die Ergebnisse zeigen, dass Frauen andere Nutzungsmotivationen mitbringen als Männer und gleichzeitig die primären Konsumentinnen sind. Die Neugier für morbide Ereignisse spielt dabei durchaus eine Rolle, wenn auch scheinbar eine untergeordnete. Es werden Ansätze für weitere Forschung gegeben.
As the population grows, so does the amount of biowaste. As demand for energy grows, biogas is a promising solution to the problem. Lignocellulosic materials are challenged of slow degradability due to the presence of polymers such as cellulose, lignin and hemicellulose. There are several pretreatment methods available to enhance the degradability of such materials, including enzymatic pretreatment. In this pretreatment, there are few parameters that can influence the results, the most important being the enzyme to solid ratio and the solid to liquid ratio. During this project, experiments were conducted to determine the optimal conditions for those two factors. It was discovered that a solid to liquid ratio of 31 g of buffer per 1 gram of organic dry matter produced the highest reducing sugar release in flasks when combined with 34 mg of protein per 1 gram of organic dry mass. Additionally, another experiment was carried out to investigate the impact of enzymatic pretreatment on biogas production using artificial biowaste as a substrate. Artificial biowaste produced 577,9 NL/kg oDM, while enzymatically pretreated biowaste produced 639,3 NL/kg oDM. This resulted in a 10,6% rise in cumulative biogas production compared to its use without enzymatic pretreatment. By the conclusion of the investigation, specific cumulative dry methane yields of 364,7 NL/kg oDM and 426,3 NL/kg oDM were obtained from artificial biowaste without and with enzymatic pretreatment, respectively. This resulted in a methane production boost of 16,9%. Additionally in case of the reactors with enzymatically pretreated substrate kinetic constant was lower more than double, where maximum volume of biogas increased, comparing to the reactors without enzymatic pretreatment.
Study of impact of change in market economics of Biosimilars due to SPC waiver on EU 469/2009
(2023)
This research was conducted to understand and investigate the impact of SPC waiver EU 933/2019 made as an amendment to EU 469/2019. The research was conducted for analysis and extraction of the data to compile the exact number of biological products impacted with the SPC waiver. The highest sale top-5 products were identified according to the expert’s opinion. The sales revenue opportunity valuable to the top-5 products in the top-5 non-EU markets for early exports is investigated. Additionally, a survey was conducted to assess the readiness of the industry for these changes. The information from this study will be very useful to students of the biopharmaceutical market research and to the stakeholders from the biopharmaceutical industry.
Ziel dieser Studie war es, Zusammenhänge zwischen Kinematik und Kraftanforderungen an den Ringen im Gerätturnen zu ermitteln. Zu diesem Zweck wurde das Schwung- und Krafthalteelement Stemme rückwärts zum Kreuzhang gewählt und analysiert.
Die Datenerhebung erfolgte im Rahmen der Europameisterschaften 2022 in München. Für die Analyse der Kraftanforderungen wurde die vertikale Kraft in den Aufhängungen der Ringe mit eindimensionalen Kraftsensoren gemessen und für die Analyse der Kinematik ein markerloses Bewegungserfassungssystem eingesetzt.
Insgesamt wurden die Ausführungen von 17 professionellen Turnern untersucht. Für die Analyse der Kinematik wurden vier Ausführungsparameter bestimmt und deren Einfluss auf den Kraftbedarf statistisch analysiert, wobei die Kraftdaten auf das jeweilige Körpergewicht normiert wurden und das relative Kraftmaximum als Bezugspunkt für den Kraftbedarf gewählt wurde. Bei den vier Ausführungsparametern handelte es sich um die maximale Körpervorneigung während des Rückschwungs vor der Stemmbewegung des Elementes, den minimalen Arm-Rumpf-Winkel (ARW) während des Elementverlaufs, die höchste Position des Körperschwerpunktes (KSP) während des Elementverlaufs und die Distanz, um die der KSP von der höchsten Position in den Kreuzhang absinkt.
Es zeigte sich eine signifikante Korrelation zwischen der höchsten KSP-Position und dem Kraftmaximum. Für die anderen Ausführungsparameter konnten Tendenzen ermittelt werden. Darüber hinaus konnten die Korrelationen der Parameter untereinander zu zwei Ausführungsvarianten zusammengefasst werden. Dabei führt eine Ausführungsvariante zu einem größeren relativen Kraftmaximum und zu größeren Abzügen als die anderen. Die biomechanische Betrachtung dieser Ausführungsvarianten ergab jedoch, dass die Ausführungsvariante mit dem größeren mittleren Kraftmaximum dennoch leichter auszuführen ist, während die andere Ausführungsvariante in der Durchführung anspruchsvoller ist und besser bewertet wird.
In the past ten years, applications of artificial neural networks have changed dramatically. outperforming earlier predictions in domains like robotics, computer vision, natural language processing, healthcare, and finance. Future research and advancements in CNN architectures, Algorithms and applications are expected to revolutionize various industries and daily life further. Our task is to find current products that resemble the given product image and description. Deep learning-based automatic product identification is a multi-step process that starts with data collection and continues with model training, deployment, and continuous improvement. The caliber and variety of the dataset, the design selected, and ongoing testing and improvement all affect the model's effectiveness. We achieved 81.47% training accuracy and 72.43% validation accuracy for our combined text and image classification model. Additionally, we have discussed the outcomes from the other dataset and numerous methods for creating an appropriate model.
For the treatment of bone defects, biodegradable, compressive biomaterials are needed as replacements that degrade as the bone regenerates. The problem with existing materials has either been their insufficient mechanical strength or the excessive differences in their elastic modulus, leading to stress shielding and eventual failure. In this study, the compressive strength of CPC ceramics (with a layer thickness of more than 12 layers) was compared with sintered β-TCP ceramics. It was assumed that as the number of layers increased, the mechanical strength of 3D-printed scaffolds would increase toward the value of sintered ceramics. In addition, the influence of the needle inner diameter on the mechanical strength was investigated. Circular scaffolds with 20, 25, 30, and 45 layers were 3D printed using a 3D bioplotter, solidified in a water-saturated atmosphere for 3 days, and then tested for compressive strength together with a β-TCP sintered ceramic using a Zwick universal testing machine. The 3D-printed scaffolds had a compressive strength of 41.56 ± 7.12 MPa, which was significantly higher than that of the sintered ceramic (24.16 ± 4.44 MPa). The 3D-printed scaffolds with round geometry reached or exceeded the upper limit of the compressive strength of cancellous bone toward substantia compacta. In addition, CPC scaffolds exhibited more bone-like compressibility than the comparable β-TCP sintered ceramic, demonstrating that the mechanical properties of CPC scaffolds are more similar to bone than sintered β-TCP ceramics.
Recently, photovoltaic (PV) with energy storage systems (ESS) have been widely adopted in buildings to overcome growing power demands and earn financial benefits. The overall energy cost can be optimized by combining a well-sized hybrid PV/ESS system with an efficient energy management system (EMS). Generally, EMS is implemented within the overall functions of the Building Automation System (BAS). However, due to its limited computing resources, BAS cannot handle complex algorithms that aim to optimize energy use in real-time under different operating conditions. Furthermore, islanding the building's local network to maximize the PV energy share represents a challenging task due to the potential technical risks. In this context, this article addresses an improved approach based on upgrading the BAS data analytics capability by means of an edge computing technology. The edge communicates with the BAS low-level controller using a serial communication protocol. Taking advantage of the high computing ability of the edge device, an optimization-based EMS of the PV/ESS hybrid system is implemented. Different testing scenarios have been carried out on a real prototype with different weather conditions, and the results show the implementation feasibility and technical performance of such advanced EMS for the management of building energy resources. It has also been proven to be feasible and advantageous to operate the local energy network in island mode while ensuring system safety. Additionally, an estimated energy saving improvement of 6.23 % has been achieved using optimization-based EMS compared to the classical rule-based EMS, with better ESS constraints fulfillment.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Ziel dieser Studie ist es, den Markt von FinTech Unternehmen in Deutschland unter Berücksichtigung der beteiligten Marktkräfte darzustellen. Hierfür sollen die theoretischen Grundlagen einer Marktanalyse dargelegt und darauf aufbauend eine Marktanalyse durchgeführt werden. Betrachtet werden sollen in diesem Zusammenhang auch die rechtlichen Rahmenbedingungen, die für FinTech Unternehmen in Deutschland einschlägig sind, da auch diese Einfluss auf das Marktgeschehen haben. Ziel ist es, bestehende Rechtsgrundlagen sowie Entwürfe von künftigen Rechtsvorschriften mittels Recherche zu identifizieren und zu analysieren. Betrachtet werden sollen dabei das deutsche Recht sowie das für Deutschland als Mitgliedstaat der EU geltende EU-Recht.
Im Rahmen dieser Studie sollen Struktur und der Ablauf internationaler Carve-Out-Transaktionen dargestellt werden. Der Fokus liegt hierbei auf den rechtlichen Aspekten solcher Transaktionen. Nichtsdestotrotz, da internationale Carve-Out-Transaktionen gerade eine sehr enge und komplexe Verflechtung rechtlicher, organisatorischer und strategischer Aspekte ausmacht, soll die internationale Carve-Out-Transaktion als Ganzes beleuchtet werden.
Der Onlinehandel ist ein kontinuierlich wachsender Markt, der sich stetig im Wandel befindet. Um als Unternehmen mit der großen Konkurrenz mithalten zu können und den immer wieder neu aufkommenden Trends gerecht zu werden, ist eine beständige Analyse und Adaption dieser nötig.
Das Ziel der vorliegenden Arbeit ist die Konzeption und die gestalterische Umsetzung einer B2C-E-Commerce Plattform auf Basis einer Konkurrenzanalyse. Dazu wird die folgende Forschungsfrage gestellt: Wie können UX-Design-Prinzipien und die Ergebnisse der Konkurrenzanalyse genutzt werden, um spezifische Design-Entscheidungen in Bezug auf Layout, Navigation, Inhaltsstruktur und visuelle Gestaltung zu treffen ?
Um die Forschungsfrage zu beantworten, wurde über die Untersuchung aktueller E-Commerce-Trends und UX-Design-Prinzipien hinaus eine Konkurrenzanalyse durchgeführt, die sich an relevanten Wettbewerbern im Branchenbereich orientiert. Mittels einer detaillierten Konkurrenzanalyse wurden verschiedene Aspekte wie Website-Funktionalität, Benutzerführung und visuelle Ästhetik bewertet, um mögliche Erfolgsfaktoren zu identifizieren. Die Konzeption erfolgte auf Grundlage der gewonnenen Erkenntnisse. Dabei werden Informationsstrukturen und Design-Elemente gezielt gestaltet, um den gegebenen Anforderungen gerecht zu werden.
Diese Bachelorarbeit bietet somit einen ganzheitlichen Ansatz, der die Zusammenwirkung zwischen Konkurrenzanalyse und UX-Design aufzeigt und wie diese Erkenntnisse gemeinsam in der Umsetzung einer B2C-E-Commerce Website genutzt werden können.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.
Authentic corporate social responsibility: antecedents and effects on consumer purchase intention
(2023)
Purpose
The aim of the research is to identify the factors that create an authentic company's corporate social responsibility (CSR) engagement and to investigate whether an authentic CSR engagement influences the purchase intention. In addition, the study attempts to provide insights into the mediation role of attitude toward the company and frequency of purchase on purchase intention.
Design/methodology/approach
In this study, a theoretical framework is developed in which major antecedents of authentic CSR are identified. A specific example of a brand and its corporate social responsibility activities was used for the study. An online questionnaire was used to collect the data. To verify the hypothesis, structural equation modeling with the partial least squares method was used. A total of 240 people participated in the study.
Findings
The results of the study confirmed that CSR authenticity positively influences consumer purchase intention. Furthermore, the hypothesized impact of CSR authenticity on attitudes toward the company and frequency of purchase could be verified.
Originality/value
Although there is research on the antecedents influencing the consumer's perceived authenticity of CSR, it has not addressed differences in impact and has not presented a full picture of influencing antecedents. In addition, CSR proof as a new antecedent is investigated in the study. Moreover, research on outcomes of perceived CSR authenticity still lacks depth. The study therefore addresses this research gap by providing an extensive research framework including antecedents influencing CSR authenticity and outcomes of CSR authenticity.