Refine
Year of publication
Document Type
- Bachelor Thesis (596)
- Master's Thesis (205)
- Conference Proceeding (69)
- Book (15)
- Study Thesis (13)
- Article (reviewed) (8)
- Other (3)
Conference Type
- Konferenzband (64)
- Konferenzartikel (5)
Is part of the Bibliography
- no (909) (remove)
Keywords
- Mikroelektronik (60)
- Marketing (30)
- IT-Sicherheit (23)
- JavaScript (17)
- Biomechanik (15)
- Internet der Dinge (15)
- Künstliche Intelligenz (15)
- Social Media (15)
- Webentwicklung (15)
- COVID-19 (14)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (295)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (171)
- Fakultät Medien (M) (ab 22.04.2021) (161)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (96)
- Fakultät Wirtschaft (W) (33)
- IfTI - Institute for Trade and Innovation (13)
- INES - Institut für nachhaltige Energiesysteme (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (6)
- IUAS - Institute for Unmanned Aerial Systems (3)
Open Access
- Closed Access (462)
- Open Access (228)
- Closed (219)
- Bronze (60)
- Diamond (15)
- Gold (1)
In dieser kleinen schriftlichen Ausarbeitung behandele ich das Thema der Symbiose aus Kunst und Wissenschaft auf meine persönliche Einstellung.
Ich habe einen Dokumentarfilm zu diesem spannenden Thema in dem Rahmen erstellt und habe in diesem schriftlichen Teil erzählt, wie ich zu den einzelnen Themen wie auch zur Symbiose stehe. Dabei gehe ich auf die persönlichen Erkenntnisse ein, welche ich über den Zeitraum des Dokumentarfilms erlangt habe. Ein Teil des Filmes waren zwei Workshops, in denen ich die Parteien Kunst und Wissenschaft mit einem Thema in Verbindung gesetzt habe. Auch diese wird hier erläutert.
In dieser Arbeit werden über die ökonomischen Anwendungsfälle des epidemiologischen SIR-Modell nach dem Ansatz von Robert J. Shiller in Narrative Economics reflektiert. Im genaueren werden die Hype-Zyklen, welche von der US-amerikanischen Firma für Marktforschungsanalysen Gartner regulär herausgebracht werden, untersucht.
Im spezifischen unterliegt Gartner Hype-Zyklen ein Modell, welche die aufkommenden Technologien graphisch und statistisch darstellt, um diese in Kategorien von kommerzieller Erfolgsversprechen einordnen zu können. Narrative und generelle Marktbewegungen werden mitunter in Betracht gezogen und in dieser Arbeit wird auf die Narrative, welche um aufkommende Technologien existieren, eingegangen. Hier setzt das SIR-Modell ein, welches dem Fachgebiet der Epidemiologie entnommen wird und für die Ausbreitung von Narrativen zur Erklärung zugezogen werden soll.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
Die folgende Arbeit thematisiert ein Konzept zur Automatisierung von Firewall-Audits und die Implementierung eines Tools zur Durchführung. Für das Audit relevante Aspekte von NGFWs werden ausgewählt und näher erläutert. Diese bestehen aus der Objektdatenbank, Firewall-Regelwerken und VPN-Konfigurationen. Die Analyse der Daten basiert auf einerseits eigens erstellten Kriterien, andererseits auf Empfehlungen des BSI und des NIST. Zusätzlich wird auf Basis von NIST Recommended Practices und dem CVSS der „Awareness Score“ eingeführt, der auf Fehlkonfigurationen innerhalb des Firewall-Regelwerks aufmerksam machen soll. Das Konzept für das Tool sieht vor, Firewalls mehrerer Hersteller, darunter Cisco, Checkpoint und Sophos, auditieren zu können. Die Implementierung wurde aus zeitlichen Gründen nur für Firewalls des Herstellers Cisco durchgeführt. Für die Analyse wird ein einheitliches Firewall-Modell erzeugt. So sollen auch Firewalls anderer Hersteller zu dem Tool hinzugefügt werden können. Die Ergebnisse des Audits werden in einem Bericht dargestellt.
The purpose of this master's thesis was to set up a test bed for the absorption of chemical compounds by carbon-based sorbents and polymers and to develop a method for the detection of these substances applied by liquid chromatography.
The study made it possible to demonstrate the effectiveness of both polymers and biochars sorbents for the adosorption of specific substances. The results obtained open new paths on the study of biochar for the treatment of contaminated water. Some biochars made from plant-based materials have been shown to be almost as effective as commercial products used in plants. The developed chromatography method allows efficient separation of substances and their detection.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.
Self-sufficient enzymes belong to the cytochrome P450 (CYP) group and are known for their superior hydroxylation catalytic activity. In the pursuit of identifying new pesticides to combat antimicrobial-resistant pathogens, we employed BM3 wild type (BM3-WT), the fastest monohydroxylating CYP, along with its seven homologs, to investigate the production of potential hydroxylated derivatives from the established pesticide, 4-oxocrotonic acid using high-pressure liquid chromatography (HPLC) method. Following the recombinant production of BM3-WT and three other homologs in E. coli, and their subsequent purification using Immobilized Metal Affinity Chromatography (IMAC), a novel enzyme assay approach was developed as a substitute for the carbon monoxide (CO) assay. This new method relied on the measurement of NADPH consumption at 340 nm by BM3-WT for palmitic acid. Leveraging this established technique, we explored the substrate specificity of BM3-WT and its homologs not only on palmitic acid but also on other structurally similar compounds, including 4-oxocrotonic acid. The results obtained from the established NADPH assay indicate that all tested enzymes displayed greater catalytic activity on 4-oxocrotonic acid in comparison to other substrates with similar structures. However, the impact of BM3-WT and its homologs on 4-oxocrotonic acid varied in terms of product specificity. Enzymes such as Poh, Trr and Bas-CYP D exhibited specificity in producing solely monohydroxylated products, while others tended to yield dehydroxylated and ketol metabolites.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Rupturen des vorderen Kreuzbandes werden meist mit einer Kreuzbandplastik-Operation wiederhergestellt. Bei einer gängigen OP-Methode wird hierbei Sehnenmaterial am Semitendinosus-Muskel entnommen, und mit diesem gewonnenen Sehnenmaterial das Kreuzband rekonstruiert. Dies hat zur Folge, dass es zu neuromuskulären Defiziten und dem Verhalten der Co-Kontraktion von Quadrizeps und Hamstrings kommen kann. Weitere Folgen sind Muskelschwäche und ein weniger flektiertes Verhalten in der Stützphase beim Gehen am operierten Bein. Das Auftreten von Co-Kontraktion beim Laufen ist im Zusammenhang mit einer expliziten Co-Kontraktionsberechnung noch nicht ausreichend untersucht worden. Auch ist unklar, welchen Einfluss die Kraftfähigkeiten auf Co-Kontraktion und Gelenkwinkel haben. In dieser Studie soll untersucht werden, inwieweit diese Effekte auch bei der Bewegung des Laufens auftreten. Mögliche Zusammenhänge zwischen Kraft/Co-Kontraktion und Kraft/Kniegelenkswinkel werden ebenfalls untersucht. Die Ergebnisse sollen einen Beitrag zum Verständnis der Mechanismen und damit auch zur Verbesserung der Rehabilitationsprozesse leisten. Im Rahmen von „Return to Sport“ Messungen wurden im IFD Colgone über einen Zeitraum von zwei Jahren „Return to Sport“ Messungen durchgeführt und relevante biomechanische Parameter erfasst. Die Untersuchungen fanden im Durchschnitt sieben Monate nach der Kreuzbandoperation statt. Innerhalb der Studie wurden 26 Patientendaten ausgewertet. Die Co-Kontraktion wurde durch Auswertung der EMG-Daten mit Hilfe einer Formel bestimmt. Die Patienten zeigten unabhängig vom Geschlecht signifikant erhöhte Co-Kontraktionswerte, reduzierte Kniegelenkswinkel und reduzierte Kraftfähigkeiten am operierten Bein. Dabei konnten die erhöhten Co- Kontraktionswerte als auch weniger flektierte Kniewinkel nicht bei allen Patienten der Stichprobe auf deren schlechte Kraftfähigkeit zurückgeführt werden. Hier gab es leichte Zusammenhänge aber keine signifikanten Ergebnisse. Da Co-Kontraktion als auch reduzierte Kniegelenkswinkel mit unterschiedlichsten Problemen in Verbindung gebracht werden können, sollte daran mit Hilfe von angepassten Reha- Maßnahmen gearbeitet werden. Rehabilitationsprozesse sollten verschiedene Kraft- und Koordinationsfähigkeiten fördern, mit dem Ziel, das neuromuskuläre Zusammenspiel zu verbessern.
Ziel dieser Studie war es, Zusammenhänge zwischen Kinematik und Kraftanforderungen an den Ringen im Gerätturnen zu ermitteln. Zu diesem Zweck wurde das Schwung- und Krafthalteelement Stemme rückwärts zum Kreuzhang gewählt und analysiert.
Die Datenerhebung erfolgte im Rahmen der Europameisterschaften 2022 in München. Für die Analyse der Kraftanforderungen wurde die vertikale Kraft in den Aufhängungen der Ringe mit eindimensionalen Kraftsensoren gemessen und für die Analyse der Kinematik ein markerloses Bewegungserfassungssystem eingesetzt.
Insgesamt wurden die Ausführungen von 17 professionellen Turnern untersucht. Für die Analyse der Kinematik wurden vier Ausführungsparameter bestimmt und deren Einfluss auf den Kraftbedarf statistisch analysiert, wobei die Kraftdaten auf das jeweilige Körpergewicht normiert wurden und das relative Kraftmaximum als Bezugspunkt für den Kraftbedarf gewählt wurde. Bei den vier Ausführungsparametern handelte es sich um die maximale Körpervorneigung während des Rückschwungs vor der Stemmbewegung des Elementes, den minimalen Arm-Rumpf-Winkel (ARW) während des Elementverlaufs, die höchste Position des Körperschwerpunktes (KSP) während des Elementverlaufs und die Distanz, um die der KSP von der höchsten Position in den Kreuzhang absinkt.
Es zeigte sich eine signifikante Korrelation zwischen der höchsten KSP-Position und dem Kraftmaximum. Für die anderen Ausführungsparameter konnten Tendenzen ermittelt werden. Darüber hinaus konnten die Korrelationen der Parameter untereinander zu zwei Ausführungsvarianten zusammengefasst werden. Dabei führt eine Ausführungsvariante zu einem größeren relativen Kraftmaximum und zu größeren Abzügen als die anderen. Die biomechanische Betrachtung dieser Ausführungsvarianten ergab jedoch, dass die Ausführungsvariante mit dem größeren mittleren Kraftmaximum dennoch leichter auszuführen ist, während die andere Ausführungsvariante in der Durchführung anspruchsvoller ist und besser bewertet wird.
Im Laufe der Zeit haben sich die Anforderungen an die Zeitung verändert. Als eine der von der Digitalisierung am meisten betroffenen Industrien musste die Zeitungsbranche einen Wandel durchgehen. Dieser ist schon seit einiger Zeit im Gange, aber noch längst nicht abgeschlossen. Wie drei führende Zeitungsunternehmen diese Herausforderungen meistern, soll in dieser Arbeit untersucht werden.
Ziel dieser Arbeit ist es, sich mittels einer Marktanalyse zunächst einen Überblick über den Zeitungsmarkt in Deutschland und den USA zu verschaffen. Anschließend werden mit einer SWOT-Analyse die Stärken und Schwächen der gewählten Zeitungen F.A.Z., DIE WELT und New York Times herausgearbeitet. Darüber hinaus werden die jeweiligen Chancen und Risiken, die sich für die Zeitungen ergeben, näher beleuchtet. Im letzten Schritt wird die SWOT-Analyse der drei Zeitungen als Grundlage genommen, um Handlungsempfehlungen zu geben. Hierbei wird der Fokus auf die vier Strategien Ausbauen, Absichern, Aufholen und Vermeiden gelegt.
Aus der Arbeit ging hervor, dass die zunehmende Bedeutung von KI eine wichtige Rolle in der Zeitungsbranche spielen wird. Die Personalisierung wird in diesem Zusammenhang die wichtige Basis für zukünftige Produkte der Zeitungen werden. Auch die Öffnung der Unternehmenskultur wird entscheidend sein, um dem zunehmenden Fachkräftemangel entgegenzuwirken. Des Weiteren wird die Diversifizierung der Geschäftsfelder für die Zeitungen wichtig sein, um die Folgen der sinkenden Erlöse aus dem Printbereich abzuschwächen.
Der Onlinehandel ist ein kontinuierlich wachsender Markt, der sich stetig im Wandel befindet. Um als Unternehmen mit der großen Konkurrenz mithalten zu können und den immer wieder neu aufkommenden Trends gerecht zu werden, ist eine beständige Analyse und Adaption dieser nötig.
Das Ziel der vorliegenden Arbeit ist die Konzeption und die gestalterische Umsetzung einer B2C-E-Commerce Plattform auf Basis einer Konkurrenzanalyse. Dazu wird die folgende Forschungsfrage gestellt: Wie können UX-Design-Prinzipien und die Ergebnisse der Konkurrenzanalyse genutzt werden, um spezifische Design-Entscheidungen in Bezug auf Layout, Navigation, Inhaltsstruktur und visuelle Gestaltung zu treffen ?
Um die Forschungsfrage zu beantworten, wurde über die Untersuchung aktueller E-Commerce-Trends und UX-Design-Prinzipien hinaus eine Konkurrenzanalyse durchgeführt, die sich an relevanten Wettbewerbern im Branchenbereich orientiert. Mittels einer detaillierten Konkurrenzanalyse wurden verschiedene Aspekte wie Website-Funktionalität, Benutzerführung und visuelle Ästhetik bewertet, um mögliche Erfolgsfaktoren zu identifizieren. Die Konzeption erfolgte auf Grundlage der gewonnenen Erkenntnisse. Dabei werden Informationsstrukturen und Design-Elemente gezielt gestaltet, um den gegebenen Anforderungen gerecht zu werden.
Diese Bachelorarbeit bietet somit einen ganzheitlichen Ansatz, der die Zusammenwirkung zwischen Konkurrenzanalyse und UX-Design aufzeigt und wie diese Erkenntnisse gemeinsam in der Umsetzung einer B2C-E-Commerce Website genutzt werden können.
Das Konzept Nudging bezieht sich auf die gezielte Anwendung von verhaltensökonomischen Prinzipien. Menschen sollen dazu angestoßen werden, Entscheidungen zu treffen, welche ihnen zugutekommen. Dabei werden Reize, sogenannte Nudges, gesetzt. Ein Ziel der vorliegenden Arbeit ist es zu beantworten, ob und wie effektiv das Konzept in der Gesundheitskommunikation genutzt wird. Ein weiteres Ziel ist die Identifikation von Risiken und Chancen des Ansatzes. Dazu wurden zunächst die Grundlagen der Verhaltensökonomik erläutert. So werden zwei kognitive Systeme unterschieden: Das automatische bzw. intuitive System sowie das rationale bzw. reflexive System. Menschen nutzen häufig das automatische System, um aufgrund von Erfahrungen und Emotionen Entscheidungen zu treffen. Dieses System ermöglicht eine schnelle Reaktion, ist aber anfällig für kognitive Verzerrungen und Urteilsheuristiken. Während kognitive Verzerrungen systematische Abweichungen von rationalen Entscheidungen bezeichnen, werden unter Urteilsheuristiken Faustregeln verstanden, welche auf vereinfachten Denkvorgängen beruhen. Nudges werden hinsichtlich dieser Erkenntnisse eingesetzt, indem die Denkmuster gezielt angesprochen werden. Im Bereich der Gesundheitskommunikation spielt die psychologische Reaktanz eine Rolle. Diese bezieht sich auf die menschliche Eigenschaft, die eigene Freiheit und Autonomie zu verteidigen, sobald diese eingeschränkt scheint. Demnach können Gesundheitsbotschaften nicht den gewünschten Effekt erzielen, sobald Menschen sich genötigt oder bevormundet fühlen. Forschungen zur Akzeptanz und Effektivität von Nudge-Instrumenten zeigen, dass die Maßnahmen eine moderate Wirkung haben, von der Zielgruppe akzeptiert werden und somit Vorteile gegenüber anderen Ansätzen wie Verboten und Vorschriften aufweisen. Innerhalb einer qualitativen Inhaltsanalyse von vier Gesundheitskampagnen wurden unterschiedliche Kampagnenbestandteile auf den Einsatz von vorher festgelegten Instrumenten, welche auf der Literatur beruhen, analysiert. Alle Instrumente der Überkategorien Ansprache, Einfachheit sowie Incentivierung konnten identifiziert werden, deren Instrumente somit zu den meist genutzten zählen. Ungenutztes Potenzial lässt sich bei der Anwendung der Instrumente Kurzfristige Vorteile, Verbindlichkeit und Standardoption ausmachen. Ein Risiko bei der Verwendung von Nudges in der Praxis stellt die teilweise ungenaue Definition des Ansatzes in der Forschung und damit eine fehlerhafte Implementierung der Maßnahmen dar. Das Nudging kann bei unsachgemäßer Anwendung den Vorwurf der Manipulation nach sich ziehen oder den gewünschten Effekt verfehlen. Abschließend wurde eine Gesundheitskampagne mit dem Titel Lebensgefühl konzipiert, die sich mit dem Thema Diabetes Typ 2 auseinandersetzt. Anhand dieses praktischen Teils wird die Umsetzung von Nudging in der Gesundheitskommunikation veranschaulicht.
This thesis deals with the FEV centrifugal compressor teststand at Offenburg University of Applied Sciences. The teststand has two electrically operated compressorunits from the Rotrex company, on which students can gain practical experience. The range of application of the teststand is to be extended, so that different impeller geometries can be tested with otherwise unchanged construction. To realise this, knowledge about the operating behaviour of the volute and possible design solutions for the interface between the impeller and the gearbox are required. Using numerical methods for flow analysis, the operating range of the volute was determined by narrowing down the inlet conditions. Furthermore, research was carried out on common couplings, three different coupling concepts were worked out and compared with each other. This work does the preliminary work and thus lays the foundation for the implementation of the upcoming series of tests on the operating behaviour of different impeller geometries.
Das Ziel dieser Arbeit war es zu prüfen, ob bei der Verwendung von Perturbationen in einem Laufschuhvergleich eine Adaptations-Phase im Voraus durchgeführt werden sollte, um den Einfluss potenzieller Adaptationseffekte zu reduzieren. Dafür absolvierten die acht Probanden insgesamt 15 Perturbationen auf einem Laufband, welche sich durch die kurzzeitige Beschleunigung des Laufbands von 2,5 𝑚/𝑠 auf 3,5 𝑚/𝑠 kennzeichneten. Anschließend wurden aus den normalisierten Daten die initialen Gelenkswinkel bei Bodenkontakt im Knie und Sprunggelenk, die minimale bzw. maximale Bodenreaktionskraft in x- bzw. z-Richtung und die Bodenkontaktzeit bestimmt. Um sowohl potenzielle Vorwärtssteuerungen als auch Feedbackbezogene lokomotorische Anpassung zu berücksichtigen, wurden die zwei Schritte vor der Perturbation, der perturbierte Schritt und die drei Schritte nach der Perturbation analysiert. Neben deskriptiver Statistik wurden die einzelnen Schritte mittels Varianzanalyse und paarweisen t-Tests aufeinanderfolgender Trials untersucht. Der initiale Sprunggelenkswinkel zeigt zwar einen Einfluss der Perturbationen im zweiten und dritten Schritt nach der Perturbation, aber es lässt sich keine Anpassung im Verlauf der Messung feststellen. Auch bei der Bodenkontaktzeit lassen sich Unterschiede in den Messwerten und zwischen den Schritten finden, diese können allerdings ebenfalls nicht der Adaptation zugeordnet werden. Die Entwicklung der Mittelwerte und signifikante Ergebnisse in ANOVA und t-Tests deuten beim initialen Kniewinkel für den zweiten und dritten Schritt nach der Perturbation auf eine sukzessive Anpassung des Parameters an den Einfluss der Störung hin, welche nach acht Perturbationen abgeschlossen ist. Für die minimale Bodenreaktionskraft in x-Richtung (Bremskraft) befinden sich die Daten dagegen bereits nach einem Trial auf einem stabilen Niveau, wobei die Abweichungen hier ebenfalls im zweiten Schritt nach der Beschleunigung des Laufbands auftreten. Die maximale vertikale Bodenreaktionskraft (z-Richtung) zeigt Tendenzen zu einer fortschreitenden Anpassung im ersten und zweiten Schritt nach der Perturbation. Hier lassen sich aufgrund des Verlaufs der Mittelwerte und signifikanter Unterschiede beim ersten Schritt sechs Trials als Mindestanzahl für eine Adaptations-Phase ausmachen. Somit konnten in drei von fünf analysierten Parameter Merkmale von Adaptationseffekten gefunden werden, die sich alle in den Schritten nach der Perturbation zeigten und somit Feedbackbezogener Anpassung zuzuordnen sind. Sofern alle Parameter in der anschließenden Messung verwendet werden, sollten in der Adaptations-Phase mindestens acht Perturbationen durchgeführt werden, damit der Einfluss von Anpassungseffekten im Vergleich vernachlässigbar ist.
Das Ziel der vorliegenden Arbeit war es, den Kopplungskoeffizienten (KK) zwischen der Calcaneus Inversion/Eversion und der Tibia Innen-/Außenrotation zu ermitteln. Dabei wurde die Bewegung beim Barfußlaufen ohne Tape, mit frischem Tape und gebrauchtem Tape verglichen.
Die Durchführung erfolgte mit Hilfe eines markerbasierten Kamerasystems von Qualisys (Qualisys AB, Göteborg, Schweden). Diese Studie wurde mit 10 Probanden (Männer: 5; Frauen: 5, Alter: 24,3 ± 1,49 Jahre) durchgeführt. Zu Beginn wurde die Sprunggelenksstabilität der Probanden getestet, da Probanden mit einer Instabilität nicht miteingeschlossen werden sollten. Die Aufgabe bestand darin, barfuß unter drei Bedingungen (ohne Tape, mit frischem Tape, mit gebrauchtem Tape) mit einer Geschwindigkeit von 4,5 m/s zu laufen. Jede Bedingung hatte drei Durchgänge.
Die Auswertung wurde mit Hilfe von Matlab und statistischer Analyse durchgeführt. Matlab führte die Berechnung des KK zwischen Calcaneus Inversion/Eversion und der Tibiarotation aus. Die statistische Analyse beschrieb die Signifikanz der Werte.
Die Ergebnisse zeigten, dass der KK einen signifikanten Anstieg vom Barfußlaufen ohne Tape zum Laufen mit frischem und gebrauchtem Tape aufwies. Der KK ohne Tape lag bei 0,98 ± 0,38, bei frischem Tape von 1,28 ± 0,42 und bei gebrauchtem Tape bei 1,3 ± 0,42.
Zusammenfassend kann gesagt werden, dass eine signifikante Veränderung des KK bei getaptem Sprunggelenk besteht. Dadurch kann es zu einer verstärkten Rotation der Tibia kommen, was zu einer Überlastung der Strukturen des Kniegelenks und damit zu Knieverletzungen führen kann.
Hintergrund der Studie ist die Annahme, dass das Tragen von Barfußschuhen einen positiven Effekt auf die Gleichgewichtsfähigkeit eines Menschen hat und somit präventiv das Sturzrisiko vermindern kann. Ziel der Studie ist daher, einen Zusammenhang zwischen der Zehenfreiheit und der Gangsicherheit festzustellen. Zu diesem Zweck werden anhand einer Ganganalyse mit dem GRAIL-System, der Firma Motek Medical, das Laufverhalten von 23 Probanden in drei verschiedenen Schuhkonditionen (schmale Barfußschuhe, breite Barfußschuhe und getapte Zehen in Barfußschuhen) untersucht. Pro Perturbationsdurchgang werden jeweils fünf Gangzyklen vor und nach der Perturbation aufgenommen. Betrachtet werden die Kokontraktionswerte ausgewählter antagonistischer Muskelpaare des Ober- und Unterschenkels. Diese werden während der fünf Gangzyklen vor den einzelnen Perturbationen mittels EMG (Elektromyographie )-Sensoren gemessen. Die Ergebnisse zeigen, dass das einmalige Tragen von Barfußschuhen und somit die kurzfristige Veränderung der Zehenfreiheit keinen signifikanten Einfluss auf die Kokontraktionswerte und somit auf die Gleichgewichtsfähigkeit hat. Lediglich beim langfristigen Tragen von Barfußschuhen wiesen die Ergebnisse leichte Tendenzen in Richtung einer Erhöhung der Gleichgewichtsfähigkeit auf. Daraus lässt sich ein Trainingseffekt der Barfußschuhe auf den menschlichen Körper ableiten, der langfristig zu einer Verbesserung der Gangsicherheit führt. Da diese Ergebnisse jedoch nicht signifikant sind, muss diese Annahme erst durch weitere Studien geprüft werden. Einen tatsächlich signifikanten Einfluss hatte hingegen der Lerneffekt, der sich während des Versuchsablaufs bei den Testpersonen einstellte, auf die Kokontraktionswerte. Hierbei zeichnet sich eine annähernd exponentiell fallende Kurve im Verlauf der Messungen ab. Interessant ist dabei, dass dies auch für die Baseline zutraf, also auf die Referenzmessung ohne Perturbationen. Dies deutet darauf hin, dass die Probanden nicht primär wegen der Perturbationen in einer angespannten bzw. vorbereiteten Haltung waren, sondern aufgrund des ihnen unbekannten Untergrunds, dem perturbationsfähigen Laufband. Bei zukünftigen Studien sollte daher für aussagekräftige Ergebnisse eine stärkere Eliminierung des Lerneffekts geachtet werden.
Die vorliegende Pilotstudie untersucht die Anwendbarkeit von Mixed Reality zur Applikation eines externen Fokus während spezifischen Bewegungsaufgaben mit dem Ziel der Verbesserung des Return to Sport Testings. In einem ersten Schritt nahmen daher 9 gesunde FußballerInnen an der Studie teil.
Es wurden Sprünge mittels der speziell entwickelten Mixed Reality Anwendung MotumXR, in drei verschiedenen Bedingungen verglichen. Die erste Bedingung entspricht einem standardisierten vertikalen Sprung ohne spielspezifischen externen Fokus, während die zweite und dritte Bedingung einen Sprung mit spielspezifischem externem Fokus, im Sinne eines simulierten Kopfballs, darstellt. Bedingung zwei und drei unterscheiden sich in der Position der einwerfenden Person, welche den virtuellen Ball leicht versetzt von links oder rechts einwirft. Als Sprungform wurde der Counter Movement Jump gewählt. Es wurden kinetische und kinematische Parameter ermittelt, die es ermöglichen, die Auswirkungen des externen Fokus auf die Sprungbewegung zu erfassen.
Die Ergebnisse zeigen signifikante Unterschiede zwischen den Bedingungen in folgenden biomechanischen Parametern: Absprungzeit, vertikale maximale Bodenreaktionskraft, maximale Kraftanstiegsrate, maximaler Knieflexionswinkel und maximales Knieflexionsmoment. Die Kopfballsituation mit externem spielspezifischem Fokus weißen höhere maximale vertikale Bodenreaktionskräfte und gesteigerte maximale Knieflexionsmomente auf im Vergleich zu der Bedingung des maximalen Sprungs. Diese Befunde deuten darauf hin, dass die Sprungstrategie entsprechend der Aufgabenstellung angepasst wurde und die Kopfballsituation in der Mixed Reality Umgebung eine realitätsnähere Testung ermöglichen könnte. Die Position des Einwerfers zeigt keinen Einfluss auf die Beinsymmetrie. Das deutet darauf hin, dass die Anwendung MotumXR vielversprechende Möglichkeiten für die Weiterentwicklung von RTS-Testungen bietet. Weiterführende Untersuchung, die Personen mit Kreuzbandverletzungen mit einbeziehen, sind nötig, um die Ergebnisse dieser Pilotstudie kritisch zu überprüfen.
Einfluss der Zehenfreiheit auf die dynamische Stabilität bei medio-lateralen Laufbandperturbationen
(2023)
Das Tragen von Barfußschuhen, so die These, führt zu einem natürlichen und damit gesunden Gangbild. Ein Merkmal des Barfußschuhs ist die breite Zehenbox, die eine maximale Zehenfreiheit gewährleistet. In dieser Studie wurde der Faktor Schuhweite hinsichtlich seines Einflusses auf die Gangstabilität untersucht. Mit dem GRAIL-System wurden 28 Probanden in jeweils vier Schuhkonditionen (Wash out = eigene Schuhe, schmal, breit, Tape) und 3 Trials (Baseline, Perturbations, Simulated Inebriation) mittels Motion Tracking erfasst. Die Gangstabilität wurde anhand von 𝑀𝑜𝑆 (𝑀𝑎𝑟𝑔𝑖𝑛 𝑜𝑓 𝑆𝑡𝑎𝑏𝑖𝑙𝑖𝑡𝑦), 𝑃𝑜𝐼 (𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡𝑦 𝑜𝑓 𝐼𝑛𝑠𝑡𝑎𝑏𝑖𝑙𝑖𝑡𝑦), Schrittbreite und Schrittdauer beurteilt.
Es konnte kein signifikanter Einfluss der Schuhweite auf die Gangstabilität festgestellt werden. Dagegen ist das Alter ein signifikanter Einflussfaktor (ältere Probanden gehen weniger sicher) sowie die Art des Trials (simulated Inebriation ist am unsichersten). Zusätzlich wurden die Probanden in eine BX (Barefoot Experienced) und eine BUX (Barefoot Unexperienced) Gruppe eingeteilt, um zu untersuchen, ob es einen Unterschied macht, ob ein Proband in der Vergangenheit bereits Barfußschuhe getragen hat. Im Vergleich zur BUX-Gruppe war das Gangbild der BX-Gruppe durch folgende Merkmale gekennzeichnet: kürzere Schrittdauer, breitere Schritte und niedrigere 𝑃𝑜𝐼-Werte (in den Barfußschuhen).
Es kann vermutet werden, dass Personen mit Barfußschuherfahrung in einer neuen Schuhkondition sicherer gehen, weil sie unabhängiger vom Schuh sind. Dies könnte darauf zurückzuführen sein, dass die BX-Personen durch das Barfußlaufen stärkere Fußstrukturen entwickelt haben, die sich unabhängig vom Schuh positiv auf das Gangbild auswirken. Somit wirken sich Barfußschuhe erst langfristig positiv auf den Gang aus.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
Das Ziel dieser Arbeit ist es, herauszufinden inwiefern der Exopulse Mollii Suit® Auswirkungen auf Menschen mit dem Krankheitsbild Multiple Sklerose hat. Genauer soll ermittelt werden, wie die Symptome Spastik und Schmerz beeinflusst werden und wie sich dies auf die Mobilität und Lebensqualität auswirkt.
Im Rahmen der Studie wurde von jedem Probanden eine qualitative Untersuchung mittels eines Fragebogens durchgeführt, um eine subjektive Einschätzung der Beeinträchtigung zu erhalten. Zusätzlich wurde eine quantitative Untersuchung mit vier Assessments durchgeführt, bei denen die Mobilität und Feinmotorik getestet wurden. Der Mollii Suit® wurde daraufhin einmalig angewendet und im Verlauf von 48 Stunden wurden die Untersuchungen wiederholt durchgeführt, um einen möglichen Verlauf und die maximalen Veränderungen zu ermitteln.
Die qualitativen Ergebnisse der Studie ergeben, dass sich bei 22,2 % der Probanden keine Veränderungen zeigten. Bei 77,8 % hingegen zeigten sich positive Auswirkungen in einer großen Variationsbreite. Am häufigsten verbesserte sich die Spastik, gefolgt von der Mobilität. Ebenso berichteten die Probanden, dass sich ihre Beweglichkeit und der Bewegungsablauf verbesserten.
Quantitativ zeigte sich eine durchschnittliche Verbesserung von 21,6 % und einer Range zwischen -1,3 % und 53,4 %.
Aufgrund dieser großen Variationsbreite bei beiden Untersuchungen kann keine genaue Aussage über das Ausmaß der Wirkung und Verbesserung getroffen werden. Es zeigt sich aber das mögliche Potential des Mollii Suit®.
Die bisherige Forschung steht noch an ihrem Anfang und benötigt, um zuverlässige Aussagen treffen zu können, größer angelegte aber auch spezifischere Studien, die die einzelnen Symptome und Wirkweisen genauer untersuchen. Die vorliegende Studie stellt einen Grundstein dar, auf dem zukünftige Studien aufbauen können.
Evaluierung der effektiven Pedalkräfte bei der von dem Smartfit System empfohlenen Sattelhöhe
(2023)
Das Smartfit System unterstützt Bikefitter der Radlabor GmbH bei den grundlegenden Einstellungen am Fahrrad. Unter anderem gibt es eine Empfehlung für die Sattelhöhe an. In dieser Arbeit wird untersucht, ob eine Abweichung von dieser Empfehlung um ± 5° des Kniewinkels in der 90° Kurbelstellung Auswirkungen auf die effektive Pedalkraft hat. Untersucht werden zehn Probanden. Drei 2-minütige Radfahrtests werden bei 90 % der maximalen Leistung gefahren, bei denen alle drei Sattelhöhen getestet werden. Die maximale Leistung wird zuvor in einem Laktat-Stufentest auf dem Ergometer ermittelt. Die effektive Pedalkraft der linken und rechten Seite wird addiert und über den Kurbelverlauf gemittelt. Die gemittelten effektiven Kräfte der drei Sattelhöhen werden anschließend miteinander verglichen. Es gibt keine signifikanten Unterschiede der effektiven Pedalkraft zwischen allen drei Sattelhöhen (p = 0,319). Die effektive Pedalkraft der tiefen Sattelhöhe (- 5° Kniewinkel) ist im Schnitt 1,6 % kleiner als die der Smartfithöhe und die effektive Kraft der hohen Sattelhöhe (+ 5° Kniewinkel) ist im Schnitt 0,16 % größer. Die Empfehlung des Smartfit Systems bietet dem Bikefitter somit Spielraum, um auf individuelle Bedürfnisse des Kunden eingehen zu können.
Das Wachstum der Digitalisierung in der Industrie unterstreicht die Bedeutung der Usability der Systeme. Usability bezieht sich auf das Ausmaß, in dem ein Produkt oder Design von bestimmten Benutzern in einem bestimmten Kontext verwendet werden kann, um ein definiertes Ziel effektiv, effizient und zufriedenstellend zu erreichen.
In dieser Bachelorarbeit wurden die Ergebnisse einer Usability-Evaluierung einer Anwendung vorgestellt, die für tägliche Führungsroutinen im industriellen Bereich entwickelt wurde. Die Studie konzentrierte sich auf die Bewertung der Usability der Anwendung, der Benutzungserfahrung und der Einhaltung von Interaktionsprinzipien unter Berücksichtigung psychologischer Aspekte. Bei der Untersuchung wurde eine umfassende Methodik zur Bewertung der Usability angewandt, einschließlich formaler Usability-Tests und Nachbefragungen mit echten Endbenutzenden, die nur begrenzt mit der Anwendung vertraut waren.
Die Ergebnisse zeigten, dass die Kommunikation, die Hilfestellung und das unklare Design einiger Elemente selbst bei kleinen Aufgaben wie der Konfiguration von Linien Schwierigkeiten bereiten. Außerdem hatten die Testpersonen Probleme mit der komplexen Navigation in manchen Seiten. Die Studie enthält umsetzbare Empfehlungen, darunter die Integration von Feedback-Mechanismen, wie Tooltips und klare Fehlermeldungen und die Verbesserung des visuellen Designs von Schlüsselelementen für eine bessere Usability und eine positive Benutzungserfahrung.
Als Bachelorarbeit wurde ein Drehbuch ausgearbeitet. Hierbei handelt es sich um die Pilotfolge einer selbst konzipierten Serie.
Kurzzusammenfassung:
Anna, Tess, Felix und Vincent sind in ihren Zwanzigern und treten alle zur gleichen Zeit in einem Unternehmen ihre erste Stelle an. Neben den Unsicherheiten und Problemen, die mit einer neuen Stelle auftreten, müssen sich die vier auch mit ihren privaten Konflikten auseinandersetzen.
Um erfolgreich mit einer Marketing- oder Werbemaßnahme zu sein, ist es entscheidend, die Bedürfnisse und Wünsche der Zielgruppe zu verstehen. In der heutigen digitalen Welt hat sich die Generation Z, auch bekannt als ‚Digital Natives‘, zu einer der einflussreichsten Zielgruppen entwickelt. Geboren zwischen den späten 1990er Jahren und den frühen 2010er Jahren, sind sie mit der rasanten Entwicklung von Technologie und dem Aufstieg sozialer Medien aufgewachsen und haben diese fest in ihren Alltag integriert. Gegenwärtig umfasst die Generation Z mehr als elf Prozent der deutschen Bevölkerung und wird weltweit in den nächsten zehn Jahren voraussichtlich über ein Drittel aller Konsumenten ausmachen. Diese Altersgruppe ist eine wichtige Zielgruppe, deren Wertvorstellungen und Verhaltensmuster sich von denen früherer Generationen unterscheiden, und die es zu verstehen gilt, um das Potential voll auszuschöpfen. Das bedeutet, dass Unternehmen innovative digitale Marketingstrategien entwickeln und die Kanäle nutzen müssen, die für die Gen Z relevant sind. In den letzten Jahren hat eine Plattform besonders die Aufmerksamkeit der Generation Z auf sich gezogen - TikTok. Die Social-Media-Plattform hat sich innerhalb kurzer Zeit zu einer globalen Sensation und einem bedeutenden sozialen Netzwerk mit über einer Milliarde aktiven Nutzern weltweit entwickelt. Diese Bachelorarbeit widmet sich daher den Fragen, inwiefern Unternehmen mithilfe von TikTok als Marketingplattform die Generation Z erreichen und ansprechen können sowie der Rolle, die die spezifischen Merkmale und Charakteristika dieser Generation dabei spielen. Um fundierte Schlussfolgerungen ziehen zu können, wurde sowohl nationale als auch internationale Fachliteratur sowie Studien herangezogen. Durch die Berücksichtigung einer breiten Palette von Quellen wurde ein umfassendes Bild der Generation Z als Zielgruppe für die Marketingkommunikation erstellt. Für die Untersuchung von TikTok als Marketingkanal wurden verschiedene Quellen verwendet, darunter offizielle Quellen wie die TikTok-Website und das TikTok Business-Portal. Es wurden auch branchenspezifische Publikationen, Blogs, Studien und Analysen zu TikTok und seiner Bedeutung im Marketing herangezogen. Marktforschungsberichte wurden genutzt, um Informationen über die Nutzungsgewohnheiten und Präferenzen der Zielgruppe auf TikTok zu erhalten. Durch die sorgfältige Untersuchung dieser vielfältigen Quellen konnte ein umfassendes Verständnis von TikTok als Marketingkanal für die Erreichung der Generation Z entwickelt werden. Im Rahmen dieser Arbeit konnte festgestellt werden, dass die Generation Z die Zielgruppe der Zukunft darstellt. Um die Mitglieder der Generation Z als Zielgruppe anzusprechen, ist eine Marketingkommunikation erforderlich, die hauptsächlich online und idealerweise über Social-Media-Plattformen stattfindet. Insbesondere TikTok hat sich als vielversprechende Marketingplattform erwiesen, um die Generation Z zu erreichen und mit individuellen und relevanten Inhalten anzusprechen.
The primary objective of this thesis is to examine the lean accounting transformation, which involves applying lean management principles to the accounting domain. In recent years, various sectors, including manufacturing, healthcare, and services, have experienced success with lean management practices. Nevertheless, the implementation of lean accounting within financial management has not been as extensively explored. This research aims to bridge that gap by scrutinizing the benefits and potential drawbacks of adopting lean accounting practices in business operations.
This research uses a combination of qualitative techniques and an extensive literature review to better understand the present subject matter. By describing the ideas of lean management and standard accounting and highlighting the fundamental distinctions between the two systems, the literature study lays a theoretical framework. The case studies illustrate the benefits of adopting lean accounting processes with real-world examples of firms that have made the transition effectively.
In the quantitative analysis of lean accounting's impact, both financial and operational factors are examined extensively. The results indicate that companies embracing lean accounting practices experience significant improvements in productivity, cost reduction, and decisionmaking quality. By highlighting the potential gains to be made by incorporating lean techniques into accounting procedures, this study adds to the current body of information on lean management. The findings offer practical implications for accounting professionals, business leaders, and policymakers interested in leveraging lean accounting to drive organizational performance improvement. The thesis finishes with suggestions for further study in this area, lean accounting.
Die Analytik von Pflanzenkohle ist besonders im Hinblick auf einen möglichen Einsatz in der Landwirtschaft als Düngemittel Ersatz wichtig, da bei der Herstellung krebserregende polyzyklische aromatische Kohlenwasserstoffe (PAK) entstehen. Die PAK-Analytik bietet die Möglichkeit zu überprüfen und zu kontrollieren, wie viel belastetes Material auf diese Weise in die Umwelt eingeführt wird. In dieser Arbeit werden mögliche Methoden zur Extraktion und Analyse im Hinblick auf einen Schnelltest mit der bestehenden Methode bestehend aus Soxhlet-Extraktion und GC-MS Analyse verglichen. Untersucht werden die 16 EPA-PAK. Ein Schnelltest würde den Herstellern von Pflanzenkohle eine günstigere und engmaschigere Überwachung ihrer Produkte bieten.
Für die Extraktion wurden Ultraschallbad, Schüttler und Mikrowelle getestet, sowie verschiedene grüne Lösemittel als mögliche Alternativen zum momentan verwendeten Toluol. Die Extraktion mit 6 h Ultraschallbad hat mit 64% im Verhältnis zur Soxhlet am besten abgeschnitten. Bei dem Vergleich zweier Ultraschallbad-Extrakte mit den Soxhlet-Referenzen wurden jedoch 43 % und 93 % für die Summe der 16 EPA PAK gemessen. Die Methode bedarf also weiterer Untersuchungen.
Für die Analyse wurde HPTLC mit RP-18 Platten und einem Acetonitril-Wasser-Gemisch als mobile Phase getestet. Es wurden drei mögliche Methoden für die Gestaltung eines Schnelltestes getestet, ein Summenpeak mit allen 16 EPA-PAK und Naphthalin oder Benzo[a]pyren als Indikatorsubstanz. Aus diesen Versuchen geht das Standard-Additionsverfahren mit Benzo[a]pyren erfolgreich hervor, da die Ergebnisse durch die GC-MS-Analyse der gleichen Extrakte bestätigt werden konnten. Die Bestimmung von LOD und LOQ bestätigt, dass die Methode empfindlich genug ist, um den nötigen Messbereich erfassen zu können. Es wurden auch Versuche mit Coffein imprägnierten Platten durchgeführt. Diese Methode ist jedoch wegen der notwendigen Zweifachentwicklung deutlich aufwendiger und wurde daher nicht für die quantitativen Versuche gewählt.
Empfehlungssysteme sind auf E-Commerce-Webseiten omnipräsent und unterstützen die Nutzer an bestimmten Touchpoints beim Onlineshopping, indem sie auf Produkte aufmerksam machen. In den meisten Anwendungsfällen werden Produkte empfohlen, die den Interessen der Nutzer entsprechen oder einen Warenkorb komplettieren sollen. Während klassische Empfehlungssysteme die Nutzer meistens zu Beginn oder zum Ende einer Produktannäherung erreichen, finden sie dazwischen selten Anwendung. Dabei könnten Empfehlungssysteme bereits in die Navigations-Journey der Nutzer integriert werden und so maßgeblich zur Produktauffindbarkeit beitragen. Trotz der Tatsache, dass Empfehlungssysteme maßgeblich zum Geschäftserfolg im Online-Handel beitragen, ist ihre Integration in die Navigation von E-Commerce-Plattformen noch wenig erforscht.
Ziel dieser Arbeit ist es daher zu ergründen, wie ein Empfehlungssystem in der lokalen Navigation von E-Commerce-Plattformen ausgestaltet sein sollte. Dabei soll der Prototyp eines Empfehlungssystems in der lokalen Navigation konzipiert werden, indem einerseits echte Warenkorbdaten einer E-Commerce-Plattform und andererseits Nutzerpräferenzen untersucht werden. Die Untersuchung umfasst die algorithmische Datenverarbeitung von Warenkorbdaten und die Durchführung einer quantitativen Befragung. Darüber hinaus wurde domänenspezifisches Wissen über die Verfahren, Algorithmen, Designkriterien und weitere Erfolgsfaktoren recherchiert.
Die Ergebnisse deuten darauf hin, dass die alleinige Verarbeitung von Warenkorbdaten nicht ausreichend für ein navigatorisches Empfehlungssystem ist, obwohl sich die Alternating Least Squares Matrixfaktorisierung als geeignetes Verfahren herausgestellt hat. Des Weiteren können Empfehlungssysteme in der lokalen Navigation sowohl einen positiven als auch einen negativen Einfluss auf die Nutzerzufriedenheit haben. Aus den Ergebnissen konnte ein detaillierter Prototyp konzipiert und vorgestellt werden. Bei diesem Prototyp handelt es sich um ein Session-basiertes Empfehlungssystem, das den Onlineshopping-Kontext der Nutzer ermitteln kann. Auf dieser Basis kann das System Produktkategorien in Echtzeit empfehlen, die zu diesem Kontext komplementär sind oder einen Social Proof abbilden.
As e-commerce platforms have grown in popularity, new difficulties have emerged, such as the growing use of bots—automated programs—to engage with e-commerce websites. Even though some algorithms are helpful, others are malicious and can seriously hurt e-commerce platforms by making fictitious purchases, posting fictitious evaluations, and gaining control of user accounts. Therefore, the development of more effective and precise bot identification systems is urgently needed to stop such actions. This thesis proposes a methodology for detecting bots in E-commerce using machine learning algorithms such as K-nearest neighbors, Decision Tree, Random Forest, Support Vector Machine, and Neural Network. The purpose of the research is to assess and contrast the output of these machine learning methods. The suggested approach will be based on data that is readily accessible to the public, and the study’s focus will be on the research of bots in e-commerce.
The purpose of the study is to provide an overview of bots in e-commerce, as well as information on the different kinds and traits of bots, as well as current research on bots in e-commerce and associated work on bot detection in e-commerce. The research also seeks to create a more precise and effective bot detection system as well as find critical factors in detecting bots in e-commerce.
This research is significant because it sheds light on the increasing issue of bots in e-commerce and the requirement for more effective bot detection systems. The suggested approach for using machine learning algorithms to identify bots in ecommerce can give e-commerce platforms a more precise and effective bot detection system to stop malicious bot activities. The study’s results can also be used to create a more effective bot detection system and pinpoint key elements in detecting bots in e-commerce.
Aluminiumgussbauteile spielen heutzutage in vielen Branchen, wie der Automobilindustrie und der Luft- und Raumfahrtindustrie eine wichtige Rolle. Sie zeichnen sich durch hohe Festigkeit und Steifigkeit bei vergleichsweise geringem Gewicht aus. Bei der Herstellung von Aluminiumgussbauteilen, kommt es prozessbedingt immer zu Defekten im Werkstoff. Mit Computer Tomographie Aufnahmen können diese Defekte zerstörungsfrei detektiert werden. Anschließend sollen die Defekte in Finite-Elemente-Methode Berechnungen berücksichtigt werden. Dies bietet einen entscheidenden Vorteil bei der Schadensvorhersage dieser Bauteile.
In dieser Masterarbeit wurde zwei Programme entwickelt, welche das Mapping von Defekten aus CT-Aufnahmen eines Aluminiumgussbauteils auf ein LS-Dyna Netz ermöglichen. Dadurch können die Defekte und damit die Porosität eines Gussbauteils in der Festigkeitsberechnung berücksichtigt und die Schadensvorhersage verbessert werden. Die Programmierung erfolgte in Python.
Das weiterentwickelte Mapping-Programm benötigt zwei Input Dateien. Zum einen wird die Defektdatei aus den CT-Aufnahmen benötigt und zum anderen ein LS-Dyna Netz. Die komplexen Defektgeometrien werden in dem Mapping-Programm vereinfacht als umschließende Kugeln um den Defekt beschrieben. Diese Vereinfachung ist aufgrund der benötigten Rechenleistung notwendig. Anschließend prüft das Mapping-Programm alle Kollisionen zwischen Elementen des FE-Netzes und den Defekten und ermittelt für jedes Element ein Schnittvolumen. Aus dem Schnittvolumen und dem Elementvolumen wird die Porosität berechnet. Die Rechenzeit für ein Bauteil mit 107379 Elementen beträgt 480 Minuten.
Ein zweites, neu entwickeltes Programm ermöglicht das Mapping der wahren Porengeometrie auf FE-Netze. Durch die optimierte Porenbeschreibung wird eine höhere Genauigkeit beim Mapping der Defekte erreicht. Die Rechenzeit beträgt bei einem Bauteil mit 107379 Elementen lediglich 15 Minuten.
Ziel dieser Masterarbeit ist es, das Mapping-Programm zu optimieren, damit es neben Hexaedern weitere Elementtypen verarbeiten kann. Darüber hinaus sollte die Porenbeschreibung verbessert werden, um genauere Ergebnisse zu erhalten. Dafür wurde ein zweites Programm mit einer verbesserter Porenbeschreibung entwickelt, dass zudem deutlich geringere Rechenzeiten benötigt.
5000er-Aluminiumlegierungen neigen bei der Umformung zur Bildung von Fließfiguren durch den PLC-Effekt. Dadurch sind die Anwendungsmöglichkeiten stark eingeschränkt, weil hohe Ansprüche an die Oberflächenqualität nicht erfüllt werden können. Der PLC-Effekt kann jedoch unter bestimmten Bedingungen unterdrückt werden, so dass das Umformpotential stark vergrößert werden kann. In dieser Arbeit wurden die Einflüsse der Dehnrate und des Dehnungszustandes auf das Auftreten des PLC-Effektes an der Legierung EN AW-5182 experimentell untersucht. Dazu wurden Versuche mit verschiedenen Dehnraten und an unterschiedlichen Probengeometrien durchgeführt. Bei den Flachzugversuchen nahm die kritische Dehnung, die Dehnung ab welcher der PLC-Effekt auftritt, im untersuchten Dehnratenbereich mit zunehmender Dehnrate zu. Ab einer nominellen Dehnrate von 5,2/s, bzw. einer von-Mises-Dehnrate von 3,4/s wurde kein PLC-Effekt mehr beobachtet. Die auftretenden PLC-Band-Typen, deren Form und Bewegung entsprach den Beobachtungen von älteren Untersuchungen ([AHZ02]) an der gleichen Aluminiumlegierung. Nur wurde damals bereits ab einer Dehnrate von 0,1/s kein PLC-Effekt mehr nachgewiesen. Als Hauptursache für diesen Unterschied wird eine andere Messtechnik oder Auswertemethode der älteren Untersuchungen vermutet. An den geprüften Proben mit PLC-Effekt waren mit bloßem Auge keine Fließfiguren zu erkennen. Zu Versuchen am ebenen Dehnungszustand mit Kerbzubproben sind keine Literaturwerte bekannt. Die Versuche zeigen, dass der PLC-Effekt dort auch auftritt und die kritische Dehnung mit zunehmender Dehnrate linear ansteigt. Ab einer von Mises-Dehnrate von 1,7/s wurde kein PLC-Effekt mehr beobachtet. Die auftretenden PLC-Bänder waren feldlinienförmig. Auch an den Scherzugproben trat der PLC-Effekt auf. Die kritische Dehnung nahm überwiegend linear mit zunehmender Dehnrate zu. Doch aufgrund nur kleiner Stufen im Dehnungs-Zeitverlauf war eine präzise Auswertung der kritischen Dehnung nicht möglich. Die PLC-Bänder waren parallel zur Hauptschubrichtung orientiert und bewegten sich nur geringfügig. Die an den Nakajima-Proben beobachteten PLC-Bänder zeigten ein deutlich anderes Verhalten als die der Zugversuche. Es traten immer mehrere PLC-Bänder gleichzeitig auf und ihrer Bewegungen waren geringer als an den Zugversuchen ähnlicher Dehnrate. Dadurch waren an den Nakajima-Proben mit PLC-Effekt mit bloßem Auge merkliche Fließfiguren zu sehen. Als Ursache für das andere Verhalten der PLC-Bänder wird der Reibkontakt zum Ziehstempel vermutet. Der PLC-Effekt nahm mit zunehmender Spannungsmehrachsigkeit stetig ab und war bei Erreichen des äquibiaxialen Spannungszustandes nicht mehr zu beobachten. In der Gesamtauswertung wurde gezeigt, dass das Umformpotential durch den PLC-Effekt stark eingeschränkt wird. Mit zunehmender Dehnrate kann das Umformpotential jedoch vergrößert werden und ab einer von-Mises-Dehnrate von etwa 3/s kann der komplette Umformbereich von EN AW 5182 ausgeschöpft werden. Die Versuchsergebnisse müssen nun noch validiert werden. Durch die anderen Bedingungen in industriellen Umformprozessen, können sich Abweichungen zu den Laborversuchen ergeben. Vor allem die Unterschiede zwischen den Zugversuchen und den Nakajima-Versuchen lassen solche Abweichungen als nicht unwahrscheinlich erscheinen.
Der Eignungsnachweis von Prüfprozessen ist sowohl für die Industrie, als auch für Forschungszwecke ausschlaggebend. Dabei sind die Genauigkeit, Präzision sowie die Messbeständigkeit der Messergebnisse von der zu untersuchenden Messeinrichtung mit statistischen Methoden auszuwerten. Mit Leitfäden wird unter einer sog. Messsystemanalyse die Fähigkeit einer Messeinrichtung mit den dazugehörigen statistischen Kennwerten beurteilt. Die Messsystemanalyse unterteilt sich in zwei Typen, wobei die Konsistenz bzw. Messdatenstreuung mit den entsprechenden Kennwerten beurteilt werden können. Unter MSA Typ 1 wird anhand Mittelwerte und Standardabweichungen von Wiederholmessungen die Konsistenz und Genauigkeit mit den Cg- bzw. Cgk-Indizes bewertet, die höher als 1,33 sein müssen, um die Messeinrichtung als fähig zu klassifizieren. Durch MSA Typ 2 wird die Präzision mit dem % R&R-Kennwert (Wiederholbarkeit & Reproduzierbarkeit) bewertet. Messeinrichtungen mit einem % R&R-Kennwert unterhalb 20 % liefern Messdaten mit einer ausreichenden Präzision, d.h. dass die Mittelwerte der Messdaten nicht signifikant voneinander unterscheiden. Die im Rahmen dieser Arbeit untersuchte akustische Messeinrichtung weist einen Cg-Index von 1, 58, einen Cgk-Index von 2, 13 und einen % R&R-Wert von 6, 56 % auf, weshalb die Messdaten mit einer hohen Konsistenz und Präzision erfasst werden.
Die vorliegende Bachelor-Arbeit entstand bei der Robert Bosch GmbH und befasst sich mit der Untersuchung elektrischer Antriebe, dessen Leistungsverhalten mithilfe des Rotormagnetfeldes bestimmt werden. Sie ist Bestandteil des Projektes „MagCam - Examination“ und beinhaltet als Hauptaufgabe die Rastmoment (engl. cogging torque) -Messung an elektrischen Antrieben mithilfe des intelligenten Messsystems „MagCam“. Anhand der Messung des Rotormagnetfeldes wurde das Rastmoment des elektrischen Motors quantifiziert und dessen Ursachen auf der Bauteilebene identifiziert.
Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung kleiner Elektromotoren
(2023)
Die vorliegende Arbeit beschäftigt sich mit der Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung mit gekerbten Wellen, die innerhalb kleiner Elektromotoren für unterschiedliche Anwendungen mit spezifischen Anforderungen eingesetzt werden. Die Arbeit kann in vier Schritte unterteilt werden.
Im ersten Schritt werden die relevanten Schädigungsmechanismen bestimmt, die während der Betriebszeit der Verbindung für ein Ausfall der Baugruppe sorgen können.
Anschließend wurde aus der Baukastenannahme des Geschäftsbereichs Electrical Drives der Robert Bosch GmbH die Anforderungen an die jeweilige Ausführung abgeleitet und aufgeführt.
Um zu überprüfen, ob die eingesetzten Welle-Nabe-Verbindung die entstehenden Belastungen übersteht, wurde anschließend ein Berechnungskonzept durch Anpassungen an die spezielle eingesetzte Welle-Nabe-Verbindung erstellt, wodurch der Anwender die Möglichkeit hat, die zu erwartenden Fügekräfte bei der Herstellung der Verbindung, sowie das jeweilige übertragbare Drehmoment.
Im letzten Schritt werden die gesammelten berechneten Ergebnisse mit bereits vorhandenen Versuchsdaten der Ausführungen mit Einsatz einer 8 mm Welle aus C60 +C und einer Kerbanzahl von 8 symmetrisch angeordneten Kerben und einer Paketlänge von 18 mm , sowie einer Ausführung mit 8 mm Wellen aus C45 +AC, die lokal induktiv vergütet wurden, mit einer Kerbanzahl von 4 symmetrischen Kerben mit einer Paketlänge von 23 mm verglichen und evaluiert.
Eine schlechte Erreichbarkeit junger Zielgruppen und hohe Preise, sind Gründe für die schwindende Beliebtheit des Werbeformats TV-Werbung. Unternehmen greifen zunehmend auf Online-Werbung zurück, um ihre Produkte kostengünstig und gezielt zu vermarkten. Eine neue, digitale Form der TV-Werbung, Addressable TV, verspricht nun neue Chancen für eine Rückkehr der Werbung über den "Big Screen".
Ziel der vorliegenden Arbeit ist es Handlungsempfehlungen für Werbetreibende in Bezug auf Addressable TV abzuleiten. Es soll geklärt werden unter welchen Umständen und für welche Art von Unternehmen eine Nutzung erfolgversprechend sein kann.
Die vorliegende Bachelorarbeit untersucht die Anwendung der Transformer-Architektur bei der Entwicklung eines Chatbots für die Auskunft von Studieninformationen. Sie bietet eine gründliche Einführung in Chatbots, deren Funktionsweise und Klassifikation sowie in die Grundlagen neuronaler Netzwerke, Deep Learning und Natural Language Processing. Insbesondere die Transformer-Architektur und ihre Hauptkomponenten werden eingehend analysiert. Im Zuge dessen werden auch aktuelle Forschungen im Bereich Large Language Models und Fine-Tuning berücksichtigt.
Im praktischen Teil erfolgt die Darstellung der Konzeption, Implementierung und Evaluierung eines Chatbots für die Studienauskunft. Der erstellte Chatbot nutzt eine semantische Suche in Kombination mit einem Large Language Model, was sich als attraktive Alternative zu herkömmlichen Chatbots erweist. Zwar ist der aktuelle Entwicklungsstand des Chatbots noch nicht für die produktive Nutzung geeignet, dennoch zeigt er Potenzial für vielfältige Einsatzmöglichkeiten bei fortlaufender Entwicklung.
Die Arbeit schließt mit einer Diskussion ethischer Aspekte und zeigt zukünftige Forschungsmöglichkeiten auf. Die erzielten Erkenntnisse könnten für eine Vielzahl von Kontexten relevant sein und einen signifikanten Beitrag zur Entwicklung effizienter und genauer Informationsabfragesysteme leisten.
Leadgenerierung durch Marketing Automation im Vorfeld einer Messe am Beispiel der Firma SensoPart
(2023)
This master’s thesis presents a comprehensive report on a research project carried out in collaboration with SensoPart, a prominent manufacturer of sensors for industrial automation processes. The study focuses on the strategic planning, execution and analysis of a targeted lead generation campaign to support SensoParts participation in a major automation themed trade show. The decision-making process and different approaches used throughout the project are explained in a well-founded way, allowing the reader to understand the underlying thoughts and strategies. In addition, the elements of the campaign, including visuals such as images, graphs and key statistics, are presented to enhance understanding.
Ziel dieser Arbeit ist die Modellierung und Nutzung eines digitalen Zwillings am Beispiel eines realen Tiny-Houses. Dazu werden für die Komponenten der technischen Gebäudeausrüstung Wärmepumpe, thermische Speicher, thermoaktives Bauteilsystem, PVT-Kollektoren und Batterie als Grey-Box-Modelle modelliert und in der Python-Umgebung umgesetzt. In dieser Arbeit wird auf die physikalischen Hintergründe und mathematischen Formulierungen für jede Komponente eingegangen.
In einem automatisierten Programm werden die digitalen Komponenten mit Messwerten aus dem realen Anlagenbetrieb verknüpft. Dieses Skript wird zu Fehlererkennung verwendet. Dabei konnte ein fehlerhafter Betrieb der PVT-Kollektoren bewiesen werden.
Die Verknüpfung der einzelnen Komponenten zum digitalen Zwilling wird zur Betriebsoptimierung verwendet. Hierzu wird die Simulation des Ausgangszustands mit verschiedenen Optimierungsstrategien verglichen. Dabei konnte der Anlagenbetrieb hinsichtlich Komfortbedingungen und Energieeffizienz deutlich optimiert werden. Die finale Optimierungsstrategie basiert auf einereinfachen Wettervorhersage.
Mit der Modellierung und Nutzung eines digitalen Zwillings trägt diese Arbeit dazu bei, innovative Lösungen für die zukünftige Entwicklung und Gestaltung von Gebäuden sowie die Optimierung bereits bestehender Gebäude mithilfe digitaler Zwillinge voranzutreiben.
Ansätze für den Einfluss der Social-Media-Kanäle TikTok und Instagram auf die Kaufentscheidung
(2023)
Social-Media-Nutzer und Nutzerinnen sind online und lernen dadurch neue Produkte kennen. Gerade auf Social-Media-Plattformen wie Instagram und TikTok werden die Nutzer und Nutzerinnen durch verschiedene Mittel häufig auf Produkte aufmerksam gemacht und zum Kaufen motiviert.
Das Ziel der vorliegenden Arbeit ist es, herauszufinden welche Aspekte auf den Plattformen Instagram und TikTok die Nutzenden dazu animiert bei einem Drogerieunternehmen einzukaufen. Dazu wird die folgende Forschungsfrage gestellt: Wie kann ein Drogerieunternehmen die Kaufentscheidung auf Instagram und TikTok beeinflussen?
Aus den resultierenden Ergebnissen einer qualitative Studie mittels 8 Interviews werden Handlungsempfehlungen für die Unternehmen der Drogeriebranche abgeleitet. Die Ergebnisse der Forschung sind Ansätze, welche Drogerien auf den Social-Media-Plattformen nutzen können, um die Kaufentscheidung ihrer Follower und Followerinnen positiv zu beeinflussen.
Singapore’s success in transforming itself from a poor, vulnerable economy to one of the richest countries in the world (IMF, 2016) is nothing short of inspirational to many small economies around the globe. Given its lack of resources, Singapore relied upon foreign investors to fuel its growth not only through cash injection into the economy in the form of Foreign Direct Investments (FDI) but also to help upgrade its skills and technological stock. This study looks at how Singapore inspired many Multi-National Corporations (MNCs) into pouring a large sum of investments into this small ailing citystate and if this idea can be generalized to apply it in other economies, especially in Oman.
In a bid to explain the large flow of Capital into an economy, this study moves on further to review most prominent literature in the field since Macdougall (1958) first laid the groundwork for the subsequent theories on FDI. Based on the review of several previous studies, the most significant determinants of FDI were found to be government policy and political stability, inflation rate as a proxy for economic stability, quality of infrastructure and institutions, market size of the host country, openness to trade, tax policies and access to low cost factors of production.
Through a case study method with the inductive approach, this study finds that Singapore excels in all of the determinants of FDI except for the market size of the host country and access to low-cost factors of production. However, it more than compensates for these shortcomings with its strategic geographical location and numerous bilateral and regional trade agreements that give it access to markets around the region. Oman like Singapore ranks well in many of these determinants that make it a potential destination for investment. However, the sultanate could gain more interest from the MNC’s to help its growth by optimizing its policies to lower existing barriers, easing immigration laws to meet the short term skill shortage, allowing for 100 percent foreign ownership, allowing for more liberal property rights, working to improve corruption perception and opting for more trade agreements to give it easy access to larger markets. Moreover, the economy’s heavy reliance on hydrocarbon exports is seen as a major risk by investors as it creates an economic vulnerability which could potentially overshadow many other benefits of investing in the sultanate. Besides the aforementioned determinants, a lot also depends on the success of Oman’s diversification plans.
Diese Thesis entstand innerhalb der Entwicklung einer technischen Lösung für immersive Beschallung, des Kollektivs ZYKON (siehe Vorwort) Audio aus Offenburg. Gegenstand der hier vorgestellten Arbeit ist eine „immersive Audio Installation“ für Festivals und Veranstaltungen. Genauer, eine technische Ausarbeitung eines Prototyps, innerhalb geltender Richtlinien für Veranstaltungs-technik, mit dem Titel „Konzept & Entwicklung einer immersive Audioinstallation“.
Die Arbeit enthält folgende Punkte:
- was ist 3D- oder Immersive Audio?
- welche Möglichkeiten und Grenzen gibt es?
- Welche Variante der technischen Umsetzung ist für ZYKON die Richtige und
warum?
- Die technische Entwicklung von der Idee des Konzepts bis hin zur finalen
Version der Installation inkl. Modellen, Pläne, technischer Dokumentation.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Im Rahmen dieser Abschlussarbeit wurde ein automatisertes Test-Framework für eine Datenanalyse-Software namens MARS entwickelt. Der Zweck der Entwicklung dieses Frameworks ist es, die von der Software, zurückgegebenen Ergebnisse zu testen und zu vergleichen. In Zukunft soll dieses Framework verwendet werden, um den Start von Tests bei jeder neuen Version von MARS zu automatisieren.
Darüber hinaus ist dieses Framework in zwei Versionen erhältlich. Die erste ist eine grafische Version, um bestimmte Tests gezielt auszuführen und zu evaluieren. Die zweite Version ist eine Kommandozeilenversion, die es ermöglicht, schnell mehrere Tests zu generieren. Diese Version kann bspw. von einem Jenkins-Server aus gestartet werden.
Das Test-Framework wurde mit der Programmiersprache Python erstellt und mit dem Qt-Framework grafisch unterstützt. Die Vielzahl an Modulen und die große Anzahl an Nutzern machen Python zu einer beliebten Sprache für diese Art von Anwendungen. Die hohe Modularität von Qt für Python und die einfache Handhabung machen es zu einem reichhaltigen Werkzeug für die Erstellung von grafischen Benutzeroberflächen.
Extensible Authentication Protocol (EAP) bietet eine flexible Möglichkeit zur Authentifizierung von Endgeräten und kann in Kombination mit TLS für eine zertifikatsbasierte Authentifizierung verwendet werden. Motiviert wird diese Arbeit von einer potenziellen Erweiterung für PROFINET, die diese Protokolle einsetzen soll.
Dabei soll eine sicherer EAP-TLS-Protokollstacks für eingebettete Systeme in der Programmiersprache Rust entwickelt werden. Durch das Ownership-System von Rust können Speicherfehler eliminiert werden, ohne dabei auf die positiven Eigenschaften von nativen Sprachen zu verzichten. Es wird ein besonderes Augenmerk auf wie die Verwendung klassischer Rust-Bibliotheken im Umfeld von eingebetteten Systemen, den Einfluss des Speichermodells auf das Design, sowie die Integration von C-Bibliotheken für automatisierte Interoperabilitätstests gelegt.
Das Ziel dieser Arbeit ist die technische Konstruktion eines Prototyps für einen Kopf-und Rumpfsimulator aus dem 3D-Druck mit integriertem Zwei-Kanal-System zur Freifeldmessung akustischer Signale. Die akustischen Eigenschaften sind abhängig von der anatomischen Geometrie eines menschlichen Schädels und des Gehörs, somit soll die Konstruktion des Prototyps möglichst realitätsgetreu nachgeahmt werden. Der Prototyp soll technische Anforderungen wie den Ein- und Ausbau von unterschiedlichen Mikrofonen und Pinna-Modellen gewährleisten.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Die Komplexität von Softwareprojekten hat in den letzten Jahren stetig zugenommen. Um den gleichzeitig steigenden Anforderungen an die Codequalität gerecht zu werden, setzen auch ursprünglich dynamisch typisierte Programmiersprachen zuhnemend auf statische Typisierung. Dies kann in Form von externen Werkzeugen geschehen, die zusätzlich zum eigentlichen Compiler den Code auf Typsicherheit überprüfen, oder alternativ durch Erweiterung der Compiler selbst, um die Unterstützung für statische Typisierung direkt in der Sprache zu verankern. Ziel des etylizer-Projekts ist es, für die Programmiersprache Erlang zunächst ein solches externes Tool bereitzustellen und langfristig Teil der Compiler-Toolchain zu werden.In dieser Arbeit wird der Typchecker um die Fähigkeit erweitert, Erlang-Projekte vollständig zu verifizieren. Dafür wird zunächst die interne Symboltabelle erweitert, die etylizer nutzt, um Verweise auf Funktionen und Typen aus anderen Modulen aufzulösen. Die Implementierung der Symboltabelle wird so angepasst,dass sie zur Laufzeit um alle für das aktuell geprüfte Modul benötigten Symbole erweitert wird. Um die Laufzeit im Rahmen zu halten, wird ein Algorithmus entwickelt, der die Abhängigkeiten zwischen den Source-Code Dateien des Erlang-Projekts erkennt und anhand dieser entscheidet, welche Dateien sich seit dem letzten Durchlauf geändert haben und deshalb erneut überprüft werden müssen.
Das Ziel der Arbeit ist zu erforschen, ob die Erstellung eines Digital Twin des Hamburger Hafens durch Open Source Lösungen realisierbar ist. Die Grundlagen führen in die Themen Digital Twin und Smart City ein. Es wird darauf eingegangen, welche Vorteile durch die Verwendung eines Digital Twins gewonnen werden können und wie sich die verschiedenen Digital Twin-Typen unterscheiden. Es werden verschiedene Architekturen anhand eines Smart City Index weltweit evaluiert, um ein geeignetes Digital Twin-Framework zu finden. FIWARE hat sich als geeignetes Frame- work erwiesen und wird im Anschluss analysiert. Anhand der Evaluierung wird ebenfalls das 3D-Visualisierungs Framework CesiumJS als Open Source Lösung ermit- telt. Das Unternehmen Hamburg Port Authority wird vorgestellt und die interne IT- Infrastruktur betrachtet. Anhand der Architekturdokumentation arc42 werden die Anforderungen und die erforderliche Architektur in Zusammenarbeit mit der Hamburg Port Authority ermittelt. Im Anschluss wird der Architekturentwurf anhand eines Prototyps implementiert. Probleme oder Anforderungen, die nicht erfüllt werden können, werden beschrieben. Abschließend werden die Ergebnisse und das Fazit der Hamburg Port Authority zusammengefasst.
Um die Ausmaße des Klimawandels und die Emission von Treibhausgasen zu verringern, wird ein Umschwung auf erneuerbare Energien angestrebt. Dazu zählt unter anderem der Wandel von Öl und Gasheizungen, hin zu Wärmepumpen. Aufgrund seiner guten Beurteilung hinsichtlich Nachhaltigkeit und Umweltbeeinflussung, findet Propan als Betriebsstoff jüngst eine zunehmende Beachtung. Da dieses ein brennbares Kältemittel ist, müssen solche Wärmepumpen aus Sicherheitsgründen genauer untersucht werden. Ziel der vorliegenden Arbeit ist es deshalb, den Fall von Propan-Leckagen in den Heizkreislauf einer Propan-Wärmepumpe unter verschiedenen Versuchsbedinungen zu untersuchen. Des weiteren wird untersucht, wie gut das Propan im Leckagefall von einem Gasabscheider abgeschieden werden kann, um das Risiko für den Endanwender zu minimieren.
Um die Auswirkungen einer Propanleckage in den Heizkreis untersuchen zu können, werden unterschiedliche Messungen bei veränderbaren Parametern durchgeführt. Es wird untersucht, wie sich das Propan bei unterschiedlichen Leckagemassenströme Propan, unterschiedlichen Strömungsgeschwindigkeiten des Wassers und unterschiedlichen Temperaturen im Heizkreis verhält. Außerdem wird der Gasabscheider evaluiert, um zu untersuchen, unter welchen Bedienungen das meiste Propan abgeschieden werden kann.
Die Auswertung der Messungen zeigen, dass lediglich der Leckagemassenstrom an Propan einen Einfluss auf die Menge des abgeschiedenen Propans und die dafür benötigte Zeit hat. Umso größer die Propanleckage in dem Fall ist, umso mehr Propan wird dementsprechend in kürzerer Zeit abgeschieden. Durch die Variation des Volumenstrom des Wassers verändert sich der Druck im Heizkreis und steigt bei zunehmendem Volumenstrom an. Ab einem bestimmten Druck kann nun auch Propan über ein eingebautes Sicherheitsventil und nicht nur über den Gasabscheider entweichen. Die Temperatur des Heizkreises hat keinen Einfluss auf die Messungen. Des weiteren zeigen die Messungen, dass der Gasabscheider einen Großteil des Propans abscheidet. Die Messungen zeigen außerdem, dass durch eine niedrigere Strömungsgeschwindigkeit des Wassers mehr Propan über den Gasabscheider abgeschieden werden kann.
Sicherheitstechnisch ist bei einer Propan-Wärmepumpe zu Empfehlen, dass im Fall einer Propan-Leckage das abgeschiedene Propan nach dem Gasabscheider direkt nach draußen zu leiten. Eine weitere Möglichkeit wäre es, den Gasabscheider draußen aufzustellen und das Heizwasser erst nach dem Abscheider in das Gebäude zu leiten.
Organized by the Fraunhofer Additive Manufacturing Alliance, the bi-annual Direct Digital Manufacturing Conference brings together researchers, educators and practitioners from around the world. The conference covers the entire range of topics in additive manufacturing, starting with methodologies, design and simulation, right up to more application-specific topics, e.g. from the realm of medical engineering and electronics.
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
Die akustischen Emissionen von Wasserinstallationsgeräten, insbesondere während der nächtlichen Ruhezeit in angrenzenden Räumen, können erhebliche Störungen verursachen. Die primäre Ursache dieser Belästigungen liegt in der spezifischen Funktionsweise von Wasserarmaturen, welche somit als Hauptquelle der Lärmemissionen identifiziert werden können. Hydrodynamische und -akustische Simulationen erweisen sich in diesem Zusammenhang als wertvolle Werkzeuge zur Identifikation von kritischen Bereichen, welche für die Schallabstrahlung verantwortlich sind.
In dieser vorliegenden Arbeit werden die hydrodynamischen und -akustischen Eigenschaften eines Installationsgeräuschnormals mithilfe numerischer Methoden untersucht, wobei gleichzeitig ein kommerzielles Berechnungswerkzeug zur Vorhersage von akustischen Schallfeldern in Bezug auf ein hybrides Verfahren evaluiert und validiert wird. Das Installationsgeräuschnormal dient dabei als Testfall, um die Leistungsfähigkeit des hybriden Akustikmodells in Verbindung mit einem RANS- sowie RANS/LES-Ansatz zu überprüfen. Es werden verschiedene Varianten des Installationsgeräuschnormals untersucht und mit experimentellen Messdaten validiert.
Die hydrodynamischen Simulationsergebnisse der verschiedenen Varianten zeigen eine hervorragende Übereinstimmung mit den experimentellen Daten bei der Verwendung eines RANS/LES-Ansatzes. Der Einsatz eines solchen Hybrid-Modells zur Turbulenzmodellierung hat gezeigt, dass eine verbesserte Wiedergabe von zeitabhängigen Phänomenen in der Strömung erreicht werden kann, welche in direktem Zusammenhang mit der Vorhersage der Schallausbreitung stehen und somit eine bedeutende Auswirkung darauf haben.
Die akustische Untersuchung der verschiedenen Varianten des Installationsgeräuschnormals zeigt, dass die Schallabstrahlung ausschließlich in breitbandigen Frequenzspektren erfolgt. Im Rahmen des Vergleichs mit den Messdaten lässt sich erkennen, dass eine akustische Analyse auf Basis eines hybriden Modells in Verbindung mit dem Akustikmodell vielversprechende Ergebnisse bezüglich der Vorhersage des Schallfelds liefern kann und dabei im Vergleich zu einfachen RANS-Modellen Vorteile aufweist.
As cyber threats continue to evolve, it is becoming increasingly important for organizations to have a Security Operations Center (SOC) in place to effectively defend against them. However, building and maintaining a SOC can be a daunting task without clear guidelines, policies, and procedures in place. Additionally, most current SOC solutions used by organizations are outdated, lack key features and integrations, and are expensive to maintain and upgrade. Moreover, proprietary solutions can lead to vendor lock-in, making it difficult to switch to a different solution in the future.
To address these challenges, this thesis proposes a comprehensive SOC framework and an open-source SOC solution that provides organizations with a flexible and cost-effective way to defend against modern cyber threats. The research methodology involved conducting a thorough literature review of existing literature and research on building and maintaining a SOC, including using SOC as a service. The data collected from the literature review was analyzed to identify common themes, challenges, and best practices for building and maintaining a SOC.
Based on the data collected, a comprehensive framework for building and maintaining a SOC was developed. The framework addresses essential areas such as the scope and purpose of the SOC, governance and leadership, staffing and skills, technologies and tools, processes and procedures, service level agreements (SLAs), and evaluation and measurement. This framework provides organizations with the necessary guidance and resources to establish and effectively operate a SOC, as well as a reference for evaluating the service provided by SOC service providers.
In addition to the SOC framework, a modern open-source SOC solution was developed, which emphasizes several key measures to help organizations defend against modern cyber threats. These measures include real-time, actionable threat intelligence, rapid and effective incident response, continuous security monitoring and alerting, automation, integration, and customization. The use of open-source technologies and a modular architecture makes the solution cost-effective, allowing organizations to scale it up or down as needed.
Overall, the proposed SOC framework and open-source SOC solution provide organizations with a comprehensive and systematic approach for building and maintaining a SOC that is aligned with the needs and objectives of the organization. The open-source SOC solution provides a flexible and cost-effective way to defend against modern cyber threats, helping organizations to effectively operate their SOC and reduce their risk of security incidents and breaches.
Helmut M. Rudigier hörte einen Pfarrer enthusiastisch und furchterregend über das Jüngste Gericht predigen. Als andächtiger Zuhörer mit realem Sinn für Humor versuchte er, sich das Jüngste Gericht mit dem vorhergehenden Weltuntergang etwas lebensnaher vorzustellen. Zunächst errechnete er die Anzahl der dabei abzuurteilenden Seelen und kam schnell darauf, daß es dabei ohne himmlische Organisation und ohne Computer nicht zufriedenstellen gehen kann. Ein anderer Pfarrer, dem er von seinen Vorstellungen erzählte, meinte lachend, er könne künftig nie mehr über das Jüngste Gericht predigen.
Im Spannungsfeld zwischen Himmel und der irdischen Welt werden auf freundlich-hintergründige Weise viele Probleme angesprochen. Es "menschelt" auch im Himmel, oder besser gesagt, es "himmelt" auch unter den Heiligen, die sich um den größeren Heiligenschein streiten. Und die irdischen Verhältnisse stinken in die himmlischen Gefilde. Kommen Sie vergnüglich und erwartungsvoll mit in den Himmel!
Cloud computing has revolutionized the way businesses operate by providing them with access to scalable, cost-effective, and flexible IT resources. This technology has enabled businesses to store, manage, and process data more efficiently, leading to improved competitiveness and increased revenue. The purpose of this thesis is to explore the impacts of using cloud computing from a business perspective. The research employs both primary and secondary sources of data, including a literature review, interviews with employees who have more than 5 years of experience, a questionnaire, and observations from Billwerk+ company.
The findings of this research indicate that cloud computing has had a significant impact on businesses, providing them with cost savings, improved agility and flexibility, and enhanced access to data and applications. However, it has been revealed that the benefits of cloud computing for companies may vary according to the departments of the employees. The results of this research contribute to the existing body of knowledge on the topic of cloud computing and its impact on businesses. The findings of this thesis can be used by business owners, managers, technology professionals, and students to make informed decisions about the adoption and use of cloud computing technology.
In conclusion, this thesis provides a comprehensive understanding of the impacts of using cloud computing from a business perspective, highlighting the factors that companies consider when deciding to use cloud environments and the views from different departments. The results of this research will be valuable to a wide range of individuals interested in exploring the implications of cloud computing for businesses.
In dieser Forschungsarbeit wird die Datensicherheit von Microsoft Azure analysiert und bewertet. Die Bewertung findet dabei aus der Sicht von Unternehmen statt. Im ersten Abschnitt wird zunächst der grundlegende Aufbau und die unterschiedlichen Formen des Cloud Computing beschrieben. Im zweiten Teil wird ein Vergleich der drei größten Cloud Anbieter vollzogen. Der letzte Teil besteht aus der Evaluation der Datensicherheit von Azure, wobei auf Aspekte wie Datenschutz, Bedrohungen und Schutzmaßnahmen eingegangen wird. Abschließend wird eine Empfehlung für das Unternehmen Bechtle GmbH Offenburg IT-Systemhaus abgegeben.
Im Verlauf der Arbeit stellt sich heraus, dass Azure eine ausreichende Datensicherheit bieten kann. Allerdings wird deutlich, dass durch die Kombination von mehreren Nebenfaktoren wie das Patch-Verhalten oder die Antwortzeit auf Sicherheitsschwachstellen seitens Microsofts, eine große Gefahr für die Daten von Unternehmen entstehen kann. Demnach ist Microsoft als Anbieter ein größeres Problem für die Sicherheit von Daten in Azure als der Cloud-Dienst selbst.
Wie können sich Unternehmen erfolgreich im Social-Media-Umfeld ihrer Kunden platzieren? Mit dieser Fragestellung beschäftigt sich die vorliegende Forschungsarbeit. Die sozialen Netzwerke bieten viele Möglichkeiten, um potenzielle und bestehende Kunden zu erreichen, bringen aber gleichzeitig verschiedene Herausforderungen mit sich. Der Fokus dieser Arbeit liegt auf der Plattform Instagram. Dabei wird der Nutzer fokussiert, denn der Trend im Marketing geht zur Customer Centricity.
Maßnahmen, die Nutzer zum Abonnieren animieren, können nicht eindeutig benannt werden. Sie sind individuell vom Nutzer, aber auch vom Unternehmen und den jeweiligen Inhalten abhängig. Die Probanden der Umfragenstichprobe verhalten sich nach eigener Angabe beim Konsum, der Interaktion und dem Abonnieren zurückhaltend. Lediglich 8,94 Prozent gaben an, sich regelmäßig Profile von Unternehmen anzuschauen. Noch seltener als der Konsum findet die Interaktion mit Unternehmensinhalten statt. Die Hürde zur Interaktion und dem Abonnieren ist scheinbar hoch. Die Ergebnisse zeigen, dass es keine signifikanten Unterschiede im Nutzungsverhalten zwischen den Geschlechtern, den Beschäftigungsarten oder dem Budget gibt. Das lässt darauf schließen, dass das Handeln individuell und von anderen Faktoren abhängig ist. Jedoch bestätigt dies auch, dass der Trend des Content Marketings und der Customer Centricity weiterhin eine wichtige Rolle spielen. Der Nutzer möchte individuell angesprochen werden. Dabei sollen die Inhalte sinnvoll und inspirierend sein sowie nicht werblich wirken. Es bleibt die größte Herausforderung für Unternehmen in das private Umfeld der Nutzer auf Instagram einzutreten, ohne als „störend“ empfunden zu werden. Aus diesen Gründen ist eine weitere Forschung im Bereich „Unternehmen auf Instagram“ nötig. Die Schattenseite dieses Themenbereichs ist die Schnelllebigkeit und die fehlende Transparenz, beispielsweise zum Instagram-Algorithmus. Die vorliegende Forschung dient lediglich einer ersten Einschätzung des Themas, die ein möglichst breites Bild der Wahrnehmung von Unternehmen auf Instagram sowie vom Beispiel-Unternehmen Deinzigartig abbilden soll.
Ziel dieser Arbeit ist es darzulegen, was der Dunning-Kruger-Effekt genau ist, und den aktuellen Wissensstand zu diesem Effekt zu erfassen und wiederzugeben. Wo möglich, findet eine Einordnung und Bewertung statt. Dies ist insofern von Interesse, da dieser Effekt unter anderem gerne in der Populärwissenschaft thematisiert wird, seit Erstellung der begriffsprägenden Studie hierzu aber bereits mehr als 20 Jahre vergangen sind. Diese Thesis geht zudem darauf ein, in welchen Lebensbereichen der DKE eine Rolle spielen kann, welche best practices man als Gegenmaßnahmen ergreifen kann, ob dieser kulturell unabhängig beobachtbar ist und in welchen Bereichen noch offene Fragen für die zukünftige Forschung bestehen. Für die Erstellung dieser Thesis wurden überwiegend Paper aus verschiedenen Quellen gesammelt, die sich mit dem Dunning-Kruger-Effekt direkt oder indirekt beschäftigen oder naheliegende Stichwörter beinhalten.
Der Heel-Rise Test (HRT) wird in der Klinik und der Therapie benutzt, um die Funktionsfähigkeit der Wadenmuskulatur einzuschätzen. Eine Orientierung am Normwert von 25 Wiederholungen hilft dabei, die Muskulatur als normal oder anormal einzustufen. Dieser Wert beruht jedoch auf eine älteren und nicht mehr zeitgemäßen Studie. Auch ist fraglich, ob der absolut erreichte Wert eines HRTs eine direkte Aussage über die Funktionsfähigkeit der Plantarflexoren geben kann.
Das Ziel dieser Arbeit ist somit den HRT mit einer Maximalkraftmessung auf dem Isokineten zu vergleichen und diese auf einen möglichen Zusammenhang zu prüfen. Dazu kann folgende Forschungsfrage aufgestellt werden: „Können die Messergebnisse des HRT eine positive Korrelation mit einer Maximalkraftmessung am Isokineten eingehen?“
Für die Beantwortung der Forschungsfrage ist eine quantitative Untersuchung der beidseitigen Wadenkraft von 20 jungen und gesunden Teilnehmer*innen durchgeführt worden. Dabei wurde das Bein, mit dem die Kraftuntersuchung beginnt, randomisiert. Da ein linearer Zusammenhang zwischen den HRT-Messwerten und einer Maximalkraftmessung auf dem Isokineten vermutet wird, wird dieser durch eine Korrelationsanalyse nach Bravais-Pearson geprüft.
Der Vergleich der Kraftmessungen zeigt, dass die HRT-Ergebnisse eine moderate bis hohe positive Korrelation mit den Maximalkraftwerten auf dem Isokineten eingehen. Dabei hat die Beindominanz sowie die Testreihenfolge der Beine keinen großen Einfluss auf die Ergebnisse. Untersucht man Männer und Frauen getrennt, hebt sich jedoch die positive Korrelation auf und es kann ein geringer, bis kein Zusammenhang zwischen dem HRT und der Maximalkraft auf dem Isokineten festgestellt werden. Zudem ist zu erkennen, dass Männer in allen Kraftuntersuchungen höhere Kraftergebnisse erzielt haben. Da die Stichprobe nur junge, gesunde und aktive Menschen umfasst, sind Aussagen über erkrankte Personen, ältere Menschen oder den Einfluss der Leistungsfähigkeit nicht möglich.
Durch die positive Korrelation des HRT mit dem Goldstandard der Kraftdiagnostik, der Isokinetitk, scheint die Kritik am HRT entkräftet zu werden. Jedoch sind die Ergebnisse mit Vorsicht zu betrachten, da sich bei Betrachtung des Geschlechts die positive Korrelation aufhebt. Das Ergebnis der Arbeit soll, im Anbetracht der Limitation, trotzdem ermutigen, den HRT weiterhin für die Kraftdiagnostik der Wadenmuskulatur zu nutzen. Die eingeschränkte Stichprobengröße, eine fehlende Standardisierung der HRT-Durchführung, sowie die vielen Auswahlwahlmöglichkeiten in der Isokinetik machen es kompliziert die Ergebnisse dieser Arbeit auf andere Personengruppen oder Messmethoden zu übertragen. Dennoch gibt die Untersuchung einen ersten Einblick und ermöglicht die Aussagekraft des HRT zu stützen und somit seine Bedeutung und Qualität für die Kraftdiagnostik zu verbessern.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
The goal of this thesis is to thoroughly investigate the concepts of stand-alone and decarbonization of optical fiber networks. Because of their dependability, fast speed, and capacity, optical fiber networks are vital inmodern telecommunications. Their considerable energy consumption and carbon emissions, on the other hand, constitute a danger to global sustainability objectives and must be addressed.
The first section of the thesis presents a summary of the current state of optical fiber networks, their
components, and the energy consumption connected with them. This part also goes over the difficulties of lowering energy usage and carbon emissions while preserving network performance and dependability.
The second section of the thesis focuses on the stand-alone idea, which entails powering the optical fiber network with renewable energy sources and energy-efficient technology. This section investigates and explores the possibilities of renewable energy sources like solar and wind power to power the network. It also investigates energy-efficient technologies like virtualization and cloud computing, as well as their potential to minimize network energy usage.
The third section of the thesis focuses on the notion of decarbonization, which entails lowering carbon emissions linked with the optical fiber network. This section looks at various carbon-reduction measures, such as employing low-carbon energy sources and improving energy efficiency. It also covers the relevance of carbon offsets and the difficulties associated with adopting decarbonization measures in the context of optical fiber networks.
The fourth section of the thesis compares the ideas of stand-alone and decarbonization. It investigates the advantages and disadvantages of each strategy, as well as their potential to minimize energy consumption and carbon emissions in optical fiber networks. It also explores the difficulties in applying these notions as well as potential hurdles to their wider adoption.
Finally, the need of addressing the energy consumption and carbon emissions connected with optical fiber networks is emphasized in this thesis.
It outlines important obstacles and potential impediments to adopting these initiatives and gives insights into potential ways for decreasing them.
It also makes suggestions for further study in this area.
Mit der Corona-Krise ist die digitale Bildung sehr stark in den Vordergrund gerückt. damit einhergehend wurde verstärkt E-Learning eingesetzt. Meistens wurde allerdings das volle Potenzial von E-Learning Plattformen nicht genutzt. Häufig wurden solche Systeme als Dateiablagen, Wissensdatenbanken oder nur für die Kollaboration Fähigkeiten benutzt. Aber darüber hinaus besitzen E-Learning Plattformen die Fähigkeit, eine Learning-Experience für die Lernenden zu erzeugen.
Diese Thesis beschäftigt sich mit KI-basierten Empfehlungssystemen im E-Learning Bereich. Dabei werden wissenschaftliche Arbeiten anhand der Methodik analysiert, welche Programmiersprachen, Algorithmen und Bibliotheken verwendet werden. Abhängig davon werden verschiedene prototypische Empfehlungsprogramme erstellt, wobei verschiedene Algorithmen ausprobiert werden. Diese Algorithmen werden bereinigte Tabellendateien verarbeiten, welche zuvor aus Moodle generiert werden. Dadurch sollen dann konkrete Empfehlungen erzeugt werden, die anschließend evaluiert und bewertet werden. Anschließend wird ein Fazit gezogen, worauf unter anderem auf die Probleme der verschiedenen Algorithmen hingewiesen wird und in welcher Hinsicht man das Empfehlungssystem verbessern könnte.
In dieser Arbeit sollte eine mögliche Lösung für die Stimulation im Rahmen der auditiven Hirnstammmessung geprüft werden. Mit einer Sequenz, die rechts, links und binaural periodisch stimuliert, wird überprüft, ob somit eine verkürzte Messzeit erzielt werden kann. In Kapitel 3 ist das Vorgehen diesbezüglich genauer beschrieben. Dieses Vorgehen zieht die Generierung einer Stimuli-Sequenz, sowie die beiden verwendeten Messgeräte mit ein. Zum einen wurden Messungen mit der Eclipse und zum anderen mit dem Sentiero durchgeführt. Die MATLAB-Skripte zur Ansteuerung und die Auswertung der evozierten Potenziale sind im darauffolgenden Kapitel 4 zu finden. Die Datenanalyse in Kapitel 5 beinhaltet einerseits die Messergebnisse der Eclipse. Dabei konnte mit der Sequenz erfolgreich eine ABR-Messung durchgeführt werden. Allerdings entstanden bei der Umsetzung in eine Live-Aufzeichnung der BIC Schwierigkeiten, die ebenfalls beschrieben wurden. Des Weiteren werden in Kapitel 5 die beiden Stimulus-Arten(Toneburst und Click) verglichen. Dabei konnten Messergebnisse gesammelt werden, welche die Aussage bestätigen, dass mit dem Click-Reiz höhere Amplituden der FAEP erzielt werden können. Dafür wurde von fünf Probanden die Einzelstimulation gegenübergestellt. Zudem wurde in der Analyse mit Hilfe einer Kreuzkorrelation geprüft, ob eine Verschiebung der Amplituden der rechten und linken Stimulation eine stärkere Ausprägung der DN1 zur Folge hat. Die Ergebnisse zeigten dabei jedoch keine bedeutenden Unterschiede der Amplituden, wobei auf eine Verschiebung verzichtet werden konnte. Ein weiterer Vergleich, der gezogen werden konnte, ist die Gegenüberstellung der Einzelstimulation mit der Sequenz. Für den Vergleich wurden zwei Probanden ausgewählt, die jeweils sowohl eine hohe Reproduzierbarkeit, als auch ähnliche Wellenkomplexe aufzeigten. Der Vergleich beinhaltete das zeitliche Eintreffen der evozierten Potenziale sowie die Ausprägungen der Amplituden. Die Betrachtung beschränkte sich durchweg auf die Amplituden der Welle lll und der Welle V. Bei den Ergebnissen entstand eine Befürwortung für die Verwendung der Einzelstimulationen, da diese eine verkürzte Latenzzeit der Potenziale und höhere Amplitudenausschläge zur Folge hatten. Allerdings konnte unter der Verwendung der Sequenz-Stimulation dennoch bei manchen Probanden eine deutlichere Ausprägung des DN1-Potenzials gezeigt werden.
Ob durch Stimulation mit einer Sequenz eine zeiteffizientere ABR-Messung durchgeführt werden kann, konnte während der Arbeit nicht validiert werden. Um diesbezüglich eine genauere Aussage treffen zu können, werden weitere Messdaten benötigt.
The new input method was developed for research acoustic localization, including real and virtual sound sources. For these types of research, the input method plays an important role in the investigation of the auditory localization of sound sources in the collection of valid and meaningful data. The input method using LED array is based on the localization test, which is already used in the acoustics laboratory of the Peter-Osypka-Institute. The current input method via tablet with continuous input surface generates a high inaccuracy and error variance compared to the usual discontinuous input. To minimize this type of error for future measurements, an alternative method will be implemented as part of this bachelor thesis. The methodology of the alternative input method is based on the use of a controllable LED array with rotary encoder and push button. For this, an angular range from -90° to 90° with a 1° angular resolution shall be realized. The LED-array enables a visual representation while localizing sound sources.
Die Thesis beschäftigt sich mit dem Kommunikationsprotokoll Lightweight Machine to Machine, welches für das Internet of Things entwickelt wurde. Es soll untersucht werden, wie das Protokoll funktioniert und wie es eingesetzt werden kann. Ebenfalls soll die Thesis zeigen, wie und ob Lightweight Machine to Machine über Long Term Evolution for Machines für Anwendungen mit begrenzten Ressourcen geeignet ist. Um diese Fragestellung zu beantworten, wurde das Protokoll auf Grund seiner Spezifikation und seinen Softwareimplementationen untersucht. Daraufhin wurde ein Versuchssystem entworfen und dieses anschließend auf sein Laufzeitverhalten und auf sein Energieverbrauch getestet. Die Evaluation des Protokolls ergab, dass es viele sinnvolle Funktionen zugeschnitten auf Geräte im Internet of Things besitzt und diese Funktionen kompakt und verständlich umsetzt. Da das Protokoll noch relativ jung ist, stellt es an verschiedenen Punkten eine Herausforderung dar. Die Tests des Versuchssystems ergaben, dass Lightweight Machine to Machine sich unter bestimmten Bedingungen für ressourcenbegrenzte Anwendungen eignet.
Mit zunehmender Komplexität von Softwaresystemen wird es immer schwieriger Performance Auswirkungen durch Änderungen an der Software zu erkennen. Meist werden Performance-Probleme zu spät erkannt und die Ursachensuche stellt dann eine große Hearusforderung dar, da es viele Einflussfaktoren gibt und oft nicht bekannt ist, wie lange das Problem schon besteht. Hier setzt das kontinuierliche Performance Monitoring an, denn damit wird die Performance fortlaufend zu jeder Softwareversion gemessen und der Verlauf der Performance über die Zeit erfasst.
In dieser Arbeit wird ein Konzept zu diesem Monitoring entwickelt. Konkret wird dabei die Performance eines 2D Laserscanners untersucht, der mit der Zynq Ultrascale+ MPSoc Plattform realisiert wurde. Eine wichtige Komponente des Systems stellt das verwendetete Embedded Realtime Linux dar. Deshalb wird dessen Performance, anhand definierter Parameter aus der Literatur, gemessen. Dafür werden vorhandene Tools zum Auslesen dieser Parameter untersucht und schließlich eingesetzt, um diese auf dem System zu erfassen. Eine weitere wichtige Performancekenngröße stellen die Durchlaufzeiten von Daten durch das System dar. Diese Laufzeiten werden an bestimmten Punkten im C++ Programmcode gemessen und anschließend mit einer Python Anwendung ausgewertet.
Für jede neue Softwareversion wird automatisch eine Messung der Linux Performance, sowie der Durchlaufzeiten durchgeführt. Die dabei gewonnenen Daten werden mit einem Datei basierten Ansatz in Artifactory abgelegt, aus welchen schlussendlich Auswertungen, in Form von HTML Dateien, erstellt werden. Diese enthalten verschiedene Visualisierungen der Messergebnisse einer Messung, sowie den Verlauf der Durchschnittswerte je Softwareversion. Das Ausführen der Messungen auf dem Gerät, sowie die Auswertung der Messergebnisse führt ein dafür entwickeltes Python Programm aus.
When a patient with hearing aids needs to partake in audiometry procedures they need to visit a specialist which costs both time and money. Ideally, the patient should be able to conduct these tests alone, during their own time, and without additional costs. With this idea comes the question of if whether this is possible or not, and, if it is, how.
This thesis explores the throughput of Bluetooth Low Energy and if it is configurable to have a high enough data rate to send high quality audio data with a lossless audio codec while communicating with a low end device. Additionally, this thesis will show that using Rust to develop embedded software is possible and how using it can make the process of doing so easier.
Im Leistungssport können Verletzungen den weiteren Karriereverlauf einer Athletin stark beeinflussen. Eine umso größere Rolle spielt daher der Rehabilitationsprozess. Diese Arbeit befasst sich mit den Kraftfähigkeiten des M. triceps surae nach einer Achillessehnenrekonstruktion im Bereich des Leistungsturnens. Die Quantifizierung der Kraftfähigkeiten erfolgt mit Hilfe von isokinetischen Krafttests. Dazu werden auf beiden Seiten einmal wöchentlich 2 x 3 Wiederholungen bei einer Testgeschwindigkeit von 30 deg/s durchgeführt. Die Messungen überspannen einen Zeitraum von 10 Wochen und beginnen 6 Monate postoperativ. Die Datenauswertung erfolgt mit MATLAB. Auf der unverletzten Seite werden keine oder nur geringfügige Änderungen in den Kraftfähigkeiten erwartet. Auf der verletzten Seite hingegen wird ein deutlicher Anstieg in den Kraftfähigkeiten erwartet. Die Kraftfähigkeiten werden über das maximale Drehmoment, den Drehmomentkraftstoß und die Kraftanstiegsrate (rate of force development = RFD) festgestellt. Werden die Messwerte aus der ersten und der letzten Messung verglichen, zeigen die Ergebnisse ein anderes Bild auf. Die Messwerte für die unbetroffenen Seite steigen um 17,1 % für das Drehmoment, um 17,2 % für den Drehmomentkraftstoß und um 20,4 % für die RFD. Auf der betroffenen Seite steigen die Werte respektive um 19,1 %, 15,2 % und 59,3 %. Es liegt also lediglich für die RFD ein deutlicher Anstieg im Vergleich zur unbetroffenen Seite vor. Ein anderes Ergebnis zeigt sich, wenn die Messwerte der ersten und der vorletzten Messung verglichen werden. Die Werte der unverletzten Seite steigen um 19,2 %, 19,6 % und 35,4 %. Auf der verletzten Seite hingegen, ist eine Steigerung von 32,6 %, 31,7 % und 102,2 % zu sehen. Somit liegt ein deutlicher Anstieg in dem Kraftfähigkeiten der verletzten Seite, auch in Bezug unverletzte Seite, vor. Ob es sich bei der letzten Messung um einen Ausreißer auf der betroffenen Seite handelt, lässt sich durch fehlende Folgemessungen nicht bestimmen.
Für eine fundiertere Aussage sollte ein längerer Zeitraum betrachtet werden. Aufgrund der zeitlichen Begrenzung für die Erstellung dieser Arbeit ist das leider nicht möglich.
Diese Arbeit beschäftigt sich mit der Einführung von Digital Asset Management Systemen in einem Unternehmen. Ein Digital Asset Management dient der Verwaltung von digitalen Dateien von besonderer Bedeutung, sogenannte digitale Assets. Meist handelt es sich dabei um Bilder, aber auch Videos, Textdokumente und viele andere Dateitypen können in einem solchen System verwaltet werden. Unternehmen verfolgen dabei in der Regel das Ziel, einen zentralen Speicherort für alle relevanten Assets zu schaffen, um von dort aus die Verteilung steuern und die Dateien aktuell halten zu können. Systeme dieser Art werden beispielsweise in Marketingabteilungen eingesetzt, um Markeninhalte zentral verwalten und verteilen zu können. Die Einführung eines solchen Systems erfordert aufgrund der damit verbundenen Komplexität ein strukturiertes Vorgehen. Hierzu wird in dieser Arbeit ein mehr phasiges Vorgehen vorgeschlagen, das zu einer erfolgreichen Einführung eines Digital Asset Management Systems führt. Darüber hinaus werden auf Basis dieses Phasenansatzes Erfolgsfaktoren identifiziert und vorgestellt, auf die bei der Einführung besonders zu achten ist. Die Fallstudie einer tatsächlichen Einführung aus der Praxis beleuchtet die theoretisch erarbeiteten Erkenntnisse nochmals aus praktischer Sicht und erlaubt Rückschlüsse auf das vorgestellte theoretische Vorgehen.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
Eine neue Programmiersprache zu erlernen kann für Anfänger:innen manchmal schwer sein, selbst für Programmiersprachen wie Python, die bekannt dafür sind Einsteigerfreundlich zu sein. Denn selbst wenn die Syntax eines Python Programms schnell verstanden wird, ist oft nicht direkt erkenntlich wie der Code hinter dem Programm funktioniert. Anfänger:innen können dabei auch auf ihre Grenzen stoßen, den Ablauf eines Programmes nur alleine durch den Programmcode zu verstehen. Denn der Text der den Code ausmacht, kann auch nur bis zu einem gewissen Grad vermitteln wie oder was genau abläuft. Um den Ablauf eines Programms besser vermitteln zu können, wird der Code oft z.B. mit Diagrammen visualisiert. Visuelle Elemente können ebenfalls zusätzlich zum Code mehr Unterstützung leisten. Das Thema dieser Arbeit beschäftigt sich mit der Visualisierung von Python Programmen in der Entwicklungsumgebung Visual Studio Code, um Programmieranfänger:innen und Student:innen beim Erlernen der Programmiersprache Python zu unterstützen. Die Entwicklung der Visualisierung beinhaltet, das Erstellen einer Erweiterung in Visual Studio Code, die unter anderem das Debug Adapter Protocol einsetzt um mit dem Python Debugger zu kommunizieren.
Das Thema dieser Masterthesis lautet „Camera Stream Solution – Marktübersicht, Lösungsansätze, Prototyp“. Mit dieser Arbeit wird eine Videostreaming-Lösung für die Herrenknecht-Plattform CONNECTED realisiert. Dabei geht es um die Bildschirmaufnahme von Navigations- und Steuerungsbildschirmen auf Tunnelbohrmaschinen und die Übertragung dieser Aufnahmen in die Cloud. Letztlich wird ermöglicht die Aufnahmen in nahezu Echtzeit als Videostream in einem Videoplayer wiederzugeben.
Zu Beginn werden die Grundlagen zur Datenübertragung im Internet sowie zum Streaming erläutert. Im Anschluss wird eine Marktübersicht verschiedener Streaming-Komponenten gegeben sowie einige Lösungsansätze vorgestellt und anhand ausgewählter Kriterien verglichen. Im nächsten Schritt wird die Implementierung eines Prototyps behandelt. Dieser nutzt unter anderem ffmpeg für die Bildschirmaufnahme und die Kodierung sowie die Streaming-Protokolle RTMP (Real Time Messaging Protocol) und HLS (HTTP Live Streaming). Zur Realisierung der Architektur gehört auch die Entwicklung einer REST-API und eines REST-Clients in C#.
Mit dem Projekt wird eine „echte“ Streaming-Lösung für die Kundenplattform CONNECTED entwickelt, die einen Videostream mit 24 Bildern pro Sekunde bietet, um die bisherige Darstellung von Screenshots auf der Plattform zu ersetzen.
Diese Arbeit beschäftigt sich mit der simulativen Untersuchung von Strömung und Wärmeübergang im Kontext von Vorkammerzündsystemen. Dies geschieht im Rahmen der Entwicklung eines Gasmotors mit gasgespülter Vorkammer. Entscheidene Größen für die Strömung und Arbeitsweise in einer Vorkammerzündkerze sind die Geometrie und Anordnung der Überströmbohrungen, das Vorkammervolumen und die Form der Vorkammer. Die Betrachtung wird dafür aufgeteilt in die Themen Spaltströmungen, Wärmeübergang und drallbehaftete Strömungen. Diese werden zunächst isoliert betrachtet und letztendlich in einem Anwendungsfall zusammengeführt. Für die Betrachtung von Spaltströmungen werden unterschiedliche Platten mit Bohrlöchern zu verschiedenen Drücken, Durchmessern und Plattenstärken durchströmt und der Wärmeübergang und der Drall werden mithilfe einer durch Leitbleche gelenkte Strömung in einem beheizten Rohr untersucht. Die Zusammenführung der Themen wird anhand einer Anströmvorrichtung für Brenngase auf Motorzylinder durchgeführt. Dabei erreichen die Gase hohe Temperaturen und aufgrund von hohen Drücken und Spaltströmungen große Geschwindigkeiten.
Für die Simulation werden die Programme Ansys Fluent und Ansys Forte verwendet. Während ersteres primär für die Simulation von Strömungen verwendet wird, ist Forte speziell aufgebaut, um in Verbrennungsmotoren neben der Berechnung der Strömung auch die Einspritzung von Kraftstoff, die Verbrennung dessen und die resultierenden Schadstoffe zu berechnen. Da die Ergebnisse aus Forte eine große Gewichtung in der Beurteilung der Entwicklungsarbeit des Gasmotors hat, muss Forte selbst validiert werden. Dies wird durchgeführt anhand der angesprochenen Teilthemen und verglichen mit Messungen aus der Literatur und Simulationsergebnissen in Fluent.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
The rapid pace of innovation and technological advancements has led to the emergence of start-up companies in various sectors. To remain competitive and sustainable, start-ups need to make informed business decisions that can enhance their operations and profitability. Business Intelligence (BI) has become an essential tool for businesses of all sizes in managing their operations and gaining a competitive edge.
This master thesis explores the role of Business Intelligence in start-up companies. The study aims to investigate the use of BI in start-up companies, the drivers and the inhibitors for its adoption and their relationship with price. The research conducted for this thesis involves a review of relevant literature on Business Intelligence, start-up companies, and related topics. The study also includes structured survey with entrepreneurs, start-up company executives, and BI experts to gain data for a quantitative analysis of the topic.
The thesis aims to contribute to the existing body of knowledge on Business Intelligence and its role in start-up companies. The research conducted for this thesis can be of value to start-up entrepreneurs, investors, and other stakeholders who seek to improve their understanding of the benefits and challenges of implementing BI in start-up companies.
In der vorliegenden Arbeit wird die Auswirkung der biomechanischen Stimulation (BMS) der Beinmuskulatur auf die Herzfrequenzvariabilität (HRV) untersucht. Die HRV charakterisiert die Variabilität der Intervalle aufeinanderfolgender Herzaktionen (beeinflusst durch das vegetative Nervensystem) und liefert Aussagen über die Qualität der Herz-Kreislaufregulation. Eine erhöhte körperliche Aktivität führt zu einer höheren HRV und einem besseren Gesundheitszustand. Die BMS ermöglicht das Hervorrufen einer natürlichen Muskelarbeit, die viel effektiver als ein konventionelles Training ist. Bei 8 Probanden im Alter zwischen 21 und 32 Jahren und mit Sinusrhythmus wurde der Einfluss der BMS (durchgeführt mit 12 Hz oder 16 Hz) auf die HRV analysiert. In der Arbeit werden 16 verschiedene HRV-Parameter (zeitbezogen, frequenzbezogen und nicht linear) auf Veränderungen hin untersucht.
Bei der Auswertung ergab sich eine signifikante Reduktion der mittleren Herzfrequenz nach der Stimulation bei 7 von 8 Testpersonen (p: 0,00687 < 0,5) und zeigte somit eine positive hämodynamische Wirksamkeit der BMS. Die LF-Power (Spektralleistung im niederfrequenten Bereich) mittels FFT reduzierte sich bei 7 von 8 Probanden (p: 0,3181 < 0,5), mittels AR sogar bei 8 von 8 Testpersonen (p: 0,03082 < 0,5). Anhand beider Parameter konnte somit eine Reduktion der sympathischen und parasympathischen Aktivität beobachtet werden. Eine Erhöhung der Tätigkeit des Parasympathikus konnte bei dem VLF% (prozentualer Anteil des sehr niederfrequenten Bereichs bezogen auf das Gesamtspektrum) beider Berechnungsmethoden nachgewiesen werden. Dort hat sich der Wert in beiden Fällen bei 7 von 8 Personen vergrößert. Der SD1-Wert (Standardabweichung der Punktabstände im Poincaré Plot - Querdurchmesser) hat sich bei 2 von 8 Testpersonen erhöht und dementsprechend auch die parasympathische Aktivität (p: 0,1292 < 0,5).
Die Impedanzkardiografie ist ein nicht-invasives Verfahren zur Messung der Funktion des Herzens, welche wiederum auf der Erfassung von elektrischen Impedanzänderungen im Thorax basiert. Die Verbindung der Impedanzkardiografie mit der biomechanischen Stimulation der Beinmuskulatur hat das Potenzial, die kardiale Ausgangsleistung zu verbessern und somit die körperliche Leistungsfähigkeit zu steigern. In dieser Bachelorarbeit wurden die Auswirkungen der biomechanischen Stimulation der Beinmuskulatur und der Stimulationsfrequenz auf die Impedanzkardiografie untersucht. Zu diesem Zweck wurden Messungen an überwiegend gesunden Probanden durchgeführt, bei denen die Impedanzkardiografie in Ruhe vor und in Ruhe nach der biomechanischen Stimulation der Wade, der Fußsohlen, der Taille und des Gesäßes durchgeführt wurde. Die Ergebnisse zeigen, dass die biomechanische Stimulation der Beinmuskulatur vor allem die Arbeitsparameter und somit die Leistungsfähigkeit verbessert hat. Der mittlere arterielle Blutdruck zeigt einen signifikanten Unterschied, mit Werten von 94,53 ± 6,52 mmHg vor der Stimulation bis 86,46 ± 6,98mmHg nach der Stimulation. Die mittlere linksventrikuläre Arbeitszeit zeigt ebenfalls einen großen Unterschied von 7,95 ± 1,06 kg*m vor der Stimulation zu 7,17 ± 1,04 kg*m nach der Stimulation. Diese Ergebnisse können in der zukünftigen Forschung zur Entwicklung von Trainingsprogrammen zur Leistungssteigerung genutzt werden. Darüber hinaus könnten diese Ergebnisse bei der Schmerzbehandlung eingesetzt werden, da es Hinweise darauf gibt, dass die biomechanische Stimulation die Mikrozirkulation fördert.
Encryption techniques allow storing and transferring of sensitive information securely by using encryption at rest and encryption in transit, respectively. However, when computation is performed on these sensitive data, the data needs to be decrypted first and encrypted again after performing the computations. During the computations, the sensitive data becomes vulnerable to attackers as it's in decrypted form. Homomorphic encryption, a special type of encryption technique that allows computation on encrypted data can be used to solve the above-mentioned problem. The best way to achieve maximum security with homomorphic encryption is to perform at least the homomorphic encryption and decryption on the client side (browser) of a web application by not trusting the server. At present time there are many libraries with different homomorphic schemes available for homomorphic encryption. However, there are very few to no JavaScript libraries available to perform homomorphic encryption on the client side of any web application. This thesis mainly focuses on the JavaScript implementation of client-side homomorphic encryption. The fully homomorphic encryption scheme BFV is selected for the implementation. After implementing the fully homomorphic encryption scheme based on the “py-fhe” library, tests are also carried out in order to determine the applicability (in terms of time consumption, security and correctness) of this implementation in a web application by comparing the performance and security for different test cases and different settings.
The effects of climate change, including severe storms, heat waves, and melting glaciers, are highlighted as an urgent concern, emphasising the need to decrease carbon emissions to restrict global warming to 1.5°C. To accomplish this goal, it is vital to substitute fossil fuel-based power plants with renewable energy sources like solar, wind, hydro, and biofuels. Despite some progress being made, the proportion of renewables used in generating electricity is still lower than the levels needed for 2030 and 2050. Decarbonising the power grid is also critical in lowering the energy consumption of buildings, which is responsible for a substantial percentage of worldwide electricity usage. Even though there has been substantial expansion in the worldwide renewable energy market in the past 15 years, the transition to renewable energy sources also requires taking into account the importance of energy trading.
Peer-to-peer (P2P) electricity trading is an emerging type of energy exchange that can revolutionise the energy sector by providing a more decentralised and efficient way of trading energy. This research deals about P2P electricity trading in a carbon-neutral scenario. 'Python for Power System Analysis' (PyPSA) was used to develop models through which the P2P effect was tested. Data for the entire state of Baden-Württemberg (BW) was collected. Three scenarios were taken into consideration while developing models: 2019 (base), 2030 (coal phase-out), and 2040(climate neutral). Alongside this, another model with no P2P trading was developed to make a comparison. In addition, the use case of community storage in a P2P trading network is also presented.
The research concludes that P2P has a significant positive effect on a pathway to achieve climate neutrality. The findings show that the share of renewables in electricity generation is increasing compared to conventional sources in BW, which can be traded to meet the demand. From the storage analysis, it can be concluded that community storage can be effectively utilised in P2P trading. While the emissions are reduced, the operating costs are also reduced when the grid has P2P trading available. By highlighting the benefits of P2P trading, this research contributed to the growing body of research on the effectiveness of P2P trading in an electricity network grid.
Risk-based Cybermaturity Assessment Model - Protecting the company against ransomware attacks
(2023)
Ransomware has become one of the most catastrophic attacks in the previous decade, hurting businesses of all sorts worldwide. So, no organization is safe, and most companies are reviewing their ransomware defensive solutions to avoid business and operational hazards. IT departments are using cybersecurity maturity assessment frameworks like CMMC, C2M2, CMMI, NIST, CIS, CPP, and others to analyze organization security capabilities. In addition to maturity assessment models for the process layer and human pillar, there are much research on the analysis, identification, and defense of cyber threats in product/software layers that propose state-of-the-art approaches.
This motivates a comprehensive ransomware cyber security solution. Then, a crucial question arises: “How companies can measure the security maturity of controls in a specific danger for example for Ransomware attack?” Several studies and frameworks addressed this subject.
Complexity of understanding the ransomware attack, Lack of comprehensive ransomware defense solutions and Lack of cybermaturity assessment model for ransomware defense solutions are different aspects of problem statement in this study. By considering the most important limitations to developing a ransomware defense cybermaturity assessment method, this study developed a cybermaturity assessment methodology and implemented a Toolkit to conduct cyber security self-assessment specifically for ransomware attack to provide a clearer vision for enterprises to analyze the security maturity of controls regardless of industry or size.
Bei der plattformunabhängigen Softwareentwickelt stellt sich häufig die Frage, welche Technologie am besten geeignet ist. Die vorliegende Arbeit "Vergleich von ProgressiveWebapps und Hybrid Apps für mobile Endgeräte" beschäftigt sich mit der Entscheidungsfindung zur Auswahl einer geeigneten Technologie. Stellvertretend für die Progressive Webapp-Technologie wird die Single Page Application-Technologie React.js und für die Hybrid App-Technologie Flutter verwendet. Die Anwendung Mundle, eine medizinische Enzyklopädie, dient als Beispielanwendung, die in beiden Technologien umgesetzt wird. Anhand von Qualitätskriterien werden beide Technologien bewertet und gegenübergestellt, um eine sinnvolle Entscheidung bei zukünftigen Projekten treffen zu können.
Die Bachelorarbeit beschäftigt sich mit der Konzeption und Umsetzung einer Social-Media-Kampagne für den Studiengang "medien und kommunikation" an der Hochschule Offenburg. Nach einer Einführung in die theoretischen Grundlagen des Kommunikationskonzepts und der Media-Planung für die Generation Z werden die Grundlagen der Social Media und deren Potenziale für Unternehmen analysiert. Anschließend erfolgt die Analysephase, die Zieldefinition und die Zielgruppenbeschreibung, bevor die Umsetzung der Kampagne beschrieben wird. Der Fokus liegt dabei auf der Konzeptionierung von Social-Media-Posts und deren Einordnung in eine Social-Media-Kampagne.
Diese Thesis beschäftigt sich mit den Techniken von Code Injection und API Hooking, die von Malware verwendet werden, um sich in laufende Prozesse einzuschleusen und deren Verhalten zu manipulieren. Darüber hinaus erklärt sie die Grundlagen der Betriebssystemarchitektur, der DLLs, der Win32 API und der PE-Dateien, die für das Verständnis dieser Techniken notwendig sind. Die Thesis stellt verschiedene Methoden von Code Injection und API Hooking vor, wie z.B. DLL Injection, PE Injection, Process Hollowing, Inline Hooking und IAT Hooking, und zeigt anhand von Codebeispielen, wie sie funktionieren. Des Weiteren wird auch beschrieben, wie man Code Injection und API Hooking mithilfe verschiedene Tools und Techniken wie VADs, Speicherforensik und maschinelles Lernen erkennen und verhindern kann. Die Thesis diskutiert außerdem mögliche Gegenmaßnahmen, die das Betriebssystem oder die Anwendungen anwenden können, um sich vor Code Injection und API Hooking zu schützen, wie z.B. ASLR, DEP, ACG, IAF und andere. Zuletzt wird mit einer Zusammenfassung und einem Ausblick auf die zukünftigen Herausforderungen und Möglichkeiten in diesem Bereich abgeschlossen.
It is generally agreed that the development and deployment of an important amount of IoT devices throughout the world has revolutionized our lives in a way that we can rely on these devices to complete certain tasks that may have not been possible just years ago which also brought a new level of convenience and value to our lives.
This technology is allowing us in a smart home environment to remotely control doors, windows, and fridges, purchase online, stream music easily with the use of voice assistants such as Amazon Echo Alexa, also close a garage door from anywhere in the world to cite some examples as this technology has added value to several domains ranging from household environments, cites, industries by exchanging and transferring data between these devices and customers. Many of these devices’ sensors, collect and share information in real-time which enables us to make important business decisions.
However, these devices pose some risks and also some security and privacy challenges that need to be addressed to reach their full potential or be considered to be secure. That is why, comprehensive risk analysis techniques are essential to enhance the security posture of IoT devices as they can help evaluate the robustness and reliability towards potential susceptibility to risks, and vulnerabilities that IoT devices in a smart home setting might possess.
This approach relies on the basis of ISO/IEC 27005 methodology and risk matrix method to highlight the level of risks, impact, and likelihood that an IoT device in smart home settings can have, map the related vulnerability, threats and risks and propose the necessary mitigation strategies or countermeasures that can be taken to secure a device and therefore satisfying some security principles. Around 30 risks were identified on Amazon Echo and the related IoT system using the methodology. A detailed list of countermeasures is proposed as a result of the risk analysis. These results, in turn, can be used to elevate the security posture of the device.
Hintergrund: Die markerlose Bewegungserfassung (sog. Motion Capturing) ist eine neu entwickelte Technik, die die Nachteile der bisherigen verwendeten markerbasierten Bewegungserfassung eliminieren und weitere Vorteile bieten soll. Da Kniegelenkmomente in der Frontalebene, insbesondere das Knie-Abduktions-Moment, als einer der größten Risikofaktoren für eine Verletzung des vorderen Kreuzbandes bei Richtungswechseln angesehen werden, ist ein Vergleich der zwei Systeme in diesem Bereich sinnvoll.
Zielsetzung: Evaluation der Vergleichbarkeit des markerlosen Motion Capturing (Theia3D) mit dem markerbasierten Motion Capturing (Qualisys Track Manager) in Bezug auf die Kniegelenkmomente in der Frontalebene bei 90 ° Richtungswechsel
Stichprobe: 20 gesunde Probanden (9 Frauen, 11 Männer; Größe 174,7 ± 8,4 cm; Gewicht 71,1 ± 10 Kg; Alter 24,1 ± 4,3 Jahre)
Methodik: Gleichzeitige Aufnahme von jeweils drei Messungen eines 90° Richtungswechsels pro Proband:In mit acht Miqus Videokameras und 21 Miqus M3 Infrarotkameras. Die Bodenreaktionskraft wurde mittels einer Kraftmessplatte erhoben.
Ergebnisse: Ein signifikanter systematischer Unterschied (p = 0.02) ergab sich für das KAM gesamt. Verglichen zu dem markerbasierten System zeigt das markerlose System ein höheres KAM gesamt (ML: 0.22 ± 0.11 Nm/Kg, MB: 0.07 ± 0.33 Nm/Kg) aber einen niedrigeren peak KAM gesamt (ML: 0.56 ± 0.2 Nm/Kg, MB: 0.68 ± 0.49 Nm/Kg) und peak KAM 100ms (ML: 0.47 ± 0.19 Nm/Kg, MB: 0.62 ± 0.50 Nm/Kg). Des Weiteren wurden große Differenzen innerhalb der Probanden beobachtet.
Schlussfolgerung: Die Ergebnisse veranschaulichen, dass ein direkter Vergleich zwischen den zwei Systemen nicht sinnvoll ist. Dennoch zeigen sie, dass das markerlose System zu plausiblen Ergebnissen führen und mit einer zukünftigen Weiterentwicklung des Systems die Anwendung vielversprechend sein kann.
Das Konzept der Thermoaktiven Bauteilsysteme (TABS) zur Heizung und Kühlung von Gebäuden gewinnt aufgrund seiner Kompatibilität mit erneuerbaren Energiequellen an Popularität. Die Steuerung von TABS und somit auch die Gewährleistung eines behaglichen Raumklimas erweist sich allerdings aufgrund der hohen Systemträgheit als komplex. Kurzfristige Witterungsänderungen sorgen für unerwünschte Raumtemperaturänderungen, die nur langsam korrigiert werden können. Bei Nichtwohngebäuden wie dem Regionalen Innovationszentrum für Energie (RIZ Energie) in Offenburg wird dieser Umstand durch die unregelmäßige Gebäudenutzung zusätzlich erschwert, da innere Wärmelasten stark variieren und nicht vorhersehbar sind.
Konventionelle TABS-Steuerungen können Störgrößen im TABS-Betrieb nur bedingt und zeitverzögert berücksichtigen, weswegen eine dauerhafte Gewährleistung des thermischen Komforts im Gebäude oft nicht erreichbar ist – dies ist auch am RIZ Energie der Fall. Als Lösung dient der Einsatz prädiktiver Steuerungsalgorithmen, die Störgrößen prognostizieren und den TABS-Betrieb dementsprechend anpassen können.
Diese Arbeit überprüft das Potenzial von intelligenten TABS-Steuerungsalgorithmen für den Einsatz am RIZ Energie anhand der Umsetzung mit einem digitalen Zwilling des Gebäudes. Dabei konnte unter Verwendung der Algorithmen und Berücksichtigung von inneren und äußeren Störgrößen im TABS-Betrieb ein verbessertes Raumklima simuliert werden. Infolgedessen konnte zudem der digitale Zwilling optimiert werden.
Das Ziel der vorliegenden Bachelorarbeit ist die Implementierung und Verbesserung der nichtmodellbasierten und pixelweisen Kalibrierung von Industriekameras in MATLAB. Hierfür wird eine homogene Helligkeitsregulierung zwischen Monitor und Kamera mittels Randfindung, Einstellen der Belichtungszeit und Regulierung der Monitorgrauwerte entwickelt, um systembasierte Fehler der Kamera wie die Vignettierung ausgleichen zu können. In mehreren Versuchen wird die Implementierung validiert. Im Rahmen der Bachelorarbeit wird herausgefunden, dass die homogene Helligkeitsregelung die Ergebnisse in einer orthogonalen Positionierung zum Monitor nicht wesentlich verändert. Vor allem aber wird die Kalibrierung bei größeren Winkeln robuster. Neben der Implementierung wird eine Benutzeroberfläche eingebunden, die auch Anwenderfehler in Bezug auf die Linearführungsschiene verhindern soll.
In modernen Industrieautomatisierungssysteme kann die IT-Sicherheit nicht mehr ignoriert werden. Um dem Datenverkehr Schutz zu bieten, sind kryptografische Schutzmaßnahmen notwendig. Eine gängige Schutzmaßnahme ist die Verwendung von digitalen Zertifikaten zur Autorisierung und Authentifizierung. Um Zertifikate sicher und geregelt auf Endgeräte zu bringen, ist jedoch eine Public-Key-Infrastructure notwendig. Solche PKIs sind bisher wenig im Umfeld der Industrieautomatisierung untersucht. Das Institut für verlässliche Embedded-Systems der Hochschule Offenburg bietet hierfür eine mögliche Lösung, welche auf einer zentralen Einheit, genannt Credentialing Entity, basiert. Ein Demonstrator dieses Konzepts wurde bereits in den weit verbreiteten Systemprogrammier-sprachen C und C++ implementiert.
Im Rahmen dieser Arbeit wird die Verwendung der modernen speichersicheren Programmiersprache Rust in der Systemprogrammierung als Alternative zu den Domänenführern C/C++ am Beispiel der Implementierung der Credentialing-Entity untersucht. Hierbei werden Aspekte wie die Vorzüge Rusts, dessen Ökosystem und Interoperabilität mit den Marktführern C/C++ untersucht.
Das Ziel der Bachelorthesis ist die Beantwortung folgender Fragestellung: Wie sieht ein Newsletter aus, der Leads generiert und in zahlende Kundschaft verwandelt? Um die Fragestellung zu beantworten, wurden zahlreiche aktuelle Fachliteraturen, Berichte, Statistiken, Studien und weitere Quellen analysiert und die wichtigsten Erkenntnisse zusammengefasst. Dabei wurden Konzepte aus verschiedenen Bereichen kombiniert und spezifisch auf die Anwendung eines Newsletters ausgerichtet.
Die Bachelorarbeit beantwortet die Fragestellung so, dass sie einen Überblick gibt, was die Unternehmensberatung Schritt für Schritt tun muss, um einen erfolgreichen Newsletter zu planen und umzusetzen. Dafür sind gemäß dieser Bachelorarbeit die folgenden sechs Schritte notwendig: Die Definition der Zielgruppe durch eine Persona und Customer Journey, die Ziele des Newsletters definieren, den Content planen, erstellen und organisieren, E-Mail-Adressen von potenziellen Interessenten sammeln, die Gestaltung der Newsletter-Mails und das Controlling sowie die Optimierung des Newsletters.
Des Weiteren zeigt die Bachelorthesis insgesamt zehn Kriterien auf, die definieren, wie ein Newsletter aussieht, der Leads generiert und in zahlende Kundschaft verwandelt. Diese zehn Kriterien sind die folgenden: zielgruppenspezifische Ausrichtung, Integration in die Customer Journey, Zieldefinition anhand des Back-Planning-Verfahren, hochwertiger Content, Leadmagneten für die Gewinnung von E-Mail-Adressen, strukturierter Aufbau der Mails inklusive Call-to-Action, Storytelling, kreative Gestaltung, professionelle technische Umsetzung durch E-Mail-Marketing-Software und regelmäßiges Controlling und Tests.
Die Austragung der FIFA Fußball-Weltmeisterschaft 2022 im Emirat Katar polarisierte die deutsche Gesellschaft. In dieser Arbeit wurde nachgeforscht, wie deutsche Medien über die Veranstaltung berichteten und bei welchen Themen die Schwerpunkte gesetzt wurden.
Die Forschung erfolgte unter Anwendung der Techniken qualitativer Inhaltsanalyse nach Philipp Mayring.
In der vorliegenden Abschlussarbeit wurde ein rotierender Kreuztisch zum Bearbeiten von Rohrbögen konstruiert und mittels Festigkeitsnachweis überprüft. Bei den Rohrbögen handelt es sich um gebogene Rohrprofile, deren Außendurchmesser zwischen 18 mm bis 38 mm liegt.
Die Rohrbögen sollen in die Vorrichtung eingespannt, darin ausgerichtet und auf der ersten Seite gedreht werden. Anschließend wird das eingespannte Bauteil um 90° geschwenkt, erneut ausgerichtet und fertiggedreht. Dadurch ist die Rechtwinkligkeit der gedrehten Flächen zueinander sichergestellt.
Bei der Konstruktion kann sich an einer vorhandenen Vorrichtung orientiert werden.
Im Rahmen der Bachelorarbeit zum Thema „Vergleich von REST und GraphQL als moderne Web-APIs und Implementierung eines PIM-Systems“ werden zwei moderne Ansätze zum Erstellen von Web-APIs untersucht und verglichen. Ziel der Arbeit ist es, passende Anwendungsfälle für die Verwendung von REST und GraphQL zu definieren. Im praktischen Teil der Arbeit wurde eine Prototyp eines Product-Information-Management-Systems mit einer GraphQL-Schnittstelle implementiert.
Bei dem deutsch-französischen Kulturkanal ARTE ist die Corporate Social Responsibility (CSR, dt. gesellschaftliche Verantwortung von Unternehmen) ein wichtiger Aspekt ihrer Unternehmensstrategie. Soziale und ökologische Belange sollen in den Unternehmensstrukturen und -tätigkeiten sowie in der Herstellung ihres Programms verbessert werden. Diese CSR-Strategie verfolgt ARTE in einem inkrementellen Prozess, welcher in dieser Arbeit einem organisatorischen Wandel 1. Ordnung (evolutionär, gradual change) zugeordnet wird. Von den Maßnahmen und Veränderungen, welche in der CSR bei ARTE verfolgt werden, sind auch die ARTE-Mitarbeitenden betroffen. Ein organisatorischer Wandel bedeutet nicht nur eine Veränderung auf der Sachebene, er wirkt sich auch auf die psychologische Ebene der betroffenen Mitarbeitenden aus und verlangt Veränderungen in ihren Gewohnheiten. Daher setzen Unternehmen zunehmend auf die Veränderungsbegleitung (Change Management), welche darauf abzielt, eine Veränderung aktiv zu steuern und zu beeinflussen. Eine spezifische Form des Change Managements, die Organisationsentwicklung, hat zum Ziel, bei der Veränderung die Betroffenen zu Beteiligten zu machen. Ein zentraler Aspekt der Organisationsentwicklung bildet daher die Mitarbeitendenbeteiligung (oder Partizipation).
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie die Mitarbeitendenbeteiligung im CSR-Wandel von ARTE erfolgreich eingesetzt werden kann. Im Rahmen eines Praktikums im CSR-Bereich bei ARTE, konnte der Autor durch Beobachtungen, Mitarbeit und Dokumentenanalysen diesen Fragen nachgehen und die Ergebnisse durch fünf qualitative Expert:inneninterviews mit Personen aus dem Top-Management, dem CSR-Bereich und der Herstellungsleitung bei ARTE ergänzen und bekräftigen. Es zeigt sich, dass verschiedene Voraussetzungen erfüllt werden müssen, um eine Partizipation zielführend einsetzen zu können. Zudem kann die Mitarbeitendenbeteiligung in Form von Lösungserarbeitung und/oder in Form der Kommunikation eingesetzt werden. Die Mitarbeitendenbeteiligung wurde bei ARTE im CSR-Bereich bereits punktuell angewendet und es gibt Bestrebungen, künftig in der CSR noch stärker einen partizipativen Ansatz zu verfolgen. Für künftige Anwendungen der Mitarbeitendenbeteiligung im CSR-Wandel bei ARTE werden eine Reihe an Empfehlungen aufgestellt.
Videokonferenzen, überregionale Teamarbeit und ständig mögliche Kommunikation: Durch den in den letzten Jahrzehnten vorangetriebenen technischen Fortschritt sind die Möglichkeiten, global vernetzt zu arbeiten immer weiter gestiegen. Auch die Digitalisierung von Organisationen und die globale Wirtschaft erfordern durch den damit einhergehenden Wandel an Wettbewerb eine verstärkte und sogar notwendige Auseinandersetzung mit virtuellen Unternehmens- und Arbeitsstrukturen. So ergibt sich die Notwendigkeit, virtuelle Teambildung und die damit verbundenen Strukturen zu beleuchten. Ziel dieser Arbeit ist es, ein Modell zur virtuellen Teamentwicklung zu erarbeiten, das als Planungsrahmen für digitale Führungskräfte dienen soll.
Decarbonisation Strategies in Energy Systems Modelling: Biochar as a Carbon Capture Technology
(2022)
The energy system is changing since some years in order to achieve the climate goals from the Paris Agreement which wants to prevent an increase of the global temperature above 2 °C. Decarbonisation of the energy system has become for governments a big challenge and different strategies are being stablished. Germany has set greenhouse gas reduction limits for different years and keeps track of the improvement made yearly. The expansion of renewable energy systems (RES) together with decarbonisation technologies are a key factor to accomplish this objective.
This research is done to analyse the effect of introducing biochar, a decarbonisation technology, and study how it will affect the energy system. Pyrolysis is the process from which biochar is obtained and it is modelled in an open-source energy system model. A sensibility analysis is made in order to assess the effect of changing the biomass potential and the costs for pyrolysis.
The role of pyrolysis is analysed in the form of different future scenarios to evaluate the impact. The CO2 emission limits from the years 2030 and 2045 are considered to create the scenarios, as well as the integration of flexibility technologies. Four scenarios in total are assessed and the result from the sensibility analysis considering pyrolysis are always compared to the reference scenario, where pyrolysis is not considered.
Results show that pyrolysis has a bigger impact in the energy system when the CO2 limit is low. Biochar can be used to compensate the emissions from other conventional power plant and achieve an energy transition with lower costs. Furthermore, it was also found that pyrolysis can also reduce the need of flexibility. This study also shows that the biomass potential and the pyrolysis costs can affect a lot the behaviour of pyrolysis in the energy system.