Refine
Year of publication
Document Type
- Master's Thesis (210) (remove)
Has Fulltext
- yes (210)
Is part of the Bibliography
- no (210)
Keywords
- IT-Sicherheit (10)
- E-Learning (7)
- Maschinelles Lernen (7)
- Deep learning (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Social Media (5)
- Computersicherheit (4)
- Internet of Things (4)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (55)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (41)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34)
- Fakultät Wirtschaft (W) (16)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- INES - Institut für nachhaltige Energiesysteme (5)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (5)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (76)
- Open Access (33)
- Diamond (7)
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
Extensible Authentication Protocol (EAP) bietet eine flexible Möglichkeit zur Authentifizierung von Endgeräten und kann in Kombination mit TLS für eine zertifikatsbasierte Authentifizierung verwendet werden. Motiviert wird diese Arbeit von einer potenziellen Erweiterung für PROFINET, die diese Protokolle einsetzen soll.
Dabei soll eine sicherer EAP-TLS-Protokollstacks für eingebettete Systeme in der Programmiersprache Rust entwickelt werden. Durch das Ownership-System von Rust können Speicherfehler eliminiert werden, ohne dabei auf die positiven Eigenschaften von nativen Sprachen zu verzichten. Es wird ein besonderes Augenmerk auf wie die Verwendung klassischer Rust-Bibliotheken im Umfeld von eingebetteten Systemen, den Einfluss des Speichermodells auf das Design, sowie die Integration von C-Bibliotheken für automatisierte Interoperabilitätstests gelegt.
Evaluierung neuer HTML5- und JavaScript-Technologien bei der Nutzung in heterogenen Umgebungen
(2012)
Die 1&1 Internet AG in Karlsruhe betreibt einen Onlinespeicher, der von Kunden der diversen Tochter- und Schwestergesellschaften hauptsächlich über ein Browserfrontend bedient wird. Dieses kommuniziert mittels einer definierten JSON-Schnittstelle mit der auf Java basierenden Middleware. Da der Client schon vor einigen Jahren entwickelt wurde, nutzt er noch nicht alle Möglichkeiten die HTML5 in aktuellen Browsern bietet. Die Beschreibung und Bewertung dieser Möglichkeiten stellt die Kernaufgabe der Thesis dar. Einer der Schwerpunkt soll dabei auf der Offlinefähigkeit und intelligenten Benutzung von Caching- & Sync-Strategien zwischen Onlineanwendung und Offlineclient bestehen. Desweiteren sollen die Möglichkeiten von aktuellen Browsern ohne Beachtung der Rückwärtskompatibilität zu älteren Browsern genutzt werden. Zu Demonstrationszwecken sollen Beispielanwendungen den Einsatz der neuen Technologien erstellt werden, damit deren praktische Nutzung leichter zu erfassen ist. Das Hauptaugenmerk bei den Beispielanwendungen liegt indes nicht auf der Funktionalität, sondern auf dem Einsatz der jeweiligen Technologie, so dass deren Möglichkeiten getestet werden können. Ebenfalls Teil der Arbeit soll die Erarbeitung von theoretischen Aspekten sowie die Erstellung einer Übersicht über den aktuellen Stand der Fachliteratur darstellen. Dies soll bei weiterer Nutzung der Ergebnisse die Erarbeitung von erweitertem Fachwissen erleichtern. Basis sollen hier die aktuell Erschienenen Fachbücher auf deutsch und englisch sowie - naturgemäß nochmals aktueller - die regelmäßigen Veröffentlichungen im Internet und in Fachzeitschriften bilden. Die zu besprechenden Themen umfassen die grundsätzliche Beschreibung von HTML5 und dem Standardisierungsprozess, die neuen HTML-Element in Bezug auf Formulare, Multimedia-Darstellung, die Möglichkeiten der Offline-Anwendung (Application Cache, Cache Manifest, DOM Storage), die Drag & Drop API zur Nutzung beim Dateiupload sowie die File API. Mögliche Themen für den theoretischen Teil sind gängige Architekturmuster (beispielsweise MVC, MVP, MVVM, PAC), Caching- und Sync-Strategien sowie die Potentiale aktueller Skriptsprachen (ECMAScript 5, Coffeescript, DART).
Laut einer Studie der AZT Automotive GmbH sind etwa 75% aller Verkehrsteilnehmer im deutschsprachigen Raum durch fahrzeugseitige Technik abgelenkt. Dies stellt eine der größten Unfallgefahren dar: Bei ca. 11% der Verkehrsunfälle 2002-2012 in Deutschland ist die Ursache auf die Ablenkung des Fahrers zurückzuführen. Mittels Sperrkonzepten, welche den Zugriff auf Bereiche und Funktionen des Infotainmentsystems während der Fahrt limitieren, soll die Fahrerablenkung bei den immer größer werdenden Displays, komplexeren Einstellungsmöglichkeiten und längeren Interaktionspfaden minimiert und die Sicherheit im Straßenverkehr gewährleistet werden.
Diese Masterarbeit befasst sich mit dem Thema Fahrerablenkung im Kontext von automatisierten Fahrfunktionen. Durch die zunehmende Automatisierung des Fahrzeugs können wichtige Fahraufgaben und -funktionen durch Fahrassistenzsysteme übernommen und somit der Fahrer bei der Fahraufgabe und der Überwachung des Verkehrsgeschehens unterstützt bzw. entlastet werden. Dadurch ergeben sich für den Fahrer neue Freiheiten, die es ihm erlauben, seine Aufmerksamkeit (teilweise) von der Fahraufgabe abzuwenden und für andere, fahrfremde Tätigkeiten, wie der Interaktion mit dem Infotainmentsystem, zu nutzen. Ziel der Arbeit ist die Spezifikation und prototypische Umsetzung eines dynamischen Sperrkonzeptes für Infotainmentsysteme in Abhängigkeit des Automatisierungsgrades des Fahrzeugs. Risiken durch Fahrerablenkung sollen mittels Sperrungen von Infotainment-Bereichen und -Funktionen minimiert werden, zeitgleich soll der Zugriff auf Informationen und Unterhaltung für den Fahrer möglichst uneingeschränkt gewährleistet werden. Dabei wird der Fokus auf die Automatisierungsgrade Level eins bis drei (nach SAE) gelegt, wo es immer noch zu einem Wechsel zwischen automatisierten und manuellen Fahrabschnitten kommt.
Als Basis für das dynamische Sperrkonzept dient der Stand der Technik bisheriger wissenschaftlicher Erkenntnisse sowie Studien zu automatisierten Fahrfunktionen, Fahrerablenkung, Arbeitsbelastung, Reaktionszeit und Situationsbewusstsein. Außerdem soll ein Überblick über aktuelle Gesetzes- und Normenlagen sowie Gestaltungsrichtlinien in Bezug auf automatisierte Fahrzeuge bzw. Fahrfunktionen geschaffen werden, welche bei der Entwicklung von Sperrkonzepten eine essenzielle Rolle spielen.
Verschiedenste Hersteller von Prothesen treiben die Entwicklungen in der Neuroprothetik immer weiter voran. Jedoch steigen dadurch nicht nur die Komplexität und die Funktionen einer solchen Prothese, sondern auch die Kosten. Oft wird vernachlässigt, dass ein einfaches Greifen meist schon ausreicht und damit oftmals viel mehr Personen geholfen werden kann als mit einer teuren Highend-Prothese.
Die vorliegende Masterthesis soll zeigen, dass es möglich ist, mit einfachen Mitteln einen funktionsfähigen bionischen Prototyp zu entwickeln. Die Steuerung funktioniert per Knopfdruck, Bewegungen werden automatisch ausgeführt.
Hierfür wurde auf der Rekonstruktion der ersten eisernen Hand des Götz von Berlichin-gen aufgebaut. Diese wurde mit günstiger und einfach beschaffbarer Elektronik verändert, damit die Prothese durch elektrische Motoren aktiv ansteuerbar ist. Das Modell wurde mit SolidWorks 2018 verändert. Die elektronischen Bauteile wurden über ein Arduino Board UNO R3 angesteuert, welcher die Schnittstelle zum Computer bildet.
Im Buch "Visualisiere deine Welt! Ein Workbook für visuelle Notizen" erlernt der Leser in den ersten drei Teilen Schritt für Schritt, was visuelle Notizen sind und welchen Vorteil sie gegenüber rein textbasierten Notizen haben sowie aus welchen Elementen sie sich zusammensetzen. Anwendung finden visuelle Notizen beim Kommunizieren mit anderen, um sich visuell verständlich zu machen. Sie helfen aber auch dabei, Lösungen für Probleme zu finden, Ideen zu entwickeln und letztendlich bedeutsame Inhalte visuell zu dokumentieren. Im letzten Teil des Workbooks hat der Leser die Möglichkeit, sein erlerntes Wissen in zahlreichen Übungen anzuwenden.
Communication protocols enable information exchange between different information systems. If protocol descriptions for these systems are not available, they can be reverse-engineered for interoperability or security reasons. This master thesis describes the analysis of such a proprietary binary protocol, named the DVRIP or Dahua private protocol from Dahua Technology. The analysis contains the identification of the DVRIP protocol header format, security mechanisms and vulnerabilities inside the protocol implementation. With the revealing insights of the protocol, an increase of the overall security is achieved. This thesis builds the foundation for further targeted security analyses.
China ist eine aufstrebende Volkswirtschaft. Das Wirtschaftswachstum im Land führt zu einer steigenden Kaufkraft und der digitale Fortschritt verändert die Kaufgewohnheiten und die komplette Customer Journey. Einheitliche Online Marketing-Ansätze sind dabei längst überholt. Die Konsumierenden erwarten eine persönliche Customer Experience mit Integration von neuesten Technologien, die ihren mobilen Lebensstil effizienter gestaltet.
Deutsche Unternehmen erkennen die Auswirkungen dieser Veränderungen und stehen vor der Herausforderung die neuen, anspruchsvollen Verbraucher/innen mit innovativen Online Marketing-Maßnahmen anzusprechen.
Für die eigene Studie wurden deutsche Unternehmen befragt, die bereits erfolgreiches Online Marketing in China betreiben. Anhand der Online-Befragung und Experten-/Expertinneninterviews sollen die wichtigsten Online Marketing-Instrumente, deren Plattformen, Ziele und Herausforderungen ermittelt werden.
Der Kommunikation von Unternehmen wird gegenwärtig eine geringe Glaubwürdigkeit zugeschrieben – vor allen Dingen, wenn sie über das Social Web stattfindet. Dabei besitzt
die Social Web-Kommunikation, insbesondere über soziale Netzwerke, einen hohen Stellenwert für die Unternehmenskommunikation und es wird davon ausgegangen, dass dieser Stellenwert in Zukunft noch weiter zunehmen wird. Aus diesem Grund wurde im Rahmen der vorliegenden Masterthesis untersucht, wie die nternehmenskommunikation,
die über die Social Web-Plattform soziales Netzwerk stattfindet, positiv beeinflusst werden kann.
Hierzu wurden Vermutungen über positive Beeinflussungsmöglichkeiten in Form von Hypothesen formuliert, welche zum Teil auf Erkenntnissen bisheriger Arbeiten auf dem Gebiet der Glaubwürdigkeitsforschung basieren. Daraufhin wurden die zur Überprüfung der Hypothesen benötigten Daten mittels einer standardisierten Online-Befragung erhoben und anschließend mit Hilfe von Varianzanalysen ausgewertet. Dabei konnten vier Hypothesen verifiziert werden. Diese besagen, dass die Glaubwürdigkeit der Unternehmenskommunikation über soziale Netzwerke durch das Eingehen auf negative Nutzerkommentare, die sprachliche Korrektheit von Unternehmensbeiträgen sowie durch die Ausgestaltung dieser Beiträge mit Emoticons und professionellen Bildern positiv beeinflusst wird. Die fünfte und letzte Hypothese, welche eine positive Beeinflussung der kommunikativen Glaubwürdigkeit durch die Verwendung von Influencern für
Unternehmensbeiträge unterstellt, konnte nicht validiert werden.
Die vorliegende Arbeit beschäftigt sich mit der Wahrnehmung von Websites im One-Page-Design und der Verbesserung der User Experience mit Hilfe von Blickaufzeichnung und weiteren Methoden.
Für ein Unternehmen ist eine Website mittlerweile ein zentrales Marketinginstrument. Eine gute Umsetzung der Website ist maßgeblich am Unternehmenserfolg beteiligt.
Eine bedeutende Rolle für eine Website spielt das Webdesign. Dies beeinflusst entscheidend, ob das Interesse des Nutzers geweckt wird und er auf der Website verweilt oder diese direkt wieder verlässt. Doch das Webdesign verändert sich laufend. Ein neuer Trend ist die Website im One-Page-Design. Diese bietet neue Möglichkeiten der Gestaltung, stellt Webdesigner jedoch auch bei der Umsetzung vor neue Herausforderungen. Mit der vorliegenden Arbeit sollen deshalb Websites im One-Page-Design hinsichtlich ihrer Wirkung auf den Nutzer analysiert werden. Zu diesem Zweck werden mit ausgewählten Probanden User Experience Tests durchgeführt, die Aufschluss darüber geben sollen, wie die Zielgruppe mit der Website interagiert. Durch die Analyse der gewonnenen Daten und die daraus abgeleiteten Handlungsempfehlungen kann die User Experience von Websites im One-Page-Design gesteigert werden. Neben der Eyetracking-Methode (Blickaufzeichnung) wird die Think Aloud-Methode, der Interview-Leitfragen sowie die Mimikmessung eingesetzt.
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines VHDL-Ethernet Protokollstapels. Aufbauend auf einem existierenden Protokollstapel für 1 GBit/s ist das Ziel dieser Arbeit, einen Protokollstapel zu entwerfen, der eine Datenübertragungsrate von mehr als 10 GBit/s erreicht. Dieser Protokollstapel soll die Protokolle Ethernet, IPv4, ARP, ICMP und UDP enthalten. Durch eine flexible Struktur der Ports und den Einsatz von generics soll dieser Protokollstapel leicht konfigurierbar und so für viele Anwendungszwecke nutzbar sein.
Zunächst wurde der existierende Protokollstapel von der Xilinx Vertix5 Serie auf die 7er Serie portiert und in Betrieb genommen. Dabei traten Probleme mit dem Transceiver und dem ARP Protokoll auf. Nachdem diese gelöst wurden, konnte ein Konzept für den neuen Protokollstapel erarbeitet werden. Dieser nutzt nun ein – in der Busbreite – flexibles Streaming Interface, um die Geschwindigkeit der Datenübertragung anzupassen.
Da jedes der genutzten Protokolle an die Daten einen Header/Trailer anhängt oder entfernt,
wurden für diese Aufgabe insgesamt vier Low-Level-Module entwickelt. Diese Module wurden
mit Hilfe einer Testbench und einer Testmatrix verifiziert. Die Protokollmodule stellen nun den Header/Trailer zusammen und fügen diese mit Hilfe der Low-Level-Module an oder entfernen diese.
Bei der Simulation des Protokollstapels wurde die Funktion der Protokolle nachgewiesen. Durch die große Busbreite, von 64 Bit bei 10 GBit/s und 128 oder 256 Bit bei 40 GBit/s, schlug allerdings die Timing-Analyse fehl. Der kritische Pfad konnte bei der CRC Berechnung gefunden werden. Durch parallele CRC-Berechnungen wurde eine vorübergehende Lösung dieses Problems für die Geschwindigkeit 10 GBit/s erreicht.
Die Analyse des Ressourcenverbrauchs zeigte, dass der neue Protokollstapel nur wenig Ressourcen in einem FPGA nutzt. Für 10 GBit/s werden lediglich 3000 LUTs und 2400 Register
benötigt. Des weiteren wurde festgestellt, dass der Ressourcenverbrauch nicht proportional zur Busbreite ist. Bei einer Verdopplung der Busbreite werden lediglich 60 % mehr Ressourcen benötigt.
Ziel der vorliegenden Arbeit ist das netzdienliche Betreiben einer Wärmepumpe. Um diese Netzdienlichkeit zu erreichen, wird ein modellprädiktiver Regler entwickelt und implementiert, dessen Ziel es ist die Stromkosten einer Wärmepumpe zu senken. Dazu werden die Variablen Stromkosten und ein simulierter Heizbetrieb betrachtet.
Die Entwicklung eines modellprädiktiven Reglers setzt zunächst eine Modellierung der Komponenten des Heizsystems voraus. Ebenfalls muss eine Kostenfunktion formuliert werden, die es zu minimieren gilt. In einem Optimierungsproblem werden die Modelle als Randbedingungen und die Kostenfunktion als Zielfunktion der Optimierung formuliert. Dazu müssen gewisse Vereinfachungen getroffen werden, um das Optimierungsproblem zuverlässig und ohne enormen Rechenaufwand in einer Regelungsschleife lösen zu können.
Nun wird das Optimierungsproblem mit externen Modulen verknüpft, die eine Kommunikation mit der realen Wärmepumpen, Strompreisprognosen und Wettervorhersagen ermöglichen. Der dabei entwickelte Algorithmus wird auf einem Raspberry Pi Einplatinencomputer gespeichert und dort in einem regelmäßigen Zeitintervall von 15 Minuten ausgeführt, um den Betrieb der Wärmepumpe zu regeln.
Schließlich wird der modellprädiktive Regler in Betrieb genommen. Anschließend kann der modellprädiktive Betrieb mit dem konventionellen Betrieb verglichen werden. Aus dem Vergleich wird deutlich, dass eine modellprädiktive Regelung tatsächlich die Netzdienlichkeit einer Wärmepumpe verbessern kann. Andererseits werden auch die Entwicklungspotentiale identifiziert.
Webassembly is a new technology to create application in a new way. Webassembly is being developed since 2017 by the worldwide web consortium (w3c). The primary task of webassembly is to improve web applications.
Today, more and more applications are being created as web applications. Web applications have some advantages - they are platform independent and even mobile platforms can run them, and no installation is needed apart from a modern web browser.
Currently, web applications are being developed in JavaScript (JS), hypertext mark-up language 5 (HTML 5), and cascading style sheets (CSS).
These technologies are not made for huge web applications, but they should not be replaced by webassembly; rather, webassembly is an extension to the currently existing technology.
The purpose of webassembly is to fix or improve the problems in web application development.
This master’s thesis reviews all of the aspects and checks whether the promises of webassembly are kept and where problems still exist.
In dieser Arbeit soll untersucht werden, wie lernförderlich eine Digital Storytelling Website im Unterrichtskontext für Schülerinnen und Schüler sein kann.
Hierfür wird das Thema Bioenergiedorf verwendet, wobei die Funktionsweise anhand des real existierenden Bioenergiedorfs Untermaßholderbach mittels der zu erstellenden Digital Storytelling Website anschaulich erklärt werden soll.
Ziel der hierzu zugehörigen Ausführungen ist es, die Konzeption sowie die Umsetzung dieser Thematik innerhalb einer Digital Storytelling Website, unter Berücksichtigung entsprechender Anforderungen und Aspekte für den Unterrichtskontext, nachvollziehbar darzulegen. Hierbei sollen besonders die Gedanken zu den verschiedenen mediendidaktischen und kognitionspsychologischen Modellen hervorgehoben werden, welche der entwickelten Website zugrunde liegen.
Der Eignungsnachweis von Prüfprozessen ist sowohl für die Industrie, als auch für Forschungszwecke ausschlaggebend. Dabei sind die Genauigkeit, Präzision sowie die Messbeständigkeit der Messergebnisse von der zu untersuchenden Messeinrichtung mit statistischen Methoden auszuwerten. Mit Leitfäden wird unter einer sog. Messsystemanalyse die Fähigkeit einer Messeinrichtung mit den dazugehörigen statistischen Kennwerten beurteilt. Die Messsystemanalyse unterteilt sich in zwei Typen, wobei die Konsistenz bzw. Messdatenstreuung mit den entsprechenden Kennwerten beurteilt werden können. Unter MSA Typ 1 wird anhand Mittelwerte und Standardabweichungen von Wiederholmessungen die Konsistenz und Genauigkeit mit den Cg- bzw. Cgk-Indizes bewertet, die höher als 1,33 sein müssen, um die Messeinrichtung als fähig zu klassifizieren. Durch MSA Typ 2 wird die Präzision mit dem % R&R-Kennwert (Wiederholbarkeit & Reproduzierbarkeit) bewertet. Messeinrichtungen mit einem % R&R-Kennwert unterhalb 20 % liefern Messdaten mit einer ausreichenden Präzision, d.h. dass die Mittelwerte der Messdaten nicht signifikant voneinander unterscheiden. Die im Rahmen dieser Arbeit untersuchte akustische Messeinrichtung weist einen Cg-Index von 1, 58, einen Cgk-Index von 2, 13 und einen % R&R-Wert von 6, 56 % auf, weshalb die Messdaten mit einer hohen Konsistenz und Präzision erfasst werden.
Komplexe E-Commerce-Systeme müssen heutzutage immer schneller am Markt sein und sich an diesen anpassen. Dies wird durch SaaS-Services möglich, wodurch sich die Best-of-Breed-Lösungen einsetzen lassen. Der monolithische Ansatz der meisten E-Commerce-Systeme ist für diese Anwendungen nicht mehr geeignet. Abhilfe soll der Composable-Commerce-Ansatz schaffen. Für den Ansatz wird eine Integrationslösung benötigt. Ziel dieser Thesis ist es, Integrationslösungen zu evaluieren und mithilfe von Integration-Layer-Prototypen gegenüberzustellen. Es werden zwei Integrationslösungen ausgewählt, die als Prototyp implementiert werden. Für den ersten Prototypen wird Apache Camel in einem Spring-Boot-Server verwendet. Der zweite Prototyp setzt die AWS-eigenen Services für die Integration ein. Zum Schluss werden diese durch einen Last-Test auf ihre Performance geprüft.
Diese Arbeit beschäftigt sich mit den verschiedenen Technologien, welche in verteilten Systemen zur Kommunikation dienen können. Kernpunkt der Arbeit ist es, eine Schnittstelle zu schaffen, in der eine extrem hohe Anzahl einzelner Anwendungen untereinander und mit einer zentralen Simulationsumgebung weitestgehend automatisch - kommunizieren können. Dabei ist auch ein wesentlicher Punkt die Frage wie Daten ausgetauscht werden können. Betrachtet man zunächst das System an sich, so wird es deutlich, dass speziell für die Entwicklung des Gesamtsystems, die Stabilität, Leistungsfähigkeit und Zuverlässigkeit des Interfaces von enormer Wichtigkeit ist.
Der aktuell verbaute Hatz-Dieselmotors des Schluckspecht V soll durch einen leichten und effizienten Ottomotor ersetzt werden. Dieser Ottomotor wird zukünftig mit dem Alkohol Ethanol betrieben. Hierfür müssen, auch hinsichtlich des Wettbewerb-Einsatzes beim Shell Eco-marathon, einige Optimierungen durchgeführt werden.
Die hier vorliegende Master-Thesis behandelt den Aufbau und die Optimierung des Ver-suchsprüfstands, welcher für Testzwecke für den neuen Ottomotor entwickelt wurde. Im speziellen wird auf das Thema Kraftstoffsystem, welches für den Betrieb mit Ethanol aus-gelegt wird, eingegangen. Des Weiteren erfolgt die Konstruktion einer optimierten Ansaugstrecke, welche auf den Verbrennungsmotor appliziert werden soll. Hierfür werden mehrere Varianten strömungstechnisch untersucht und am Objekt getestet. Zudem soll die Verdichtung des Verbrennungsmotors durch einen optimierten Kolben erhöht und die Ventilsteuerzeiten durch eine optimierte Nockenkontur perfektioniert werden. Hierbei besteht die Aufgabe darin diese Bauteile zu besorgen und die Fertigung zu koordinieren. Eine weitere Tätigkeit ist die Aufnahme und Beseitigung von Fehlern des Versuchsprüfstands, welche einen reibungslosen Versuchsalltag verhindern bzw. erschweren. Die letzte Tätigkeit umfasst das Durchführen von experimentellen Untersuchungen des Verbrennungsmotors und das Anlegen von Kennfeldern, welche einen effizienten Motorlauf gewährleisten.
Möglichkeiten für die Verbesserung der Sicherheit von Endgeräten und Netzwerkstrukturen in der Cloud
(2021)
Meine Thesis soll sich mit dem Betrieb eines Unternehmens-Netzes mit Microsoft Tools mit und ohne Cloud beschäftigen. Dabei soll herausgearbeitet werden, in welchen Bereichen es Sinn ergibt, eine Cloudstrategie anzustreben und wo Unternehmen vielleicht empfohlen werden sollte, vorerst oder vielleicht auch langfristig bei der on-premise Variante zu bleiben.
Dafür werden Dinge wie rechtliche Aspekte, Datenschutz oder Kostenpunkte eher sekundär behandelt, da das Hauptaugenmerk auf der Sicherheit der Unternehmensdaten, Endgeräte und Server liegen soll.
Tatsächlich verfolgen bereits einige große Namen in Deutschland eine sogenannte "Cloud-first" Strategie, bei welcher versucht wird, alle möglichen Anwendungen in der Cloud unterzubringen. Auf Beweggründe und Motivation dieser Unternehmen wird kurz eingegangen.
Dann werden verschiedenste Bereiche behandelt, die im täglichen Unternehmensumfeld eine Rolle spielen, darunter fallen beispielsweise die Nutzung von Fileservern im Vergleich mit dem Cloud Ansatz OneDrive. Es soll die Frage beantwortet werden, ob eine vollständige Migration in die Cloud für verschiedene Bereiche Sinn ergibt, wie eben zum Beispiel den kompletten FileServer in die Cloud (im speziellen Fall OneDrive) umzuziehen.
Ein weiterer Unterpunkt ist die Nutzung eines Active Directorys bzw. von Domain Controllern in der Cloud über Azure AD. Hier wird insbesondere auch auf die Frage eingegangen, welche Unternehmen immer wieder beschäftigt, ob die, für die Konfiguration von Endgeräten sehr wichtigen, Group Policies in der Cloud erhalten bleiben bzw. ob und durch was sie ersetzt werden, oder ob und wie man sie migrieren kann.
Migration ist an dieser Stelle ein gutes Stichwort, denn ebenfalls soll aufgezeigt werden, wie herausfordernd die Migration verschiedenster on-premise Strukturen in die Cloud ist, und ob überhaupt bei allen Dingen eine Migration möglich ist. Interessant wird es hier möglicherweise bei legacy-Anwendungen.
Neben weiteren Themen wie dem sicherheitskritischen Allow-listing und verschiedenen Security-Ansätzen, denen mit einer Cloud-Strategie bessere Möglichkeiten gegeben werden kann, soll geklärt werden, welche Zusatzherausforderungen, aber auch Chancen die Cloud bieten kann und wird.
17
Zusammengefasst soll am Ende klarer sein, für was sich die Microsoft Cloud Anwendungen momentan schon gut eignen, wo man abwägen muss, und in welchen Aspekten die Cloud sich zunächst noch weiterentwickeln muss, bevor sie sinnvoll und verlässlich nutzbar ist. Außerdem soll aufgeführt werden, in welchen Bereichen man in den nächsten Jahren, und vielleicht auch schon jetzt, kaum noch an der Cloud vorbeikommt, wenn man eine bestimmte Funktionalität, sei es nun eine Anwendung, die die Sicherheit des Unternehmens erhöht, oder eine die die Produktivität steigern soll, nutzen möchte.
Die Thesis soll also eine Möglichkeit für Unternehmen bieten, sich unabhängig über Cloudangebote, hier meist am Beispiel der Microsoft Cloud Services, zu informierten. Und außerdem einzuschätzen, wie komplex und realisierbar verschiedene Dinge sind.
The growing threat posed by multidrug-resistant (MDR) pathogens, such as Klebsiella pneumoniae (Kp), represents a significant challenge in modern medicine. Traditional antibiotic therapies are often ineffective against these pathogens, leading to high mortality rates. MDR Kp infections pose a novel challenge in military medical contexts, particularly in Medical Biodefense, as they can be deliberately spread, leading to resource-intensive care in military centres. Recognizing this issue, the European Defence Agency initiated a prioritised research project in 2023 (EDF Resilience PHAGE- SGA 2023). To address this challenge, the Bundeswehr Institute of Microbiology (IMB) leads BMBF- (Federal Ministry of Education and Research) and EU-funded projects on the use of bacteriophages as adjuvant therapy alongside antibiotics. Since 2017, the IMB has isolated and characterised Kp phages, collecting over 600 isolates and optimizing their production for therapy, in compliance with the EMA (European Medicine Agency) guidelines. This involves in vitro phage genome packaging to minimize endotoxin load, reduce manufacturing costs, and shorten production times. The goal of this work was to establish MinION sequencing (Oxford Nanopore Technology) as a quick and reliable way for initial identification and characterisation of phage genomes. Especially as a quick screening method for isolated on Kp, prior to more precise but also more expensive and time consuming sequencing methods like Illumina. This characterisation is crucial for developing a personalized pipeline aimed at producing magistral or Good Manufacturing Practice (GMP) quality medicinal phage solutions tailored individually for each patient. DNA extraction methods were compared to identify suitable input DNA for sequencing purposes. Additionally, the quality of this DNA was as- sessed to determine its suitability for in vitro phage packaging, which was successfully done achieving a phage titer of 103, confirming that the DNA used for MinION sequencing could indeed be used for acellular packaging. The created genomes were annotated and compared with Illumina sequencing, revealing high similarity in all five individually tested cases. Between the generated sequences only a 4% maximal percentual difference in genome size was observed, while simultaneously showing high similarity in the actual sequence. Throughout the course of this study, a total of 645.15 GB of sequencing data were generated. In total, 38 phages were successfully characterised, with 21 phage genomes assembled and annotated, and saved in the IMB database.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
Aktivität gibt Energie
(2017)
The effects of climate change, including severe storms, heat waves, and melting glaciers, are highlighted as an urgent concern, emphasising the need to decrease carbon emissions to restrict global warming to 1.5°C. To accomplish this goal, it is vital to substitute fossil fuel-based power plants with renewable energy sources like solar, wind, hydro, and biofuels. Despite some progress being made, the proportion of renewables used in generating electricity is still lower than the levels needed for 2030 and 2050. Decarbonising the power grid is also critical in lowering the energy consumption of buildings, which is responsible for a substantial percentage of worldwide electricity usage. Even though there has been substantial expansion in the worldwide renewable energy market in the past 15 years, the transition to renewable energy sources also requires taking into account the importance of energy trading.
Peer-to-peer (P2P) electricity trading is an emerging type of energy exchange that can revolutionise the energy sector by providing a more decentralised and efficient way of trading energy. This research deals about P2P electricity trading in a carbon-neutral scenario. 'Python for Power System Analysis' (PyPSA) was used to develop models through which the P2P effect was tested. Data for the entire state of Baden-Württemberg (BW) was collected. Three scenarios were taken into consideration while developing models: 2019 (base), 2030 (coal phase-out), and 2040(climate neutral). Alongside this, another model with no P2P trading was developed to make a comparison. In addition, the use case of community storage in a P2P trading network is also presented.
The research concludes that P2P has a significant positive effect on a pathway to achieve climate neutrality. The findings show that the share of renewables in electricity generation is increasing compared to conventional sources in BW, which can be traded to meet the demand. From the storage analysis, it can be concluded that community storage can be effectively utilised in P2P trading. While the emissions are reduced, the operating costs are also reduced when the grid has P2P trading available. By highlighting the benefits of P2P trading, this research contributed to the growing body of research on the effectiveness of P2P trading in an electricity network grid.
The Lattice Boltzmann Method is a useful tool to calculate fluid flow and acoustic effects at the same time. Although the acoustic perturbation is much smaller than normal pressure differences in fluid flow, this direct calculation is a great advantage of the Lattice Boltzmann Method (LBM). But each border used in calculation produces a multitude of reflections with the acoustic waves, which lead to an unusable result. Therefore, it is worked on different absorbing techniques.
In this thesis three absorbing layer techniques are described, explained and reviewed with different simulations. The absorbing layers are implemented in a basic LBM code in C++, and with this umpteen simulations within a box were performed to compare the different absorbing layers. The Doppler effect and a cylinder flow are also examined to compare the damping efficiencies.
The three studied absorbing techniques are the sponge layer, the perfectly matched layer and a force based Term II absorbing layer. The sponge layer is easy to implement but gives worse results than a calculation without any absorbing layer. The perfectly matched layer and a force based absorbing term provide very good results but the perfectly matched layer has problems with instability. The force based absorbing layer represents the best compromise between the additional computation time due the absorbing layer and the achieved damping efficiency.
Der Bedarf an fortschrittlichen Bildungstechnologien wächst: Learning Experience Plattformen (LXP) erlangen angesichts der rasanten technologischen Entwicklungen und der daraus resultierenden Veränderungen des Lernverhaltens immer größere Relevanz. Diese Masterarbeit befasst sich mit der Konzeption und Konfiguration eines User-Interfaces für eine Learning Experience Plattform, speziell für die Moodle-Plattform der Hochschule Offenburg. Rahmengebend ist das KompiLe-Projekt, das durch das Bund-Länder- Programm Künstliche Intelligenz in der Hochschulbildung gefördert wird.
Als zentrales Ergebnis wurde ein spezifisches User-Interface für eine Learning Experience Plattform entworfen. Hierbei lag der Fokus insbesondere auf den Bereichen Dashboard, Meine Kurse und einen exemplarischen Kurs, die die wesentlichen Eigenschaften einer LXP repräsentieren sollten.
In einer Umfrage äußerten 55 Studierende und Lehrende ihre Vorstellungen und Präferenzen hinsichtlich der Elemente für das User-Interface. Unter Berücksichtigung dieser Erkenntnisse, kombiniert mit vorherigen Recherchen und einem Prototyp, wurde die finale Konfiguration entwickelt.
Im Vergleich zum vorherigen Design, das lediglich eine Zeitleiste zeigte, bietet das aktualisierte Dashboard erweiterte Möglichkeiten: Eine integrierte Kursübersicht ermöglicht es den Lernenden, direkt vom Dashboard aus auf Kurse zuzugreifen. Nutzer*innen haben die Möglichkeit, in der Kursübersicht zu filtern und durch die Auswahl von Favoriten ihre bevorzugten Kurse zu markieren. In einer Umfrage befürworteten fast 90% diese Funktion. Es wurde ein Interessen-Tag auf dem Dashboard hinzugefügt, der später zu dem Profil verlinken soll. Das Dashboard und die Kursseite wurden durch die Einführung einer linken Spalte aufgewertet, was zu einer erhöhten Symmetrie führte. Zudem wurden auf der Kursseite die ersten personalisierten Elemente wie Top bewertete Aktivitäten und Am häufigsten abgeschlossene Objekte hinzugefügt. Gamification- Elemente erfreuten sich großer Beliebtheit mit einer Zustimmung von 80%. Das Einbinden eines neuen modernen Gamification-Elements in Moodle erschien im Vergleich zu bereits verwendeten Elementen recht aufwändig und deshalb wurde sich zunächst dagegen entschieden. Im Kontext des sozialen Austauschs und der Interaktion war es auffällig, dass die Mehrheit der Studierenden es vorzog, ihre Online-Präsenz zu verbergen und das Moodle-Forum gegenüber anderen Interaktionsmöglichkeiten bevorzugte. Weniger signifikante Veränderungen fanden im Bereich Meine Kurse statt.
As e-commerce platforms have grown in popularity, new difficulties have emerged, such as the growing use of bots—automated programs—to engage with e-commerce websites. Even though some algorithms are helpful, others are malicious and can seriously hurt e-commerce platforms by making fictitious purchases, posting fictitious evaluations, and gaining control of user accounts. Therefore, the development of more effective and precise bot identification systems is urgently needed to stop such actions. This thesis proposes a methodology for detecting bots in E-commerce using machine learning algorithms such as K-nearest neighbors, Decision Tree, Random Forest, Support Vector Machine, and Neural Network. The purpose of the research is to assess and contrast the output of these machine learning methods. The suggested approach will be based on data that is readily accessible to the public, and the study’s focus will be on the research of bots in e-commerce.
The purpose of the study is to provide an overview of bots in e-commerce, as well as information on the different kinds and traits of bots, as well as current research on bots in e-commerce and associated work on bot detection in e-commerce. The research also seeks to create a more precise and effective bot detection system as well as find critical factors in detecting bots in e-commerce.
This research is significant because it sheds light on the increasing issue of bots in e-commerce and the requirement for more effective bot detection systems. The suggested approach for using machine learning algorithms to identify bots in ecommerce can give e-commerce platforms a more precise and effective bot detection system to stop malicious bot activities. The study’s results can also be used to create a more effective bot detection system and pinpoint key elements in detecting bots in e-commerce.
Diese Arbeit beschäftigt sich mit der Einführung von Digital Asset Management Systemen in einem Unternehmen. Ein Digital Asset Management dient der Verwaltung von digitalen Dateien von besonderer Bedeutung, sogenannte digitale Assets. Meist handelt es sich dabei um Bilder, aber auch Videos, Textdokumente und viele andere Dateitypen können in einem solchen System verwaltet werden. Unternehmen verfolgen dabei in der Regel das Ziel, einen zentralen Speicherort für alle relevanten Assets zu schaffen, um von dort aus die Verteilung steuern und die Dateien aktuell halten zu können. Systeme dieser Art werden beispielsweise in Marketingabteilungen eingesetzt, um Markeninhalte zentral verwalten und verteilen zu können. Die Einführung eines solchen Systems erfordert aufgrund der damit verbundenen Komplexität ein strukturiertes Vorgehen. Hierzu wird in dieser Arbeit ein mehr phasiges Vorgehen vorgeschlagen, das zu einer erfolgreichen Einführung eines Digital Asset Management Systems führt. Darüber hinaus werden auf Basis dieses Phasenansatzes Erfolgsfaktoren identifiziert und vorgestellt, auf die bei der Einführung besonders zu achten ist. Die Fallstudie einer tatsächlichen Einführung aus der Praxis beleuchtet die theoretisch erarbeiteten Erkenntnisse nochmals aus praktischer Sicht und erlaubt Rückschlüsse auf das vorgestellte theoretische Vorgehen.
Singapore’s success in transforming itself from a poor, vulnerable economy to one of the richest countries in the world (IMF, 2016) is nothing short of inspirational to many small economies around the globe. Given its lack of resources, Singapore relied upon foreign investors to fuel its growth not only through cash injection into the economy in the form of Foreign Direct Investments (FDI) but also to help upgrade its skills and technological stock. This study looks at how Singapore inspired many Multi-National Corporations (MNCs) into pouring a large sum of investments into this small ailing citystate and if this idea can be generalized to apply it in other economies, especially in Oman.
In a bid to explain the large flow of Capital into an economy, this study moves on further to review most prominent literature in the field since Macdougall (1958) first laid the groundwork for the subsequent theories on FDI. Based on the review of several previous studies, the most significant determinants of FDI were found to be government policy and political stability, inflation rate as a proxy for economic stability, quality of infrastructure and institutions, market size of the host country, openness to trade, tax policies and access to low cost factors of production.
Through a case study method with the inductive approach, this study finds that Singapore excels in all of the determinants of FDI except for the market size of the host country and access to low-cost factors of production. However, it more than compensates for these shortcomings with its strategic geographical location and numerous bilateral and regional trade agreements that give it access to markets around the region. Oman like Singapore ranks well in many of these determinants that make it a potential destination for investment. However, the sultanate could gain more interest from the MNC’s to help its growth by optimizing its policies to lower existing barriers, easing immigration laws to meet the short term skill shortage, allowing for 100 percent foreign ownership, allowing for more liberal property rights, working to improve corruption perception and opting for more trade agreements to give it easy access to larger markets. Moreover, the economy’s heavy reliance on hydrocarbon exports is seen as a major risk by investors as it creates an economic vulnerability which could potentially overshadow many other benefits of investing in the sultanate. Besides the aforementioned determinants, a lot also depends on the success of Oman’s diversification plans.
Study of impact of change in market economics of Biosimilars due to SPC waiver on EU 469/2009
(2023)
This research was conducted to understand and investigate the impact of SPC waiver EU 933/2019 made as an amendment to EU 469/2019. The research was conducted for analysis and extraction of the data to compile the exact number of biological products impacted with the SPC waiver. The highest sale top-5 products were identified according to the expert’s opinion. The sales revenue opportunity valuable to the top-5 products in the top-5 non-EU markets for early exports is investigated. Additionally, a survey was conducted to assess the readiness of the industry for these changes. The information from this study will be very useful to students of the biopharmaceutical market research and to the stakeholders from the biopharmaceutical industry.
In recent years, the demand for reliable power, driven by sensitive electronic equipment, has surged. Even minor deviations from the nominal supply can lead to malfunctions or failure. Despite technological advancements, power quality issues persist due to various factors like short circuits, overloads, voltage fluctuations, unbalanced loads, and non-linear loads.
This thesis extensively explores power quality anomalies in industrial and commercial sectors, using power system data as the primary analytical resource. It addresses the critical need for power supply reliability in today's evolving power grid industry, affected by non-linear loads, renewable energy integration, and electric vehicles. This field of study is paramount for ensuring power supply reliability and stability in the evolving power grid industry.
The core of this thesis involves a comprehensive investigation of power quality, with a focus on frequency, power, and harmonics in voltage and current signals. The research employs Python programming for advanced data analysis, utilizing techniques such as advanced Fast Fourier Transformation (FFT) analysis. The primary objective is to provide valuable insights aimed at elevating power supply quality and enhancing reliability in both industrial and commercial environments.
Herr Vater & Ich
(2022)
Mein Vater wurde im Jahr 1952 geboren. Über das, was er in den 40 Jahren vor meiner Geburt erlebt hat, hat er mir immer wieder Geschichten erzählt, die mich unterhalten, belustigt oder verwundert haben. Geschichten, die mir immer wieder zeigten, dass ich ihn, abseits von seiner Rolle als Vater, gar nicht wirklich kenne. Dabei hat er mich in vielerlei Hinsicht geprägt. Mit der Musik, die er mit mir gemacht hat, den Bildern, die er mit mir gemalt hat, den Büchern, Platten und Filmen, die er mir geschenkt hat und mit den Geschichten, die er erzählt und vor allem wie er sie erzählt. Aber was für meine Person ist mein Vater eigentlich?
Ich sammle Anekdoten, die einen lebhaften Eindruck über seine Erfahrungen und Erlebnisse geben und erfahre mehr über den historischen Kontext und die gesellschaftliche Situation, die seine persönliche Lebensgeschichte prägten. Ich tauche ein, in ein Leben voll von Kindheitserinnerungen aus der Nachkriegszeit und zufälligen Begegnungen, aus denen sich langjährige Freundschaften ergeben. Ich lerne mehr über den Umgang mit dem Tod, darüber wie man Entscheidungen trifft und lausche Geschichten von jugendlichem Übermut und aufregenden Schiffsfahrten. Mit jeder dieser Geschichten lerne ich meinen Vater neu und besser kennen, sehe mich darin selbst wieder oder bin auch einfach nur überrascht.
Denn die Auseinandersetzung mit meinem Vater ist notwendigerweise eine Auseinandersetzung mit mir selbst. Wo finde ich mich in seinen Geschichten selbst wieder? Wo macht er Fehler, die ich auch gemacht hätte, aber wo trifft er auch Entscheidungen, die ich mir nicht zutrauen würde? Ich erfahre, was wir gemeinsam haben, aber auch wo wir uns unterscheiden. Wir als Person, aber auch wir in unserem historischen Kontext. Wo in ihm ein Seemanns-Lied aus einer Musiktruhe den Wunsch weckte, zur See zu fahren, da höre ich noch immer die Platten, die er mir als Kind vorgespielt hat. Dass er mit seinen Eltern und seinem Bruder in einem Zimmer geschlafen und aufgewachsen ist, scheint für mich heute undenkbar. Und zusammen versuchen wir den Weg seines Vaters, meines Opa, nach Deutschland nachzuvollziehen und ergründen die Wurzeln der Familie.
Bilder, Dokumente und Tape-Aufnahmen eines rumänischen Kirchenchors veranschaulichen Erzählungen, die bis vor den Zweiten Weltkrieg zurückreichen und werden ergänzt und erweitert durch Medien, die erst im Rahmen dieser Arbeit entstanden sind. Es entsteht eine digitale Ausstellung und weit mehr, als ein individuelles Porträt. „Herr Vater & Ich” ist eine Sammlung von Kurzgeschichten, eine Auseinandersetzung mit Geschichte und gesellschaftlicher Veränderung, eine Verständigung zwischen Generationen.
Eine Einladung zum Zuhören & Kennenlernen.
Bei der Produktion von Solarzellen aus multikristallinem Silizium haben Defekte aus der Kristallisationsphase starken Einfluss auf die Materialqualität der Wafer und damit auf den Wirkungsgrad der späteren Solarzelle. Ein Verständnis des Kornwachstums in multikristallinem Silizium während des Kristallisationsprozesses kann zur Optimierung desselben beitragen. In dieser Arbeit werden Methoden untersucht, optische Flüsse zwischen Korngrenzenbildern multikristalliner Si-Wafer mittels neuronaler Netze zu berechnen. Hierfür wird die Architektur eines ausgereiften faltungsbasierten neuronalen Netzes zur optischen Fluss-Berechnung genutzt und durch angepasstes Training auf Waferstrukturen zugeschnitten. Dies umfasst die Synthese eigener, auf Waferbilder basierender Trainingsdaten und das Training mit einer angepassten Fehlerfunktion zur Bewertung der Zuordnungsgenauigkeit von Körnern zwischen Wafern durch den optischen Fluss. Beide Maßnahmen zusammen führen zu einer Reduktion des Zuordnungsfehlers von Körnern zwischen Waferbildern um 45 % gegenüber einem hochoptimierten, auf allgemeine optische Flüsse trainierten Modell basierend auf demselben Netzwerk. Die geschätzte Zuordnungsgenauigkeit des besten Modells beträgt 92,4 % der Pixel der Korngrenzenbilder eines Wafers. Weiteres Verbesserungspotenzial ist vorhanden.
Das Verstehen und Extrahieren von Informationen aus Dokumenten stellt eine Herausforderung dar, welche den Einsatz weiterer Technologien bedarf. Vorliegende
Masterarbeit untersucht die Anwendbarkeit von Methoden des maschinellen Lernens im Bereich der Wissensextraktion auf Basis von Angebotsdokumenten. Hierbei gilt die Frage zu klären, inwiefern sich diese Dokumente eignen, um Strukturen
für die Modellierung mit einem Produktkonfigurator zu lernen. Kern der Arbeit stellen die Datenaufbereitung von PDF-Dokumenten sowie das Modeling multimodal
lernender Algorithmen dar. Abgesehen von Texten werden zusätzlich Layoutinformationen für das Lernen der Strukturen genutzt. Zudem werden die Ergebnisse der
erstellten Modelle evaluiert und die Güte in Anbetracht des vorliegenden Problems
bewertet.
Mit der prototypischen Implementierung einer automatisierten Dokumentengenerierung wird demonstriert, wie das extrahierte Wissen in der Software CAS Configurator Merlin genutzt werden kann.
Das Konzept Nudging bezieht sich auf die gezielte Anwendung von verhaltensökonomischen Prinzipien. Menschen sollen dazu angestoßen werden, Entscheidungen zu treffen, welche ihnen zugutekommen. Dabei werden Reize, sogenannte Nudges, gesetzt. Ein Ziel der vorliegenden Arbeit ist es zu beantworten, ob und wie effektiv das Konzept in der Gesundheitskommunikation genutzt wird. Ein weiteres Ziel ist die Identifikation von Risiken und Chancen des Ansatzes. Dazu wurden zunächst die Grundlagen der Verhaltensökonomik erläutert. So werden zwei kognitive Systeme unterschieden: Das automatische bzw. intuitive System sowie das rationale bzw. reflexive System. Menschen nutzen häufig das automatische System, um aufgrund von Erfahrungen und Emotionen Entscheidungen zu treffen. Dieses System ermöglicht eine schnelle Reaktion, ist aber anfällig für kognitive Verzerrungen und Urteilsheuristiken. Während kognitive Verzerrungen systematische Abweichungen von rationalen Entscheidungen bezeichnen, werden unter Urteilsheuristiken Faustregeln verstanden, welche auf vereinfachten Denkvorgängen beruhen. Nudges werden hinsichtlich dieser Erkenntnisse eingesetzt, indem die Denkmuster gezielt angesprochen werden. Im Bereich der Gesundheitskommunikation spielt die psychologische Reaktanz eine Rolle. Diese bezieht sich auf die menschliche Eigenschaft, die eigene Freiheit und Autonomie zu verteidigen, sobald diese eingeschränkt scheint. Demnach können Gesundheitsbotschaften nicht den gewünschten Effekt erzielen, sobald Menschen sich genötigt oder bevormundet fühlen. Forschungen zur Akzeptanz und Effektivität von Nudge-Instrumenten zeigen, dass die Maßnahmen eine moderate Wirkung haben, von der Zielgruppe akzeptiert werden und somit Vorteile gegenüber anderen Ansätzen wie Verboten und Vorschriften aufweisen. Innerhalb einer qualitativen Inhaltsanalyse von vier Gesundheitskampagnen wurden unterschiedliche Kampagnenbestandteile auf den Einsatz von vorher festgelegten Instrumenten, welche auf der Literatur beruhen, analysiert. Alle Instrumente der Überkategorien Ansprache, Einfachheit sowie Incentivierung konnten identifiziert werden, deren Instrumente somit zu den meist genutzten zählen. Ungenutztes Potenzial lässt sich bei der Anwendung der Instrumente Kurzfristige Vorteile, Verbindlichkeit und Standardoption ausmachen. Ein Risiko bei der Verwendung von Nudges in der Praxis stellt die teilweise ungenaue Definition des Ansatzes in der Forschung und damit eine fehlerhafte Implementierung der Maßnahmen dar. Das Nudging kann bei unsachgemäßer Anwendung den Vorwurf der Manipulation nach sich ziehen oder den gewünschten Effekt verfehlen. Abschließend wurde eine Gesundheitskampagne mit dem Titel Lebensgefühl konzipiert, die sich mit dem Thema Diabetes Typ 2 auseinandersetzt. Anhand dieses praktischen Teils wird die Umsetzung von Nudging in der Gesundheitskommunikation veranschaulicht.
In der vorliegenden Arbeit wird Augmented Reality (AR) sowohl in der Theorie als auch in der Praxis ausführlich behandelt. Die Technik, welche in den letzten Jahren stark weiterentwickelt wurde, die Entwicklungsgeschichte, sowie die Projektbegleitung (aus Sicht des Auftraggebers einer AR-Anwendung) stehen im Fokus.
Neben den einleitenden Kapiteln wurde die Ausarbeitung thematisch in zwei große Bereiche unterteilt. Der erste, eher theoretische Bereich (Kapitel 2), bildet den wissenschaftlichen Teil dieser Ausarbeitung. Er beinhaltet eine Einführung in Augmented Reality und analysiert aktuelle Techniken. Auch die Funktionsweise wird aufgezeigt, um zu verstehen, was hinter den Kulissen der Anwendungen steckt. Im zweiten, praxisnahen Bereich (Kapitel 3) wird der Entstehungsprozess der Augmented Reality Applikation (App) von Kaba begleitet. Es wurde der Entstehungsprozess der App für Android und iOS ausführlich dokumentiert. Für Leser, die Probleme mit einigen Wissensbereichen haben, gibt es im Anhang eine ausführliche Literaturliste.
Die Corona-Pandemie hat nicht nur tiefgreifende Auswirkungen auf das gesellschaftliche Leben, auch in der Wirtschaft sind die Folgen zu spüren. Dabei können diese Folgen in den einzelnen Branchen sehr unterschiedlich sein. Wo der E-Commerce eine steigende Nachfrage verzeichnen konnte, ist die Nachfrage im Kultur- und Freizeitsektor nahezu komplett eingebrochen. Aber nicht in allen Branchen sind die Auswirkungen so eindeutig. Diese Arbeit befasst sich deshalb mit den Auswirkungen der Corona-Pandemie auf die Werbefilmproduktionen in Deutschland. Dabei werden die folgenden beiden Forschungsfragen untersucht:
„Welche Gefahren birgt die wirtschaftliche Krise in Folge der Corona-Pandemie für die Werbefilmproduktionsbranche und wie kann diesen entgegengewirkt werden?“
„Welche Chancen ergeben sich aus der aktuellen Wirtschaftskrise und wie können diese für die Zukunft genutzt werden?“
Um diese Fragen zu beantworten, wurden zunächst die Begrifflichkeiten rund um das Thema genau definiert. Aufbauend auf der Literaturrecherche wurde zudem ein Leitfaden für Interviews mit drei Experten aus der Branche erstellt und diese anschließend durchgeführt. Dabei konnten neben einem detaillierteren Einblick in die Branche die Grundlagen für die ebenfalls durchgeführte quantitative Umfrage, die an eine repräsentative Stichprobe aus Unternehmen der Branche gestellt wurde, geschaffen werden.
Es zeigt sich, dass die Werbefilmproduktionen nach einem im ersten Lockdown nahezu kompletten Stillstand, durch schnelles Handeln, effektive Anpassungen in den Arbeitsabläufen vornehmen und dadurch zügig die Arbeit wieder aufnehmen konnten. Auch wenn die Unternehmen weiterhin Schwierigkeiten im Bereich der Planung und Produktion hatten und haben, konnten viele der Unternehmen durch die Verlagerung von Prozessen in die digitale Welt neue Geschäftsfelder erschließen und einen steigenden Umsatz verzeichnen. Schnelles Handeln und Innovationsbereitschaft zeigen sich dabei als zentrale Eigenschaften für eine positive Geschäftsentwicklung in der Krise.
Weiterführende Forschung kann sich mit dem Themenbereich effizientes Arbeiten im Home-Office beschäftigen. Auch im Bereich der Werbefilmproduktion für Social Media und Unternehmenshomepages und im Speziellen, welche Unternehmen diese in Zukunft vermehrt nachfragen, besteht noch Forschungsbedarf. Wie sich die fehlende praktische Erfahrung auf die Qualität der Lehre auswirkt, ist ebenfalls eine noch offene Fragestellung.
Durch die Fortschritte im Bereich der Quantencomputer rückt der Zeitpunkt näher, dass Quantencomputer die bestehenden mathematischen Probleme lösen können, welche in den aktuellen Public-Key-Verschlüsselungsverfahren verwendet werden. Als Reaktion darauf wurde ein Standardisierungsprozess für quantensichere Public-Key-Verschlüsselungsverfahren gestartet. Diese Arbeit analysiert diese und vergleicht sie untereinander, um Stärken und Schwächen der einzelnen Verfahren aufzuzeigen.
Diese Arbeit befasst sich mit der Konzeption und Implementierung eines Dateiimportfilters für Mess- und Kalibrierwerkzeuge. Dieser ermöglicht das Importieren von INCA-Experimenten nach CANape, indem aus Experiment-Exportdateien Konfigurationsdateien generiert werden. Im Zuge der Umsetzung wurde dazu das aus binären Daten bestehende Exportdateiformat von INCA analysiert. Das Ziel dieser Analyse bestand darin, herauszufinden, wo und wie die Informationen in den Exportdateien gespeichert sind. Die so erlangten Erkenntnisse wurden verwendet, um den Dateiimportfilter zu entwickeln. Dieser liest aus Exportdateien die notwendigen Informationen aus, überführt sie in eine CANape interne Repräsentation und generiert daraus eine entsprechende Konfigurationsdatei. Die korrekte Funktionsweise wurde anhand von selbst erstellten Experimenten sowie mithilfe von Kundenexperimenten validiert.
Das Thema dieser Masterthesis lautet „Camera Stream Solution – Marktübersicht, Lösungsansätze, Prototyp“. Mit dieser Arbeit wird eine Videostreaming-Lösung für die Herrenknecht-Plattform CONNECTED realisiert. Dabei geht es um die Bildschirmaufnahme von Navigations- und Steuerungsbildschirmen auf Tunnelbohrmaschinen und die Übertragung dieser Aufnahmen in die Cloud. Letztlich wird ermöglicht die Aufnahmen in nahezu Echtzeit als Videostream in einem Videoplayer wiederzugeben.
Zu Beginn werden die Grundlagen zur Datenübertragung im Internet sowie zum Streaming erläutert. Im Anschluss wird eine Marktübersicht verschiedener Streaming-Komponenten gegeben sowie einige Lösungsansätze vorgestellt und anhand ausgewählter Kriterien verglichen. Im nächsten Schritt wird die Implementierung eines Prototyps behandelt. Dieser nutzt unter anderem ffmpeg für die Bildschirmaufnahme und die Kodierung sowie die Streaming-Protokolle RTMP (Real Time Messaging Protocol) und HLS (HTTP Live Streaming). Zur Realisierung der Architektur gehört auch die Entwicklung einer REST-API und eines REST-Clients in C#.
Mit dem Projekt wird eine „echte“ Streaming-Lösung für die Kundenplattform CONNECTED entwickelt, die einen Videostream mit 24 Bildern pro Sekunde bietet, um die bisherige Darstellung von Screenshots auf der Plattform zu ersetzen.
Die vorliegende Arbeit beschäftigt sich mit ausgewählten Aspekten der Konzeption, Umsetzung und Implementierung eines E-Learning-Lernangebots für die NGO CartONG. Das E-Learning-Angebot soll abschließend vier Themen beinhalten, die sich unter dem Begriff REDD+ zusammenfassen lassen. „Forest Inventory“ ist eines der vier Themen und wurde von mir bearbeitet. Für die Aufbereitung und Umsetzung der anderen drei Themen erstellte ich Anleitungen und Richtlinien. Die anderen drei Themen werden auf Grundlage dieser Anleitungen in ähnlicher Weise von CartONG-Mitarbeitern aufbereitet. Die Grundlage dieser Arbeit bilden die Lerntheorien sowie die Auswertung des Fragebogens für die potentiellen zukünftigen Lerner, durch die ich meine Konzeption und Umsetzung begründe. Diese beiden Grundlagen behandle ich in den ersten zwei Kapiteln. Darauf folgt die Beschreibung der Entwicklung des Corporate Designs für das gesamte Lernangebot. Es bildet neben der zuvor genannten didaktischen Grundlage nun die visuelle Grundlage für die Konzeption der Inhalte, die sich diesem Kapitel anschließt. Der Konzeption folgt die Aufbereitung der Inhalte. Das abschließende Kapitel beschreibt die anschließende Umsetzung des Lernangebots auf der Lernplattform Moodle.
Strong security measures are required to protect sensitive data and provide ongoing service as a result of the rising reliance on online applications for a range of purposes, including e-commerce, social networking, and commercial activities. This has brought to light the necessity of strengthening security measures. There have been multiple incidents of attackers acquiring access to information, holding providers hostage with distributed denial of service attacks, or accessing the company’s network by compromising the application.
The Bundesamt für Sicherheit in der Informationstechnik (BSI) has published a comprehensive set of information security principles and standards that can be utilized as a solid basis for the development of a web application that is secure.
The purpose of this thesis is to build and construct a secure web application that adheres to the requirements established in the BSI guideline. This will be done in order to answer the growing concerns regarding the security of web applications. We will also evaluate the efficacy of the recommendations by conducting security tests on the prototype application and determining whether or not the vulnerabilities that are connected with a web application that is not secure have been mitigated.
As the Industry 4.0 is evolving, the previously separated Operational Technology (OT) and Information Technology (IT) is converging. Connecting devices in the industrial setting to the Internet exposes these systems to a broader spectrum of cyber-attacks. The reason is that since OT does not have much security measures as much as IT, it is more vulnerable from the attacker's perspective. Another factor contributing to the vulnerability of OT is that, when it comes to cybersecurity, industries have focused on protecting information technology and less prioritizing the control systems. The consequences of a security breach in an OT system can be more adverse as it can lead to physical damage, industrial accidents and physical harm to human beings. Hence, for the OT networks, certificate-based authentication is implemented. This involves stages of managing credentials in their communication endpoints. In the previous works of ivESK, a solution was developed for managing credentials. This involves a CANopen-based physical demonstrator where the certificate management processes were developed. The extended feature set involving certificate management will be based on the existing solution. The thesis aims to significantly improve such a solution by addressing two key areas that is enhancing functionality and optimizing real-time performance. Regarding the first goal, firstly, an analysis of the existing feature set shall be carried out, where the correct functionality shall be guaranteed. The limitations from the previously implemented system will be addressed and to make sure it can be applied to real world scenarios, it will be implemented and tested in the physical demonstrator. This will lay a concrete foundation that these certificate management processes can be used in the industries in large-scale networks. Implementation of features like revocation mechanism for certificates, automated renewal of the credentials and authorization attribute checks for the certificate management will be implemented. Regarding the second goal, the impact of credential management processes on the ongoing CANopen real-time traffic shall be a studied. Since in real life scenarios, mission-critical applications like Industrial control systems, medical devices, and transportation networks rely on real-time communication for reliable operation, delays or disruptions caused by credential management processes can have severe consequences. Optimizing these processes is crucial for maintaining system integrity and safety. The effect to minimize the disturbance of the credential management processes on the normal operation of the CANopen network shall be characterized. This shall comprise testing real-time parameters in the network such as CPU load, network load and average delay. Results obtained from each of these tests will be studied.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
In each company Top Managers have the responsibility to take major decisions that supports the success of their company, Adopting TQM is one of these decisions, the decision to carry out companies’ operations and procedures within TQM frameworks. (ASQ , n.d.). Applying TQM, involves implementing practices that needs putting extra efforts, otherwise there will be no use of the practices and the execution. (Nicca Jirah F Campos1, 2022).
Specifically in service sector, where the key to success and increased profit, comes directly through a satisfied customer. Therefor there is a need for both management and staff to have big tolerance and willingness to achieve the needed satisfaction, in order to attain the results that every company wants. (Charantimath, 2013)
In Germany in terms of customer care practices there is a famous stereotype ‘Customer is not the king’ A reputation That after DW investigated it, DW expressed it as a phenomenon where both expats and Germans tend to believe that service companies in Germany should do a better job of treating their consumers. (DW, 2016)
New concepts of business have emerged in the late century, for example strategy, leadership, marketing, entrepreneurship and others, these concepts spread internationally among most of the companies around the world. Many studies have been done reviewing these new business structures, some of them addressed the cultural differences within countries upon the applying them. But not many studies concentrated on taking into consideration how cultural differences affects the Implementation of TQM. (Lagrosen, 2002). It was concluded in general that although the comprehensive fundamentals of quality management are applicable and similar worldwide in all nations, but when coming to real practice accurate tunning must be made, it must be taken into account aligning different standards, due to different work cultures and traditions in Europe. (Krueger, 1999)
Encryption techniques allow storing and transferring of sensitive information securely by using encryption at rest and encryption in transit, respectively. However, when computation is performed on these sensitive data, the data needs to be decrypted first and encrypted again after performing the computations. During the computations, the sensitive data becomes vulnerable to attackers as it's in decrypted form. Homomorphic encryption, a special type of encryption technique that allows computation on encrypted data can be used to solve the above-mentioned problem. The best way to achieve maximum security with homomorphic encryption is to perform at least the homomorphic encryption and decryption on the client side (browser) of a web application by not trusting the server. At present time there are many libraries with different homomorphic schemes available for homomorphic encryption. However, there are very few to no JavaScript libraries available to perform homomorphic encryption on the client side of any web application. This thesis mainly focuses on the JavaScript implementation of client-side homomorphic encryption. The fully homomorphic encryption scheme BFV is selected for the implementation. After implementing the fully homomorphic encryption scheme based on the “py-fhe” library, tests are also carried out in order to determine the applicability (in terms of time consumption, security and correctness) of this implementation in a web application by comparing the performance and security for different test cases and different settings.
Distributed Flow Control and Intelligent Data Transfer in High Performance Computing Networks
(2015)
This document contains my master thesis report, including problem definition, requirements, problem analysis, review of current state of the art, proposed solution,
designed prototype, discussions and conclusion.
During this work we propose a collaborative solution to run different types of operations in a broker-less network without relying on a central orchestrator.
Based on our requirements, we define and analyze a number of scenarios. Then we design a solution to address those scenarios using a distributed workflow management approach. We explain how we break a complicated operation into simpler parts and how we manage it in a non-blocking and distributed way. Then we show how we asynchronously launch them on the network and how we collect and aggregate results. Later on we introduce our prototype which demonstrates the proposed design.