UNITS
Refine
Year of publication
Document Type
- Bachelor Thesis (38)
Has Fulltext
- yes (38)
Is part of the Bibliography
- no (38)
Keywords
- IT-Sicherheit (12)
- Computersicherheit (3)
- Künstliche Intelligenz (3)
- Netzwerksicherheit (3)
- Security (3)
- Deepfake (2)
- Malware (2)
- AES (1)
- API (1)
- AUTOSAR (1)
Institute
Open Access
- Closed Access (22)
- Closed (9)
- Open Access (7)
- Diamond (2)
Intels Software Guard Extension (SGX) ist eine Technologie, die einen umfassenden Datenschutz verspricht. SGX wurde 2013 als Softwaremodell für die isolierte Ausführung von Anwendungen veröffentlicht.
Mit Intel SGX können Container in einem geschützten Speicherbereich erstellt werden. Diese Container werden Enclave genannt. Es ist nicht möglich den Speicher-
bereich der Enclave auszulesen oder in ihn zu schreiben. Die Enclave soll Integrität und Verfügbarkeit der Daten sicherstellen, auch wenn diese auf einem nicht vertrauenswürdigen Host ausgeführt werden.
In dieser Arbeit soll zunächst ein Überblick über die Funktionsweise und das Potenzial von Intel Software Guard Extension gegeben werden. Vor allem soll analysiert werden
wie Datenbanken mit Hilfe von SGX gesichert werden können und wie groß die Performance einbüßen mit SGX sind.
Aufbauend auf den Grundlagen von Intel SGX und EnclaveDB soll anschließend eine sichere Datenbank erstellt werden. Hierzu wird EnclaveDB von Microsoft analysiert und auf Basis dieser Datenbank eine neue Datenbank erschaffen, die Daten verschlüsselt in der Datenbank speichert ohne, dass diese in Klartext vom Host ausgelesen werden können. Zum Schluss wird die Performance von EnclaveDB und der erstellten Datenbank so gut es geht verglichen.
In dieser Arbeit wird die Funktionsweise, Standardisierung und Verwundbarkeit der Technologien RFID und NFC behandelt. Es wird gezeigt welche Angriffe existieren und wie man sich dagegen schützen kann. Es wird ein Überblick über einige in der Praxis verwendete Protokolle sowie deren Sicherheit gegeben. Außerdem werden grundlegende Fragen beantwortet, die man sich bei Auseinandersetzung mit dieser Technologie stellt (z.B. Reichweiten).
Android is the most popular mobile operating system. Its omnipresence leads to the fact that it is also the most popular target amongst malware developers and other computer criminals. Hence, this thesis shows the security-relevant structures of Android’s system and application architecture. Furthermore, it provides laboratory exercises on various security-related issues to understand them not only theoretically but also deal with them in a practical way. In order to provide infrastructure-independent education, the exercises are based on Android Virtual Devices (AVDs).
Diese Thesis beschäftigt sich mit den Techniken von Code Injection und API Hooking, die von Malware verwendet werden, um sich in laufende Prozesse einzuschleusen und deren Verhalten zu manipulieren. Darüber hinaus erklärt sie die Grundlagen der Betriebssystemarchitektur, der DLLs, der Win32 API und der PE-Dateien, die für das Verständnis dieser Techniken notwendig sind. Die Thesis stellt verschiedene Methoden von Code Injection und API Hooking vor, wie z.B. DLL Injection, PE Injection, Process Hollowing, Inline Hooking und IAT Hooking, und zeigt anhand von Codebeispielen, wie sie funktionieren. Des Weiteren wird auch beschrieben, wie man Code Injection und API Hooking mithilfe verschiedene Tools und Techniken wie VADs, Speicherforensik und maschinelles Lernen erkennen und verhindern kann. Die Thesis diskutiert außerdem mögliche Gegenmaßnahmen, die das Betriebssystem oder die Anwendungen anwenden können, um sich vor Code Injection und API Hooking zu schützen, wie z.B. ASLR, DEP, ACG, IAF und andere. Zuletzt wird mit einer Zusammenfassung und einem Ausblick auf die zukünftigen Herausforderungen und Möglichkeiten in diesem Bereich abgeschlossen.
Im Zusammenhang mit dem industriellen Internet der Dinge (IIoT) wird die Kommunikationstechnologie, die ursprünglich in Heim- und Büroumgebung eingesetzt wurde, in industrielle Anwendungen eingeführt. Kommerzielle Standardprodukte sowie einheitliche und gut etablierte Kommunikationsprotokolle machen diese Technologie leicht zu integrieren und zu Nutzen. Sowohl die Automatisierungs- als auch die Steuerungstechnik verwenden zunehmend Protokolle, die auf TCP/IP aufsetzen. Diese Protokolle werden nicht nur von intelligenten Steuergeräten genutzt, auch Sensoren oder Aktoren kommunizieren zunehmend darüber. Doch die Steigerung der Protokolle und die Verbindung untereinander bewirkt eine enorme Komplexität solche Netze. Ein gestiegener Informationsaustausch über das Netzwerk verbirgt sicherlich auch Nachteile. Die Problematiken mit den Angriffsszenarien, die wir aus der Informationstechnik kennen, sind nun auch in Produktionsnetzwerken allgegenwärtig. Dies führt zu einer erhöhten Nachfrage nach industriellen Intrusion Detection-Lösungen. Es gibt jedoch Herausforderungen bei der Umsetzung der industriellen Intrusion Detection. Die größte Bedrohung für industrielle Anwendungen geht von staatlich geförderten und kriminellen Gruppen aus. Häufig werden von diesen Angreifern bisher unbekannte Exploits eingesetzt, so genannte 0-Days-Exploits. Sie können mit der signaturbasierten Intrusion Detection nicht entdeckt werden. Daher bietet sich eine statistische oder auf maschinelles Lernen basierende Anomalie-Erkennung an.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Der Bankensektor vollzieht eine digitale Transformation. Welche exakten Auswir-kungen diese Transformation auf den Bankensektor und die einzelnen Banken haben wird ist noch nicht abzusehen. Doch schon jetzt zeichnet sich ab, dass Banken sich von ihren starren Öffnungszeiten lösen und flexibler auf die Kunden zugehen müssen. Servicequalität durch maßgeschneiderte Angebote und permanente Verfügbarkeit sind zu kritischen Erfolgsfaktoren im Rennen um die Gunst des Kunden geworden.
Um in diesem Wettstreit einen Wettbewerbsvorteil zu erhalten muss die Verfügbarkeit kritischer Geschäftsprozesse und Ressourcen stets gewährleistet sein. An dieser Stelle setzt Business Continuity Management (BCM) an. In der vorliegen-den Arbeit wird anhand eines Modells einer bereits vollständig digitalisierten Bank, ein Geschäftsprozess ausgewählt um anhand dessen die Auswirkungen des Ausfalls von digitalen Vertriebswegen und Abhängigkeit von IT-Ressourcen aufzuzeigen.
In dieser Forschungsarbeit wird die Datensicherheit von Microsoft Azure analysiert und bewertet. Die Bewertung findet dabei aus der Sicht von Unternehmen statt. Im ersten Abschnitt wird zunächst der grundlegende Aufbau und die unterschiedlichen Formen des Cloud Computing beschrieben. Im zweiten Teil wird ein Vergleich der drei größten Cloud Anbieter vollzogen. Der letzte Teil besteht aus der Evaluation der Datensicherheit von Azure, wobei auf Aspekte wie Datenschutz, Bedrohungen und Schutzmaßnahmen eingegangen wird. Abschließend wird eine Empfehlung für das Unternehmen Bechtle GmbH Offenburg IT-Systemhaus abgegeben.
Im Verlauf der Arbeit stellt sich heraus, dass Azure eine ausreichende Datensicherheit bieten kann. Allerdings wird deutlich, dass durch die Kombination von mehreren Nebenfaktoren wie das Patch-Verhalten oder die Antwortzeit auf Sicherheitsschwachstellen seitens Microsofts, eine große Gefahr für die Daten von Unternehmen entstehen kann. Demnach ist Microsoft als Anbieter ein größeres Problem für die Sicherheit von Daten in Azure als der Cloud-Dienst selbst.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
This work addresses the conceptualization, design, and implementation of an Application Programming Interface (API) for the Common Security Advisory Framework (CSAF) 2.0, introducing another method for distributing CSAF documents in addition to two already existing methods. These don't allow the use of flexible queries as well as filtering, which makes it difficult for operators of software and hardware to use CSAF. An API is intended to simplify this process and thus advance the automation goal of CSAF.
First, it is evaluated whether the current standard allows the implementation of an API. Any conflicts are highlighted and suggestions for standard adaptations are made. Based on these results, the API is designed to meet the previously defined requirements. Subsequently, a proof of concept is successfully developed according to the design and extensively tested with specially prepared test data. Finally, the results and the necessary standard adjustments are summarized and justified.
The conceptual design and the implementation were successfully completed. However, during the implementation of the proof of concept, some routes could not be fully implemented.
Die Bachelorarbeit soll sich im Kern mit Möglichkeiten beschäftigen, wie der Faktor Mensch für die Bedrohung durch Social Engineering reduziert werden kann. Um diese Thematik aufzugreifen und zielführend zu bearbeiten, müssen zunächst einige Grundlagen geklärt werden. Deshalb wird im ersten Teil der Arbeit der Begriff Social Engineering definiert und es werden Unterschiede und Abstufungen erklärt. Weiterführend wird das Vorgehen bei Social Engineering Angriffen bzw. Penetrantionstests und Red Teaming Aufträgen in diesem Bereich erläutert. Dies findet in Zusammenarbeit mit der Firma cirosec statt. Hier findet auch direkt ein Vergleich mit dem Vorgehen „nach Lehrbuch“ vom wohl bekanntesten Social Engineer Kevin Mitnick statt und die bekanntesten Angriffs-Möglichkeiten werden genannt und beschrieben. Abschließend soll eine Abgrenzung zwischen gezielten und gestreuten Angriffen getroffen werden, da diese beiden Szenarien essenzielle Unterschiede in der Effektivität von Gegenmaßnahmen aufweisen.
Im folgenden Teil werden ehemalige Projekte der Firma cirosec GmbH nach einer Anonymisierung, mit dem Ziel analysiert, neben dem Vorgehen auch die Angriffsvektoren, das menschliche Fehlverhalten und, vor allem, die technischen Probleme in den vorliegenden Beispielen zu finden. Anschließend wird aufgezeigt, warum groß angelegte Awareness-Kampagnen eventuell auch zu Problemen für ein Unternehmen führen können.
Ein großer Teil der Arbeiten über das Thema Social Engineering stellen den Menschen als Risikofaktor in das Zentrum der Aufmerksamkeit. In dieser Thesis soll aber genau das nicht passieren. Betrüger gibt es seit es Menschen gibt, denn die Naivität und Gutgläubigkeit von
selbigen wurde schon immer ausgenutzt.
Doch anstatt diese Charaktereigenschaften, die sich über Jahrhunderte im Zusammenleben etabliert haben und auch dafür notwendig sind, mit Awareness Kampagnen oder Schulungen zu unterbinden, soll hier ein anderer Ansatz verfolgt werden. Das Augenmerk soll mehr auf technische Probleme gelegt werden. Eine IT Landschaft muss in der Zukunft nicht so gebaut sein, dass Menschen Schulungen brauchen, um sicher damit umzugehen.
Stattdessen soll eine Optimierung dahingehend passieren, dass der Mensch überhaupt keine schwerwiegenden und sicherheitskritischen Fehler begehen kann.
Es wird sich die Frage gestellt, wo man als Gegenmaßnahme ansetzen muss und dazu werden die vorher analysierten Projektbeispiele erneut aufgegriffen.
Auf Basis dieser Informationen, und den genannten Social Engineering Angriffsarten, werden Maßnahmen, die größtenteils technischer Natur sind, vorgestellt, erklärt und es wird beschrieben, gegen welche Arten von Angriffen sie effektiv helfen könnten. Dies soll im Idealfall, in einer sinnvollen Kombination, eine vernünftige Verteidigung gegen Social Engineering-Angriffe bieten.
Schlussendlich soll sich in einer perfekten IT-Landschaft jeder Mitarbeiter, ob mit fundiertem oder verschwindend geringem Sicherheitsverständnis, problemlos bewegen können und nicht vor jedem Klick oder dem offen halten einer Tür hinterfragen müssen, ob er damit das gesamte Unternehmen gefährden könnte.
Diese Arbeit beschäftigt sich mit der Entwicklung einer nativen Anwendung bzw. Applikation für Mobilgeräte, wie Smartphones oder Tablets, die auf einem Android Betriebssystem basieren. Dabei liegt die Idee einer intuitiv anwendbaren Benutzeranwendung zugrunde, welche Auskünfte über bestimmte Lokale bereitstellt, die zu einer gewissen Zeit ein spezielles Produkt zu einem besonderen Preis offerieren. Dazu wählt ein Anwendungsnutzer ein oder mehrere Produkt-/e aus und legt eine Postleitzahl oder Stadt fest.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.
Wie in allen Management-Prozessen braucht man auch bei der Umsetzung von Maßnahmen in Verbindung mit der IT-Sicherheit die Möglichkeit, Entscheidungen möglichst gut fundiert treffen und im Nachgang auch hinsichtlich der Wirksamkeit bewerten zu können.
IT-Sicherheit ist mit - zum Teil sehr hohen - Kosten verbunden. Diese Kosten müssen zum einen wirtschaftlich unter Kosten/Nutzen-Gesichtspunkten zu rechtfertigen sein, zum anderen ist sicherzustellen, dass die Investitionen, die zur IT-Sicherheit getätigt werden, eine möglichst große Wirkung zeigen.
In fast allen Management-Bereichen werden heute Kennzahlen erhoben, die in komprimierter Form Sachverhalte widerspiegeln, die die Entscheidungsträger schnell und objektiv wahrnehmen müssen, um zu richtigen und langfristig wirtschaftlich richtigen Entscheidungen zu kommen. Betriebswirtschaftliche Kennzahlen sind heute fester Bestandteil in allen Management-Ebenen.
Diese Arbeit soll zeigen, auf welche Normen und Standards ein Informationssicherheits-Verantwortlicher, der die umgesetzten Maßnahmen bewerten und das Ergebnis dem Management berichten können möchte, zurückgreifen kann. Darauf aufbauend werden exemplarisch einige Kennzahlen gebildet. Der Schwerpunkt liegt hierbei eher auf technischen als organisatorischen Merkmalen, da die Bildung von organisatorischen Kennzahlen in der Literatur bereits recht gut beschrieben ist.
Die Normen und Standards folgen alle einem ähnlichen Vorgehen bei der Planung und Implementierung eines Kennzahlensystems zur IT-Sicherheit. Gerade technische Kennzahlen haben einen sehr engen Zusammenhang mit klassischen Systementwicklungen. Daher wird erläutert, wie zielgerichtet im Sinne eines Leitfadens vorgegangen werden kann, um ein Kennzahlensystem zu entwickeln, das eine Bewertung der Wirksamkeit von Maßnahmen auch wirklich zulässt.
Software-defined Access (SD-Access, SDA) hat aufgrund der flexiblen, automatisierten und schnelleren Verwaltung von Unternehmensnetzwerken erhebliche Aufmerksamkeit erlangt. Im Gegensatz zu traditionellen Netzwerken mit manuellen Prozessen, bietet SD-Access Zugriffsrichtlinien, Netzwerksegmentierung und Endpunktüberwachung in einer Lösung und trägt damit zur Netzwerksicherheit in Unternehmen bei.
Zunächst wird die SD-Access-Lösung von Cisco vorgestellt und herausgearbeitet, welche Komponenten dafür benötigt werden. Auf dieser Grundlage wird überprüft, welche Voraussetzungen zur Einführung von SD-Access im konkreten Anwendungsfall, dem SWR, geschaffen werden müssen.
Anschließend wird in einer experimentellen Phase im SWR-eigenen Netzwerklabor eine beispielhafte Architektur mit allen benötigten Komponenten zu Testzwecken konzeptioniert und implementiert. Dabei ist das Design und die Konfiguration möglichst nahe an der realen Umgebung des SWRs orientiert. Mit dem vorliegenden Testsetup werden dann bestimmte Funktionen und Anwendungsszenarien genauer aufgezeigt und die Relevanz für den Sicherheitsgewinn im SWR-LAN untersucht.
Darauf folgt eine abschließende Beurteilung des Sicherheits- und Effizienzgewinns durch die Einführung von SD-Access im SWR-Netzwerk.
Das automatisierte Erkennen von Schwachstellen wird immer wichtiger. Gerade bei der Softwareentwicklung werden immer häufiger Schwachstellenscanner eingesetzt. Das Ziel der vorliegenden Arbeit ist es einen Überblick zu erhalten, welche Schwachstellenscanner für Webanwendungen existieren und wie sinnvoll deren Einsatz ist. Um diese Frage zu beantworten, werden vier auf dem Markt verfügbare Schwachstellenscanner getestet. Aus der bisherigen Infrastruktur von M und M Software werden Anforderungen und Selektionskriterien abgeleitet. In zwei Testphasen werden verschiedene Schwachstellenscanner analysiert und bewertet wie gut sie die Kriterien erfüllen. Am Ende wird bewertet, ob der Einsatz eines Schwachstellenscanners in der Infrastruktur sinnvoll ist. Neben dieser Analyse wird außerdem untersucht welche Chancen die AI-Technologie für Schwachstellenscanner bietet.
Die Bachelorarbeit „Forensic Chain – Verwaltung digitaler Spuren in Deutschland“ untersucht die Anwendung eines Blockchain-basierten Chain of Custody Systems im deutschen rechtlichen und regulatorischen Kontext. Die digitale Forensik, die sich mit der Sicherung und Analyse digitaler Spuren befasst, gewinnt an Bedeutung, da kriminelle Aktivitäten vermehrt im digitalen Raum stattfinden. Die Blockchain-Technologie bietet transparente und unveränderliche Aufzeichnungen, die sich für die Speicherung von Informationen im Zusammenhang mit digitalen Beweismitteln eignen. Das Hautpziel der Arbeit besteht darin, die Umsetzung eines Chain of Custody Prozesses im Forensic Chain System zu untersuchen und die Eignung dieses Systems im deutschen Raum zu bewerten. Hierfür wird ein Prototyp des Forensic Chain Systems entwickelt, um das erstellte Konzept zu testen. Die Ergebnisse tragen zum Verständnis der Wichtigkeit der digitalen Forensik in Deutschland bei und bieten Einblicke in die Einführung von Blockchain-basierten Chain of Custody-Systemen in diesem Bereich. Sie leisten einen Beitrag zur Weiterentwicklung der digitalen Forensik.
Das Ziel dieser Arbeit besteht darin, Covert Channels zu identifizieren und zu analysieren. Dazu zählen unter anderem die Robustheit der Kanäle und inwieweit Informationen bei der Kommunikation verloren gehen können. Durch die Ergebnisse kann aufgezeigt werden, ob sich Videospiele als Plattform für verdeckte Kommunikation eignen.
Implementation and Evaluation of an Assisting Fuzzer Harness Generation Tool for AUTOSAR Code
(2024)
The digitalization in vehicles tends to add more connectivity such as over-the-air (OTA) updates. To achieve this digitization, each ECU (Electronic Control Unit) becomes smarter and needs to support more and more different externally available protocols such as TLS, which increases the attack surface for attackers. To ensure the security of a vehicle, fuzzing has proven to be an effective method to discover memory-related security vulnerabilities. Fuzzing the software run- ning on a ECU is not an easy task and requires a harness written by a human. The author needs a deep understanding of the specific service and protocol, which is time consuming. To reduce the time needed by a harness author, this thesis aims to develop FuzzAUTO, the first assistant harness generation tool targeting the AUTOSAR (AUTomotive Open System ARchitecture) BSW (Basic Software) to support manual harness generation.
The core logging and tracing facility in Windows operating system is called Event Tracing for Windows (ETW).
Data sources providing events for ETW are instrumented all over the operating system.
That means most hard- and software assets in a Windows system are instrumented with ETW and so are able to contribute low-level information.
ETW can be used by developers and administrators to get low-level information about operating system's activity.
We describe existing tools to interact with the ETW faciltity and evaluate them based on defined criteria.
Based on relevant application scenarios, we show the richness of informational content for debugging or detecting security incidents with ETW.
The widely used instrumentation of ETW in the operating system and its application results also in security risks according to confidentiality.
Based on common ETW providers we show the impact to confidentiality what ETW offers an adversary.
At the end we evaluate solutions and approaches for a customizable telemetry infrastructure using ETW in large-scale environments.