Refine
Document Type
- Bachelor Thesis (14)
- Master's Thesis (2)
- Part of a Book (1)
- Article (unreviewed) (1)
Language
- German (18) (remove)
Keywords
- IT-Sicherheit (18) (remove)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (8)
- Fakultät Medien (M) (ab 22.04.2021) (7)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (2)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (1)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (1)
Open Access
- Closed (8)
- Closed Access (8)
- Open Access (1)
Diese Thesis beschäftigt sich mit den Techniken von Code Injection und API Hooking, die von Malware verwendet werden, um sich in laufende Prozesse einzuschleusen und deren Verhalten zu manipulieren. Darüber hinaus erklärt sie die Grundlagen der Betriebssystemarchitektur, der DLLs, der Win32 API und der PE-Dateien, die für das Verständnis dieser Techniken notwendig sind. Die Thesis stellt verschiedene Methoden von Code Injection und API Hooking vor, wie z.B. DLL Injection, PE Injection, Process Hollowing, Inline Hooking und IAT Hooking, und zeigt anhand von Codebeispielen, wie sie funktionieren. Des Weiteren wird auch beschrieben, wie man Code Injection und API Hooking mithilfe verschiedene Tools und Techniken wie VADs, Speicherforensik und maschinelles Lernen erkennen und verhindern kann. Die Thesis diskutiert außerdem mögliche Gegenmaßnahmen, die das Betriebssystem oder die Anwendungen anwenden können, um sich vor Code Injection und API Hooking zu schützen, wie z.B. ASLR, DEP, ACG, IAF und andere. Zuletzt wird mit einer Zusammenfassung und einem Ausblick auf die zukünftigen Herausforderungen und Möglichkeiten in diesem Bereich abgeschlossen.
Im Zusammenhang mit dem industriellen Internet der Dinge (IIoT) wird die Kommunikationstechnologie, die ursprünglich in Heim- und Büroumgebung eingesetzt wurde, in industrielle Anwendungen eingeführt. Kommerzielle Standardprodukte sowie einheitliche und gut etablierte Kommunikationsprotokolle machen diese Technologie leicht zu integrieren und zu Nutzen. Sowohl die Automatisierungs- als auch die Steuerungstechnik verwenden zunehmend Protokolle, die auf TCP/IP aufsetzen. Diese Protokolle werden nicht nur von intelligenten Steuergeräten genutzt, auch Sensoren oder Aktoren kommunizieren zunehmend darüber. Doch die Steigerung der Protokolle und die Verbindung untereinander bewirkt eine enorme Komplexität solche Netze. Ein gestiegener Informationsaustausch über das Netzwerk verbirgt sicherlich auch Nachteile. Die Problematiken mit den Angriffsszenarien, die wir aus der Informationstechnik kennen, sind nun auch in Produktionsnetzwerken allgegenwärtig. Dies führt zu einer erhöhten Nachfrage nach industriellen Intrusion Detection-Lösungen. Es gibt jedoch Herausforderungen bei der Umsetzung der industriellen Intrusion Detection. Die größte Bedrohung für industrielle Anwendungen geht von staatlich geförderten und kriminellen Gruppen aus. Häufig werden von diesen Angreifern bisher unbekannte Exploits eingesetzt, so genannte 0-Days-Exploits. Sie können mit der signaturbasierten Intrusion Detection nicht entdeckt werden. Daher bietet sich eine statistische oder auf maschinelles Lernen basierende Anomalie-Erkennung an.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Das automatisierte Erkennen von Schwachstellen wird immer wichtiger. Gerade bei der Softwareentwicklung werden immer häufiger Schwachstellenscanner eingesetzt. Das Ziel der vorliegenden Arbeit ist es einen Überblick zu erhalten, welche Schwachstellenscanner für Webanwendungen existieren und wie sinnvoll deren Einsatz ist. Um diese Frage zu beantworten, werden vier auf dem Markt verfügbare Schwachstellenscanner getestet. Aus der bisherigen Infrastruktur von M und M Software werden Anforderungen und Selektionskriterien abgeleitet. In zwei Testphasen werden verschiedene Schwachstellenscanner analysiert und bewertet wie gut sie die Kriterien erfüllen. Am Ende wird bewertet, ob der Einsatz eines Schwachstellenscanners in der Infrastruktur sinnvoll ist. Neben dieser Analyse wird außerdem untersucht welche Chancen die AI-Technologie für Schwachstellenscanner bietet.
Im Rahmen der Arbeit wurde nach der Vorgehensweise des BSI-Standard 200-3 eine Risikoidentifikation und -bewertung des KRITIS-Sektors Transport und Verkehr durchgeführt. Darüber hinaus wurden die Bedeutung dieses Sektors für die deutsche Wirtschaft, die Digitalisierung in diesem Sektor sowie die Funktionsweise, Anwendung und Schwachstellen cyber-physischer Systeme aufgezeigt. Als Anwendungsfall diente dabei der Ausschnitt eines operativen Prozesses eines fiktiven Unternehmens des Sektors Transport und Verkehr.
Wie in allen Management-Prozessen braucht man auch bei der Umsetzung von Maßnahmen in Verbindung mit der IT-Sicherheit die Möglichkeit, Entscheidungen möglichst gut fundiert treffen und im Nachgang auch hinsichtlich der Wirksamkeit bewerten zu können.
IT-Sicherheit ist mit - zum Teil sehr hohen - Kosten verbunden. Diese Kosten müssen zum einen wirtschaftlich unter Kosten/Nutzen-Gesichtspunkten zu rechtfertigen sein, zum anderen ist sicherzustellen, dass die Investitionen, die zur IT-Sicherheit getätigt werden, eine möglichst große Wirkung zeigen.
In fast allen Management-Bereichen werden heute Kennzahlen erhoben, die in komprimierter Form Sachverhalte widerspiegeln, die die Entscheidungsträger schnell und objektiv wahrnehmen müssen, um zu richtigen und langfristig wirtschaftlich richtigen Entscheidungen zu kommen. Betriebswirtschaftliche Kennzahlen sind heute fester Bestandteil in allen Management-Ebenen.
Diese Arbeit soll zeigen, auf welche Normen und Standards ein Informationssicherheits-Verantwortlicher, der die umgesetzten Maßnahmen bewerten und das Ergebnis dem Management berichten können möchte, zurückgreifen kann. Darauf aufbauend werden exemplarisch einige Kennzahlen gebildet. Der Schwerpunkt liegt hierbei eher auf technischen als organisatorischen Merkmalen, da die Bildung von organisatorischen Kennzahlen in der Literatur bereits recht gut beschrieben ist.
Die Normen und Standards folgen alle einem ähnlichen Vorgehen bei der Planung und Implementierung eines Kennzahlensystems zur IT-Sicherheit. Gerade technische Kennzahlen haben einen sehr engen Zusammenhang mit klassischen Systementwicklungen. Daher wird erläutert, wie zielgerichtet im Sinne eines Leitfadens vorgegangen werden kann, um ein Kennzahlensystem zu entwickeln, das eine Bewertung der Wirksamkeit von Maßnahmen auch wirklich zulässt.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.
Die folgende Arbeit thematisiert ein Konzept zur Automatisierung von Firewall-Audits und die Implementierung eines Tools zur Durchführung. Für das Audit relevante Aspekte von NGFWs werden ausgewählt und näher erläutert. Diese bestehen aus der Objektdatenbank, Firewall-Regelwerken und VPN-Konfigurationen. Die Analyse der Daten basiert auf einerseits eigens erstellten Kriterien, andererseits auf Empfehlungen des BSI und des NIST. Zusätzlich wird auf Basis von NIST Recommended Practices und dem CVSS der „Awareness Score“ eingeführt, der auf Fehlkonfigurationen innerhalb des Firewall-Regelwerks aufmerksam machen soll. Das Konzept für das Tool sieht vor, Firewalls mehrerer Hersteller, darunter Cisco, Checkpoint und Sophos, auditieren zu können. Die Implementierung wurde aus zeitlichen Gründen nur für Firewalls des Herstellers Cisco durchgeführt. Für die Analyse wird ein einheitliches Firewall-Modell erzeugt. So sollen auch Firewalls anderer Hersteller zu dem Tool hinzugefügt werden können. Die Ergebnisse des Audits werden in einem Bericht dargestellt.
In dem letzten Jahr, welches von der Corona Pandemie geprägt war, wurde das Arbeiten von zu Hause aus durch die Unternehmen stark vorangetrieben. Auch wenn dies zuerst nur als Übergangslösung gesehen wurde, scheint dieser Trend sich auch nach der Pandemie fortzusetzen. In den meisten Heimnetzwerken ist die IT-Sicherheit allerdings deutlich schwächer ausgebaut, als dies in Unternehmen ist.
Da die Umstellung in das Home-Office sehr schnell durchgeführt wurde, sehen sich viele Arbeitnehmer und Arbeitgeber mit dieser Situation überfordert, auch im Heimnetzwerk des Anwenders für eine geeignete Sicherheit zu sorgen. In dieser Ausarbeitung werden daher einzelne Angriffe auf IT-Systeme im Heimnetzwerk aufgegriffen sowie Lösungsansätze, um eine sichere Heimnetzwerkumgebung zu schaffen.
Das Ziel dieser Arbeit besteht darin, Covert Channels zu identifizieren und zu analysieren. Dazu zählen unter anderem die Robustheit der Kanäle und inwieweit Informationen bei der Kommunikation verloren gehen können. Durch die Ergebnisse kann aufgezeigt werden, ob sich Videospiele als Plattform für verdeckte Kommunikation eignen.
Die Bachelorarbeit soll sich im Kern mit Möglichkeiten beschäftigen, wie der Faktor Mensch für die Bedrohung durch Social Engineering reduziert werden kann. Um diese Thematik aufzugreifen und zielführend zu bearbeiten, müssen zunächst einige Grundlagen geklärt werden. Deshalb wird im ersten Teil der Arbeit der Begriff Social Engineering definiert und es werden Unterschiede und Abstufungen erklärt. Weiterführend wird das Vorgehen bei Social Engineering Angriffen bzw. Penetrantionstests und Red Teaming Aufträgen in diesem Bereich erläutert. Dies findet in Zusammenarbeit mit der Firma cirosec statt. Hier findet auch direkt ein Vergleich mit dem Vorgehen „nach Lehrbuch“ vom wohl bekanntesten Social Engineer Kevin Mitnick statt und die bekanntesten Angriffs-Möglichkeiten werden genannt und beschrieben. Abschließend soll eine Abgrenzung zwischen gezielten und gestreuten Angriffen getroffen werden, da diese beiden Szenarien essenzielle Unterschiede in der Effektivität von Gegenmaßnahmen aufweisen.
Im folgenden Teil werden ehemalige Projekte der Firma cirosec GmbH nach einer Anonymisierung, mit dem Ziel analysiert, neben dem Vorgehen auch die Angriffsvektoren, das menschliche Fehlverhalten und, vor allem, die technischen Probleme in den vorliegenden Beispielen zu finden. Anschließend wird aufgezeigt, warum groß angelegte Awareness-Kampagnen eventuell auch zu Problemen für ein Unternehmen führen können.
Ein großer Teil der Arbeiten über das Thema Social Engineering stellen den Menschen als Risikofaktor in das Zentrum der Aufmerksamkeit. In dieser Thesis soll aber genau das nicht passieren. Betrüger gibt es seit es Menschen gibt, denn die Naivität und Gutgläubigkeit von
selbigen wurde schon immer ausgenutzt.
Doch anstatt diese Charaktereigenschaften, die sich über Jahrhunderte im Zusammenleben etabliert haben und auch dafür notwendig sind, mit Awareness Kampagnen oder Schulungen zu unterbinden, soll hier ein anderer Ansatz verfolgt werden. Das Augenmerk soll mehr auf technische Probleme gelegt werden. Eine IT Landschaft muss in der Zukunft nicht so gebaut sein, dass Menschen Schulungen brauchen, um sicher damit umzugehen.
Stattdessen soll eine Optimierung dahingehend passieren, dass der Mensch überhaupt keine schwerwiegenden und sicherheitskritischen Fehler begehen kann.
Es wird sich die Frage gestellt, wo man als Gegenmaßnahme ansetzen muss und dazu werden die vorher analysierten Projektbeispiele erneut aufgegriffen.
Auf Basis dieser Informationen, und den genannten Social Engineering Angriffsarten, werden Maßnahmen, die größtenteils technischer Natur sind, vorgestellt, erklärt und es wird beschrieben, gegen welche Arten von Angriffen sie effektiv helfen könnten. Dies soll im Idealfall, in einer sinnvollen Kombination, eine vernünftige Verteidigung gegen Social Engineering-Angriffe bieten.
Schlussendlich soll sich in einer perfekten IT-Landschaft jeder Mitarbeiter, ob mit fundiertem oder verschwindend geringem Sicherheitsverständnis, problemlos bewegen können und nicht vor jedem Klick oder dem offen halten einer Tür hinterfragen müssen, ob er damit das gesamte Unternehmen gefährden könnte.
Das Thema Honeypot nimmt einen immer größeren Stellenwert in der Weiterentwicklung der Informationssicherheit ein. Honeypots dienen nicht nur zur Erforschung von Angriffsmethoden und Vorgehensweisen, sondern können auch im Unternehmensumfeld aktiv zur Verbesserung der IT-Sicherheitsmaßnahmen beitragen. Diese Arbeit hat sich das Ziel gesetzt, das Themenspektrum Honeypot in Theorie und Praxis näher zu untersuchen. Im ersten Teil wird ein allgemeiner Überblick über das Thema Honeypot und Honeynet gegeben. Hier wird erklärt, welche Honeypot-Typen und Architekturen es gibt, welche Anforderungen ein Honeypot stellt und welche Risiken der Betrieb eines Honeypot-Systems verursacht. Am Ende des ersten Kapitels werden einige Beispiele eines Honeypot-Systems beschrieben. Im zweiten Teil wird konkret auf die Implementierung eines High Interaction Honeypots eingegangen, dessen Überwachungszentrale die Honeywall bildet. Dieser praktische Teil erklärt, wie ein komplettes Honeypot-System auf Basis der 'Honeywall CDROM Roo' eingerichtet wird, welche Möglichkeiten und Werkzeuge das Überwachungssystem besitzt und welche Einstellungen und Besonderheiten beim Einrichten beachtet werden müssen. Im darauffolgenden dritten Teil werden die gesammelten Daten ausgewertet. Dazu wird zuerst ein Überblick über mögliche Angreifer und deren Angriffswege gegeben. Mit diesem Hintergrundwissen werden die Daten im weiteren Verlauf konkret analysiert und zum Teil visualisiert. Nach dem praktischen Teil wird ein Ausblick gegeben, welche Ausbaumöglichkeiten die Versuchsanordnung bietet, welchen Schwerpunkt die Weiterentwickelung der Honeywall einnimmt und welche rechtlichen Fragen der Betrieb eines Honeypots aufwirft. Zu guter Letzt wird die Arbeit durch ein Fazit abgeschlossen.
Extensible Authentication Protocol (EAP) bietet eine flexible Möglichkeit zur Authentifizierung von Endgeräten und kann in Kombination mit TLS für eine zertifikatsbasierte Authentifizierung verwendet werden. Motiviert wird diese Arbeit von einer potenziellen Erweiterung für PROFINET, die diese Protokolle einsetzen soll.
Dabei soll eine sicherer EAP-TLS-Protokollstacks für eingebettete Systeme in der Programmiersprache Rust entwickelt werden. Durch das Ownership-System von Rust können Speicherfehler eliminiert werden, ohne dabei auf die positiven Eigenschaften von nativen Sprachen zu verzichten. Es wird ein besonderes Augenmerk auf wie die Verwendung klassischer Rust-Bibliotheken im Umfeld von eingebetteten Systemen, den Einfluss des Speichermodells auf das Design, sowie die Integration von C-Bibliotheken für automatisierte Interoperabilitätstests gelegt.