UNITS
Refine
Document Type
- Bachelor Thesis (22)
Has Fulltext
- yes (22)
Is part of the Bibliography
- no (22)
Keywords
- IT-Sicherheit (7)
- AUTOSAR (1)
- Analyse (1)
- Android Application bzw. App (1)
- Bloom-Filter (1)
- Cloud-Anwendungen (1)
- Controlling (1)
- Deepfakes (1)
- Event Tracing for Windows (1)
- Firmware (1)
Institute
Open Access
- Closed Access (22) (remove)
Implementation and Evaluation of an Assisting Fuzzer Harness Generation Tool for AUTOSAR Code
(2024)
The digitalization in vehicles tends to add more connectivity such as over-the-air (OTA) updates. To achieve this digitization, each ECU (Electronic Control Unit) becomes smarter and needs to support more and more different externally available protocols such as TLS, which increases the attack surface for attackers. To ensure the security of a vehicle, fuzzing has proven to be an effective method to discover memory-related security vulnerabilities. Fuzzing the software run- ning on a ECU is not an easy task and requires a harness written by a human. The author needs a deep understanding of the specific service and protocol, which is time consuming. To reduce the time needed by a harness author, this thesis aims to develop FuzzAUTO, the first assistant harness generation tool targeting the AUTOSAR (AUTomotive Open System ARchitecture) BSW (Basic Software) to support manual harness generation.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
Vor allem in der heutigen Zeit ist die Privacy ein wichtiges Gut, das gewahrt werden muss. Bei der Verarbeitung von Daten muss deren Schutz entsprechend rechtsgültiger Vorschriften eingehalten werden. Damit der Datenschutz bei der Analyse von Listen und Mengen gewährleistet werden kann, muss sichergestellt werden, dass nur dann Einsicht in diese Listen und Mengen gewährt wird, wenn dies rechtlich begründet ist.
In dieser Arbeit wird auf Grundlage der Dissertation von Louis Tajan mit dem Titel „Privacy-Preserving Data Processing for Real Use Cases“ [21] überprüft, ob sich Bloom-Filter als Datenstruktur eignen, um eine rechtliche Erlaubnis zu begründen. Hierfür wird zunächst ein Blick auf die relevanten Artikel der in Deutschland geltenden Datenschutz-Grundverordnung (DSGVO) geworfen und anschließend der Aufbau und die Funktionsweise der Bloom-Filter beschrieben.
Nach dieser Einführung in das Thema wird eine Implementierung der Bloom-Filter in Java vorgestellt, im Anschluss daran werden Tests zur Korrektheit der Bloom-Filter Ergebnisse durchgeführt und zuletzt wird die Sicherheit der Bloom-Filter wird aus datenschutzrechtlichem Blickpunkt betrachtet.
Das Ziel dieser Arbeit besteht darin, Covert Channels zu identifizieren und zu analysieren. Dazu zählen unter anderem die Robustheit der Kanäle und inwieweit Informationen bei der Kommunikation verloren gehen können. Durch die Ergebnisse kann aufgezeigt werden, ob sich Videospiele als Plattform für verdeckte Kommunikation eignen.
Die Fortschritte in der künstlichen Intelligenz ermöglichen es uns komplexe Aufgaben mit weniger Aufwand und in kürzerer Zeit zu lösen. Daraus ergibt sich auch die Möglichkeit komplexe Daten effizienter zu verarbeiten.
Smarte Technologien, insbesondere Smartphones und Wearables, sind in den letzten Jahren immer mehr zu alltäglichen Massenmedien geworden und sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Dadurch ergeben sich für Angreifer neue Angriffsvektoren, die die Privatsphäre und Sicherheit der Daten der Nutzer gefährden.
Zielaspekt dieser Arbeit ist es zu zeigen, dass eingebaute Sensoren in smarten Technologien ein Sicherheitsrisiko mit sich bringen, welches mithilfe von Deep-Learning ausgenutzt werden kann.
Hierfür wurden zwei LSTM-Netze implementiert, welche in der Lage sind Rückschlüsse auf eingetippte Ziffern und Buchstaben zu ziehen. Damit wird demonstriert, dass Machine-learning-basiertes Keylogging mittels externen Sensordaten möglich ist und der Angriff durch das Machine-learning vereinfacht wird.
In dem letzten Jahr, welches von der Corona Pandemie geprägt war, wurde das Arbeiten von zu Hause aus durch die Unternehmen stark vorangetrieben. Auch wenn dies zuerst nur als Übergangslösung gesehen wurde, scheint dieser Trend sich auch nach der Pandemie fortzusetzen. In den meisten Heimnetzwerken ist die IT-Sicherheit allerdings deutlich schwächer ausgebaut, als dies in Unternehmen ist.
Da die Umstellung in das Home-Office sehr schnell durchgeführt wurde, sehen sich viele Arbeitnehmer und Arbeitgeber mit dieser Situation überfordert, auch im Heimnetzwerk des Anwenders für eine geeignete Sicherheit zu sorgen. In dieser Ausarbeitung werden daher einzelne Angriffe auf IT-Systeme im Heimnetzwerk aufgegriffen sowie Lösungsansätze, um eine sichere Heimnetzwerkumgebung zu schaffen.
Im Zusammenhang mit dem industriellen Internet der Dinge (IIoT) wird die Kommunikationstechnologie, die ursprünglich in Heim- und Büroumgebung eingesetzt wurde, in industrielle Anwendungen eingeführt. Kommerzielle Standardprodukte sowie einheitliche und gut etablierte Kommunikationsprotokolle machen diese Technologie leicht zu integrieren und zu Nutzen. Sowohl die Automatisierungs- als auch die Steuerungstechnik verwenden zunehmend Protokolle, die auf TCP/IP aufsetzen. Diese Protokolle werden nicht nur von intelligenten Steuergeräten genutzt, auch Sensoren oder Aktoren kommunizieren zunehmend darüber. Doch die Steigerung der Protokolle und die Verbindung untereinander bewirkt eine enorme Komplexität solche Netze. Ein gestiegener Informationsaustausch über das Netzwerk verbirgt sicherlich auch Nachteile. Die Problematiken mit den Angriffsszenarien, die wir aus der Informationstechnik kennen, sind nun auch in Produktionsnetzwerken allgegenwärtig. Dies führt zu einer erhöhten Nachfrage nach industriellen Intrusion Detection-Lösungen. Es gibt jedoch Herausforderungen bei der Umsetzung der industriellen Intrusion Detection. Die größte Bedrohung für industrielle Anwendungen geht von staatlich geförderten und kriminellen Gruppen aus. Häufig werden von diesen Angreifern bisher unbekannte Exploits eingesetzt, so genannte 0-Days-Exploits. Sie können mit der signaturbasierten Intrusion Detection nicht entdeckt werden. Daher bietet sich eine statistische oder auf maschinelles Lernen basierende Anomalie-Erkennung an.
In the field of network security, the detection of intrusions is an important task to prevent and analyse attacks.
In recent years, an increasing number of works have been published on this subject, which perform this detection based on machine learning techniques.
Thereby not only the well-studied detection of intrusions, but also the real-time capability must be considered.
This thesis addresses the real-time functionality of machine learning based network intrusion detection.
For this purpose we introduce the network feature generator library PyNetFlowGen, which is designed to allow real-time processing of network data.
This library generates 83 statistical features based on reassembled data flows.
The introduced performant Cython implementation allows processing individual packets within 4.58 microseconds.
Based on the generated features, machine learning models were examined with regard to their runtime and real-time capabilities.
The selected Decision-Tree-Classifier model created in Python was further optimised by transpiling it into C-Code, what reduced the prediction time of a single sample to 3.96 microseconds on average.
Based on the feature generator and the machine learning model, an basic IDS system was implemented, which allows a data throughput between 63.7 Mbit/s and 2.5 Gbit/s.