004 Informatik
Refine
Year of publication
Document Type
- Bachelor Thesis (51)
- Master's Thesis (33)
- Conference Proceeding (6)
- Contribution to a Periodical (5)
- Article (reviewed) (2)
- Doctoral Thesis (2)
- Book (1)
Conference Type
- Konferenzartikel (6)
Keywords
- IT-Sicherheit (12)
- JavaScript (9)
- Deep learning (5)
- Computersicherheit (4)
- E-Learning (4)
- HTML 5.0 (4)
- Internet der Dinge (4)
- Internet of Things (4)
- Blockchain (3)
- Künstliche Intelligenz (3)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (36)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (36)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (19)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (4)
- Zentrale Einrichtungen (3)
- Fakultät Wirtschaft (W) (2)
- IMLA - Institute for Machine Learning and Analytics (1)
Open Access
- Closed Access (47)
- Open Access (28)
- Closed (25)
- Diamond (3)
In der Marketingstrategie von Event- und Club-Veranstaltern ist eine zielgerichtete Ansprache der Kundschaft unerlässlich, um eine nachhaltige Beziehung zur Zielgruppe aufzubauen und so den geschäftlichen Erfolg zu sichern. Während erhebliche Investitionen in herkömmliche Werbekanäle wie soziale Medien fließen, bleiben diese Plattformen oft ohne Garantie, dass die Werbemittel die relevanten Nutzer erreichen. Die White-Label-App beabsichtigt dieses Problem zu beheben, indem es Veranstaltern ermöglicht wird, eine engagierte Community direkt über die mobile Plattform aufzubauen und mit dieser zielgerichtet zu kommunizieren.
Das Kernziel der Bachelorarbeit ist die prototypische Entwicklung dieser Smartphone-App als individualisierbare und modulare White-Label-Lösung, die präzise auf die Bedürfnisse von Veranstaltern und deren Kunden zugeschnitten ist. Hierbei ist die zentrale Forschungsfrage: Wie kann eine modulare und individualisierbare White-Label-App effizient implementiert werden?
Zur Beantwortung dieser Frage werden auf Basis einer Wettbewerbsanalyse und der gründlichen Bewertung aktueller Best Practices im Bereich der App-Entwicklung verschiedene Aspekte untersucht. Hierzu zählen die Identifikation von möglichen Marktlücken und -chancen, die Eignung verschiedener Technologien und Entwurfsmuster, die Überwindung spezifischer Herausforderungen bei der Implementierung einer White-Label-App und die performante Integration der API.
Um einen praxisorientierten Ansatz zu gewährleisten, werden darüber hinaus verschiedene Kernfunktionalitäten der App beispielhaft implementiert. Dazu gehören Features wie eine Eventübersicht mit Informationen zu Veranstaltungen und ein Ticketingsystem mit Reservierungsmöglichkeiten.
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
Garbage in, Garbage out: How does ambiguity in data affect state-of-the-art pedestrian detection?
(2024)
This thesis investigates the critical role of data quality in computer vision, particularly in the realm of pedestrian detection. The proliferation of deep learning methods has emphasised the importance of large datasets for model training, while the quality of these datasets is equally crucial. Ambiguity in annotations, arising from factors like mislabelling, inaccurate bounding box geometry and annotator disagreements, poses significant challenges to the reliability and robustness of the pedestrian detection models and their evaluation. This work aims to explore the effects of ambiguous data on model performance with a focus on identifying and separating ambiguous instances, employing an ambiguity measure utilizing annotator estimations of object visibility and identity. Through accurate experimentation and analysis, trade-offs between data cleanliness and representativeness, noise removal and retention of valuable data emerged, elucidating their impact on performance metrics like the log average miss-rate, recall and precision. Furthermore, a strong correlation between ambiguity and occlusion was discovered with higher ambiguity corresponding to greater occlusion prevalence. The EuroCity Persons dataset served as the primary dataset, revealing a significant proportion of ambiguous instances with approximately 8.6% ambiguity in the training dataset and 7.3% in the validation set. Results demonstrated that removing ambiguous data improves the log average miss-rate, particularly by reducing the false positive detections. Augmentation of the training data with samples from neighbouring classes enhanced the recall but diminished precision. Error correction of wrong false positives and false negatives significantly impacts model evaluation results, as evidenced by shifts in the ECP leaderboard rankings. By systematically addressing ambiguity, this thesis lays the foundation for enhancing the reliability of computer vision systems in real-world applications, motivating the prioritisation of developing robust strategies to identify, quantify and address ambiguity.
Immer mehr Unternehmen setzen auf eine Cross-Cloud-Strategie, die es Unternehmen ermöglicht, ihre Anwendungen und Daten über mehrere Cloud-Plattformen hinweg effizient zu verwalten und zu betreiben. Konsistenz und Atomarität zwischen den Cloud-Plattformen zu wahren, stellt eine große Herausforderung dar. Hierzu wird in dieser Arbeit eine Lösung vorgestellt, um Cross-Cloud-Atomarität zu erreichen, welche auf Basis des 2-Phasen-Commit-Protokolls (2PC) beruht. In diesem Zusammenhang wird die Funktionsweise des 2PC-Protokolls erörtert und Erweiterungen sowie Alternativen zum Protokoll kurz angesprochen. Zusätzlich werden alternative Lösungsansätze diskutiert, die für die Erzielung von Cross-Cloud-Atomarität in Betracht gezogen werden können. Dadurch wird ein umfassender Einblick in das Thema sowie mögliche Lösungsansätze für diese Herausforderung gewährt.
Die Bachelorarbeit „Forensic Chain – Verwaltung digitaler Spuren in Deutschland“ untersucht die Anwendung eines Blockchain-basierten Chain of Custody Systems im deutschen rechtlichen und regulatorischen Kontext. Die digitale Forensik, die sich mit der Sicherung und Analyse digitaler Spuren befasst, gewinnt an Bedeutung, da kriminelle Aktivitäten vermehrt im digitalen Raum stattfinden. Die Blockchain-Technologie bietet transparente und unveränderliche Aufzeichnungen, die sich für die Speicherung von Informationen im Zusammenhang mit digitalen Beweismitteln eignen. Das Hautpziel der Arbeit besteht darin, die Umsetzung eines Chain of Custody Prozesses im Forensic Chain System zu untersuchen und die Eignung dieses Systems im deutschen Raum zu bewerten. Hierfür wird ein Prototyp des Forensic Chain Systems entwickelt, um das erstellte Konzept zu testen. Die Ergebnisse tragen zum Verständnis der Wichtigkeit der digitalen Forensik in Deutschland bei und bieten Einblicke in die Einführung von Blockchain-basierten Chain of Custody-Systemen in diesem Bereich. Sie leisten einen Beitrag zur Weiterentwicklung der digitalen Forensik.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.
In den letzten Jahren ist die Relevanz des Wassersparens und der nachhaltigen Nutzung dieses lebenswichtigen Elements angesichts des Klimawandels und abnehmender Wasserressourcen erheblich gestiegen. In diesem Kontext legt die vorliegende Bachelorarbeit, die in Zusammenarbeit mit der Firma Hansgrohe erstellt wurde, den Fokus auf die Schaffung eines Konzeptes sowie der prototypischen Realisierung eines Serious Games. Das Ziel des Spiels ist es, bei Kindern ein Bewusstsein und Verständnis für die nachhaltige Wassernutzung zu fördern. Im Zuge des Projekts wurde ein iterativer Spiel-Design-Prozess verfolgt, um ein pädagogisch wertvolles und ansprechendes Spielkonzept zu entwickeln. Der nutzerzentrierte Ansatz war maßgeblich, um ein tiefgehendes Verständnis für die Bedürfnisse und Vorlieben der jungen Zielgruppe zu erlangen und somit ein optimal auf die Lernerfahrung abgestimmtes Produkt zu entwerfen. Das Spiel kombiniert Elemente der Exploration, Simulation und des Casual Gamings, um das Verständnis für die nachhaltige Wassernutzung auf spielerische und interaktive Weise zu vermitteln. Die Resultate der prototypischen Umsetzung wurden mittels Nutzertests überprüft, um die Effektivität und Benutzerfreundlichkeit zu sichern. Diese Arbeit unterstreicht nicht nur die Wichtigkeit eines verantwortungsvollen Umgangs von Wasser, sondern illustriert zudem, wie durch innovatives Spiel-Design die Bildung und Sensibilisierung von Kindern in Bezug auf zentrale ökologische Themen erreicht werden können.
Die Thesis beschäftigt sich mit dem Kommunikationsprotokoll Lightweight Machine to Machine, welches für das Internet of Things entwickelt wurde. Es soll untersucht werden, wie das Protokoll funktioniert und wie es eingesetzt werden kann. Ebenfalls soll die Thesis zeigen, wie und ob Lightweight Machine to Machine über Long Term Evolution for Machines für Anwendungen mit begrenzten Ressourcen geeignet ist. Um diese Fragestellung zu beantworten, wurde das Protokoll auf Grund seiner Spezifikation und seinen Softwareimplementationen untersucht. Daraufhin wurde ein Versuchssystem entworfen und dieses anschließend auf sein Laufzeitverhalten und auf sein Energieverbrauch getestet. Die Evaluation des Protokolls ergab, dass es viele sinnvolle Funktionen zugeschnitten auf Geräte im Internet of Things besitzt und diese Funktionen kompakt und verständlich umsetzt. Da das Protokoll noch relativ jung ist, stellt es an verschiedenen Punkten eine Herausforderung dar. Die Tests des Versuchssystems ergaben, dass Lightweight Machine to Machine sich unter bestimmten Bedingungen für ressourcenbegrenzte Anwendungen eignet.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Linux and Linux-based operating systems have been gaining more popularity among the general users and among developers. Many big enterprises and large companies are using Linux for servers that host their websites, some even require their developers to have knowledge about Linux OS. Even in embedded systems one can find many Linux-based OS that run them. With its increasing popularity, one can deduce the need to secure such a system that many personnel rely on, be it to protect the data that it stores or to protect the integrity of the system itself, or even to protect the availability of the services it offers. Many researchers and Linux enthusiasts have been coming up with various ways to secure Linux OS, however new vulnerabilities and new bugs are always found, by malicious attackers, with every update or change, which calls for the need of more ways to secure these systems.
This Thesis explores the possibility and feasibility of another way to secure Linux OS, specifically securing the terminal of such OS, by altering the commands of the terminal, getting in the way of attackers that have gained terminal access and delaying, giving more time for the response teams and for forensics to stop the attack, minimize the damage, restore operations, and to identify collect and store evidence of the cyber-attack. This research will discuss the advantages and disadvantages of various security measures and compare and contrast with the method suggested in this research.
This research is significant because it paints a better picture of what the state of the art of Linux and Linux-based operating systems security looks like, and it addresses the concerns of security enthusiasts, while exploring new uncharted area of security that have been looked at as a not so significant part of protecting the OSes out of concern of the various limitations and problems it entails. This research will address these concerns while exploring few ways to solve them, as well as addressing the ideal areas and situations in which the proposed method can be used, and when would such method be more of a burden than help if used.
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
Das automatisierte Erkennen von Schwachstellen wird immer wichtiger. Gerade bei der Softwareentwicklung werden immer häufiger Schwachstellenscanner eingesetzt. Das Ziel der vorliegenden Arbeit ist es einen Überblick zu erhalten, welche Schwachstellenscanner für Webanwendungen existieren und wie sinnvoll deren Einsatz ist. Um diese Frage zu beantworten, werden vier auf dem Markt verfügbare Schwachstellenscanner getestet. Aus der bisherigen Infrastruktur von M und M Software werden Anforderungen und Selektionskriterien abgeleitet. In zwei Testphasen werden verschiedene Schwachstellenscanner analysiert und bewertet wie gut sie die Kriterien erfüllen. Am Ende wird bewertet, ob der Einsatz eines Schwachstellenscanners in der Infrastruktur sinnvoll ist. Neben dieser Analyse wird außerdem untersucht welche Chancen die AI-Technologie für Schwachstellenscanner bietet.
In dieser Forschungsarbeit wird die Datensicherheit von Microsoft Azure analysiert und bewertet. Die Bewertung findet dabei aus der Sicht von Unternehmen statt. Im ersten Abschnitt wird zunächst der grundlegende Aufbau und die unterschiedlichen Formen des Cloud Computing beschrieben. Im zweiten Teil wird ein Vergleich der drei größten Cloud Anbieter vollzogen. Der letzte Teil besteht aus der Evaluation der Datensicherheit von Azure, wobei auf Aspekte wie Datenschutz, Bedrohungen und Schutzmaßnahmen eingegangen wird. Abschließend wird eine Empfehlung für das Unternehmen Bechtle GmbH Offenburg IT-Systemhaus abgegeben.
Im Verlauf der Arbeit stellt sich heraus, dass Azure eine ausreichende Datensicherheit bieten kann. Allerdings wird deutlich, dass durch die Kombination von mehreren Nebenfaktoren wie das Patch-Verhalten oder die Antwortzeit auf Sicherheitsschwachstellen seitens Microsofts, eine große Gefahr für die Daten von Unternehmen entstehen kann. Demnach ist Microsoft als Anbieter ein größeres Problem für die Sicherheit von Daten in Azure als der Cloud-Dienst selbst.
As e-commerce platforms have grown in popularity, new difficulties have emerged, such as the growing use of bots—automated programs—to engage with e-commerce websites. Even though some algorithms are helpful, others are malicious and can seriously hurt e-commerce platforms by making fictitious purchases, posting fictitious evaluations, and gaining control of user accounts. Therefore, the development of more effective and precise bot identification systems is urgently needed to stop such actions. This thesis proposes a methodology for detecting bots in E-commerce using machine learning algorithms such as K-nearest neighbors, Decision Tree, Random Forest, Support Vector Machine, and Neural Network. The purpose of the research is to assess and contrast the output of these machine learning methods. The suggested approach will be based on data that is readily accessible to the public, and the study’s focus will be on the research of bots in e-commerce.
The purpose of the study is to provide an overview of bots in e-commerce, as well as information on the different kinds and traits of bots, as well as current research on bots in e-commerce and associated work on bot detection in e-commerce. The research also seeks to create a more precise and effective bot detection system as well as find critical factors in detecting bots in e-commerce.
This research is significant because it sheds light on the increasing issue of bots in e-commerce and the requirement for more effective bot detection systems. The suggested approach for using machine learning algorithms to identify bots in ecommerce can give e-commerce platforms a more precise and effective bot detection system to stop malicious bot activities. The study’s results can also be used to create a more effective bot detection system and pinpoint key elements in detecting bots in e-commerce.
Die Komplexität von Softwareprojekten hat in den letzten Jahren stetig zugenommen. Um den gleichzeitig steigenden Anforderungen an die Codequalität gerecht zu werden, setzen auch ursprünglich dynamisch typisierte Programmiersprachen zuhnemend auf statische Typisierung. Dies kann in Form von externen Werkzeugen geschehen, die zusätzlich zum eigentlichen Compiler den Code auf Typsicherheit überprüfen, oder alternativ durch Erweiterung der Compiler selbst, um die Unterstützung für statische Typisierung direkt in der Sprache zu verankern. Ziel des etylizer-Projekts ist es, für die Programmiersprache Erlang zunächst ein solches externes Tool bereitzustellen und langfristig Teil der Compiler-Toolchain zu werden.In dieser Arbeit wird der Typchecker um die Fähigkeit erweitert, Erlang-Projekte vollständig zu verifizieren. Dafür wird zunächst die interne Symboltabelle erweitert, die etylizer nutzt, um Verweise auf Funktionen und Typen aus anderen Modulen aufzulösen. Die Implementierung der Symboltabelle wird so angepasst,dass sie zur Laufzeit um alle für das aktuell geprüfte Modul benötigten Symbole erweitert wird. Um die Laufzeit im Rahmen zu halten, wird ein Algorithmus entwickelt, der die Abhängigkeiten zwischen den Source-Code Dateien des Erlang-Projekts erkennt und anhand dieser entscheidet, welche Dateien sich seit dem letzten Durchlauf geändert haben und deshalb erneut überprüft werden müssen.
Encryption techniques allow storing and transferring of sensitive information securely by using encryption at rest and encryption in transit, respectively. However, when computation is performed on these sensitive data, the data needs to be decrypted first and encrypted again after performing the computations. During the computations, the sensitive data becomes vulnerable to attackers as it's in decrypted form. Homomorphic encryption, a special type of encryption technique that allows computation on encrypted data can be used to solve the above-mentioned problem. The best way to achieve maximum security with homomorphic encryption is to perform at least the homomorphic encryption and decryption on the client side (browser) of a web application by not trusting the server. At present time there are many libraries with different homomorphic schemes available for homomorphic encryption. However, there are very few to no JavaScript libraries available to perform homomorphic encryption on the client side of any web application. This thesis mainly focuses on the JavaScript implementation of client-side homomorphic encryption. The fully homomorphic encryption scheme BFV is selected for the implementation. After implementing the fully homomorphic encryption scheme based on the “py-fhe” library, tests are also carried out in order to determine the applicability (in terms of time consumption, security and correctness) of this implementation in a web application by comparing the performance and security for different test cases and different settings.
As cyber threats continue to evolve, it is becoming increasingly important for organizations to have a Security Operations Center (SOC) in place to effectively defend against them. However, building and maintaining a SOC can be a daunting task without clear guidelines, policies, and procedures in place. Additionally, most current SOC solutions used by organizations are outdated, lack key features and integrations, and are expensive to maintain and upgrade. Moreover, proprietary solutions can lead to vendor lock-in, making it difficult to switch to a different solution in the future.
To address these challenges, this thesis proposes a comprehensive SOC framework and an open-source SOC solution that provides organizations with a flexible and cost-effective way to defend against modern cyber threats. The research methodology involved conducting a thorough literature review of existing literature and research on building and maintaining a SOC, including using SOC as a service. The data collected from the literature review was analyzed to identify common themes, challenges, and best practices for building and maintaining a SOC.
Based on the data collected, a comprehensive framework for building and maintaining a SOC was developed. The framework addresses essential areas such as the scope and purpose of the SOC, governance and leadership, staffing and skills, technologies and tools, processes and procedures, service level agreements (SLAs), and evaluation and measurement. This framework provides organizations with the necessary guidance and resources to establish and effectively operate a SOC, as well as a reference for evaluating the service provided by SOC service providers.
In addition to the SOC framework, a modern open-source SOC solution was developed, which emphasizes several key measures to help organizations defend against modern cyber threats. These measures include real-time, actionable threat intelligence, rapid and effective incident response, continuous security monitoring and alerting, automation, integration, and customization. The use of open-source technologies and a modular architecture makes the solution cost-effective, allowing organizations to scale it up or down as needed.
Overall, the proposed SOC framework and open-source SOC solution provide organizations with a comprehensive and systematic approach for building and maintaining a SOC that is aligned with the needs and objectives of the organization. The open-source SOC solution provides a flexible and cost-effective way to defend against modern cyber threats, helping organizations to effectively operate their SOC and reduce their risk of security incidents and breaches.
Risk-based Cybermaturity Assessment Model - Protecting the company against ransomware attacks
(2023)
Ransomware has become one of the most catastrophic attacks in the previous decade, hurting businesses of all sorts worldwide. So, no organization is safe, and most companies are reviewing their ransomware defensive solutions to avoid business and operational hazards. IT departments are using cybersecurity maturity assessment frameworks like CMMC, C2M2, CMMI, NIST, CIS, CPP, and others to analyze organization security capabilities. In addition to maturity assessment models for the process layer and human pillar, there are much research on the analysis, identification, and defense of cyber threats in product/software layers that propose state-of-the-art approaches.
This motivates a comprehensive ransomware cyber security solution. Then, a crucial question arises: “How companies can measure the security maturity of controls in a specific danger for example for Ransomware attack?” Several studies and frameworks addressed this subject.
Complexity of understanding the ransomware attack, Lack of comprehensive ransomware defense solutions and Lack of cybermaturity assessment model for ransomware defense solutions are different aspects of problem statement in this study. By considering the most important limitations to developing a ransomware defense cybermaturity assessment method, this study developed a cybermaturity assessment methodology and implemented a Toolkit to conduct cyber security self-assessment specifically for ransomware attack to provide a clearer vision for enterprises to analyze the security maturity of controls regardless of industry or size.
Eine neue Programmiersprache zu erlernen kann für Anfänger:innen manchmal schwer sein, selbst für Programmiersprachen wie Python, die bekannt dafür sind Einsteigerfreundlich zu sein. Denn selbst wenn die Syntax eines Python Programms schnell verstanden wird, ist oft nicht direkt erkenntlich wie der Code hinter dem Programm funktioniert. Anfänger:innen können dabei auch auf ihre Grenzen stoßen, den Ablauf eines Programmes nur alleine durch den Programmcode zu verstehen. Denn der Text der den Code ausmacht, kann auch nur bis zu einem gewissen Grad vermitteln wie oder was genau abläuft. Um den Ablauf eines Programms besser vermitteln zu können, wird der Code oft z.B. mit Diagrammen visualisiert. Visuelle Elemente können ebenfalls zusätzlich zum Code mehr Unterstützung leisten. Das Thema dieser Arbeit beschäftigt sich mit der Visualisierung von Python Programmen in der Entwicklungsumgebung Visual Studio Code, um Programmieranfänger:innen und Student:innen beim Erlernen der Programmiersprache Python zu unterstützen. Die Entwicklung der Visualisierung beinhaltet, das Erstellen einer Erweiterung in Visual Studio Code, die unter anderem das Debug Adapter Protocol einsetzt um mit dem Python Debugger zu kommunizieren.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
This work addresses the conceptualization, design, and implementation of an Application Programming Interface (API) for the Common Security Advisory Framework (CSAF) 2.0, introducing another method for distributing CSAF documents in addition to two already existing methods. These don't allow the use of flexible queries as well as filtering, which makes it difficult for operators of software and hardware to use CSAF. An API is intended to simplify this process and thus advance the automation goal of CSAF.
First, it is evaluated whether the current standard allows the implementation of an API. Any conflicts are highlighted and suggestions for standard adaptations are made. Based on these results, the API is designed to meet the previously defined requirements. Subsequently, a proof of concept is successfully developed according to the design and extensively tested with specially prepared test data. Finally, the results and the necessary standard adjustments are summarized and justified.
The conceptual design and the implementation were successfully completed. However, during the implementation of the proof of concept, some routes could not be fully implemented.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
Durch die Fortschritte im Bereich der Quantencomputer rückt der Zeitpunkt näher, dass Quantencomputer die bestehenden mathematischen Probleme lösen können, welche in den aktuellen Public-Key-Verschlüsselungsverfahren verwendet werden. Als Reaktion darauf wurde ein Standardisierungsprozess für quantensichere Public-Key-Verschlüsselungsverfahren gestartet. Diese Arbeit analysiert diese und vergleicht sie untereinander, um Stärken und Schwächen der einzelnen Verfahren aufzuzeigen.
An organized strategy to ensure the security of an organization is an information security management system. During various security crises, hazards, and breaches, this strategy aids an organization in maintaining the confidentiality, integrity, and accessibility of information. Organizations are getting ready to comply with information security management system criteria. Despite this, security concerns continue to plague ineffective controls, have poor connectivity, or cause a silo effect, which is a common cause. One of the causes is a low maturity model that is not synchronized with the organization’s business processes. For a higher level of maturity, it is best to evaluate the practices.
Different maturity models on information security and cyber security capacity, management processes, security controls, implementation level, and many more have already been developed by numerous international organizations, experts, and scholars. The present models, however, do not assess a particular organization's particular practices. The evaluation of the business process is frequently neglected because measurement requirements for models are typically more concentrated on examining specific elements. For this reason, it caused the maturity assessment to not be executed explicitly and broadly.
We developed an organizational information security maturity model, a combination of work of different maturity models currently existing. While making this model, we considered that any size or type of organization could use this model. The model considers the success elements of the information security management system when assessing the implementation's effectiveness. We employed a mixed-method strategy that included both qualitative and quantitative research. With the help of a questionnaire survey, we evaluated the previous research using a qualitative methodology. In the quantitative method, we'll figure out how mature the information security management system is now. The proposed model could be used to reduce security incidents by improving implementation gaps.
Due to the increasing aging of the population, the number of elderly people requiring care is growing in most European countries. However, the number of caregivers working in nursing homes and on daily care services is declining in countries like Germany or Italy. This limits the time for interpersonal communication. Furthermore, as a result of the Covid-19 pandemic, social distancing during contact restrictions became more important, causing an additional reduction of personal interaction. This social isolation can strongly increase emotional stress. Robotic assistance could contribute to addressing this challenge on three levels: (1) supporting caregivers to respond individually to the needs of patients and residents in nursing homes; (2) observing patients’ health and emotional state; (3) complying with high hygiene standards and minimizing human contact if required. To further the research on emotional aspects and the acceptance of robotic assistance in care, we conducted two studies where elderly participants interacted with the social robot Misa. Facial expression and voice analysis were used to identify and measure the emotional state of the participants during the interaction. While interpersonal contact plays a major role in elderly care, the findings reveal that robotic assistance generates added value for both caregivers and patients and that they show emotions while interacting with them.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Komplexe E-Commerce-Systeme müssen heutzutage immer schneller am Markt sein und sich an diesen anpassen. Dies wird durch SaaS-Services möglich, wodurch sich die Best-of-Breed-Lösungen einsetzen lassen. Der monolithische Ansatz der meisten E-Commerce-Systeme ist für diese Anwendungen nicht mehr geeignet. Abhilfe soll der Composable-Commerce-Ansatz schaffen. Für den Ansatz wird eine Integrationslösung benötigt. Ziel dieser Thesis ist es, Integrationslösungen zu evaluieren und mithilfe von Integration-Layer-Prototypen gegenüberzustellen. Es werden zwei Integrationslösungen ausgewählt, die als Prototyp implementiert werden. Für den ersten Prototypen wird Apache Camel in einem Spring-Boot-Server verwendet. Der zweite Prototyp setzt die AWS-eigenen Services für die Integration ein. Zum Schluss werden diese durch einen Last-Test auf ihre Performance geprüft.
Software-defined Access (SD-Access, SDA) hat aufgrund der flexiblen, automatisierten und schnelleren Verwaltung von Unternehmensnetzwerken erhebliche Aufmerksamkeit erlangt. Im Gegensatz zu traditionellen Netzwerken mit manuellen Prozessen, bietet SD-Access Zugriffsrichtlinien, Netzwerksegmentierung und Endpunktüberwachung in einer Lösung und trägt damit zur Netzwerksicherheit in Unternehmen bei.
Zunächst wird die SD-Access-Lösung von Cisco vorgestellt und herausgearbeitet, welche Komponenten dafür benötigt werden. Auf dieser Grundlage wird überprüft, welche Voraussetzungen zur Einführung von SD-Access im konkreten Anwendungsfall, dem SWR, geschaffen werden müssen.
Anschließend wird in einer experimentellen Phase im SWR-eigenen Netzwerklabor eine beispielhafte Architektur mit allen benötigten Komponenten zu Testzwecken konzeptioniert und implementiert. Dabei ist das Design und die Konfiguration möglichst nahe an der realen Umgebung des SWRs orientiert. Mit dem vorliegenden Testsetup werden dann bestimmte Funktionen und Anwendungsszenarien genauer aufgezeigt und die Relevanz für den Sicherheitsgewinn im SWR-LAN untersucht.
Darauf folgt eine abschließende Beurteilung des Sicherheits- und Effizienzgewinns durch die Einführung von SD-Access im SWR-Netzwerk.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Diese Arbeit beschäftigt sich mit der Entwicklung einer E-Learning Anwendung zum Peer-to-Peer Algorithmus Content Addressable Network (CAN). Ein CAN ist eine verteilte Hashtabelle zur dezentralen Verwaltung von Daten in Form von Schlüssel-Wert Paaren. Zweck der Anwendung ist eine didaktisch sinnvolle Aufbereitung und Darstellung der grundlegenden Abläufe im CAN. Die Anwendung simuliert ein CAN und bietet ein grafisches Interface zur Interaktion. Die Anwendung soll unterstützend im Rahmen des Moduls Advanced Networking im Informatik Master an der Hochschule Offenburg eingesetzt werden.
Bereichsübergreifender Einsatz von JavaScript – Aktueller Stand und exemplarische Implementierung
(2021)
Nahezu alle Websites nutzen die Programmiersprache JavaScript zur Darstellung von interaktiven Inhalten und zur Bereitstellung von komplexen Funktionalitäten. Seit ihren Anfängen im Jahr 1995 hat sich die Sprache nicht nur zum Standard in der Webentwicklung etabliert, sondern auch zu einer leistungsfähigen Mehrzweckprogrammiersprache weiterentwickelt.
Diese Arbeit befasst sich mit einer ausführlichen Darstellung der aktuellen Möglichkeiten, welche Ansätze sich durch die Weiterentwicklung JavaScripts zu einer Mehrzweckprogrammiersprache ergeben und wie sich diese heute umsetzen lassen. Anhand des intelligenten Schlüsselkastens „Smart Vault“ wird verdeutlicht, wie dieses Vorgehen praktisch realisiert und die Vorteile einer einzigen Programmiersprache angewendet werden können.
Es hat sich herausgestellt, dass sich JavaScript für Anwendungen unterschiedlicher Bereiche einsetzen lässt und darüber hinaus ein hohes Potenzial für weitere Entwicklungen, Verbesserungen und zusätzliche Einsatzgebiete besitzt. Es lassen sich nicht nur Websites, Web Server und Desktop Apps, sondern auch Mikrocontroller im Internet of Things konfigurieren und miteinander nutzen, ohne eine weitere Programmiersprache zu benötigen. Zahlreiche Bibliotheken und Frameworks machen es möglich, dass die Sprache verschiedene Anwendungen über ihre Einsatzgebiete hinweg miteinander verbindet.
Die Fortschritte in der künstlichen Intelligenz ermöglichen es uns komplexe Aufgaben mit weniger Aufwand und in kürzerer Zeit zu lösen. Daraus ergibt sich auch die Möglichkeit komplexe Daten effizienter zu verarbeiten.
Smarte Technologien, insbesondere Smartphones und Wearables, sind in den letzten Jahren immer mehr zu alltäglichen Massenmedien geworden und sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Dadurch ergeben sich für Angreifer neue Angriffsvektoren, die die Privatsphäre und Sicherheit der Daten der Nutzer gefährden.
Zielaspekt dieser Arbeit ist es zu zeigen, dass eingebaute Sensoren in smarten Technologien ein Sicherheitsrisiko mit sich bringen, welches mithilfe von Deep-Learning ausgenutzt werden kann.
Hierfür wurden zwei LSTM-Netze implementiert, welche in der Lage sind Rückschlüsse auf eingetippte Ziffern und Buchstaben zu ziehen. Damit wird demonstriert, dass Machine-learning-basiertes Keylogging mittels externen Sensordaten möglich ist und der Angriff durch das Machine-learning vereinfacht wird.
Möglichkeiten für die Verbesserung der Sicherheit von Endgeräten und Netzwerkstrukturen in der Cloud
(2021)
Meine Thesis soll sich mit dem Betrieb eines Unternehmens-Netzes mit Microsoft Tools mit und ohne Cloud beschäftigen. Dabei soll herausgearbeitet werden, in welchen Bereichen es Sinn ergibt, eine Cloudstrategie anzustreben und wo Unternehmen vielleicht empfohlen werden sollte, vorerst oder vielleicht auch langfristig bei der on-premise Variante zu bleiben.
Dafür werden Dinge wie rechtliche Aspekte, Datenschutz oder Kostenpunkte eher sekundär behandelt, da das Hauptaugenmerk auf der Sicherheit der Unternehmensdaten, Endgeräte und Server liegen soll.
Tatsächlich verfolgen bereits einige große Namen in Deutschland eine sogenannte "Cloud-first" Strategie, bei welcher versucht wird, alle möglichen Anwendungen in der Cloud unterzubringen. Auf Beweggründe und Motivation dieser Unternehmen wird kurz eingegangen.
Dann werden verschiedenste Bereiche behandelt, die im täglichen Unternehmensumfeld eine Rolle spielen, darunter fallen beispielsweise die Nutzung von Fileservern im Vergleich mit dem Cloud Ansatz OneDrive. Es soll die Frage beantwortet werden, ob eine vollständige Migration in die Cloud für verschiedene Bereiche Sinn ergibt, wie eben zum Beispiel den kompletten FileServer in die Cloud (im speziellen Fall OneDrive) umzuziehen.
Ein weiterer Unterpunkt ist die Nutzung eines Active Directorys bzw. von Domain Controllern in der Cloud über Azure AD. Hier wird insbesondere auch auf die Frage eingegangen, welche Unternehmen immer wieder beschäftigt, ob die, für die Konfiguration von Endgeräten sehr wichtigen, Group Policies in der Cloud erhalten bleiben bzw. ob und durch was sie ersetzt werden, oder ob und wie man sie migrieren kann.
Migration ist an dieser Stelle ein gutes Stichwort, denn ebenfalls soll aufgezeigt werden, wie herausfordernd die Migration verschiedenster on-premise Strukturen in die Cloud ist, und ob überhaupt bei allen Dingen eine Migration möglich ist. Interessant wird es hier möglicherweise bei legacy-Anwendungen.
Neben weiteren Themen wie dem sicherheitskritischen Allow-listing und verschiedenen Security-Ansätzen, denen mit einer Cloud-Strategie bessere Möglichkeiten gegeben werden kann, soll geklärt werden, welche Zusatzherausforderungen, aber auch Chancen die Cloud bieten kann und wird.
17
Zusammengefasst soll am Ende klarer sein, für was sich die Microsoft Cloud Anwendungen momentan schon gut eignen, wo man abwägen muss, und in welchen Aspekten die Cloud sich zunächst noch weiterentwickeln muss, bevor sie sinnvoll und verlässlich nutzbar ist. Außerdem soll aufgeführt werden, in welchen Bereichen man in den nächsten Jahren, und vielleicht auch schon jetzt, kaum noch an der Cloud vorbeikommt, wenn man eine bestimmte Funktionalität, sei es nun eine Anwendung, die die Sicherheit des Unternehmens erhöht, oder eine die die Produktivität steigern soll, nutzen möchte.
Die Thesis soll also eine Möglichkeit für Unternehmen bieten, sich unabhängig über Cloudangebote, hier meist am Beispiel der Microsoft Cloud Services, zu informierten. Und außerdem einzuschätzen, wie komplex und realisierbar verschiedene Dinge sind.
In dem letzten Jahr, welches von der Corona Pandemie geprägt war, wurde das Arbeiten von zu Hause aus durch die Unternehmen stark vorangetrieben. Auch wenn dies zuerst nur als Übergangslösung gesehen wurde, scheint dieser Trend sich auch nach der Pandemie fortzusetzen. In den meisten Heimnetzwerken ist die IT-Sicherheit allerdings deutlich schwächer ausgebaut, als dies in Unternehmen ist.
Da die Umstellung in das Home-Office sehr schnell durchgeführt wurde, sehen sich viele Arbeitnehmer und Arbeitgeber mit dieser Situation überfordert, auch im Heimnetzwerk des Anwenders für eine geeignete Sicherheit zu sorgen. In dieser Ausarbeitung werden daher einzelne Angriffe auf IT-Systeme im Heimnetzwerk aufgegriffen sowie Lösungsansätze, um eine sichere Heimnetzwerkumgebung zu schaffen.
Duplikaterkennung, -suche und -konsolidierung für Kunden- und Geschäftspartnerdaten, sog. „Identity Resolution“, ist die Voraussetzung für erfolgreiches Customer Relationship Management und Customer Experience Management, aber auch für das Risikomanagement zur Minimierung von Betrugsrisiken und Einhaltung regulatorischer Vorschriften und viele weitere Anwendungsfälle. Diese Systeme sind jedoch hochkomplex und müssen individuell an die kundenspezifischen Anforderungen angepasst werden. Der Einsatz lernbasierter Verfahren bietet großes Potenzial zur automatisierten Anpassung. In diesem Beitrag präsentieren wir für ein KMU praxisfähige, lernbasierte Verfahren zur automatischen Konfiguration von Business-Regeln in Duplikaterkennungssystemen. Dabei wurden für Fachanwender Möglichkeiten entwickelt, um beispielgetrieben das Match-System an individuelle Business-Regeln (u.a. Umzugserkennung, Sperrlistenabgleich) anzupassen und zu konfigurieren. Die entwickelten Verfahren wurden evaluiert und in einer prototypischen Lösung integriert. Wir konnten zeigen, dass unser Machine-Learning-Verfahren, die von einem Domainexperten erstellten Business-Regeln für das Duplikaterkennungssystem „identity“ verbessern konnte. Zudem konnte der hierzu erforderliche Zeitaufwand verkürzt werden.
Die Nutzung Mobiler Endgeräte nimmt zu, Ortsgebundenheit immer mehr ab. Dieser Wandel bringt Veränderungen mit sich, so auch im Bereich Softwareinstallation. Das Installieren von Software über die Cloud ist im Konsumerbereich bereits stark vertreten. Nicht nur am Desktop, sondern insbesondere bei mobilen Endgeräte, wie Smartphones und Tablets wird Software, bzw. werden Apps fast ausschließlich nur noch über das Internet installiert.
Das ist ein aktuelles Thema für den Sensorhersteller SICK.
SICK entwickelt Sensoren, die programmierbar sind, sogenannte AppSpace-Sensoren, was über das Aufspielen von sogenannten SensorApps bereitgestellt wird.
Aufgrund dieser Entwicklung, dem Trend hin zu Cloudlösungen und Ortsungebundenheit, sieht das Unternehmen SICK die Notwendigkeit den Installationsprozess mithilfe einer mobilen App über das Internet anbieten zu können. Deshalb wurde im Rahmen der Arbeit eine hybride mobile App entwickelt, mit der es möglich ist, SensorApps über die Cloud auf ein SICK AppSpace-Gerät aufzuspielen. Dafür wurde auf Basis einer Nutzerrecherche ein Konzept entwickelt, welches im Anschluss mithilfe von gängigen Webtechnologien als hybride App umgesetzt wurde.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
In this work, an implementation of the somewhat homomorphic BV encryption scheme is presented. During the implementation, care was taken to ensure that the resulting program will be as efficient as possible i.e. fast and resource-saving. The basis for this is the work of Arndt Bieberstein, who implemented the BV scheme with respect to functionality. The presented implementation supports the basics of the BV scheme, namely (symmetric and asymmetric) encryption, decryption and evaluation of addition as well as multiplication. Additionally, it supports the encoding of positive and negative numbers, various gaussian sampling methods, basically infinitely large polynomial coefficients, the generation of suitable parameters for a use case, threading and relinearization to reduce the size of a ciphertext after multiplications. After presenting the techniques used in the implementation, it’s actual efficiency is determined by measuring the timings of the operations for various parameters.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
In the field of network security, the detection of possible intrusions is an important task to prevent and analyse attacks. Machine learning has been adopted as a particular supporting technique over the last years. However, the majority of related published work uses post mortem log files and fails to address the required real-time capabilities of network data feature extraction and machine learning based analysis [1-5]. We introduce the network feature extractor library FEX, which is designed to allow real-time feature extraction of network data. This library incorporates 83 statistical features based on reassembled data flows. The introduced Cython implementation allows processing individual packets within 4.58 microseconds. Based on the features extracted by FEX, existing intrusion detection machine learning models were examined with respect to their real-time capabilities. An identified Decision-Tree Classifier model was thus further optimised by transpiling it into C Code. This reduced the prediction time of a single sample to 3.96 microseconds on average. Based on the feature extractor and the improved machine learning model an IDS system was implemented which supports a data throughput between 63.7 Mbit/s and 2.5 Gbit/s making it a suitable candidate for a real-time, machine-learning based IDS.
In recent years, both the Internet of Things (IoT) and blockchain technologies have been highly influential and revolutionary. IoT enables companies to embrace Industry 4.0, the Fourth Industrial Revolution, which benefits from communication and connectivity to reduce cost and to increase productivity through sensor-based autonomy. These automated systems can be further refined with smart contracts that are executed within a blockchain, thereby increasing transparency through continuous and indisputable logging. Ideally, the level of security for these IoT devices shall be very high, as they are specifically designed for this autonomous and networked environment. This paper discusses a use case of a company with legacy devices that wants to benefit from the features and functionality of blockchain technology. In particular, the implications of retrofit solutions are analyzed. The use of the BISS:4.0 platform is proposed as the underlying infrastructure. BISS:4.0 is
intended to integrate the blockchain technologies into existing enterprise environments. Furthermore, a security analysis of IoT and blockchain present attacks and countermeasures are presented that are identified and applied to the mentioned use case.
With many advances in sensor technology and the Internet of Things, Vehicle Ad Hoc Net- work (VANET) is becoming a new generation. VANET’s current technical challenges are deploying decentralized architecture and protecting privacy. Because Blockchain features are decentralized, distributed, mass storage, and non-manipulation features, this paper designs a new decentralized architecture using Blockchain technology called Blockchain-based VANET. Blockchain-based VANET can effectively resolve centralized problems and mutual distrust between VANET units. To achieve this, it is needed to provide scalability on the blockchain to run for VANET. In this system, our focus is on the reliability of incoming messages on the network. Vehicles check the validity of the received messages using the proposed Bayesian formula for trust management system and some information saved in the Blockchain. Then, based on the validation result, the vehicle computes a rate for each message type and message source vehicle. Vehicles upload the computed rates to Roadside Units (RSUs) in order to calculate the net reliability value. Finally, RSUs using a sharding consensus mechanism generate blocks, including the net reliability value as a transaction. In this system, all RSUs collaboratively maintain the latest updated Blockchain. Our experimental results show that the proposed system is effective, scalable and dependable in data gathering, computing, organization, and retrieval of trust values in VANET.
The recent successes and wide spread application of compute intensive machine learning and data analytics methods have been boosting the usage of the Python programming language on HPC systems. While Python provides many advantages for the users, it has not been designed with a focus on multiuser environments or parallel programming - making it quite challenging to maintain stable and secure Python workflows on a HPC system. In this paper, we analyze the key problems induced by the usage of Python on HPC clusters and sketch appropriate workarounds for efficiently maintaining multi-user Python software environments, securing and restricting resources of Python jobs and containing Python processes, while focusing on Deep Learning applications running on GPU clusters.
The interaction between agents in multiagent-based control systems requires peer to peer communication between agents avoiding central control. The sensor nodes represent agents and produce measurement data every time step. The nodes exchange time series data by using the peer to peer network in order to calculate an aggregation function for solving a problem cooperatively. We investigate the aggregation process of averaging data for time series data of nodes in a peer to peer network by using the grouping algorithm of Cichon et al. 2018. Nodes communicate whether data is new and map data values according to their sizes into a histogram. This map message consists of the subintervals and vectors for estimating the node joining and leaving the subinterval. At each time step, the nodes communicate with each other in synchronous rounds to exchange map messages until the network converges to a common map message. The node calculates the average value of time series data produced by all nodes in the network by using the histogram algorithm. The relative error for comparing the output of averaging time series data, and the ground truth of the average value in the network will decrease as the size of the network increases. We perform simulations which show that the approximate histograms method provides a reasonable approximation of time series data.
Seit 2009 nimmt das Team ”magmaOffenburg” an der 3D-Simulationsliga des RoboCups teil. Für das erfolgreiche Abschneiden in Turnieren ist die Qualität der erlernten Bewegungsabläufe ein zentraler Faktor. Bisher wurden genetische Algorithmen verwendet, um verschiedenste Aktionen zu erlernen sowie zu optimieren. In dieser Arbeit wird der Deep Reinforcement Learning Algorithmus Proximal Policy Optimization für das Erlernen bestimmter Bewegungen verwendet. Um ein Verständnis für dessen einflussreichen Parameter zu erhalten, werden Größen wie paralleles Lernen, Hyperparameter, Netzwerktopologie, Größe des Observationspace sowie asynchronem Lernen anhand dem Kicken aus dem Stand evaluiert. Durch die Ergebnisse der Evaluierung konnte der erlernte Kick signifikant verbessert werden und sein genetisch erlerntes Gegenstück im Spiel ablösen. Drüber hinaus wurden die Erkenntnisse anhand dem Laufen lernen evaluiert und Zusammenhänge bzw. Unterschiede der zwei Lernprobleme festgestellt.
Annotated training data is essential for supervised learning methods. Human annotation is costly and laborsome especially if a dataset consists of hundreds of thousands of samples and annotators need to be hired. Crowdsourcing emerged as a solution that makes it easier to get access to large amounts of human annotators. Introducing paid external annotators however introduces malevolent annotations, both intentional and unintentional. Both forms of malevolent annotations have negative effects on further usage of the data and can be summarized as spam. This work explores different approaches to post-hoc detection of spamming users and which kinds of spam can be detected by them. A manual annotation checking process resulted in the creation of a small user spam dataset which is used in this thesis. Finally an outlook for future improvements of these approaches will be made.
The evolution of cellular networks from its first generation (1G) to its fourth generation (4G) was driven by the demand of user-centric downlink capacity also technically called Mobile Broad-Band (MBB). With its fifth generation (5G), Machine Type Communication (MTC) has been added into the target use cases and the upcoming generation of cellular networks is expected to support them. However, such support requires improvements in the existing technologies in terms of latency, reliability, energy efficiency, data rate, scalability, and capacity.
Originally, MTC was designed for low-bandwidth high-latency applications such as, environmental sensing, smart dustbin, etc. Nowadays there is an additional demand around applications with low-latency requirements. Among other well-known challenges for recent cellular networks such as data rate energy efficiency, reliability etc., latency is also not suitable for mission-critical applications such as real-time control of machines, autonomous driving, tactile Internet etc. Therefore, in the currently deployed cellular networks, there is a necessity to reduce the latency and increase the reliability offered by the networks to support use cases such as, cooperative autonomous driving or factory automation, that are grouped under the denomination Ultra-Reliable Low-Latency Communication (URLLC).
This thesis is primarily concerned with the latency into the Universal Terrestrial Radio Access Network (UTRAN) of cellular networks. The overall work is divided into five parts. The first part presents the state of the art for cellular networks. The second part contains a detailed overview of URLLC use cases and the requirements that must be fulfilled by the cellular networks to support them. The work in this thesis is done as part of a collaboration project between IRIMAS lab in Université de Haute-Alsace, France and Institute for Reliable Embedded Systems and Communication Electronics (ivESK) in Offenburg University of Applied Sciences, Germany. The selected use cases of URLLC are part of the research interests of both partner institutes. The third part presents a detailed study and evaluation of user- and control-plane latency mechanisms in current generation of cellular networks. The evaluation and analysis of these latencies, performed with the open-source ns-3 simulator, were conducted by exploring a broad range of parameters that include among others, traffic models, channel access parameters, realistic propagation models, and a broad set of cellular network protocol stack parameters. These simulations were performed with low-power, low-cost, and wide-range devices, commonly called IoT devices, and standardized for cellular networks. These devices use either LTE-M or Narrowband-IoT (NB-IoT) technologies that are designed for connected things. They differ mainly by the provided bandwidth and other additional characteristics such as coding scheme, device complexity, and so on.
The fourth part of this thesis shows a study, an implementation, and an evaluation of latency reduction techniques that target the different layers of the currently used Long Term Evolution (LTE) network protocol stack. These techniques based on Transmission Time Interval (TTI) reduction and Semi-Persistent Scheduling (SPS) methods are implemented into the ns-3 simulator and are evaluated through realistic simulations performed for a variety of low-latency use cases focused on industry automation and vehicular networking. For testing the proposed latency reduction techniques in cellular networks, since ns-3 does not support NB-IoT in its current release, an NB-IoT extension for LTE module was developed. This makes it possible to explore deployment limitations and issues.
In the last part of this thesis, a flexible deployment framework called Hybrid Scheduling and Flexible TTI for the proposed latency reduction techniques is presented, implemented and evaluated through realistic simulations. With help of the simulation evaluation, it is shown that the improved LTE network proposed and implemented in the simulator can support low-latency applications with low cost, higher range, and narrow bandwidth devices. The work in this thesis points out the potential improvement techniques, their deployment issues and paves the way towards the support for URLLC applications with upcoming cellular networks.
Das Ziel dieser Thesis ist es, die Gefahren die von Makros in Microsoft Office Dokumenten ausgehen, zu beschreiben und geeignete Sicherheitsmaßnahmen zu finden. Dazu ist eine Literaturrecherche, sowie eine eigenständige Malware-Analyse durchgeführt worden. Das Ergebnis dieser Arbeit ist, dass von Makros eine große Sicherheitsgefahr ausgeht und, dass geeignete Sicherheitsmaßnahmen existieren, um die Gefahren von Makros deutlich einzuschränken. Jedoch werden diese Sicherheitsmaßnahmen oft nicht umgesetzt, da entweder kein Bewusstsein für diese Art von Gefahr herrscht oder die Implementierung zu teuer beziehungsweise zu aufwändig ist.
Due to the rapidly increasing storage consumption worldwide, as well as the expectation of continuous availability of information, the complexity of administration in today’s data centers is growing permanently. Integrated techniques for monitoring hard disks can increase the reliability of storage systems. However, these techniques often lack intelligent data analysis to perform predictive maintenance. To solve this problem, machine learning algorithms can be used to detect potential failures in advance and prevent them. In this paper, an unsupervised model for predicting hard disk failures based on Isolation Forest is proposed. Consequently, a method is presented that can deal with the highly imbalanced datasets, as the experiment on the Backblaze benchmark dataset demonstrates.
Drohnensteuerungen sind häufig sehr komplex und verbunden mit Hardwarekontrollern. Mittels heutiger Technologien, wie zum Beispiel der künstlichen Intelligenz oder der Sensoren Technologie, können diese jedoch vermehrt modifiziert und an die Bedürfnisse der Nutzer angepasst werden. Eine der kommenden Technologien hierfür ist das Hand Capture. Das Ziel dieser Bachelorarbeit ist es, die Technologie des Hand Capture mit einfachen Mitteln zu rekonstruieren und mittels dieser eine virtuelle Drohne in einem Simulationsspiel durch drei unterschiedliche Level steuern zu können. Außerdem sollen die aktuellen Hand Capture sowie Drohnensteuerungsmöglichkeiten aufgezeigt werden. Zur Realisierung des Hand Capture werden zwei Handkontroller angefertigt, die über jeweils einen Beschleunigungssensor an jeder Hand verfügen. Diese sind verbunden mit einem Arduino Mikrocontroller, der die Beschleunigungssensoren über das I²C-Protokoll ausliest. Um die virtuelle Drohnensteuerung und deren Simulation umzusetzen, wird die Echtzeit-3D-Entwicklungsplattform Unity verwendet. Zwischen Unity und dem Arduino wird über den seriellen Port durch eine USB-Schnittstelle eine bidirektionale Kommunikation aufgebaut, über welche die ausgemessenen Werte übertragen werden können. Zuvor werden diese Werte aber noch im Arduino in Roll- und Pitchneigungen umgewandelt, sodass Unity diese einfacher als Steuerbefehle für die Drohne interpretieren kann. Das Ergebnis ist eine funktionsfähige Drohnensteuerung, welche die Grundbewegungen der Drohne abdeckt. Zusätzlich zu der Drohnensteuerung werden in Unity drei Level erstellt, die es dem Nutzer ermöglichen, die Steuerung zu erlernen und die Drohne mit hoher Geschwindigkeit zu fliegen sowie in einem großen, offenen Level zu manövrieren. Einzelne Playtests der Simulation in denen die Level problemlos bewältigt werden konnten, bestätigen, dass die Drohnensteuerung die Aspekte: Übertragungsgeschwindigkeit, Präzision, Benutzerfreundlichkeit und Anzahl der Steuer- und Eingabemöglichkeiten erfüllt und somit als eine alternative Steuerungsmöglichkeit funktioniert.
In the work at hand, we state that privacy and malleability of data are two aspects highly desired but not easy to associate. On the one hand, we are trying to shape data to make them usable and editable in an intelligible way, namely without losing their initial information. On the other hand, we are looking for effective privacy on data such that no external or non-authorized party could learn about their content. In such a way, we get overlapping requirements by pursuing different goals; it is trivial to be malleable without being secure, and vice versa. We propose four “real-world” use cases identified as scenarios where these two contradictory features are required and taking place in distinct environments. These considered backgrounds consist of firstly, cloud security auditing, then privacy of mobile network users and industry 4.0 and finally, privacy of COVID-19 tracing app users. After presenting useful background material, we propose to employ multiple approaches to design solutions to solve the use cases. We combine homomorphic encryption with searchable encryption and private information retrieval protocol to build an effective construction for the could auditing use case. As a second step, we develop an algorithm to generate the appropriate parameters to use the somewhat homomorphic encryption scheme by considering correctness, performance and security of the respective application. Finally, we propose an alternative use of Bloom filter data structure by adding an HMAC function to allow an outsourced third party to perform set relations in a private manner. By analyzing the overlapping bits occurring on Bloom filters while testing the inclusiveness or disjointness of the sets, we show how these functions maintain privacy and allow operations directly computed on the data structure. Then, we show how these constructions could be applied to the four selected use cases. Our obtained solutions have been implemented and we provide promising results that validate their efficiency and thus relevancy.
Diese Bachelor Thesis behandelt das Thema MQTT 5, ein Anwendungsprotokoll im Internet der Dinge, das im Januar 2018 veröffentlicht wurde. MQTT 5 dient zur Kommunikation zwischen Geräten die mit dem Internet verbunden sind.
Innerhalb dieser Thesis werden die Neuerungen und Verbesserungen von MQTT 5 beschrieben.
Es wird untersucht, welche Mikrocontroller, SoC-Computer, Programmier-Frameworks und lattformdienste MQTT 5 unterstützen.
Anschließend wird die Entwicklung eines Smarthome-Szenarios beschrieben, das im "Interaktive Verteilte Systeme Labor" an der Hochschule Offenburg zur Anwendung kommt.
Um die Umgebung während der Durchführung von Laborversuchen zu verbessern,werden die Temperatur, Luftfeuchtigkeit, Luftqualität, Lautstärke und Lichtstärke im Labor gemessen.
Diese Werte werden anhand von Lichtern, die ihre Farbe ändern und einer Steckdose, die sich je ach Wert ein- und ausschaltet, visualisiert.
Bei der Produktion von Solarzellen aus multikristallinem Silizium haben Defekte aus der Kristallisationsphase starken Einfluss auf die Materialqualität der Wafer und damit auf den Wirkungsgrad der späteren Solarzelle. Ein Verständnis des Kornwachstums in multikristallinem Silizium während des Kristallisationsprozesses kann zur Optimierung desselben beitragen. In dieser Arbeit werden Methoden untersucht, optische Flüsse zwischen Korngrenzenbildern multikristalliner Si-Wafer mittels neuronaler Netze zu berechnen. Hierfür wird die Architektur eines ausgereiften faltungsbasierten neuronalen Netzes zur optischen Fluss-Berechnung genutzt und durch angepasstes Training auf Waferstrukturen zugeschnitten. Dies umfasst die Synthese eigener, auf Waferbilder basierender Trainingsdaten und das Training mit einer angepassten Fehlerfunktion zur Bewertung der Zuordnungsgenauigkeit von Körnern zwischen Wafern durch den optischen Fluss. Beide Maßnahmen zusammen führen zu einer Reduktion des Zuordnungsfehlers von Körnern zwischen Waferbildern um 45 % gegenüber einem hochoptimierten, auf allgemeine optische Flüsse trainierten Modell basierend auf demselben Netzwerk. Die geschätzte Zuordnungsgenauigkeit des besten Modells beträgt 92,4 % der Pixel der Korngrenzenbilder eines Wafers. Weiteres Verbesserungspotenzial ist vorhanden.
Informationsvisualisierung im Kundenbeziehungsmanagement am Beispiel eines interaktiven Streamgraphs
(2014)
In dieser Arbeit wird der Streamgraph als Methode der Informationsvisualisierung im Kontext des Kundenbeziehungsmanagements vorgestellt. Neben der Auseinandersetzung mit den theoretischen Grundlagen dieser Themenbereiche wird die Eignung des Streamgraphs als Form der Visualisierung überprüft. Hierfür wird ein CRM-spezifischer Anwendungsfall erarbeitet und in einer webbasierten Applikation prototypisch realisiert. In diesem Zusammenhang werden Anforderungen in Bezug zu Interaktivität und Funktionalität aufgestellt und im Prototypen implementiert. Die Anforderungen an die Interaktivität orientieren sich hierbei an dem von Ben Shneiderman aufgestellten Mantra der visuellen Datenexploration.
In der abschließenden Auswertung wird eine bedingte Eignung für den Einsatz des Streamgraphs als effiziente Visualisierungsform im unternehmerischen Kontext festgestellt. Im Hinblick auf den Anwendungsfall erfüllt dieser zwar alle an ihn gestellten Anforderungen, die korrekte Lesbarkeit der Daten ist aufgrund seiner Form jedoch nicht gewährleistet.
Konzept und Realisierung einer Smartphone-App, für die 3D-Visualisierung von Jogging-Aktivitäten
(2014)
Im Rahmen dieser Arbeit wird eine App konzipiert und entwickelt, welche die Häufigkeit und Art der Fortbewegung eines Nutzers visuell erfassbar aufbereitet. Eine dreidimensionale Darstellungsart zielt dabei besonders auf eine bessere Übersicht und Wertschätzung der erbrachten Laufleistung ab. Dies soll durch personifizierte Visualisierungsmöglichkeiten, in Verbindung mit dem 3D-Druck, gefördert werden. Der entwicklete Prototyp bildet die Grundlage für die Bereitstellung eines solchen leistungsorientierten 3D-Druckprodukts.
In dieser Arbeit werden die Bedrohungen für ein lokales IPv6 Netzwerk, mit besonderem Hinblick auf das neu eingeführte Neighbor Discovery Protocol (NDP), analysiert. Dabei wird der Frage nachgegangen, wie ein IPv6 Netz gegen lokale Angriffe geschützt werden kann. Zunächst werden mögliche Angriffe auf das Netzwerk beschrieben. Gegen die dann jeweils Maßnahmen vorgestellt werden. Die Funktionsweise der Maßnahmen wird erläutert und die mit Einführung sowie Betrieb verbundenen Kosten und Nutzen eingeordnet. Darauf basierend wird eine Bewertung der Maßnahmen durchgeführt, um konkrete Handlungsempfehlungen zum sicheren Betrieb von IPv6 Netzen in der Praxis zu geben. In der Bewertung wird deutlich, dass ein Großteil der Maßnahmen noch nicht ausgereift oder nur bedingt praktisch anwendbar erscheint. Reaktive Maßnahmen wie NDPMon eignen sich dabei nach Ergebnissen der Analyse am besten zur Absicherung von NDP Verkehr. Um die Integration von NDPMon durch eine einheitliche Plattform zu erleichern, wird ein Einsatzbeispiel auf Basis des ARM-Einplatinencomputer Raspberry Pi beschrieben. Abgeschlossen wird die Arbeit mit einem Fazit zur lokalen Absicherung von IPv6 Netzwerken und den damit verbundenen Herausforderungen, sowie einem kurzen Ausblick auf zukünftige Entwicklungen im Bezug auf Schutzmaßnahmen.
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
Arduino ist weitaus mehr als eine Leiterplatine mit verschiedenen Hardwarekomponenten, welche behilflich sind, die physische Welt zu erfassen und eine Verbindung zur virtuellen Welt herzustellen. Arduino besteht aus Communities, Plattformen und engagierten Entwicklern, die diese Open-Source-Plattform stetig weiterentwickeln. Durch die bereitgestellte Entwicklungsumgebung und der eigenen Programmiersprache können sogar Programmier-Laien mit diesen Boards umgehen und erste Projekte realisieren. Darüberhinaus existieren viele Klone auf dem Markt, welche eine preiswerte Integration eines Mikrocontrollers in ein Projekt ermöglichen und dennoch kompatibel zu Arduino sind und die Entwicklungsumgebung mitsamt den Bibliotheken nutzen lassen. Die Nachfrage nach vernetzten Lösungen zum Beispiel in der Hausautomation wächst unaufhaltsam und ist präsenter denn je. Für Hobbybastler und Entwickler bietet auch Arduino hierzu die geeigneten Hardwareerweiterungen an, um den Arduino in eine vernetzte Umgebung zu integrieren. Hierbei wird das Board nicht nur in Verbindung zur Client/Server-Kommunikation über das Internet verwendet, sondern auch im Funkbereich in Heimnetzwerken. Aufgrund der großen Nachfrage bezüglich Lösungen im Phyiscal- Computing-Bereich, können schon jetzt viele Standards in den genannten Bereichen eingesetzt werden, indem ein entsprechendes Erweiterungs-Shield für Arduino bezogen wird. Durch Bibliotheken ist die Einbindung mit nur geringem Aufwand verbunden und lässt somit experimentell in kurzer Zeit eine Idee in eine prototypische Implementierung umsetzen. Durch verschiedene Sensoren und Aktuatoren kann die Umgebung erfasst werden und zum Beispiel mechanische Komponenten gesteuert werden. In dieser Thesis wurde untersucht, inwiefern ein Arduino-Board als Monitoring-Anwendung im Gesundheitswesen eingesetzt werden kann. Der Anwendungsfall, der dabei durch den Autor festgelegt wurde, befasst sich mit unter Epilepsie leidenden Kindern. Der Prototyp soll hierbei über Sensoren den Schlaf dieser überwachen und die gewonnenen Daten an einen Server übermitteln. Die Implementierung des Boards in eine derartige Anwendung umschließt auch die Integration des Controllers in vernetzte Umgebungen, da für den Heimbereich die über Sensoren erfassten Daten, zum Ermitteln der Vitalfunktionen und Bewegungen, über ein Funknetzwerk übertragen werden und anschließend eine Client/Server-Kommunikation zwischen Arduino und PaaS-Server eine Verbindung über das weltweite Netzwerk abdeckt. Insofern wurden diesbezüglich bei der prototypischen Implementierung zwei vernetzte Umgebungen abgedeckt. Im Zusammenhang mit der Recherche und Implementierung eines Prototypen wird zudem das Potenzial von Arduino aufgezeigt, welches sich in der einfachen Handhabung, guten Konfigurationsmöglichkeiten und umfangreichen Hardwareerweiterungen beweist.
TecChannel XXL eBook
(2013)
Gegenstand der hier vorgestellten Arbeit ist eine Webanwendung, die als Lernhilfe für die Grundlagen des algorithmischen Denkens und Arbeitens dienen soll. Das Erstellen eines Struktogramms (Nassi-Shneiderman-Diagramm) dient in vielen Vorlesungen und Unterrichten, die sich mit den Grundlagen der Informatik beschäftigen, als Mittel der Darstellung eines Algorithmus. Hierfür bestehen die unterschiedlichsten Editoren. Dabei handelt es sich um PC- oder Webanwendungen, welche hauptsächlich in Java realisiert sind. Diese Thesis beschäftigt sich mit der Erstellung eines webbasierten Tools, das es ermöglicht, ein solches Struktogramm zu erstellen und auch auf Funktion zu testen. Hierbei steht jedoch nicht nur die reine Ausführbarkeit, sondern auch der didaktische Nutzen im Vordergrund. Ziel ist es, mit der Anwendung die Studierenden des ersten Semesters des Studiengangs Medien und Informationswesen bei allen Vorgaben, die das Struktogramm betreffen, zu unterstützen. Die Ausführbarkeit des Struktogrammes ist hierbei eine wichtige Hilfe um eigene Fehler zu erkennen und zu verstehen. Umgesetzt wird die Anwendung mit dem interaktiven SVG-Format. Dabei handelt es sich um vektorbasierte Grafiken, die über JavaScript interaktiv gestaltet werden können. Die Arbeit enthält zudem eine gründliche Recherche über vergleichbare Anwendungen, deren Vor- und Nachteile sowie einen Vergleich untereinander. Aus den Resultaten der Vergleiche sowie weiterer Recherche im Bereich der Didaktik werden die Anforderungen an ein entsprechendes Hilfsmittel erfasst und aufgestellt. Nach der Konzeptionierung wird ein Prototyp erstellt und eine erste Evaluierung durchgeführt. Schlussendlich folgt eine Zusammenfassung und ein Ausblick.
This thesis deals with the implementation of character controls and combat system of the Action Adventure 'Scout 3D'. The game development was realized with the game engine Unity 3D. In the first part, the architecture of a typical game engine is explained. The single components are describes step by step. Then, five well-known game engines are compared and evaluated. In the next chapter, a short overview about design and architecture patterns is worked out. The features of Unity, that are used for the implementation, and Unity's animation system 'Mecanim, are described finally. The second part includes the requirement definitions for the game 'Scout COD' which define player input, different conditions that allow or disallow several activities and the behaviour of enemies. With the help of patterns the architecture of the game is designed. Then, the implementation is explained by means of code snippets.
Mobile Anwendungen werden im beruflichen Umfeld immer häufiger eingesetzt und dienen als praktische Helfer für Vertriebsmitarbeiter oder im Kundendienst. Dagegen ist ein Einsatz in der Baubranche ein recht neues Feld. Die tägliche Erfassung der Leistungsergebnisse einer Baustelle samt Geräteeinsatz, Mitarbeiterstunden, Lieferungen und Wetterdaten in Tagesberichten wird von vielen Bauunternehmen bisher noch auf Papier erledigt und später von Hand in ein Verwaltungsprogramm übertragen. Die Dokumentation direkt vor Ort mit einem mobilen Endgerät bietet den Vorteil, dass die Daten sofort verfügbar sind und auch besser ausgewertet werden können. Im Rahmen der vorliegenden Masterthesis wird nun in Zusammenarbeit mit dem Bauunternehmen Grafmüller untersucht, wie eine mobile Anwendung zu diesem Zweck aussehen kann. Dabei werden zunächst die Betriebsdatenerfassung im Allgemeinen und die Hintergründe der mobilen Anwendungsentwicklung analysiert. Dies dient dann als Basis für die Konzeption und die Umsetzung der Anwendung. Dabei werden bereits existierende Konkurrenzprodukte und die aktuelle Situation der Tagesberichtserstellung betrachtet. Besonderes Augenmerk liegt auf der plattformunabhängigen Entwicklung. Dazu wird der Einsatz von Webtechnologien zur Erstellung von hybriden Apps mit Hilfe entsprechender Werkzeuge untersucht. Die Umsetzung selbst beinhaltet den generellen Aufbau der mobilen Anwendung auf Basis eines hybriden App-Frameworks. Dazu zählt die persistente Datenspeicherung und die Synchronisation mit einer Administrationsanwendung sowie weitere Zusatzfunktionen, die gerätespezifische Eigenschaften nutzen, beispielsweise GPS.
Diese Bachelorarbeit befasst sich in Theorie und Praxis mit der Erstellung von mobilen Applikationen mit dem Ziel, einen reifen Prototypen einer App für das Schwarzwälder Freilichtmuseum Vogtsbauernhof in Gutach zu entwickeln. Smartphones sind heute ein wichtiger Bestandteil im Alltag vieler Menschen. Der Mobilfunkmarkt hat sich in den letzten Jahren dank zahlreicher Innovationen stark weiterentwickelt. Hierdurch ergeben sich neue Möglichkeiten des Einsatzes von digitalen Medien. Durch den Einsatz von Apps müssen Museen keine eigenen Geräte anschaffen, sondern können Applikationen für Smartphones anbieten. Die Erstellung der App wurde in zwei Bereiche aufgeteilt: 1. Redaktion, Design und Kommunikation 2. Technische Konzeption und Umsetzung Der Schwerpunkt dieser Bachelorarbeit liegt auf der technischen Konzeption und Umsetzung einer App für das Schwarzwälder Freilichtmuseum Vogtsbauernhof.
In dieser Arbeit werden zunächst die technischen Grundlagen, die zur Erstellung der Applikation notwendig sind, näher betrachtet. Hierbei wird der Unterschied zwischen Nativen Apps und WebApps beleuchtet und verschiedene Techniken für die mobile Webentwicklung vorgestellt. Anschließend werden die didaktischen und sprachlichen Grundlagen, die eine optimale Aufbereitung des Lernstoffes gewährleisten sollen, näher betrachtet. Dabei werden neben der Sprachdidaktik und Methodik auch der Lernprozess sowie die japanische Sprache beleuchtet. Abgerundet wird dies mit einem Blick auf andere Sprachlernsoftware für die japanische Sprache. Danach wird auf die Konzeption der Applikation, welche den Aufbau und die Lerninhalte umfasst, eingegangen, bevor dann schließlich die Umsetzung der Applikation beschrieben wird. Hierbei werden einzelne Aspekte und Probleme der Realisierung näher beleuchtet.
In dieser Bachelorarbeit geht es um die Konzeption und Realisierung einer Web-App für das iPad. Zuerst werden allgemeine Themen zu Apps auf Smartphones und Tablets besprochen und Unterschiede zwischen einer nativen App und einer Web-App aufgezeigt. Auf Basis der gängigen Webtechnologien HTML5, CSS3 und JavaScript, sowie mit Hilfe des Frameworks jQuery Mobile werden Grundlagen einer Web-App erklärt. Im Anschluss daran wird erläutert, wie die das praktische Beispiel der "Movie-DB" umgesetzt wurde.
Spätestens mit der Markteinführung des iPhones im Jahr 2007 und mit der Einführung des Android Betriebssystems im Jahr darauf ist die Bedeutung der mobilen Endgeräte und deren Diversität auf dem Softwaremarkt nicht mehr zu leugnen. Bis heute ist das Marktwachstum bei den mobilen Endgeräten ungebrochen. Im Jahr 2012 wurden alleine in Deutschland 23 Millionen neue Smartphones verkauft. Somit nutzt inzwischen etwa jeder vierte Bundesbürger mobile Software. Dies ist ein hundertprozentiges Wachstum im Vergleich zum Jahr 2010. Mit der Einführung des ersten iPads (2010) und vieler ähnlicher Produkte, die meist mit dem Android Betriebssystem betrieben werden, haben sich die Möglichkeiten und Anforderungen für Softwareentwickler erneut erheblich verändert und erweitert. Aufgrund der größeren Displays und immer besserer Rechenleistungen können nun Programme mit komplexen Interfaces, wie sie zuvor nur von Desktoprechnern bekannt waren, auch auf dem mobilen Softwaremarkt Fuß fassen. Bei der Entwicklung einer neuen Anwendung stellt sich immer auch die Frage, auf welchen Endgeräten sie später ausgeführt werden soll. Grundsätzlich gibt es derzeit drei Möglichkeiten Anwendungen für die neuen und mobilen Endgeräte zu entwickeln: des entsprechenden Systems erstellt und verwendet dessen spezielle Schnittstellen. Eine solche App muss folglich für jedes Zielsystem separat entwickelt werden. Um eine plattformübergreifende Anwendung zu entwickeln bietet sich derzeit die Möglichkeit, sogenannte Web-Apps zu implementieren. Hier dient der gemeinsam genutzte WebKit-Webbrowser der verschiedenen Systeme als technische Grundlage. Hierbei können die Anwendungen mit Webtechnologien wie HTML5, CSS3 und JavaScript entwickelt werden. Mit JavaScript Frameworks wie jQuery mobile oder Sencha Touch ist es möglich,Webanwendungen zu erstellen, die vom Bedienkonzept und ihrer Anmutung kaum von nativen Apps zu unterscheiden sind. Die Entwicklung sogenannter hybrider Apps vereint die Möglichkeiten der nativen und der webbasierten Apps. Eine Web-App kann dann mit Hilfe eines Frameworks wie z.B. Titanium oder PhoneGap verpackt werden und wird so zu einer hybriden App, die beispielsweise über die Appstores der Hersteller vertrieben werden kann. In dieser Arbeit beschäftige ich mich insbesondere mit den Möglichkeiten der hybriden App-Entwicklung am Beispiel einer Präsentationsanwendung, die ich im Rahmen dieser Arbeit für die visionsbox GmbH aus Offenburg konzipiert und umgesetzt habe. Eine ähnliche Anwendung auf Basis von Adobe Flash wird bereits seit einiger Zeit von der visionsbox GmbH vertrieben. Meine Aufgabe war es, diese Anwendung auf Basis von Webtechnologien so nachzubilden, dass sie in Zukunft auf möglichst vielen Software-Plattformen lauffähig ist.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
Evaluierung neuer HTML5- und JavaScript-Technologien bei der Nutzung in heterogenen Umgebungen
(2012)
Die 1&1 Internet AG in Karlsruhe betreibt einen Onlinespeicher, der von Kunden der diversen Tochter- und Schwestergesellschaften hauptsächlich über ein Browserfrontend bedient wird. Dieses kommuniziert mittels einer definierten JSON-Schnittstelle mit der auf Java basierenden Middleware. Da der Client schon vor einigen Jahren entwickelt wurde, nutzt er noch nicht alle Möglichkeiten die HTML5 in aktuellen Browsern bietet. Die Beschreibung und Bewertung dieser Möglichkeiten stellt die Kernaufgabe der Thesis dar. Einer der Schwerpunkt soll dabei auf der Offlinefähigkeit und intelligenten Benutzung von Caching- & Sync-Strategien zwischen Onlineanwendung und Offlineclient bestehen. Desweiteren sollen die Möglichkeiten von aktuellen Browsern ohne Beachtung der Rückwärtskompatibilität zu älteren Browsern genutzt werden. Zu Demonstrationszwecken sollen Beispielanwendungen den Einsatz der neuen Technologien erstellt werden, damit deren praktische Nutzung leichter zu erfassen ist. Das Hauptaugenmerk bei den Beispielanwendungen liegt indes nicht auf der Funktionalität, sondern auf dem Einsatz der jeweiligen Technologie, so dass deren Möglichkeiten getestet werden können. Ebenfalls Teil der Arbeit soll die Erarbeitung von theoretischen Aspekten sowie die Erstellung einer Übersicht über den aktuellen Stand der Fachliteratur darstellen. Dies soll bei weiterer Nutzung der Ergebnisse die Erarbeitung von erweitertem Fachwissen erleichtern. Basis sollen hier die aktuell Erschienenen Fachbücher auf deutsch und englisch sowie - naturgemäß nochmals aktueller - die regelmäßigen Veröffentlichungen im Internet und in Fachzeitschriften bilden. Die zu besprechenden Themen umfassen die grundsätzliche Beschreibung von HTML5 und dem Standardisierungsprozess, die neuen HTML-Element in Bezug auf Formulare, Multimedia-Darstellung, die Möglichkeiten der Offline-Anwendung (Application Cache, Cache Manifest, DOM Storage), die Drag & Drop API zur Nutzung beim Dateiupload sowie die File API. Mögliche Themen für den theoretischen Teil sind gängige Architekturmuster (beispielsweise MVC, MVP, MVVM, PAC), Caching- und Sync-Strategien sowie die Potentiale aktueller Skriptsprachen (ECMAScript 5, Coffeescript, DART).
Diese Arbeit beschäftigt sich primär mit der Erstellung von Konzepten, welche in den Bereichen der langfristigen Planung, welche eine IT-Strategie festlegt und der kurzfristigen Steuerung des Tagesgeschäfts, ein besser strukturiertes und effizienteres Vorgehen im Umgang mit der Vielzahl an anfallenden Daten und Informationen ermöglichen sollen. Hierzu werden in den Grundlagen zunächst alle relevanten Begriffe geklärt, welche in diesem Umfeld auftreten. Im Kapitel Stand der Technik werden, die in der Industrie am meisten zertifizierten Standards, zur Lösung dieser Problematik vorgestellt. In der darauf folgenden Konzeption werden alle notwendigen Elemente konzipiert. Dafür erfolgt zunächst eine Auswahl der ITIL-Prozesse, welche für ein erfolgreiches IT-Controlling umgesetzt werden sollen. Danach wird ein Vorschlag für einen Service-Katalog auf Basis von ITIL entwickelt, der es ermöglichen soll die wachsende Anzahl von IT-Services an Hochschulen zu verwalten. Nach diesem erfolgt eine Konzeption von neuen Kostenstellen und Kostenarten für das Rechenzentrum der Hochschule Offenburg. Dies ist notwendig, da die aktuellen Kostenstellen und Kostenarten nicht mehr den Anforderungen des Rechenzentrums gerecht werden. Auch wird in dieser Arbeit eine Konzeption für ein einfaches ordnerbasiertes Ablagesystem zur Verwaltung von Partner-, Lizenz- und Vertragsdokumenten erstellt. Der letzte Punkt dieser Arbeit besteht in der Konzeption und Umsetzung eines Informationssystems, durch welches alle relevanten Daten grafisch ansprechend aufbereitet zur Verfügung gestellt werden sollen. Die Umsetzung dieses Informationssystems wird in dieser Arbeit mithilfe der beiden Open-Source-Tools Talend und Palo vorgenommen.
Seit 2011 beschäftigt sich die visionsbox GmbH mit der Erstellung von AR-Anwendungen. Momentan werden diese Apps auf Basis von Unity 3D und dem AR SDK Vuforia von Qualcomm erstellt. Der plattformunabhängige Ansatz von Unity 3D erlaubt es, sehr schnell Anwendungen für iOS als auch für Android zu kompilieren. Ein großer Nachteil des bestehenden Entwicklungskonzepts ist das Fehlen der Möglichkeit Inhalte zur Laufzeit aus dem Internet herunterzuladen. Eine Änderung oder Erweiterung der Anwendung ist nur über ein erneutes Kompilieren und erneutes Installieren der Applikation möglich. Dieser Updateprozess ist langwierig und wenig flexibel. Das Vorhandensein einer Anbindung ans Internet, ermöglicht jedoch prinzipiell das Herunterladen von neuen oder zusätzlichen Inhalten zur Laufzeit der Anwendung. Ziel dieser Master Thesis ist es, die Möglichkeiten des Nachladens von Anwendungsinhalten von einem eigenen Webserver zu evaluieren. Eine beispielhaft implementierte Anwendung soll die Machbarkeit für Android und iOS demonstrieren und gleichzeitig als Vorlage für bestehende und zukünftige AR-Anwendungen auf Basis von Unity3D und Vuforia dienen.
Integration eines Shopsystems in Typo3 am Beispiel „Relaunch des Webauftritts Elbe&Flut Edition“
(2013)
Im Rahmen meiner Bachelorarbeit habe ich bei Elbe&Flut, Agentur für Fotografie und Gestaltung in der Hamburger Speicherstadt, eine Neuauflage der Webpräsenz für den Verlag Elbe&Flut Edition erstellt. Themenschwerpunkt der Elbe&Flut Edition ist Hamburgs Viertel zwischen Tradition und Vision — die Speicherstadt mit der wachsenden Hafencity. Ziel der Bachelorthesis war ein ganzheitlicher Webauftritt der Website mit einem Gesamtumfang von circa 25 Seiten, erstellt mit dem Content Management System Typo3 Version 4.5, um das nachträgliche Ändern und Einfügen von Inhalten effizient und simpel zu gestalten. Hinzu wurde ein Online-Shop für die Elbe&Flut Edition integriert, über den Bücher sowie Kalender geordert werden können. Dafür werden verschiedene Web-Shopsysteme wie die Typo3-Erweiterung Commerce und tt_products zu einem funktionalen Vergleich herangezogen. Die Einbindung von JQuery-Elementen wie Slidern, Lightboxes und Popups soll eine ästhetische und angemessene Benutzerfreundlichkeit sinnvoll unterstützen. Ausgangspunkt für die neuen Webpräsenzen war die damalige Website der Elbe&Flut Edition euf-edition.de, von der ein Großteil des Inhaltes übernommen wurde.
Die Bachelor-Thesis "Entwicklung eines Web-Portals für M+I-Studierende" befasst sich mit der Entwicklung des Studierendenportals MI-Complete der Fakultät M+I der Hochschule Offenburg. In den üblichen Arbeitsschritten (Analyse, Konzeption, Umsetzung, Evaluation, Ausblick) wird darin der Werdegang des neuen Studierendenportals MI-Practix beschrieben.
Diese Arbeit beschäftigt sich mit der Leistungsanalyse und Optimierung eines Flugdatenservers. Für die Durchführung dieser Leistungsanalyse wird eine eigene Anwendung entwickelt. Mit dieser eigens entwickelten Anwendung wird das Leistungsverhalten des Flugdatenservers genau analysiert. Mit den Erkenntnissen aus der Leistungsanalyse werden am Flugdatenserver Optimierungen durchgeführt und weitere Möglichkeiten zur Optimierung aufgezeigt. Bei diesem Flugdatenserver (Air Traffic Control Server) handelt es sich um eine Client/Server-Anwendung zur Visualisierung von Flugbewegungen im Lauftraum. Hierfür wird der Flugdatenserver mit Flugsicherungsdaten durch das Flugüberwachungssystem Automatic Dependent Surveillance (ADS) versorgt.
Das Thema Honeypot nimmt einen immer größeren Stellenwert in der Weiterentwicklung der Informationssicherheit ein. Honeypots dienen nicht nur zur Erforschung von Angriffsmethoden und Vorgehensweisen, sondern können auch im Unternehmensumfeld aktiv zur Verbesserung der IT-Sicherheitsmaßnahmen beitragen. Diese Arbeit hat sich das Ziel gesetzt, das Themenspektrum Honeypot in Theorie und Praxis näher zu untersuchen. Im ersten Teil wird ein allgemeiner Überblick über das Thema Honeypot und Honeynet gegeben. Hier wird erklärt, welche Honeypot-Typen und Architekturen es gibt, welche Anforderungen ein Honeypot stellt und welche Risiken der Betrieb eines Honeypot-Systems verursacht. Am Ende des ersten Kapitels werden einige Beispiele eines Honeypot-Systems beschrieben. Im zweiten Teil wird konkret auf die Implementierung eines High Interaction Honeypots eingegangen, dessen Überwachungszentrale die Honeywall bildet. Dieser praktische Teil erklärt, wie ein komplettes Honeypot-System auf Basis der 'Honeywall CDROM Roo' eingerichtet wird, welche Möglichkeiten und Werkzeuge das Überwachungssystem besitzt und welche Einstellungen und Besonderheiten beim Einrichten beachtet werden müssen. Im darauffolgenden dritten Teil werden die gesammelten Daten ausgewertet. Dazu wird zuerst ein Überblick über mögliche Angreifer und deren Angriffswege gegeben. Mit diesem Hintergrundwissen werden die Daten im weiteren Verlauf konkret analysiert und zum Teil visualisiert. Nach dem praktischen Teil wird ein Ausblick gegeben, welche Ausbaumöglichkeiten die Versuchsanordnung bietet, welchen Schwerpunkt die Weiterentwickelung der Honeywall einnimmt und welche rechtlichen Fragen der Betrieb eines Honeypots aufwirft. Zu guter Letzt wird die Arbeit durch ein Fazit abgeschlossen.
Ziel dieser Masterthesis ist die Konzeption und die Implementierung einer fortschrittlichen Social Business Plattform in einem IT-Dienstleistungsunternehmen unter Verwendung von MS SharePoint Server 2010. Im Vordergrund stehen dabei die Analyse aktueller und zukünftiger Anwendungsszenarien und Lösungen von Enterprise 2.0 Systemen. Desweiteren sollen Methoden zur Adaption der spezifischen Anforderungen des Unternehmens mittels SharePoint entwickelt werden. Eventuell auftretende Probleme sollen frühzeitig ausgelotet und die vielfältigen technischen Fähigkeiten von MS Share Point Server 2010 aufgezeigt werden. Langfristig gesehen sollen die im Rahmen dieser Arbeit gesammelten Ergebnisse Awareness und Know-How für SharePoint und Enterprise 2.0 im Unternehmen schaffen. Gegebenenfalls könnten sie die Basis für eine Umstrukturierung der vorhandenen Systemlandschaft bilden.
Instant messaging systems allow users to interact in real time over the Internet. Hackers and criminals often use instant messenger programs for illicit purposes and consequently the logfiles and any possible digital evidence from such programs are of forensic interest. The current research project attempts to provide an accurate and reasonable description of some issues where to find evidence and presents possible solutions to those issues.
Webserver-Log-Forensik
(2011)
Im Zug der IT-forensischen Ermittlungen nach Einbrüchen in eines der größten deutschen Internetportale wurde im Labor für IT-Sicherheit und Computer Forensik der Hochschule Offenburg ein Forschungsprojekt gestartet, das sich mit der Analyse von Schadsoftwarespuren in Logfiles beschäftigt. Ein im Zug dieser Forschungsarbeit entstandenes Programm, der „Analyzer of Death“, analysiert und interpretiert Spuren, die PHPbasierte Backdoor-Programme in den Webserver-Logfiles hinterlassen.
Applied Information Technology opens Virtual Platform for the Legacy of Alexander von Humboldt
(2011)
The Humboldt Digital Library (HDL) is a project that aims to provide digital access to the legacy of Alexander von Humboldt. The HDL runs on an open source library developed in the Hochschule Offenburg and provides a virtual research environment in which researchers can work more effectively. This article presents the development made in the HDL to provide alternative ways of content dissemination through the OAI protocol.Through the implemtantion of the OAI-PMH data provider in the HDL, the library is accessibly in many universities and research centers everywhere around the globe.
Diese Arbeit beschäftigt sich mit dem Thema NoSQL-Datenbanken in Webanwendungen. Dabei solle die verschiedenen Konzepte aktueller NoSQL-Datenbanken erläutert und exemplarische Implementierungen der einzelnen Konzepte vorgestellt werden. Anschließend wird der Einsatz in modernen Webanwendungen gezeigt. Hierzu soll eine einfache Social-Community-Plattform erstellt werden, welche zuerst auf Basis eines relationalen Datenbank Management System erstellt wird. Um die Einsatzmöglichkeiten der NoSQL-Vertreter zu zeigen werden anschließend einzelne Funktionen mit NoSQL-Datenbank implementiert und die Vor- und Nachteile erörtert.
Einleitung: Kaum eine andere Branche entwickelt sich so rasant wie die IT-Industrie. Die kontinuierlich steigende Rechnerkapazität hat zur Folge, dass man heute bei Anwendungssoftware allgemein von einer Halbwertzeit von fünf Jahren ausgeht. Die immer leistungsfähiger werdende Hardware bedingt die ständige Entwicklung neuer Software. Anwender, die die damit verbundenen Möglichkeiten für sich nutzen wollen, sind somit gezwungen, sich diesem Prozess anzupassen. Ausgangspunkt dieser Bachelorarbeit war die Herausforderung, eine Musikdatenbank, die Mitte der neunziger Jahre mit dem veralteten Datenbankprogramm F&A erstellt und bis 2011 damit gepflegt wurde, in eine neue Umgebung zu übertragen. Die Hauptmotivation hinter diesem Projekt bestand darin, anschließend die Möglichkeit zu besitzen, die in dieser Musikdatenbank abgelegten Informationen, welche bisher ausschließlich dem Anwender (der Autor) persönlich zugängig waren, zukünftig auf einer Webseite bereitzustellen. Das bisherige System konnte diese Anforderung nicht erfüllen, weshalb der Anwender gezwungen war, sein altes Anwendungssystem in eine neue technologische Umgebung zu übertragen. Einen solchen Prozess bezeichnet man als Migration. Im Fokus dieser Arbeit steht die Migration von Informationssystemen. Ein solches System, bestehend aus Hardware, Datenbank, Software und Anwendungen, dient der Bereitstellung von Informationen für eine bestimmte Zielgruppe. Während sich im Falle der Musikdatenbank das Angebot an interessierte Musikliebhaber richtet und somit einem ausschließlich informativen Zweck dient, hat die Erfassung, Verarbeitung, Übertragung, Analyse und Bereitstellung von Informationen für Unternehmen eine weitaus existentiellere Bedeutung, da sämtliche Geschäftsprozesse davon abhängen. Aus diesem Grunde sind Migrationsprojekte für Unternehmen besonders kritisch. Entsprechend beschäftigt sich der Großteil der Fachliteratur vorrangig mit der Migration von betrieblichen Informationssystemen. Die Musikdatenbank, die im Rahmen dieser Arbeit migriert wurde, ist verglichen mit solchen Informationssystemen weitaus weniger komplex und kann somit auch nicht als Fallstudie für betriebliche Migrationen großem Umfangs dienen, die mitunter eine Dauer von mehreren Jahren aufweisen. Dennoch lassen sich auch an diesem relativ kleinen Projekt typische Problemstellungen eines Migrationsprozesses exemplarisch darstellen. Zunächst wird im Kapitel 1 ein Überblick über das Thema Migration gegeben. Im Kapitel 2 werden anschließend zwei Vorgehensmodelle vorgestellt, die in der Praxis bei der Migration komplexer Informationssysteme angewandt werden. Das Fallbeispiel, die Migration der Musikdatenbank, wird in den Kapiteln 3 und 4 betrachtet. Diese Arbeit hat nicht den Anspruch, neue Strategien in diesem Feld zu entwickeln. Sie gibt vielmehr einen Überblick über den aktuellen Stand der Wissenschaft, verdeutlicht anhand des Fallbeispiels konkrete Problemstellungen und zeigt Lösungswege auf. Im Fokus steht hier insbesondere die Migration der Daten, welche aufgrund der unkonventionellen Ablage im Ausgangssystem eine besondere Herausforderung darstellte.
Diese Bachelor Thesis analysiert bisherige Mensch-Computer-Interaktion und nennt wichtige Grundlagen des Interaction Design. Im Rahmen der Arbeit wird prototypisch eine NUI-Anwendung (NUI: Natural User Interface) konzipiert und umgesetzt. Um eine erfolgreiche Neukonzeption von natürlichen Interaktionsmöglichkeiten zu ermöglichen, wird die Mensch-Objekt-Interaktion analysiert. Wichtige Eckpunkte im visuellen Interface-Design wie auch in der Umsetzung einer NUI-Anwendung werden deutlich gemacht. Das Fazit macht klar: eine erfolgreiche Umsetzung des Konzepts ist gelungen, Verbesserungsansätze werden genannt. Im letzten Kapitel werden Anwendungsfälle und Ausblicke aufgeführt. Ergebnis: bei geschickter, massentauglicher Implementierung ist natürliche Interaktion zwischen Mensch und Computer schon in naher Zukunft sehr gut möglich und keine Vision aus dem Bereich der Science-Fiction.
3D Produktpräsentationen im Internet sind komplexe Rich Media Anwendungen, bei deren Erstellung es viel zu beachten gilt. Diese Arbeit beleuchtet verschiedene Aspekte zur Erstellung von 3D Produktpräsentationen. Das Zielmedium Internet, die Gestaltung von 3D Produkten und Layouts, die Interaktivität von 3D Produktseiten, Technologien zu Erstellung, technische Hürden des Mediums, Visionen und ein Projektablauf sowie eine Perspektive zur Entwicklung von 3D Produktpräsentationen sind die inhaltlichen Schwerpunkte der Arbeit.
Informatik-Veranstaltungen in der Fakultät Medien und Informationswesen (abgekürzt MI) vermitteln meist komplexe Inhalte, die anschließend in begleitenden Laborveranstaltungen praktisch und an konkreten Beispielen vertieft werden. Allerdings benötigen die Studierenden für ein lehrreiches Labor und die selbstständige Erarbeitung korrekter Lösungen einige Grundkenntnisse, die aus der jeweiligen Theorieveranstaltung mitgebracht werden müssen. Um den Studierenden weiterhin die Möglichkeit zu geben, den Stoff der Lehrveranstaltungen raum- und zeitunabhängig nachzuarbeiten und auch didaktisch aufbereitete Übungen virtuelldurchzuführen, haben wir zu den Veranstaltungen Software Engineering, Computernetze und Datenbanken webbasierte E-Learning-Materialien konzipiert und erstellt (http://mi-learning.mi.fh-offenburg. de). Diese Materialien erlauben den Lernenden, selbstbestimmt, im eigenen Lernrhythmus und über unterschiedliche Medien einen Zugang zu der Thematik zu finden. Derartige hybride Lernarrangements (Blended Learning) kombinieren die Vorteile unterschiedlicher didaktischer Methoden und der Medien.