004 Informatik
Refine
Year of publication
Document Type
- Bachelor Thesis (21)
- Master's Thesis (19)
- Conference Proceeding (5)
- Book (1)
- Doctoral Thesis (1)
Conference Type
- Konferenzartikel (5)
Keywords
- IT-Sicherheit (6)
- JavaScript (6)
- Deep learning (3)
- HTML 5.0 (3)
- App <Programm> (2)
- Internet der Dinge (2)
- Internet of Things (2)
- Mensch-Maschine-Kommunikation (2)
- Netzwerk (2)
- Smartphone (2)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (22)
- Fakultät Medien (M) (ab 22.04.2021) (16)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (6)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (2)
- Fakultät Wirtschaft (W) (1)
- IMLA - Institute for Machine Learning and Analytics (1)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (1)
Open Access
- Closed Access (47) (remove)
This thesis focuses on the development and implementation of a Datagram Transport Layer Security (DTLS) communication framework within the ns-3 network simulator, specifically targeting the LoRaWAN model network. The primary aim is to analyse the behaviour and performance of DTLS protocols across different network conditions within a LoRaWAN context. The key aspects of this work include the following.
Utilization of ns-3: This thesis leverages ns-3’s capabilities as a powerful discrete event network simulator. This platform enables the emulation of diverse network environments, characterized by varying levels of latency, packet loss, and bandwidth constraints.
Emulation of Network Challenges: The framework specifically addresses unique challenges posed by certain network configurations, such as duty cycle limitations. These constraints, which limit the time allocated for data transmission by each device, are crucial in understanding the real-world performance of DTLS protocols.
Testing in Multi-client-server Scenarios: A significant feature of this framework is its ability to test DTLS performance in complex scenarios involving multiple clients and servers. This is vital for assessing the behaviour of a protocol under realistic network conditions.
Realistic Environment Simulation: By simulating challenging network conditions, such as congestion, limited bandwidth, and resource constraints, the framework provides a realistic environment for thorough evaluation. This allows for a comprehensive analysis of DTLS in terms of security, performance, and scalability.
Overall, this thesis contributes to a deeper understanding of DTLS protocols by providing a robust tool for their evaluation under various and challenging network conditions.
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
As cyber threats continue to evolve, it is becoming increasingly important for organizations to have a Security Operations Center (SOC) in place to effectively defend against them. However, building and maintaining a SOC can be a daunting task without clear guidelines, policies, and procedures in place. Additionally, most current SOC solutions used by organizations are outdated, lack key features and integrations, and are expensive to maintain and upgrade. Moreover, proprietary solutions can lead to vendor lock-in, making it difficult to switch to a different solution in the future.
To address these challenges, this thesis proposes a comprehensive SOC framework and an open-source SOC solution that provides organizations with a flexible and cost-effective way to defend against modern cyber threats. The research methodology involved conducting a thorough literature review of existing literature and research on building and maintaining a SOC, including using SOC as a service. The data collected from the literature review was analyzed to identify common themes, challenges, and best practices for building and maintaining a SOC.
Based on the data collected, a comprehensive framework for building and maintaining a SOC was developed. The framework addresses essential areas such as the scope and purpose of the SOC, governance and leadership, staffing and skills, technologies and tools, processes and procedures, service level agreements (SLAs), and evaluation and measurement. This framework provides organizations with the necessary guidance and resources to establish and effectively operate a SOC, as well as a reference for evaluating the service provided by SOC service providers.
In addition to the SOC framework, a modern open-source SOC solution was developed, which emphasizes several key measures to help organizations defend against modern cyber threats. These measures include real-time, actionable threat intelligence, rapid and effective incident response, continuous security monitoring and alerting, automation, integration, and customization. The use of open-source technologies and a modular architecture makes the solution cost-effective, allowing organizations to scale it up or down as needed.
Overall, the proposed SOC framework and open-source SOC solution provide organizations with a comprehensive and systematic approach for building and maintaining a SOC that is aligned with the needs and objectives of the organization. The open-source SOC solution provides a flexible and cost-effective way to defend against modern cyber threats, helping organizations to effectively operate their SOC and reduce their risk of security incidents and breaches.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Due to the increasing aging of the population, the number of elderly people requiring care is growing in most European countries. However, the number of caregivers working in nursing homes and on daily care services is declining in countries like Germany or Italy. This limits the time for interpersonal communication. Furthermore, as a result of the Covid-19 pandemic, social distancing during contact restrictions became more important, causing an additional reduction of personal interaction. This social isolation can strongly increase emotional stress. Robotic assistance could contribute to addressing this challenge on three levels: (1) supporting caregivers to respond individually to the needs of patients and residents in nursing homes; (2) observing patients’ health and emotional state; (3) complying with high hygiene standards and minimizing human contact if required. To further the research on emotional aspects and the acceptance of robotic assistance in care, we conducted two studies where elderly participants interacted with the social robot Misa. Facial expression and voice analysis were used to identify and measure the emotional state of the participants during the interaction. While interpersonal contact plays a major role in elderly care, the findings reveal that robotic assistance generates added value for both caregivers and patients and that they show emotions while interacting with them.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
In this work, an implementation of the somewhat homomorphic BV encryption scheme is presented. During the implementation, care was taken to ensure that the resulting program will be as efficient as possible i.e. fast and resource-saving. The basis for this is the work of Arndt Bieberstein, who implemented the BV scheme with respect to functionality. The presented implementation supports the basics of the BV scheme, namely (symmetric and asymmetric) encryption, decryption and evaluation of addition as well as multiplication. Additionally, it supports the encoding of positive and negative numbers, various gaussian sampling methods, basically infinitely large polynomial coefficients, the generation of suitable parameters for a use case, threading and relinearization to reduce the size of a ciphertext after multiplications. After presenting the techniques used in the implementation, it’s actual efficiency is determined by measuring the timings of the operations for various parameters.
In the field of network security, the detection of possible intrusions is an important task to prevent and analyse attacks. Machine learning has been adopted as a particular supporting technique over the last years. However, the majority of related published work uses post mortem log files and fails to address the required real-time capabilities of network data feature extraction and machine learning based analysis [1-5]. We introduce the network feature extractor library FEX, which is designed to allow real-time feature extraction of network data. This library incorporates 83 statistical features based on reassembled data flows. The introduced Cython implementation allows processing individual packets within 4.58 microseconds. Based on the features extracted by FEX, existing intrusion detection machine learning models were examined with respect to their real-time capabilities. An identified Decision-Tree Classifier model was thus further optimised by transpiling it into C Code. This reduced the prediction time of a single sample to 3.96 microseconds on average. Based on the feature extractor and the improved machine learning model an IDS system was implemented which supports a data throughput between 63.7 Mbit/s and 2.5 Gbit/s making it a suitable candidate for a real-time, machine-learning based IDS.
Die Nutzung Mobiler Endgeräte nimmt zu, Ortsgebundenheit immer mehr ab. Dieser Wandel bringt Veränderungen mit sich, so auch im Bereich Softwareinstallation. Das Installieren von Software über die Cloud ist im Konsumerbereich bereits stark vertreten. Nicht nur am Desktop, sondern insbesondere bei mobilen Endgeräte, wie Smartphones und Tablets wird Software, bzw. werden Apps fast ausschließlich nur noch über das Internet installiert.
Das ist ein aktuelles Thema für den Sensorhersteller SICK.
SICK entwickelt Sensoren, die programmierbar sind, sogenannte AppSpace-Sensoren, was über das Aufspielen von sogenannten SensorApps bereitgestellt wird.
Aufgrund dieser Entwicklung, dem Trend hin zu Cloudlösungen und Ortsungebundenheit, sieht das Unternehmen SICK die Notwendigkeit den Installationsprozess mithilfe einer mobilen App über das Internet anbieten zu können. Deshalb wurde im Rahmen der Arbeit eine hybride mobile App entwickelt, mit der es möglich ist, SensorApps über die Cloud auf ein SICK AppSpace-Gerät aufzuspielen. Dafür wurde auf Basis einer Nutzerrecherche ein Konzept entwickelt, welches im Anschluss mithilfe von gängigen Webtechnologien als hybride App umgesetzt wurde.
Möglichkeiten für die Verbesserung der Sicherheit von Endgeräten und Netzwerkstrukturen in der Cloud
(2021)
Meine Thesis soll sich mit dem Betrieb eines Unternehmens-Netzes mit Microsoft Tools mit und ohne Cloud beschäftigen. Dabei soll herausgearbeitet werden, in welchen Bereichen es Sinn ergibt, eine Cloudstrategie anzustreben und wo Unternehmen vielleicht empfohlen werden sollte, vorerst oder vielleicht auch langfristig bei der on-premise Variante zu bleiben.
Dafür werden Dinge wie rechtliche Aspekte, Datenschutz oder Kostenpunkte eher sekundär behandelt, da das Hauptaugenmerk auf der Sicherheit der Unternehmensdaten, Endgeräte und Server liegen soll.
Tatsächlich verfolgen bereits einige große Namen in Deutschland eine sogenannte "Cloud-first" Strategie, bei welcher versucht wird, alle möglichen Anwendungen in der Cloud unterzubringen. Auf Beweggründe und Motivation dieser Unternehmen wird kurz eingegangen.
Dann werden verschiedenste Bereiche behandelt, die im täglichen Unternehmensumfeld eine Rolle spielen, darunter fallen beispielsweise die Nutzung von Fileservern im Vergleich mit dem Cloud Ansatz OneDrive. Es soll die Frage beantwortet werden, ob eine vollständige Migration in die Cloud für verschiedene Bereiche Sinn ergibt, wie eben zum Beispiel den kompletten FileServer in die Cloud (im speziellen Fall OneDrive) umzuziehen.
Ein weiterer Unterpunkt ist die Nutzung eines Active Directorys bzw. von Domain Controllern in der Cloud über Azure AD. Hier wird insbesondere auch auf die Frage eingegangen, welche Unternehmen immer wieder beschäftigt, ob die, für die Konfiguration von Endgeräten sehr wichtigen, Group Policies in der Cloud erhalten bleiben bzw. ob und durch was sie ersetzt werden, oder ob und wie man sie migrieren kann.
Migration ist an dieser Stelle ein gutes Stichwort, denn ebenfalls soll aufgezeigt werden, wie herausfordernd die Migration verschiedenster on-premise Strukturen in die Cloud ist, und ob überhaupt bei allen Dingen eine Migration möglich ist. Interessant wird es hier möglicherweise bei legacy-Anwendungen.
Neben weiteren Themen wie dem sicherheitskritischen Allow-listing und verschiedenen Security-Ansätzen, denen mit einer Cloud-Strategie bessere Möglichkeiten gegeben werden kann, soll geklärt werden, welche Zusatzherausforderungen, aber auch Chancen die Cloud bieten kann und wird.
17
Zusammengefasst soll am Ende klarer sein, für was sich die Microsoft Cloud Anwendungen momentan schon gut eignen, wo man abwägen muss, und in welchen Aspekten die Cloud sich zunächst noch weiterentwickeln muss, bevor sie sinnvoll und verlässlich nutzbar ist. Außerdem soll aufgeführt werden, in welchen Bereichen man in den nächsten Jahren, und vielleicht auch schon jetzt, kaum noch an der Cloud vorbeikommt, wenn man eine bestimmte Funktionalität, sei es nun eine Anwendung, die die Sicherheit des Unternehmens erhöht, oder eine die die Produktivität steigern soll, nutzen möchte.
Die Thesis soll also eine Möglichkeit für Unternehmen bieten, sich unabhängig über Cloudangebote, hier meist am Beispiel der Microsoft Cloud Services, zu informierten. Und außerdem einzuschätzen, wie komplex und realisierbar verschiedene Dinge sind.
Die Fortschritte in der künstlichen Intelligenz ermöglichen es uns komplexe Aufgaben mit weniger Aufwand und in kürzerer Zeit zu lösen. Daraus ergibt sich auch die Möglichkeit komplexe Daten effizienter zu verarbeiten.
Smarte Technologien, insbesondere Smartphones und Wearables, sind in den letzten Jahren immer mehr zu alltäglichen Massenmedien geworden und sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Dadurch ergeben sich für Angreifer neue Angriffsvektoren, die die Privatsphäre und Sicherheit der Daten der Nutzer gefährden.
Zielaspekt dieser Arbeit ist es zu zeigen, dass eingebaute Sensoren in smarten Technologien ein Sicherheitsrisiko mit sich bringen, welches mithilfe von Deep-Learning ausgenutzt werden kann.
Hierfür wurden zwei LSTM-Netze implementiert, welche in der Lage sind Rückschlüsse auf eingetippte Ziffern und Buchstaben zu ziehen. Damit wird demonstriert, dass Machine-learning-basiertes Keylogging mittels externen Sensordaten möglich ist und der Angriff durch das Machine-learning vereinfacht wird.
Diese Arbeit beschäftigt sich mit der Entwicklung einer E-Learning Anwendung zum Peer-to-Peer Algorithmus Content Addressable Network (CAN). Ein CAN ist eine verteilte Hashtabelle zur dezentralen Verwaltung von Daten in Form von Schlüssel-Wert Paaren. Zweck der Anwendung ist eine didaktisch sinnvolle Aufbereitung und Darstellung der grundlegenden Abläufe im CAN. Die Anwendung simuliert ein CAN und bietet ein grafisches Interface zur Interaktion. Die Anwendung soll unterstützend im Rahmen des Moduls Advanced Networking im Informatik Master an der Hochschule Offenburg eingesetzt werden.
In dem letzten Jahr, welches von der Corona Pandemie geprägt war, wurde das Arbeiten von zu Hause aus durch die Unternehmen stark vorangetrieben. Auch wenn dies zuerst nur als Übergangslösung gesehen wurde, scheint dieser Trend sich auch nach der Pandemie fortzusetzen. In den meisten Heimnetzwerken ist die IT-Sicherheit allerdings deutlich schwächer ausgebaut, als dies in Unternehmen ist.
Da die Umstellung in das Home-Office sehr schnell durchgeführt wurde, sehen sich viele Arbeitnehmer und Arbeitgeber mit dieser Situation überfordert, auch im Heimnetzwerk des Anwenders für eine geeignete Sicherheit zu sorgen. In dieser Ausarbeitung werden daher einzelne Angriffe auf IT-Systeme im Heimnetzwerk aufgegriffen sowie Lösungsansätze, um eine sichere Heimnetzwerkumgebung zu schaffen.
Bereichsübergreifender Einsatz von JavaScript – Aktueller Stand und exemplarische Implementierung
(2021)
Nahezu alle Websites nutzen die Programmiersprache JavaScript zur Darstellung von interaktiven Inhalten und zur Bereitstellung von komplexen Funktionalitäten. Seit ihren Anfängen im Jahr 1995 hat sich die Sprache nicht nur zum Standard in der Webentwicklung etabliert, sondern auch zu einer leistungsfähigen Mehrzweckprogrammiersprache weiterentwickelt.
Diese Arbeit befasst sich mit einer ausführlichen Darstellung der aktuellen Möglichkeiten, welche Ansätze sich durch die Weiterentwicklung JavaScripts zu einer Mehrzweckprogrammiersprache ergeben und wie sich diese heute umsetzen lassen. Anhand des intelligenten Schlüsselkastens „Smart Vault“ wird verdeutlicht, wie dieses Vorgehen praktisch realisiert und die Vorteile einer einzigen Programmiersprache angewendet werden können.
Es hat sich herausgestellt, dass sich JavaScript für Anwendungen unterschiedlicher Bereiche einsetzen lässt und darüber hinaus ein hohes Potenzial für weitere Entwicklungen, Verbesserungen und zusätzliche Einsatzgebiete besitzt. Es lassen sich nicht nur Websites, Web Server und Desktop Apps, sondern auch Mikrocontroller im Internet of Things konfigurieren und miteinander nutzen, ohne eine weitere Programmiersprache zu benötigen. Zahlreiche Bibliotheken und Frameworks machen es möglich, dass die Sprache verschiedene Anwendungen über ihre Einsatzgebiete hinweg miteinander verbindet.
Due to the rapidly increasing storage consumption worldwide, as well as the expectation of continuous availability of information, the complexity of administration in today’s data centers is growing permanently. Integrated techniques for monitoring hard disks can increase the reliability of storage systems. However, these techniques often lack intelligent data analysis to perform predictive maintenance. To solve this problem, machine learning algorithms can be used to detect potential failures in advance and prevent them. In this paper, an unsupervised model for predicting hard disk failures based on Isolation Forest is proposed. Consequently, a method is presented that can deal with the highly imbalanced datasets, as the experiment on the Backblaze benchmark dataset demonstrates.
The recent successes and wide spread application of compute intensive machine learning and data analytics methods have been boosting the usage of the Python programming language on HPC systems. While Python provides many advantages for the users, it has not been designed with a focus on multiuser environments or parallel programming - making it quite challenging to maintain stable and secure Python workflows on a HPC system. In this paper, we analyze the key problems induced by the usage of Python on HPC clusters and sketch appropriate workarounds for efficiently maintaining multi-user Python software environments, securing and restricting resources of Python jobs and containing Python processes, while focusing on Deep Learning applications running on GPU clusters.
The interaction between agents in multiagent-based control systems requires peer to peer communication between agents avoiding central control. The sensor nodes represent agents and produce measurement data every time step. The nodes exchange time series data by using the peer to peer network in order to calculate an aggregation function for solving a problem cooperatively. We investigate the aggregation process of averaging data for time series data of nodes in a peer to peer network by using the grouping algorithm of Cichon et al. 2018. Nodes communicate whether data is new and map data values according to their sizes into a histogram. This map message consists of the subintervals and vectors for estimating the node joining and leaving the subinterval. At each time step, the nodes communicate with each other in synchronous rounds to exchange map messages until the network converges to a common map message. The node calculates the average value of time series data produced by all nodes in the network by using the histogram algorithm. The relative error for comparing the output of averaging time series data, and the ground truth of the average value in the network will decrease as the size of the network increases. We perform simulations which show that the approximate histograms method provides a reasonable approximation of time series data.
The evolution of cellular networks from its first generation (1G) to its fourth generation (4G) was driven by the demand of user-centric downlink capacity also technically called Mobile Broad-Band (MBB). With its fifth generation (5G), Machine Type Communication (MTC) has been added into the target use cases and the upcoming generation of cellular networks is expected to support them. However, such support requires improvements in the existing technologies in terms of latency, reliability, energy efficiency, data rate, scalability, and capacity.
Originally, MTC was designed for low-bandwidth high-latency applications such as, environmental sensing, smart dustbin, etc. Nowadays there is an additional demand around applications with low-latency requirements. Among other well-known challenges for recent cellular networks such as data rate energy efficiency, reliability etc., latency is also not suitable for mission-critical applications such as real-time control of machines, autonomous driving, tactile Internet etc. Therefore, in the currently deployed cellular networks, there is a necessity to reduce the latency and increase the reliability offered by the networks to support use cases such as, cooperative autonomous driving or factory automation, that are grouped under the denomination Ultra-Reliable Low-Latency Communication (URLLC).
This thesis is primarily concerned with the latency into the Universal Terrestrial Radio Access Network (UTRAN) of cellular networks. The overall work is divided into five parts. The first part presents the state of the art for cellular networks. The second part contains a detailed overview of URLLC use cases and the requirements that must be fulfilled by the cellular networks to support them. The work in this thesis is done as part of a collaboration project between IRIMAS lab in Université de Haute-Alsace, France and Institute for Reliable Embedded Systems and Communication Electronics (ivESK) in Offenburg University of Applied Sciences, Germany. The selected use cases of URLLC are part of the research interests of both partner institutes. The third part presents a detailed study and evaluation of user- and control-plane latency mechanisms in current generation of cellular networks. The evaluation and analysis of these latencies, performed with the open-source ns-3 simulator, were conducted by exploring a broad range of parameters that include among others, traffic models, channel access parameters, realistic propagation models, and a broad set of cellular network protocol stack parameters. These simulations were performed with low-power, low-cost, and wide-range devices, commonly called IoT devices, and standardized for cellular networks. These devices use either LTE-M or Narrowband-IoT (NB-IoT) technologies that are designed for connected things. They differ mainly by the provided bandwidth and other additional characteristics such as coding scheme, device complexity, and so on.
The fourth part of this thesis shows a study, an implementation, and an evaluation of latency reduction techniques that target the different layers of the currently used Long Term Evolution (LTE) network protocol stack. These techniques based on Transmission Time Interval (TTI) reduction and Semi-Persistent Scheduling (SPS) methods are implemented into the ns-3 simulator and are evaluated through realistic simulations performed for a variety of low-latency use cases focused on industry automation and vehicular networking. For testing the proposed latency reduction techniques in cellular networks, since ns-3 does not support NB-IoT in its current release, an NB-IoT extension for LTE module was developed. This makes it possible to explore deployment limitations and issues.
In the last part of this thesis, a flexible deployment framework called Hybrid Scheduling and Flexible TTI for the proposed latency reduction techniques is presented, implemented and evaluated through realistic simulations. With help of the simulation evaluation, it is shown that the improved LTE network proposed and implemented in the simulator can support low-latency applications with low cost, higher range, and narrow bandwidth devices. The work in this thesis points out the potential improvement techniques, their deployment issues and paves the way towards the support for URLLC applications with upcoming cellular networks.
Bei der Produktion von Solarzellen aus multikristallinem Silizium haben Defekte aus der Kristallisationsphase starken Einfluss auf die Materialqualität der Wafer und damit auf den Wirkungsgrad der späteren Solarzelle. Ein Verständnis des Kornwachstums in multikristallinem Silizium während des Kristallisationsprozesses kann zur Optimierung desselben beitragen. In dieser Arbeit werden Methoden untersucht, optische Flüsse zwischen Korngrenzenbildern multikristalliner Si-Wafer mittels neuronaler Netze zu berechnen. Hierfür wird die Architektur eines ausgereiften faltungsbasierten neuronalen Netzes zur optischen Fluss-Berechnung genutzt und durch angepasstes Training auf Waferstrukturen zugeschnitten. Dies umfasst die Synthese eigener, auf Waferbilder basierender Trainingsdaten und das Training mit einer angepassten Fehlerfunktion zur Bewertung der Zuordnungsgenauigkeit von Körnern zwischen Wafern durch den optischen Fluss. Beide Maßnahmen zusammen führen zu einer Reduktion des Zuordnungsfehlers von Körnern zwischen Waferbildern um 45 % gegenüber einem hochoptimierten, auf allgemeine optische Flüsse trainierten Modell basierend auf demselben Netzwerk. Die geschätzte Zuordnungsgenauigkeit des besten Modells beträgt 92,4 % der Pixel der Korngrenzenbilder eines Wafers. Weiteres Verbesserungspotenzial ist vorhanden.
Annotated training data is essential for supervised learning methods. Human annotation is costly and laborsome especially if a dataset consists of hundreds of thousands of samples and annotators need to be hired. Crowdsourcing emerged as a solution that makes it easier to get access to large amounts of human annotators. Introducing paid external annotators however introduces malevolent annotations, both intentional and unintentional. Both forms of malevolent annotations have negative effects on further usage of the data and can be summarized as spam. This work explores different approaches to post-hoc detection of spamming users and which kinds of spam can be detected by them. A manual annotation checking process resulted in the creation of a small user spam dataset which is used in this thesis. Finally an outlook for future improvements of these approaches will be made.
Das Ziel dieser Thesis ist es, die Gefahren die von Makros in Microsoft Office Dokumenten ausgehen, zu beschreiben und geeignete Sicherheitsmaßnahmen zu finden. Dazu ist eine Literaturrecherche, sowie eine eigenständige Malware-Analyse durchgeführt worden. Das Ergebnis dieser Arbeit ist, dass von Makros eine große Sicherheitsgefahr ausgeht und, dass geeignete Sicherheitsmaßnahmen existieren, um die Gefahren von Makros deutlich einzuschränken. Jedoch werden diese Sicherheitsmaßnahmen oft nicht umgesetzt, da entweder kein Bewusstsein für diese Art von Gefahr herrscht oder die Implementierung zu teuer beziehungsweise zu aufwändig ist.
Drohnensteuerungen sind häufig sehr komplex und verbunden mit Hardwarekontrollern. Mittels heutiger Technologien, wie zum Beispiel der künstlichen Intelligenz oder der Sensoren Technologie, können diese jedoch vermehrt modifiziert und an die Bedürfnisse der Nutzer angepasst werden. Eine der kommenden Technologien hierfür ist das Hand Capture. Das Ziel dieser Bachelorarbeit ist es, die Technologie des Hand Capture mit einfachen Mitteln zu rekonstruieren und mittels dieser eine virtuelle Drohne in einem Simulationsspiel durch drei unterschiedliche Level steuern zu können. Außerdem sollen die aktuellen Hand Capture sowie Drohnensteuerungsmöglichkeiten aufgezeigt werden. Zur Realisierung des Hand Capture werden zwei Handkontroller angefertigt, die über jeweils einen Beschleunigungssensor an jeder Hand verfügen. Diese sind verbunden mit einem Arduino Mikrocontroller, der die Beschleunigungssensoren über das I²C-Protokoll ausliest. Um die virtuelle Drohnensteuerung und deren Simulation umzusetzen, wird die Echtzeit-3D-Entwicklungsplattform Unity verwendet. Zwischen Unity und dem Arduino wird über den seriellen Port durch eine USB-Schnittstelle eine bidirektionale Kommunikation aufgebaut, über welche die ausgemessenen Werte übertragen werden können. Zuvor werden diese Werte aber noch im Arduino in Roll- und Pitchneigungen umgewandelt, sodass Unity diese einfacher als Steuerbefehle für die Drohne interpretieren kann. Das Ergebnis ist eine funktionsfähige Drohnensteuerung, welche die Grundbewegungen der Drohne abdeckt. Zusätzlich zu der Drohnensteuerung werden in Unity drei Level erstellt, die es dem Nutzer ermöglichen, die Steuerung zu erlernen und die Drohne mit hoher Geschwindigkeit zu fliegen sowie in einem großen, offenen Level zu manövrieren. Einzelne Playtests der Simulation in denen die Level problemlos bewältigt werden konnten, bestätigen, dass die Drohnensteuerung die Aspekte: Übertragungsgeschwindigkeit, Präzision, Benutzerfreundlichkeit und Anzahl der Steuer- und Eingabemöglichkeiten erfüllt und somit als eine alternative Steuerungsmöglichkeit funktioniert.
Informationsvisualisierung im Kundenbeziehungsmanagement am Beispiel eines interaktiven Streamgraphs
(2014)
In dieser Arbeit wird der Streamgraph als Methode der Informationsvisualisierung im Kontext des Kundenbeziehungsmanagements vorgestellt. Neben der Auseinandersetzung mit den theoretischen Grundlagen dieser Themenbereiche wird die Eignung des Streamgraphs als Form der Visualisierung überprüft. Hierfür wird ein CRM-spezifischer Anwendungsfall erarbeitet und in einer webbasierten Applikation prototypisch realisiert. In diesem Zusammenhang werden Anforderungen in Bezug zu Interaktivität und Funktionalität aufgestellt und im Prototypen implementiert. Die Anforderungen an die Interaktivität orientieren sich hierbei an dem von Ben Shneiderman aufgestellten Mantra der visuellen Datenexploration.
In der abschließenden Auswertung wird eine bedingte Eignung für den Einsatz des Streamgraphs als effiziente Visualisierungsform im unternehmerischen Kontext festgestellt. Im Hinblick auf den Anwendungsfall erfüllt dieser zwar alle an ihn gestellten Anforderungen, die korrekte Lesbarkeit der Daten ist aufgrund seiner Form jedoch nicht gewährleistet.
Konzept und Realisierung einer Smartphone-App, für die 3D-Visualisierung von Jogging-Aktivitäten
(2014)
Im Rahmen dieser Arbeit wird eine App konzipiert und entwickelt, welche die Häufigkeit und Art der Fortbewegung eines Nutzers visuell erfassbar aufbereitet. Eine dreidimensionale Darstellungsart zielt dabei besonders auf eine bessere Übersicht und Wertschätzung der erbrachten Laufleistung ab. Dies soll durch personifizierte Visualisierungsmöglichkeiten, in Verbindung mit dem 3D-Druck, gefördert werden. Der entwicklete Prototyp bildet die Grundlage für die Bereitstellung eines solchen leistungsorientierten 3D-Druckprodukts.
TecChannel XXL eBook
(2013)
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
In dieser Arbeit werden zunächst die technischen Grundlagen, die zur Erstellung der Applikation notwendig sind, näher betrachtet. Hierbei wird der Unterschied zwischen Nativen Apps und WebApps beleuchtet und verschiedene Techniken für die mobile Webentwicklung vorgestellt. Anschließend werden die didaktischen und sprachlichen Grundlagen, die eine optimale Aufbereitung des Lernstoffes gewährleisten sollen, näher betrachtet. Dabei werden neben der Sprachdidaktik und Methodik auch der Lernprozess sowie die japanische Sprache beleuchtet. Abgerundet wird dies mit einem Blick auf andere Sprachlernsoftware für die japanische Sprache. Danach wird auf die Konzeption der Applikation, welche den Aufbau und die Lerninhalte umfasst, eingegangen, bevor dann schließlich die Umsetzung der Applikation beschrieben wird. Hierbei werden einzelne Aspekte und Probleme der Realisierung näher beleuchtet.
Diese Bachelorarbeit befasst sich in Theorie und Praxis mit der Erstellung von mobilen Applikationen mit dem Ziel, einen reifen Prototypen einer App für das Schwarzwälder Freilichtmuseum Vogtsbauernhof in Gutach zu entwickeln. Smartphones sind heute ein wichtiger Bestandteil im Alltag vieler Menschen. Der Mobilfunkmarkt hat sich in den letzten Jahren dank zahlreicher Innovationen stark weiterentwickelt. Hierdurch ergeben sich neue Möglichkeiten des Einsatzes von digitalen Medien. Durch den Einsatz von Apps müssen Museen keine eigenen Geräte anschaffen, sondern können Applikationen für Smartphones anbieten. Die Erstellung der App wurde in zwei Bereiche aufgeteilt: 1. Redaktion, Design und Kommunikation 2. Technische Konzeption und Umsetzung Der Schwerpunkt dieser Bachelorarbeit liegt auf der technischen Konzeption und Umsetzung einer App für das Schwarzwälder Freilichtmuseum Vogtsbauernhof.
Seit 2011 beschäftigt sich die visionsbox GmbH mit der Erstellung von AR-Anwendungen. Momentan werden diese Apps auf Basis von Unity 3D und dem AR SDK Vuforia von Qualcomm erstellt. Der plattformunabhängige Ansatz von Unity 3D erlaubt es, sehr schnell Anwendungen für iOS als auch für Android zu kompilieren. Ein großer Nachteil des bestehenden Entwicklungskonzepts ist das Fehlen der Möglichkeit Inhalte zur Laufzeit aus dem Internet herunterzuladen. Eine Änderung oder Erweiterung der Anwendung ist nur über ein erneutes Kompilieren und erneutes Installieren der Applikation möglich. Dieser Updateprozess ist langwierig und wenig flexibel. Das Vorhandensein einer Anbindung ans Internet, ermöglicht jedoch prinzipiell das Herunterladen von neuen oder zusätzlichen Inhalten zur Laufzeit der Anwendung. Ziel dieser Master Thesis ist es, die Möglichkeiten des Nachladens von Anwendungsinhalten von einem eigenen Webserver zu evaluieren. Eine beispielhaft implementierte Anwendung soll die Machbarkeit für Android und iOS demonstrieren und gleichzeitig als Vorlage für bestehende und zukünftige AR-Anwendungen auf Basis von Unity3D und Vuforia dienen.
Spätestens mit der Markteinführung des iPhones im Jahr 2007 und mit der Einführung des Android Betriebssystems im Jahr darauf ist die Bedeutung der mobilen Endgeräte und deren Diversität auf dem Softwaremarkt nicht mehr zu leugnen. Bis heute ist das Marktwachstum bei den mobilen Endgeräten ungebrochen. Im Jahr 2012 wurden alleine in Deutschland 23 Millionen neue Smartphones verkauft. Somit nutzt inzwischen etwa jeder vierte Bundesbürger mobile Software. Dies ist ein hundertprozentiges Wachstum im Vergleich zum Jahr 2010. Mit der Einführung des ersten iPads (2010) und vieler ähnlicher Produkte, die meist mit dem Android Betriebssystem betrieben werden, haben sich die Möglichkeiten und Anforderungen für Softwareentwickler erneut erheblich verändert und erweitert. Aufgrund der größeren Displays und immer besserer Rechenleistungen können nun Programme mit komplexen Interfaces, wie sie zuvor nur von Desktoprechnern bekannt waren, auch auf dem mobilen Softwaremarkt Fuß fassen. Bei der Entwicklung einer neuen Anwendung stellt sich immer auch die Frage, auf welchen Endgeräten sie später ausgeführt werden soll. Grundsätzlich gibt es derzeit drei Möglichkeiten Anwendungen für die neuen und mobilen Endgeräte zu entwickeln: des entsprechenden Systems erstellt und verwendet dessen spezielle Schnittstellen. Eine solche App muss folglich für jedes Zielsystem separat entwickelt werden. Um eine plattformübergreifende Anwendung zu entwickeln bietet sich derzeit die Möglichkeit, sogenannte Web-Apps zu implementieren. Hier dient der gemeinsam genutzte WebKit-Webbrowser der verschiedenen Systeme als technische Grundlage. Hierbei können die Anwendungen mit Webtechnologien wie HTML5, CSS3 und JavaScript entwickelt werden. Mit JavaScript Frameworks wie jQuery mobile oder Sencha Touch ist es möglich,Webanwendungen zu erstellen, die vom Bedienkonzept und ihrer Anmutung kaum von nativen Apps zu unterscheiden sind. Die Entwicklung sogenannter hybrider Apps vereint die Möglichkeiten der nativen und der webbasierten Apps. Eine Web-App kann dann mit Hilfe eines Frameworks wie z.B. Titanium oder PhoneGap verpackt werden und wird so zu einer hybriden App, die beispielsweise über die Appstores der Hersteller vertrieben werden kann. In dieser Arbeit beschäftige ich mich insbesondere mit den Möglichkeiten der hybriden App-Entwicklung am Beispiel einer Präsentationsanwendung, die ich im Rahmen dieser Arbeit für die visionsbox GmbH aus Offenburg konzipiert und umgesetzt habe. Eine ähnliche Anwendung auf Basis von Adobe Flash wird bereits seit einiger Zeit von der visionsbox GmbH vertrieben. Meine Aufgabe war es, diese Anwendung auf Basis von Webtechnologien so nachzubilden, dass sie in Zukunft auf möglichst vielen Software-Plattformen lauffähig ist.
In dieser Bachelorarbeit geht es um die Konzeption und Realisierung einer Web-App für das iPad. Zuerst werden allgemeine Themen zu Apps auf Smartphones und Tablets besprochen und Unterschiede zwischen einer nativen App und einer Web-App aufgezeigt. Auf Basis der gängigen Webtechnologien HTML5, CSS3 und JavaScript, sowie mit Hilfe des Frameworks jQuery Mobile werden Grundlagen einer Web-App erklärt. Im Anschluss daran wird erläutert, wie die das praktische Beispiel der "Movie-DB" umgesetzt wurde.
Mobile Anwendungen werden im beruflichen Umfeld immer häufiger eingesetzt und dienen als praktische Helfer für Vertriebsmitarbeiter oder im Kundendienst. Dagegen ist ein Einsatz in der Baubranche ein recht neues Feld. Die tägliche Erfassung der Leistungsergebnisse einer Baustelle samt Geräteeinsatz, Mitarbeiterstunden, Lieferungen und Wetterdaten in Tagesberichten wird von vielen Bauunternehmen bisher noch auf Papier erledigt und später von Hand in ein Verwaltungsprogramm übertragen. Die Dokumentation direkt vor Ort mit einem mobilen Endgerät bietet den Vorteil, dass die Daten sofort verfügbar sind und auch besser ausgewertet werden können. Im Rahmen der vorliegenden Masterthesis wird nun in Zusammenarbeit mit dem Bauunternehmen Grafmüller untersucht, wie eine mobile Anwendung zu diesem Zweck aussehen kann. Dabei werden zunächst die Betriebsdatenerfassung im Allgemeinen und die Hintergründe der mobilen Anwendungsentwicklung analysiert. Dies dient dann als Basis für die Konzeption und die Umsetzung der Anwendung. Dabei werden bereits existierende Konkurrenzprodukte und die aktuelle Situation der Tagesberichtserstellung betrachtet. Besonderes Augenmerk liegt auf der plattformunabhängigen Entwicklung. Dazu wird der Einsatz von Webtechnologien zur Erstellung von hybriden Apps mit Hilfe entsprechender Werkzeuge untersucht. Die Umsetzung selbst beinhaltet den generellen Aufbau der mobilen Anwendung auf Basis eines hybriden App-Frameworks. Dazu zählt die persistente Datenspeicherung und die Synchronisation mit einer Administrationsanwendung sowie weitere Zusatzfunktionen, die gerätespezifische Eigenschaften nutzen, beispielsweise GPS.
Das Thema Honeypot nimmt einen immer größeren Stellenwert in der Weiterentwicklung der Informationssicherheit ein. Honeypots dienen nicht nur zur Erforschung von Angriffsmethoden und Vorgehensweisen, sondern können auch im Unternehmensumfeld aktiv zur Verbesserung der IT-Sicherheitsmaßnahmen beitragen. Diese Arbeit hat sich das Ziel gesetzt, das Themenspektrum Honeypot in Theorie und Praxis näher zu untersuchen. Im ersten Teil wird ein allgemeiner Überblick über das Thema Honeypot und Honeynet gegeben. Hier wird erklärt, welche Honeypot-Typen und Architekturen es gibt, welche Anforderungen ein Honeypot stellt und welche Risiken der Betrieb eines Honeypot-Systems verursacht. Am Ende des ersten Kapitels werden einige Beispiele eines Honeypot-Systems beschrieben. Im zweiten Teil wird konkret auf die Implementierung eines High Interaction Honeypots eingegangen, dessen Überwachungszentrale die Honeywall bildet. Dieser praktische Teil erklärt, wie ein komplettes Honeypot-System auf Basis der 'Honeywall CDROM Roo' eingerichtet wird, welche Möglichkeiten und Werkzeuge das Überwachungssystem besitzt und welche Einstellungen und Besonderheiten beim Einrichten beachtet werden müssen. Im darauffolgenden dritten Teil werden die gesammelten Daten ausgewertet. Dazu wird zuerst ein Überblick über mögliche Angreifer und deren Angriffswege gegeben. Mit diesem Hintergrundwissen werden die Daten im weiteren Verlauf konkret analysiert und zum Teil visualisiert. Nach dem praktischen Teil wird ein Ausblick gegeben, welche Ausbaumöglichkeiten die Versuchsanordnung bietet, welchen Schwerpunkt die Weiterentwickelung der Honeywall einnimmt und welche rechtlichen Fragen der Betrieb eines Honeypots aufwirft. Zu guter Letzt wird die Arbeit durch ein Fazit abgeschlossen.
Die Bachelor-Thesis "Entwicklung eines Web-Portals für M+I-Studierende" befasst sich mit der Entwicklung des Studierendenportals MI-Complete der Fakultät M+I der Hochschule Offenburg. In den üblichen Arbeitsschritten (Analyse, Konzeption, Umsetzung, Evaluation, Ausblick) wird darin der Werdegang des neuen Studierendenportals MI-Practix beschrieben.
Diese Bachelor Thesis analysiert bisherige Mensch-Computer-Interaktion und nennt wichtige Grundlagen des Interaction Design. Im Rahmen der Arbeit wird prototypisch eine NUI-Anwendung (NUI: Natural User Interface) konzipiert und umgesetzt. Um eine erfolgreiche Neukonzeption von natürlichen Interaktionsmöglichkeiten zu ermöglichen, wird die Mensch-Objekt-Interaktion analysiert. Wichtige Eckpunkte im visuellen Interface-Design wie auch in der Umsetzung einer NUI-Anwendung werden deutlich gemacht. Das Fazit macht klar: eine erfolgreiche Umsetzung des Konzepts ist gelungen, Verbesserungsansätze werden genannt. Im letzten Kapitel werden Anwendungsfälle und Ausblicke aufgeführt. Ergebnis: bei geschickter, massentauglicher Implementierung ist natürliche Interaktion zwischen Mensch und Computer schon in naher Zukunft sehr gut möglich und keine Vision aus dem Bereich der Science-Fiction.