004 Informatik
Refine
Year of publication
Document Type
- Bachelor Thesis (15)
- Contribution to a Periodical (5)
- Master's Thesis (4)
- Article (reviewed) (2)
- Conference Proceeding (1)
- Doctoral Thesis (1)
Conference Type
- Konferenzartikel (1)
Keywords
- Reinforcement Learning (3)
- Blockchain (2)
- Computersicherheit (2)
- Datenbanksystem (2)
- E-Learning (2)
- Implementation (2)
- 3D (1)
- API (1)
- Angewandte Informatik (1)
- Anwendungsprotokoll (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (14)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (4)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (4)
- Zentrale Einrichtungen (3)
- Fakultät Medien (M) (ab 22.04.2021) (2)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (2)
- Fakultät Wirtschaft (W) (1)
Open Access
- Open Access (28) (remove)
Garbage in, Garbage out: How does ambiguity in data affect state-of-the-art pedestrian detection?
(2024)
This thesis investigates the critical role of data quality in computer vision, particularly in the realm of pedestrian detection. The proliferation of deep learning methods has emphasised the importance of large datasets for model training, while the quality of these datasets is equally crucial. Ambiguity in annotations, arising from factors like mislabelling, inaccurate bounding box geometry and annotator disagreements, poses significant challenges to the reliability and robustness of the pedestrian detection models and their evaluation. This work aims to explore the effects of ambiguous data on model performance with a focus on identifying and separating ambiguous instances, employing an ambiguity measure utilizing annotator estimations of object visibility and identity. Through accurate experimentation and analysis, trade-offs between data cleanliness and representativeness, noise removal and retention of valuable data emerged, elucidating their impact on performance metrics like the log average miss-rate, recall and precision. Furthermore, a strong correlation between ambiguity and occlusion was discovered with higher ambiguity corresponding to greater occlusion prevalence. The EuroCity Persons dataset served as the primary dataset, revealing a significant proportion of ambiguous instances with approximately 8.6% ambiguity in the training dataset and 7.3% in the validation set. Results demonstrated that removing ambiguous data improves the log average miss-rate, particularly by reducing the false positive detections. Augmentation of the training data with samples from neighbouring classes enhanced the recall but diminished precision. Error correction of wrong false positives and false negatives significantly impacts model evaluation results, as evidenced by shifts in the ECP leaderboard rankings. By systematically addressing ambiguity, this thesis lays the foundation for enhancing the reliability of computer vision systems in real-world applications, motivating the prioritisation of developing robust strategies to identify, quantify and address ambiguity.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
This work addresses the conceptualization, design, and implementation of an Application Programming Interface (API) for the Common Security Advisory Framework (CSAF) 2.0, introducing another method for distributing CSAF documents in addition to two already existing methods. These don't allow the use of flexible queries as well as filtering, which makes it difficult for operators of software and hardware to use CSAF. An API is intended to simplify this process and thus advance the automation goal of CSAF.
First, it is evaluated whether the current standard allows the implementation of an API. Any conflicts are highlighted and suggestions for standard adaptations are made. Based on these results, the API is designed to meet the previously defined requirements. Subsequently, a proof of concept is successfully developed according to the design and extensively tested with specially prepared test data. Finally, the results and the necessary standard adjustments are summarized and justified.
The conceptual design and the implementation were successfully completed. However, during the implementation of the proof of concept, some routes could not be fully implemented.
In the work at hand, we state that privacy and malleability of data are two aspects highly desired but not easy to associate. On the one hand, we are trying to shape data to make them usable and editable in an intelligible way, namely without losing their initial information. On the other hand, we are looking for effective privacy on data such that no external or non-authorized party could learn about their content. In such a way, we get overlapping requirements by pursuing different goals; it is trivial to be malleable without being secure, and vice versa. We propose four “real-world” use cases identified as scenarios where these two contradictory features are required and taking place in distinct environments. These considered backgrounds consist of firstly, cloud security auditing, then privacy of mobile network users and industry 4.0 and finally, privacy of COVID-19 tracing app users. After presenting useful background material, we propose to employ multiple approaches to design solutions to solve the use cases. We combine homomorphic encryption with searchable encryption and private information retrieval protocol to build an effective construction for the could auditing use case. As a second step, we develop an algorithm to generate the appropriate parameters to use the somewhat homomorphic encryption scheme by considering correctness, performance and security of the respective application. Finally, we propose an alternative use of Bloom filter data structure by adding an HMAC function to allow an outsourced third party to perform set relations in a private manner. By analyzing the overlapping bits occurring on Bloom filters while testing the inclusiveness or disjointness of the sets, we show how these functions maintain privacy and allow operations directly computed on the data structure. Then, we show how these constructions could be applied to the four selected use cases. Our obtained solutions have been implemented and we provide promising results that validate their efficiency and thus relevancy.
With many advances in sensor technology and the Internet of Things, Vehicle Ad Hoc Net- work (VANET) is becoming a new generation. VANET’s current technical challenges are deploying decentralized architecture and protecting privacy. Because Blockchain features are decentralized, distributed, mass storage, and non-manipulation features, this paper designs a new decentralized architecture using Blockchain technology called Blockchain-based VANET. Blockchain-based VANET can effectively resolve centralized problems and mutual distrust between VANET units. To achieve this, it is needed to provide scalability on the blockchain to run for VANET. In this system, our focus is on the reliability of incoming messages on the network. Vehicles check the validity of the received messages using the proposed Bayesian formula for trust management system and some information saved in the Blockchain. Then, based on the validation result, the vehicle computes a rate for each message type and message source vehicle. Vehicles upload the computed rates to Roadside Units (RSUs) in order to calculate the net reliability value. Finally, RSUs using a sharding consensus mechanism generate blocks, including the net reliability value as a transaction. In this system, all RSUs collaboratively maintain the latest updated Blockchain. Our experimental results show that the proposed system is effective, scalable and dependable in data gathering, computing, organization, and retrieval of trust values in VANET.
In recent years, both the Internet of Things (IoT) and blockchain technologies have been highly influential and revolutionary. IoT enables companies to embrace Industry 4.0, the Fourth Industrial Revolution, which benefits from communication and connectivity to reduce cost and to increase productivity through sensor-based autonomy. These automated systems can be further refined with smart contracts that are executed within a blockchain, thereby increasing transparency through continuous and indisputable logging. Ideally, the level of security for these IoT devices shall be very high, as they are specifically designed for this autonomous and networked environment. This paper discusses a use case of a company with legacy devices that wants to benefit from the features and functionality of blockchain technology. In particular, the implications of retrofit solutions are analyzed. The use of the BISS:4.0 platform is proposed as the underlying infrastructure. BISS:4.0 is
intended to integrate the blockchain technologies into existing enterprise environments. Furthermore, a security analysis of IoT and blockchain present attacks and countermeasures are presented that are identified and applied to the mentioned use case.
Duplikaterkennung, -suche und -konsolidierung für Kunden- und Geschäftspartnerdaten, sog. „Identity Resolution“, ist die Voraussetzung für erfolgreiches Customer Relationship Management und Customer Experience Management, aber auch für das Risikomanagement zur Minimierung von Betrugsrisiken und Einhaltung regulatorischer Vorschriften und viele weitere Anwendungsfälle. Diese Systeme sind jedoch hochkomplex und müssen individuell an die kundenspezifischen Anforderungen angepasst werden. Der Einsatz lernbasierter Verfahren bietet großes Potenzial zur automatisierten Anpassung. In diesem Beitrag präsentieren wir für ein KMU praxisfähige, lernbasierte Verfahren zur automatischen Konfiguration von Business-Regeln in Duplikaterkennungssystemen. Dabei wurden für Fachanwender Möglichkeiten entwickelt, um beispielgetrieben das Match-System an individuelle Business-Regeln (u.a. Umzugserkennung, Sperrlistenabgleich) anzupassen und zu konfigurieren. Die entwickelten Verfahren wurden evaluiert und in einer prototypischen Lösung integriert. Wir konnten zeigen, dass unser Machine-Learning-Verfahren, die von einem Domainexperten erstellten Business-Regeln für das Duplikaterkennungssystem „identity“ verbessern konnte. Zudem konnte der hierzu erforderliche Zeitaufwand verkürzt werden.
Seit 2009 nimmt das Team ”magmaOffenburg” an der 3D-Simulationsliga des RoboCups teil. Für das erfolgreiche Abschneiden in Turnieren ist die Qualität der erlernten Bewegungsabläufe ein zentraler Faktor. Bisher wurden genetische Algorithmen verwendet, um verschiedenste Aktionen zu erlernen sowie zu optimieren. In dieser Arbeit wird der Deep Reinforcement Learning Algorithmus Proximal Policy Optimization für das Erlernen bestimmter Bewegungen verwendet. Um ein Verständnis für dessen einflussreichen Parameter zu erhalten, werden Größen wie paralleles Lernen, Hyperparameter, Netzwerktopologie, Größe des Observationspace sowie asynchronem Lernen anhand dem Kicken aus dem Stand evaluiert. Durch die Ergebnisse der Evaluierung konnte der erlernte Kick signifikant verbessert werden und sein genetisch erlerntes Gegenstück im Spiel ablösen. Drüber hinaus wurden die Erkenntnisse anhand dem Laufen lernen evaluiert und Zusammenhänge bzw. Unterschiede der zwei Lernprobleme festgestellt.
Diese Bachelor Thesis behandelt das Thema MQTT 5, ein Anwendungsprotokoll im Internet der Dinge, das im Januar 2018 veröffentlicht wurde. MQTT 5 dient zur Kommunikation zwischen Geräten die mit dem Internet verbunden sind.
Innerhalb dieser Thesis werden die Neuerungen und Verbesserungen von MQTT 5 beschrieben.
Es wird untersucht, welche Mikrocontroller, SoC-Computer, Programmier-Frameworks und lattformdienste MQTT 5 unterstützen.
Anschließend wird die Entwicklung eines Smarthome-Szenarios beschrieben, das im "Interaktive Verteilte Systeme Labor" an der Hochschule Offenburg zur Anwendung kommt.
Um die Umgebung während der Durchführung von Laborversuchen zu verbessern,werden die Temperatur, Luftfeuchtigkeit, Luftqualität, Lautstärke und Lichtstärke im Labor gemessen.
Diese Werte werden anhand von Lichtern, die ihre Farbe ändern und einer Steckdose, die sich je ach Wert ein- und ausschaltet, visualisiert.
In dieser Arbeit werden die Bedrohungen für ein lokales IPv6 Netzwerk, mit besonderem Hinblick auf das neu eingeführte Neighbor Discovery Protocol (NDP), analysiert. Dabei wird der Frage nachgegangen, wie ein IPv6 Netz gegen lokale Angriffe geschützt werden kann. Zunächst werden mögliche Angriffe auf das Netzwerk beschrieben. Gegen die dann jeweils Maßnahmen vorgestellt werden. Die Funktionsweise der Maßnahmen wird erläutert und die mit Einführung sowie Betrieb verbundenen Kosten und Nutzen eingeordnet. Darauf basierend wird eine Bewertung der Maßnahmen durchgeführt, um konkrete Handlungsempfehlungen zum sicheren Betrieb von IPv6 Netzen in der Praxis zu geben. In der Bewertung wird deutlich, dass ein Großteil der Maßnahmen noch nicht ausgereift oder nur bedingt praktisch anwendbar erscheint. Reaktive Maßnahmen wie NDPMon eignen sich dabei nach Ergebnissen der Analyse am besten zur Absicherung von NDP Verkehr. Um die Integration von NDPMon durch eine einheitliche Plattform zu erleichern, wird ein Einsatzbeispiel auf Basis des ARM-Einplatinencomputer Raspberry Pi beschrieben. Abgeschlossen wird die Arbeit mit einem Fazit zur lokalen Absicherung von IPv6 Netzwerken und den damit verbundenen Herausforderungen, sowie einem kurzen Ausblick auf zukünftige Entwicklungen im Bezug auf Schutzmaßnahmen.
Arduino ist weitaus mehr als eine Leiterplatine mit verschiedenen Hardwarekomponenten, welche behilflich sind, die physische Welt zu erfassen und eine Verbindung zur virtuellen Welt herzustellen. Arduino besteht aus Communities, Plattformen und engagierten Entwicklern, die diese Open-Source-Plattform stetig weiterentwickeln. Durch die bereitgestellte Entwicklungsumgebung und der eigenen Programmiersprache können sogar Programmier-Laien mit diesen Boards umgehen und erste Projekte realisieren. Darüberhinaus existieren viele Klone auf dem Markt, welche eine preiswerte Integration eines Mikrocontrollers in ein Projekt ermöglichen und dennoch kompatibel zu Arduino sind und die Entwicklungsumgebung mitsamt den Bibliotheken nutzen lassen. Die Nachfrage nach vernetzten Lösungen zum Beispiel in der Hausautomation wächst unaufhaltsam und ist präsenter denn je. Für Hobbybastler und Entwickler bietet auch Arduino hierzu die geeigneten Hardwareerweiterungen an, um den Arduino in eine vernetzte Umgebung zu integrieren. Hierbei wird das Board nicht nur in Verbindung zur Client/Server-Kommunikation über das Internet verwendet, sondern auch im Funkbereich in Heimnetzwerken. Aufgrund der großen Nachfrage bezüglich Lösungen im Phyiscal- Computing-Bereich, können schon jetzt viele Standards in den genannten Bereichen eingesetzt werden, indem ein entsprechendes Erweiterungs-Shield für Arduino bezogen wird. Durch Bibliotheken ist die Einbindung mit nur geringem Aufwand verbunden und lässt somit experimentell in kurzer Zeit eine Idee in eine prototypische Implementierung umsetzen. Durch verschiedene Sensoren und Aktuatoren kann die Umgebung erfasst werden und zum Beispiel mechanische Komponenten gesteuert werden. In dieser Thesis wurde untersucht, inwiefern ein Arduino-Board als Monitoring-Anwendung im Gesundheitswesen eingesetzt werden kann. Der Anwendungsfall, der dabei durch den Autor festgelegt wurde, befasst sich mit unter Epilepsie leidenden Kindern. Der Prototyp soll hierbei über Sensoren den Schlaf dieser überwachen und die gewonnenen Daten an einen Server übermitteln. Die Implementierung des Boards in eine derartige Anwendung umschließt auch die Integration des Controllers in vernetzte Umgebungen, da für den Heimbereich die über Sensoren erfassten Daten, zum Ermitteln der Vitalfunktionen und Bewegungen, über ein Funknetzwerk übertragen werden und anschließend eine Client/Server-Kommunikation zwischen Arduino und PaaS-Server eine Verbindung über das weltweite Netzwerk abdeckt. Insofern wurden diesbezüglich bei der prototypischen Implementierung zwei vernetzte Umgebungen abgedeckt. Im Zusammenhang mit der Recherche und Implementierung eines Prototypen wird zudem das Potenzial von Arduino aufgezeigt, welches sich in der einfachen Handhabung, guten Konfigurationsmöglichkeiten und umfangreichen Hardwareerweiterungen beweist.
This thesis deals with the implementation of character controls and combat system of the Action Adventure 'Scout 3D'. The game development was realized with the game engine Unity 3D. In the first part, the architecture of a typical game engine is explained. The single components are describes step by step. Then, five well-known game engines are compared and evaluated. In the next chapter, a short overview about design and architecture patterns is worked out. The features of Unity, that are used for the implementation, and Unity's animation system 'Mecanim, are described finally. The second part includes the requirement definitions for the game 'Scout COD' which define player input, different conditions that allow or disallow several activities and the behaviour of enemies. With the help of patterns the architecture of the game is designed. Then, the implementation is explained by means of code snippets.
Gegenstand der hier vorgestellten Arbeit ist eine Webanwendung, die als Lernhilfe für die Grundlagen des algorithmischen Denkens und Arbeitens dienen soll. Das Erstellen eines Struktogramms (Nassi-Shneiderman-Diagramm) dient in vielen Vorlesungen und Unterrichten, die sich mit den Grundlagen der Informatik beschäftigen, als Mittel der Darstellung eines Algorithmus. Hierfür bestehen die unterschiedlichsten Editoren. Dabei handelt es sich um PC- oder Webanwendungen, welche hauptsächlich in Java realisiert sind. Diese Thesis beschäftigt sich mit der Erstellung eines webbasierten Tools, das es ermöglicht, ein solches Struktogramm zu erstellen und auch auf Funktion zu testen. Hierbei steht jedoch nicht nur die reine Ausführbarkeit, sondern auch der didaktische Nutzen im Vordergrund. Ziel ist es, mit der Anwendung die Studierenden des ersten Semesters des Studiengangs Medien und Informationswesen bei allen Vorgaben, die das Struktogramm betreffen, zu unterstützen. Die Ausführbarkeit des Struktogrammes ist hierbei eine wichtige Hilfe um eigene Fehler zu erkennen und zu verstehen. Umgesetzt wird die Anwendung mit dem interaktiven SVG-Format. Dabei handelt es sich um vektorbasierte Grafiken, die über JavaScript interaktiv gestaltet werden können. Die Arbeit enthält zudem eine gründliche Recherche über vergleichbare Anwendungen, deren Vor- und Nachteile sowie einen Vergleich untereinander. Aus den Resultaten der Vergleiche sowie weiterer Recherche im Bereich der Didaktik werden die Anforderungen an ein entsprechendes Hilfsmittel erfasst und aufgestellt. Nach der Konzeptionierung wird ein Prototyp erstellt und eine erste Evaluierung durchgeführt. Schlussendlich folgt eine Zusammenfassung und ein Ausblick.
Integration eines Shopsystems in Typo3 am Beispiel „Relaunch des Webauftritts Elbe&Flut Edition“
(2013)
Im Rahmen meiner Bachelorarbeit habe ich bei Elbe&Flut, Agentur für Fotografie und Gestaltung in der Hamburger Speicherstadt, eine Neuauflage der Webpräsenz für den Verlag Elbe&Flut Edition erstellt. Themenschwerpunkt der Elbe&Flut Edition ist Hamburgs Viertel zwischen Tradition und Vision — die Speicherstadt mit der wachsenden Hafencity. Ziel der Bachelorthesis war ein ganzheitlicher Webauftritt der Website mit einem Gesamtumfang von circa 25 Seiten, erstellt mit dem Content Management System Typo3 Version 4.5, um das nachträgliche Ändern und Einfügen von Inhalten effizient und simpel zu gestalten. Hinzu wurde ein Online-Shop für die Elbe&Flut Edition integriert, über den Bücher sowie Kalender geordert werden können. Dafür werden verschiedene Web-Shopsysteme wie die Typo3-Erweiterung Commerce und tt_products zu einem funktionalen Vergleich herangezogen. Die Einbindung von JQuery-Elementen wie Slidern, Lightboxes und Popups soll eine ästhetische und angemessene Benutzerfreundlichkeit sinnvoll unterstützen. Ausgangspunkt für die neuen Webpräsenzen war die damalige Website der Elbe&Flut Edition euf-edition.de, von der ein Großteil des Inhaltes übernommen wurde.
Diese Arbeit beschäftigt sich primär mit der Erstellung von Konzepten, welche in den Bereichen der langfristigen Planung, welche eine IT-Strategie festlegt und der kurzfristigen Steuerung des Tagesgeschäfts, ein besser strukturiertes und effizienteres Vorgehen im Umgang mit der Vielzahl an anfallenden Daten und Informationen ermöglichen sollen. Hierzu werden in den Grundlagen zunächst alle relevanten Begriffe geklärt, welche in diesem Umfeld auftreten. Im Kapitel Stand der Technik werden, die in der Industrie am meisten zertifizierten Standards, zur Lösung dieser Problematik vorgestellt. In der darauf folgenden Konzeption werden alle notwendigen Elemente konzipiert. Dafür erfolgt zunächst eine Auswahl der ITIL-Prozesse, welche für ein erfolgreiches IT-Controlling umgesetzt werden sollen. Danach wird ein Vorschlag für einen Service-Katalog auf Basis von ITIL entwickelt, der es ermöglichen soll die wachsende Anzahl von IT-Services an Hochschulen zu verwalten. Nach diesem erfolgt eine Konzeption von neuen Kostenstellen und Kostenarten für das Rechenzentrum der Hochschule Offenburg. Dies ist notwendig, da die aktuellen Kostenstellen und Kostenarten nicht mehr den Anforderungen des Rechenzentrums gerecht werden. Auch wird in dieser Arbeit eine Konzeption für ein einfaches ordnerbasiertes Ablagesystem zur Verwaltung von Partner-, Lizenz- und Vertragsdokumenten erstellt. Der letzte Punkt dieser Arbeit besteht in der Konzeption und Umsetzung eines Informationssystems, durch welches alle relevanten Daten grafisch ansprechend aufbereitet zur Verfügung gestellt werden sollen. Die Umsetzung dieses Informationssystems wird in dieser Arbeit mithilfe der beiden Open-Source-Tools Talend und Palo vorgenommen.
Evaluierung neuer HTML5- und JavaScript-Technologien bei der Nutzung in heterogenen Umgebungen
(2012)
Die 1&1 Internet AG in Karlsruhe betreibt einen Onlinespeicher, der von Kunden der diversen Tochter- und Schwestergesellschaften hauptsächlich über ein Browserfrontend bedient wird. Dieses kommuniziert mittels einer definierten JSON-Schnittstelle mit der auf Java basierenden Middleware. Da der Client schon vor einigen Jahren entwickelt wurde, nutzt er noch nicht alle Möglichkeiten die HTML5 in aktuellen Browsern bietet. Die Beschreibung und Bewertung dieser Möglichkeiten stellt die Kernaufgabe der Thesis dar. Einer der Schwerpunkt soll dabei auf der Offlinefähigkeit und intelligenten Benutzung von Caching- & Sync-Strategien zwischen Onlineanwendung und Offlineclient bestehen. Desweiteren sollen die Möglichkeiten von aktuellen Browsern ohne Beachtung der Rückwärtskompatibilität zu älteren Browsern genutzt werden. Zu Demonstrationszwecken sollen Beispielanwendungen den Einsatz der neuen Technologien erstellt werden, damit deren praktische Nutzung leichter zu erfassen ist. Das Hauptaugenmerk bei den Beispielanwendungen liegt indes nicht auf der Funktionalität, sondern auf dem Einsatz der jeweiligen Technologie, so dass deren Möglichkeiten getestet werden können. Ebenfalls Teil der Arbeit soll die Erarbeitung von theoretischen Aspekten sowie die Erstellung einer Übersicht über den aktuellen Stand der Fachliteratur darstellen. Dies soll bei weiterer Nutzung der Ergebnisse die Erarbeitung von erweitertem Fachwissen erleichtern. Basis sollen hier die aktuell Erschienenen Fachbücher auf deutsch und englisch sowie - naturgemäß nochmals aktueller - die regelmäßigen Veröffentlichungen im Internet und in Fachzeitschriften bilden. Die zu besprechenden Themen umfassen die grundsätzliche Beschreibung von HTML5 und dem Standardisierungsprozess, die neuen HTML-Element in Bezug auf Formulare, Multimedia-Darstellung, die Möglichkeiten der Offline-Anwendung (Application Cache, Cache Manifest, DOM Storage), die Drag & Drop API zur Nutzung beim Dateiupload sowie die File API. Mögliche Themen für den theoretischen Teil sind gängige Architekturmuster (beispielsweise MVC, MVP, MVVM, PAC), Caching- und Sync-Strategien sowie die Potentiale aktueller Skriptsprachen (ECMAScript 5, Coffeescript, DART).
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
Diese Arbeit beschäftigt sich mit der Leistungsanalyse und Optimierung eines Flugdatenservers. Für die Durchführung dieser Leistungsanalyse wird eine eigene Anwendung entwickelt. Mit dieser eigens entwickelten Anwendung wird das Leistungsverhalten des Flugdatenservers genau analysiert. Mit den Erkenntnissen aus der Leistungsanalyse werden am Flugdatenserver Optimierungen durchgeführt und weitere Möglichkeiten zur Optimierung aufgezeigt. Bei diesem Flugdatenserver (Air Traffic Control Server) handelt es sich um eine Client/Server-Anwendung zur Visualisierung von Flugbewegungen im Lauftraum. Hierfür wird der Flugdatenserver mit Flugsicherungsdaten durch das Flugüberwachungssystem Automatic Dependent Surveillance (ADS) versorgt.
Ziel dieser Masterthesis ist die Konzeption und die Implementierung einer fortschrittlichen Social Business Plattform in einem IT-Dienstleistungsunternehmen unter Verwendung von MS SharePoint Server 2010. Im Vordergrund stehen dabei die Analyse aktueller und zukünftiger Anwendungsszenarien und Lösungen von Enterprise 2.0 Systemen. Desweiteren sollen Methoden zur Adaption der spezifischen Anforderungen des Unternehmens mittels SharePoint entwickelt werden. Eventuell auftretende Probleme sollen frühzeitig ausgelotet und die vielfältigen technischen Fähigkeiten von MS Share Point Server 2010 aufgezeigt werden. Langfristig gesehen sollen die im Rahmen dieser Arbeit gesammelten Ergebnisse Awareness und Know-How für SharePoint und Enterprise 2.0 im Unternehmen schaffen. Gegebenenfalls könnten sie die Basis für eine Umstrukturierung der vorhandenen Systemlandschaft bilden.
Instant messaging systems allow users to interact in real time over the Internet. Hackers and criminals often use instant messenger programs for illicit purposes and consequently the logfiles and any possible digital evidence from such programs are of forensic interest. The current research project attempts to provide an accurate and reasonable description of some issues where to find evidence and presents possible solutions to those issues.
Applied Information Technology opens Virtual Platform for the Legacy of Alexander von Humboldt
(2011)
The Humboldt Digital Library (HDL) is a project that aims to provide digital access to the legacy of Alexander von Humboldt. The HDL runs on an open source library developed in the Hochschule Offenburg and provides a virtual research environment in which researchers can work more effectively. This article presents the development made in the HDL to provide alternative ways of content dissemination through the OAI protocol.Through the implemtantion of the OAI-PMH data provider in the HDL, the library is accessibly in many universities and research centers everywhere around the globe.
Webserver-Log-Forensik
(2011)
Im Zug der IT-forensischen Ermittlungen nach Einbrüchen in eines der größten deutschen Internetportale wurde im Labor für IT-Sicherheit und Computer Forensik der Hochschule Offenburg ein Forschungsprojekt gestartet, das sich mit der Analyse von Schadsoftwarespuren in Logfiles beschäftigt. Ein im Zug dieser Forschungsarbeit entstandenes Programm, der „Analyzer of Death“, analysiert und interpretiert Spuren, die PHPbasierte Backdoor-Programme in den Webserver-Logfiles hinterlassen.
Diese Arbeit beschäftigt sich mit dem Thema NoSQL-Datenbanken in Webanwendungen. Dabei solle die verschiedenen Konzepte aktueller NoSQL-Datenbanken erläutert und exemplarische Implementierungen der einzelnen Konzepte vorgestellt werden. Anschließend wird der Einsatz in modernen Webanwendungen gezeigt. Hierzu soll eine einfache Social-Community-Plattform erstellt werden, welche zuerst auf Basis eines relationalen Datenbank Management System erstellt wird. Um die Einsatzmöglichkeiten der NoSQL-Vertreter zu zeigen werden anschließend einzelne Funktionen mit NoSQL-Datenbank implementiert und die Vor- und Nachteile erörtert.
Einleitung: Kaum eine andere Branche entwickelt sich so rasant wie die IT-Industrie. Die kontinuierlich steigende Rechnerkapazität hat zur Folge, dass man heute bei Anwendungssoftware allgemein von einer Halbwertzeit von fünf Jahren ausgeht. Die immer leistungsfähiger werdende Hardware bedingt die ständige Entwicklung neuer Software. Anwender, die die damit verbundenen Möglichkeiten für sich nutzen wollen, sind somit gezwungen, sich diesem Prozess anzupassen. Ausgangspunkt dieser Bachelorarbeit war die Herausforderung, eine Musikdatenbank, die Mitte der neunziger Jahre mit dem veralteten Datenbankprogramm F&A erstellt und bis 2011 damit gepflegt wurde, in eine neue Umgebung zu übertragen. Die Hauptmotivation hinter diesem Projekt bestand darin, anschließend die Möglichkeit zu besitzen, die in dieser Musikdatenbank abgelegten Informationen, welche bisher ausschließlich dem Anwender (der Autor) persönlich zugängig waren, zukünftig auf einer Webseite bereitzustellen. Das bisherige System konnte diese Anforderung nicht erfüllen, weshalb der Anwender gezwungen war, sein altes Anwendungssystem in eine neue technologische Umgebung zu übertragen. Einen solchen Prozess bezeichnet man als Migration. Im Fokus dieser Arbeit steht die Migration von Informationssystemen. Ein solches System, bestehend aus Hardware, Datenbank, Software und Anwendungen, dient der Bereitstellung von Informationen für eine bestimmte Zielgruppe. Während sich im Falle der Musikdatenbank das Angebot an interessierte Musikliebhaber richtet und somit einem ausschließlich informativen Zweck dient, hat die Erfassung, Verarbeitung, Übertragung, Analyse und Bereitstellung von Informationen für Unternehmen eine weitaus existentiellere Bedeutung, da sämtliche Geschäftsprozesse davon abhängen. Aus diesem Grunde sind Migrationsprojekte für Unternehmen besonders kritisch. Entsprechend beschäftigt sich der Großteil der Fachliteratur vorrangig mit der Migration von betrieblichen Informationssystemen. Die Musikdatenbank, die im Rahmen dieser Arbeit migriert wurde, ist verglichen mit solchen Informationssystemen weitaus weniger komplex und kann somit auch nicht als Fallstudie für betriebliche Migrationen großem Umfangs dienen, die mitunter eine Dauer von mehreren Jahren aufweisen. Dennoch lassen sich auch an diesem relativ kleinen Projekt typische Problemstellungen eines Migrationsprozesses exemplarisch darstellen. Zunächst wird im Kapitel 1 ein Überblick über das Thema Migration gegeben. Im Kapitel 2 werden anschließend zwei Vorgehensmodelle vorgestellt, die in der Praxis bei der Migration komplexer Informationssysteme angewandt werden. Das Fallbeispiel, die Migration der Musikdatenbank, wird in den Kapiteln 3 und 4 betrachtet. Diese Arbeit hat nicht den Anspruch, neue Strategien in diesem Feld zu entwickeln. Sie gibt vielmehr einen Überblick über den aktuellen Stand der Wissenschaft, verdeutlicht anhand des Fallbeispiels konkrete Problemstellungen und zeigt Lösungswege auf. Im Fokus steht hier insbesondere die Migration der Daten, welche aufgrund der unkonventionellen Ablage im Ausgangssystem eine besondere Herausforderung darstellte.
3D Produktpräsentationen im Internet sind komplexe Rich Media Anwendungen, bei deren Erstellung es viel zu beachten gilt. Diese Arbeit beleuchtet verschiedene Aspekte zur Erstellung von 3D Produktpräsentationen. Das Zielmedium Internet, die Gestaltung von 3D Produkten und Layouts, die Interaktivität von 3D Produktseiten, Technologien zu Erstellung, technische Hürden des Mediums, Visionen und ein Projektablauf sowie eine Perspektive zur Entwicklung von 3D Produktpräsentationen sind die inhaltlichen Schwerpunkte der Arbeit.
Informatik-Veranstaltungen in der Fakultät Medien und Informationswesen (abgekürzt MI) vermitteln meist komplexe Inhalte, die anschließend in begleitenden Laborveranstaltungen praktisch und an konkreten Beispielen vertieft werden. Allerdings benötigen die Studierenden für ein lehrreiches Labor und die selbstständige Erarbeitung korrekter Lösungen einige Grundkenntnisse, die aus der jeweiligen Theorieveranstaltung mitgebracht werden müssen. Um den Studierenden weiterhin die Möglichkeit zu geben, den Stoff der Lehrveranstaltungen raum- und zeitunabhängig nachzuarbeiten und auch didaktisch aufbereitete Übungen virtuelldurchzuführen, haben wir zu den Veranstaltungen Software Engineering, Computernetze und Datenbanken webbasierte E-Learning-Materialien konzipiert und erstellt (http://mi-learning.mi.fh-offenburg. de). Diese Materialien erlauben den Lernenden, selbstbestimmt, im eigenen Lernrhythmus und über unterschiedliche Medien einen Zugang zu der Thematik zu finden. Derartige hybride Lernarrangements (Blended Learning) kombinieren die Vorteile unterschiedlicher didaktischer Methoden und der Medien.