004 Informatik
Refine
Year of publication
Document Type
- Bachelor Thesis (51) (remove)
Has Fulltext
- yes (51)
Is part of the Bibliography
- no (51)
Keywords
- IT-Sicherheit (6)
- JavaScript (5)
- E-Learning (3)
- Internet of Things (3)
- Netzwerksicherheit (3)
- API (2)
- Applikation (2)
- Business Intelligence (2)
- Computersicherheit (2)
- Dimension 3 (2)
Institute
Open Access
- Closed Access (21)
- Closed (15)
- Open Access (15)
- Diamond (2)
Garbage in, Garbage out: How does ambiguity in data affect state-of-the-art pedestrian detection?
(2024)
This thesis investigates the critical role of data quality in computer vision, particularly in the realm of pedestrian detection. The proliferation of deep learning methods has emphasised the importance of large datasets for model training, while the quality of these datasets is equally crucial. Ambiguity in annotations, arising from factors like mislabelling, inaccurate bounding box geometry and annotator disagreements, poses significant challenges to the reliability and robustness of the pedestrian detection models and their evaluation. This work aims to explore the effects of ambiguous data on model performance with a focus on identifying and separating ambiguous instances, employing an ambiguity measure utilizing annotator estimations of object visibility and identity. Through accurate experimentation and analysis, trade-offs between data cleanliness and representativeness, noise removal and retention of valuable data emerged, elucidating their impact on performance metrics like the log average miss-rate, recall and precision. Furthermore, a strong correlation between ambiguity and occlusion was discovered with higher ambiguity corresponding to greater occlusion prevalence. The EuroCity Persons dataset served as the primary dataset, revealing a significant proportion of ambiguous instances with approximately 8.6% ambiguity in the training dataset and 7.3% in the validation set. Results demonstrated that removing ambiguous data improves the log average miss-rate, particularly by reducing the false positive detections. Augmentation of the training data with samples from neighbouring classes enhanced the recall but diminished precision. Error correction of wrong false positives and false negatives significantly impacts model evaluation results, as evidenced by shifts in the ECP leaderboard rankings. By systematically addressing ambiguity, this thesis lays the foundation for enhancing the reliability of computer vision systems in real-world applications, motivating the prioritisation of developing robust strategies to identify, quantify and address ambiguity.
Immer mehr Unternehmen setzen auf eine Cross-Cloud-Strategie, die es Unternehmen ermöglicht, ihre Anwendungen und Daten über mehrere Cloud-Plattformen hinweg effizient zu verwalten und zu betreiben. Konsistenz und Atomarität zwischen den Cloud-Plattformen zu wahren, stellt eine große Herausforderung dar. Hierzu wird in dieser Arbeit eine Lösung vorgestellt, um Cross-Cloud-Atomarität zu erreichen, welche auf Basis des 2-Phasen-Commit-Protokolls (2PC) beruht. In diesem Zusammenhang wird die Funktionsweise des 2PC-Protokolls erörtert und Erweiterungen sowie Alternativen zum Protokoll kurz angesprochen. Zusätzlich werden alternative Lösungsansätze diskutiert, die für die Erzielung von Cross-Cloud-Atomarität in Betracht gezogen werden können. Dadurch wird ein umfassender Einblick in das Thema sowie mögliche Lösungsansätze für diese Herausforderung gewährt.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
In der Marketingstrategie von Event- und Club-Veranstaltern ist eine zielgerichtete Ansprache der Kundschaft unerlässlich, um eine nachhaltige Beziehung zur Zielgruppe aufzubauen und so den geschäftlichen Erfolg zu sichern. Während erhebliche Investitionen in herkömmliche Werbekanäle wie soziale Medien fließen, bleiben diese Plattformen oft ohne Garantie, dass die Werbemittel die relevanten Nutzer erreichen. Die White-Label-App beabsichtigt dieses Problem zu beheben, indem es Veranstaltern ermöglicht wird, eine engagierte Community direkt über die mobile Plattform aufzubauen und mit dieser zielgerichtet zu kommunizieren.
Das Kernziel der Bachelorarbeit ist die prototypische Entwicklung dieser Smartphone-App als individualisierbare und modulare White-Label-Lösung, die präzise auf die Bedürfnisse von Veranstaltern und deren Kunden zugeschnitten ist. Hierbei ist die zentrale Forschungsfrage: Wie kann eine modulare und individualisierbare White-Label-App effizient implementiert werden?
Zur Beantwortung dieser Frage werden auf Basis einer Wettbewerbsanalyse und der gründlichen Bewertung aktueller Best Practices im Bereich der App-Entwicklung verschiedene Aspekte untersucht. Hierzu zählen die Identifikation von möglichen Marktlücken und -chancen, die Eignung verschiedener Technologien und Entwurfsmuster, die Überwindung spezifischer Herausforderungen bei der Implementierung einer White-Label-App und die performante Integration der API.
Um einen praxisorientierten Ansatz zu gewährleisten, werden darüber hinaus verschiedene Kernfunktionalitäten der App beispielhaft implementiert. Dazu gehören Features wie eine Eventübersicht mit Informationen zu Veranstaltungen und ein Ticketingsystem mit Reservierungsmöglichkeiten.
Die Bachelorarbeit „Forensic Chain – Verwaltung digitaler Spuren in Deutschland“ untersucht die Anwendung eines Blockchain-basierten Chain of Custody Systems im deutschen rechtlichen und regulatorischen Kontext. Die digitale Forensik, die sich mit der Sicherung und Analyse digitaler Spuren befasst, gewinnt an Bedeutung, da kriminelle Aktivitäten vermehrt im digitalen Raum stattfinden. Die Blockchain-Technologie bietet transparente und unveränderliche Aufzeichnungen, die sich für die Speicherung von Informationen im Zusammenhang mit digitalen Beweismitteln eignen. Das Hautpziel der Arbeit besteht darin, die Umsetzung eines Chain of Custody Prozesses im Forensic Chain System zu untersuchen und die Eignung dieses Systems im deutschen Raum zu bewerten. Hierfür wird ein Prototyp des Forensic Chain Systems entwickelt, um das erstellte Konzept zu testen. Die Ergebnisse tragen zum Verständnis der Wichtigkeit der digitalen Forensik in Deutschland bei und bieten Einblicke in die Einführung von Blockchain-basierten Chain of Custody-Systemen in diesem Bereich. Sie leisten einen Beitrag zur Weiterentwicklung der digitalen Forensik.
Das automatisierte Erkennen von Schwachstellen wird immer wichtiger. Gerade bei der Softwareentwicklung werden immer häufiger Schwachstellenscanner eingesetzt. Das Ziel der vorliegenden Arbeit ist es einen Überblick zu erhalten, welche Schwachstellenscanner für Webanwendungen existieren und wie sinnvoll deren Einsatz ist. Um diese Frage zu beantworten, werden vier auf dem Markt verfügbare Schwachstellenscanner getestet. Aus der bisherigen Infrastruktur von M und M Software werden Anforderungen und Selektionskriterien abgeleitet. In zwei Testphasen werden verschiedene Schwachstellenscanner analysiert und bewertet wie gut sie die Kriterien erfüllen. Am Ende wird bewertet, ob der Einsatz eines Schwachstellenscanners in der Infrastruktur sinnvoll ist. Neben dieser Analyse wird außerdem untersucht welche Chancen die AI-Technologie für Schwachstellenscanner bietet.
In den letzten Jahren ist die Relevanz des Wassersparens und der nachhaltigen Nutzung dieses lebenswichtigen Elements angesichts des Klimawandels und abnehmender Wasserressourcen erheblich gestiegen. In diesem Kontext legt die vorliegende Bachelorarbeit, die in Zusammenarbeit mit der Firma Hansgrohe erstellt wurde, den Fokus auf die Schaffung eines Konzeptes sowie der prototypischen Realisierung eines Serious Games. Das Ziel des Spiels ist es, bei Kindern ein Bewusstsein und Verständnis für die nachhaltige Wassernutzung zu fördern. Im Zuge des Projekts wurde ein iterativer Spiel-Design-Prozess verfolgt, um ein pädagogisch wertvolles und ansprechendes Spielkonzept zu entwickeln. Der nutzerzentrierte Ansatz war maßgeblich, um ein tiefgehendes Verständnis für die Bedürfnisse und Vorlieben der jungen Zielgruppe zu erlangen und somit ein optimal auf die Lernerfahrung abgestimmtes Produkt zu entwerfen. Das Spiel kombiniert Elemente der Exploration, Simulation und des Casual Gamings, um das Verständnis für die nachhaltige Wassernutzung auf spielerische und interaktive Weise zu vermitteln. Die Resultate der prototypischen Umsetzung wurden mittels Nutzertests überprüft, um die Effektivität und Benutzerfreundlichkeit zu sichern. Diese Arbeit unterstreicht nicht nur die Wichtigkeit eines verantwortungsvollen Umgangs von Wasser, sondern illustriert zudem, wie durch innovatives Spiel-Design die Bildung und Sensibilisierung von Kindern in Bezug auf zentrale ökologische Themen erreicht werden können.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Die Komplexität von Softwareprojekten hat in den letzten Jahren stetig zugenommen. Um den gleichzeitig steigenden Anforderungen an die Codequalität gerecht zu werden, setzen auch ursprünglich dynamisch typisierte Programmiersprachen zuhnemend auf statische Typisierung. Dies kann in Form von externen Werkzeugen geschehen, die zusätzlich zum eigentlichen Compiler den Code auf Typsicherheit überprüfen, oder alternativ durch Erweiterung der Compiler selbst, um die Unterstützung für statische Typisierung direkt in der Sprache zu verankern. Ziel des etylizer-Projekts ist es, für die Programmiersprache Erlang zunächst ein solches externes Tool bereitzustellen und langfristig Teil der Compiler-Toolchain zu werden.In dieser Arbeit wird der Typchecker um die Fähigkeit erweitert, Erlang-Projekte vollständig zu verifizieren. Dafür wird zunächst die interne Symboltabelle erweitert, die etylizer nutzt, um Verweise auf Funktionen und Typen aus anderen Modulen aufzulösen. Die Implementierung der Symboltabelle wird so angepasst,dass sie zur Laufzeit um alle für das aktuell geprüfte Modul benötigten Symbole erweitert wird. Um die Laufzeit im Rahmen zu halten, wird ein Algorithmus entwickelt, der die Abhängigkeiten zwischen den Source-Code Dateien des Erlang-Projekts erkennt und anhand dieser entscheidet, welche Dateien sich seit dem letzten Durchlauf geändert haben und deshalb erneut überprüft werden müssen.
In dieser Forschungsarbeit wird die Datensicherheit von Microsoft Azure analysiert und bewertet. Die Bewertung findet dabei aus der Sicht von Unternehmen statt. Im ersten Abschnitt wird zunächst der grundlegende Aufbau und die unterschiedlichen Formen des Cloud Computing beschrieben. Im zweiten Teil wird ein Vergleich der drei größten Cloud Anbieter vollzogen. Der letzte Teil besteht aus der Evaluation der Datensicherheit von Azure, wobei auf Aspekte wie Datenschutz, Bedrohungen und Schutzmaßnahmen eingegangen wird. Abschließend wird eine Empfehlung für das Unternehmen Bechtle GmbH Offenburg IT-Systemhaus abgegeben.
Im Verlauf der Arbeit stellt sich heraus, dass Azure eine ausreichende Datensicherheit bieten kann. Allerdings wird deutlich, dass durch die Kombination von mehreren Nebenfaktoren wie das Patch-Verhalten oder die Antwortzeit auf Sicherheitsschwachstellen seitens Microsofts, eine große Gefahr für die Daten von Unternehmen entstehen kann. Demnach ist Microsoft als Anbieter ein größeres Problem für die Sicherheit von Daten in Azure als der Cloud-Dienst selbst.
Die Thesis beschäftigt sich mit dem Kommunikationsprotokoll Lightweight Machine to Machine, welches für das Internet of Things entwickelt wurde. Es soll untersucht werden, wie das Protokoll funktioniert und wie es eingesetzt werden kann. Ebenfalls soll die Thesis zeigen, wie und ob Lightweight Machine to Machine über Long Term Evolution for Machines für Anwendungen mit begrenzten Ressourcen geeignet ist. Um diese Fragestellung zu beantworten, wurde das Protokoll auf Grund seiner Spezifikation und seinen Softwareimplementationen untersucht. Daraufhin wurde ein Versuchssystem entworfen und dieses anschließend auf sein Laufzeitverhalten und auf sein Energieverbrauch getestet. Die Evaluation des Protokolls ergab, dass es viele sinnvolle Funktionen zugeschnitten auf Geräte im Internet of Things besitzt und diese Funktionen kompakt und verständlich umsetzt. Da das Protokoll noch relativ jung ist, stellt es an verschiedenen Punkten eine Herausforderung dar. Die Tests des Versuchssystems ergaben, dass Lightweight Machine to Machine sich unter bestimmten Bedingungen für ressourcenbegrenzte Anwendungen eignet.
Eine neue Programmiersprache zu erlernen kann für Anfänger:innen manchmal schwer sein, selbst für Programmiersprachen wie Python, die bekannt dafür sind Einsteigerfreundlich zu sein. Denn selbst wenn die Syntax eines Python Programms schnell verstanden wird, ist oft nicht direkt erkenntlich wie der Code hinter dem Programm funktioniert. Anfänger:innen können dabei auch auf ihre Grenzen stoßen, den Ablauf eines Programmes nur alleine durch den Programmcode zu verstehen. Denn der Text der den Code ausmacht, kann auch nur bis zu einem gewissen Grad vermitteln wie oder was genau abläuft. Um den Ablauf eines Programms besser vermitteln zu können, wird der Code oft z.B. mit Diagrammen visualisiert. Visuelle Elemente können ebenfalls zusätzlich zum Code mehr Unterstützung leisten. Das Thema dieser Arbeit beschäftigt sich mit der Visualisierung von Python Programmen in der Entwicklungsumgebung Visual Studio Code, um Programmieranfänger:innen und Student:innen beim Erlernen der Programmiersprache Python zu unterstützen. Die Entwicklung der Visualisierung beinhaltet, das Erstellen einer Erweiterung in Visual Studio Code, die unter anderem das Debug Adapter Protocol einsetzt um mit dem Python Debugger zu kommunizieren.
Software-defined Access (SD-Access, SDA) hat aufgrund der flexiblen, automatisierten und schnelleren Verwaltung von Unternehmensnetzwerken erhebliche Aufmerksamkeit erlangt. Im Gegensatz zu traditionellen Netzwerken mit manuellen Prozessen, bietet SD-Access Zugriffsrichtlinien, Netzwerksegmentierung und Endpunktüberwachung in einer Lösung und trägt damit zur Netzwerksicherheit in Unternehmen bei.
Zunächst wird die SD-Access-Lösung von Cisco vorgestellt und herausgearbeitet, welche Komponenten dafür benötigt werden. Auf dieser Grundlage wird überprüft, welche Voraussetzungen zur Einführung von SD-Access im konkreten Anwendungsfall, dem SWR, geschaffen werden müssen.
Anschließend wird in einer experimentellen Phase im SWR-eigenen Netzwerklabor eine beispielhafte Architektur mit allen benötigten Komponenten zu Testzwecken konzeptioniert und implementiert. Dabei ist das Design und die Konfiguration möglichst nahe an der realen Umgebung des SWRs orientiert. Mit dem vorliegenden Testsetup werden dann bestimmte Funktionen und Anwendungsszenarien genauer aufgezeigt und die Relevanz für den Sicherheitsgewinn im SWR-LAN untersucht.
Darauf folgt eine abschließende Beurteilung des Sicherheits- und Effizienzgewinns durch die Einführung von SD-Access im SWR-Netzwerk.
This work addresses the conceptualization, design, and implementation of an Application Programming Interface (API) for the Common Security Advisory Framework (CSAF) 2.0, introducing another method for distributing CSAF documents in addition to two already existing methods. These don't allow the use of flexible queries as well as filtering, which makes it difficult for operators of software and hardware to use CSAF. An API is intended to simplify this process and thus advance the automation goal of CSAF.
First, it is evaluated whether the current standard allows the implementation of an API. Any conflicts are highlighted and suggestions for standard adaptations are made. Based on these results, the API is designed to meet the previously defined requirements. Subsequently, a proof of concept is successfully developed according to the design and extensively tested with specially prepared test data. Finally, the results and the necessary standard adjustments are summarized and justified.
The conceptual design and the implementation were successfully completed. However, during the implementation of the proof of concept, some routes could not be fully implemented.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
Die Nutzung Mobiler Endgeräte nimmt zu, Ortsgebundenheit immer mehr ab. Dieser Wandel bringt Veränderungen mit sich, so auch im Bereich Softwareinstallation. Das Installieren von Software über die Cloud ist im Konsumerbereich bereits stark vertreten. Nicht nur am Desktop, sondern insbesondere bei mobilen Endgeräte, wie Smartphones und Tablets wird Software, bzw. werden Apps fast ausschließlich nur noch über das Internet installiert.
Das ist ein aktuelles Thema für den Sensorhersteller SICK.
SICK entwickelt Sensoren, die programmierbar sind, sogenannte AppSpace-Sensoren, was über das Aufspielen von sogenannten SensorApps bereitgestellt wird.
Aufgrund dieser Entwicklung, dem Trend hin zu Cloudlösungen und Ortsungebundenheit, sieht das Unternehmen SICK die Notwendigkeit den Installationsprozess mithilfe einer mobilen App über das Internet anbieten zu können. Deshalb wurde im Rahmen der Arbeit eine hybride mobile App entwickelt, mit der es möglich ist, SensorApps über die Cloud auf ein SICK AppSpace-Gerät aufzuspielen. Dafür wurde auf Basis einer Nutzerrecherche ein Konzept entwickelt, welches im Anschluss mithilfe von gängigen Webtechnologien als hybride App umgesetzt wurde.
Die Fortschritte in der künstlichen Intelligenz ermöglichen es uns komplexe Aufgaben mit weniger Aufwand und in kürzerer Zeit zu lösen. Daraus ergibt sich auch die Möglichkeit komplexe Daten effizienter zu verarbeiten.
Smarte Technologien, insbesondere Smartphones und Wearables, sind in den letzten Jahren immer mehr zu alltäglichen Massenmedien geworden und sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Dadurch ergeben sich für Angreifer neue Angriffsvektoren, die die Privatsphäre und Sicherheit der Daten der Nutzer gefährden.
Zielaspekt dieser Arbeit ist es zu zeigen, dass eingebaute Sensoren in smarten Technologien ein Sicherheitsrisiko mit sich bringen, welches mithilfe von Deep-Learning ausgenutzt werden kann.
Hierfür wurden zwei LSTM-Netze implementiert, welche in der Lage sind Rückschlüsse auf eingetippte Ziffern und Buchstaben zu ziehen. Damit wird demonstriert, dass Machine-learning-basiertes Keylogging mittels externen Sensordaten möglich ist und der Angriff durch das Machine-learning vereinfacht wird.
Diese Arbeit beschäftigt sich mit der Entwicklung einer E-Learning Anwendung zum Peer-to-Peer Algorithmus Content Addressable Network (CAN). Ein CAN ist eine verteilte Hashtabelle zur dezentralen Verwaltung von Daten in Form von Schlüssel-Wert Paaren. Zweck der Anwendung ist eine didaktisch sinnvolle Aufbereitung und Darstellung der grundlegenden Abläufe im CAN. Die Anwendung simuliert ein CAN und bietet ein grafisches Interface zur Interaktion. Die Anwendung soll unterstützend im Rahmen des Moduls Advanced Networking im Informatik Master an der Hochschule Offenburg eingesetzt werden.
In dem letzten Jahr, welches von der Corona Pandemie geprägt war, wurde das Arbeiten von zu Hause aus durch die Unternehmen stark vorangetrieben. Auch wenn dies zuerst nur als Übergangslösung gesehen wurde, scheint dieser Trend sich auch nach der Pandemie fortzusetzen. In den meisten Heimnetzwerken ist die IT-Sicherheit allerdings deutlich schwächer ausgebaut, als dies in Unternehmen ist.
Da die Umstellung in das Home-Office sehr schnell durchgeführt wurde, sehen sich viele Arbeitnehmer und Arbeitgeber mit dieser Situation überfordert, auch im Heimnetzwerk des Anwenders für eine geeignete Sicherheit zu sorgen. In dieser Ausarbeitung werden daher einzelne Angriffe auf IT-Systeme im Heimnetzwerk aufgegriffen sowie Lösungsansätze, um eine sichere Heimnetzwerkumgebung zu schaffen.
Bereichsübergreifender Einsatz von JavaScript – Aktueller Stand und exemplarische Implementierung
(2021)
Nahezu alle Websites nutzen die Programmiersprache JavaScript zur Darstellung von interaktiven Inhalten und zur Bereitstellung von komplexen Funktionalitäten. Seit ihren Anfängen im Jahr 1995 hat sich die Sprache nicht nur zum Standard in der Webentwicklung etabliert, sondern auch zu einer leistungsfähigen Mehrzweckprogrammiersprache weiterentwickelt.
Diese Arbeit befasst sich mit einer ausführlichen Darstellung der aktuellen Möglichkeiten, welche Ansätze sich durch die Weiterentwicklung JavaScripts zu einer Mehrzweckprogrammiersprache ergeben und wie sich diese heute umsetzen lassen. Anhand des intelligenten Schlüsselkastens „Smart Vault“ wird verdeutlicht, wie dieses Vorgehen praktisch realisiert und die Vorteile einer einzigen Programmiersprache angewendet werden können.
Es hat sich herausgestellt, dass sich JavaScript für Anwendungen unterschiedlicher Bereiche einsetzen lässt und darüber hinaus ein hohes Potenzial für weitere Entwicklungen, Verbesserungen und zusätzliche Einsatzgebiete besitzt. Es lassen sich nicht nur Websites, Web Server und Desktop Apps, sondern auch Mikrocontroller im Internet of Things konfigurieren und miteinander nutzen, ohne eine weitere Programmiersprache zu benötigen. Zahlreiche Bibliotheken und Frameworks machen es möglich, dass die Sprache verschiedene Anwendungen über ihre Einsatzgebiete hinweg miteinander verbindet.
Seit 2009 nimmt das Team ”magmaOffenburg” an der 3D-Simulationsliga des RoboCups teil. Für das erfolgreiche Abschneiden in Turnieren ist die Qualität der erlernten Bewegungsabläufe ein zentraler Faktor. Bisher wurden genetische Algorithmen verwendet, um verschiedenste Aktionen zu erlernen sowie zu optimieren. In dieser Arbeit wird der Deep Reinforcement Learning Algorithmus Proximal Policy Optimization für das Erlernen bestimmter Bewegungen verwendet. Um ein Verständnis für dessen einflussreichen Parameter zu erhalten, werden Größen wie paralleles Lernen, Hyperparameter, Netzwerktopologie, Größe des Observationspace sowie asynchronem Lernen anhand dem Kicken aus dem Stand evaluiert. Durch die Ergebnisse der Evaluierung konnte der erlernte Kick signifikant verbessert werden und sein genetisch erlerntes Gegenstück im Spiel ablösen. Drüber hinaus wurden die Erkenntnisse anhand dem Laufen lernen evaluiert und Zusammenhänge bzw. Unterschiede der zwei Lernprobleme festgestellt.
Das Ziel dieser Thesis ist es, die Gefahren die von Makros in Microsoft Office Dokumenten ausgehen, zu beschreiben und geeignete Sicherheitsmaßnahmen zu finden. Dazu ist eine Literaturrecherche, sowie eine eigenständige Malware-Analyse durchgeführt worden. Das Ergebnis dieser Arbeit ist, dass von Makros eine große Sicherheitsgefahr ausgeht und, dass geeignete Sicherheitsmaßnahmen existieren, um die Gefahren von Makros deutlich einzuschränken. Jedoch werden diese Sicherheitsmaßnahmen oft nicht umgesetzt, da entweder kein Bewusstsein für diese Art von Gefahr herrscht oder die Implementierung zu teuer beziehungsweise zu aufwändig ist.
Drohnensteuerungen sind häufig sehr komplex und verbunden mit Hardwarekontrollern. Mittels heutiger Technologien, wie zum Beispiel der künstlichen Intelligenz oder der Sensoren Technologie, können diese jedoch vermehrt modifiziert und an die Bedürfnisse der Nutzer angepasst werden. Eine der kommenden Technologien hierfür ist das Hand Capture. Das Ziel dieser Bachelorarbeit ist es, die Technologie des Hand Capture mit einfachen Mitteln zu rekonstruieren und mittels dieser eine virtuelle Drohne in einem Simulationsspiel durch drei unterschiedliche Level steuern zu können. Außerdem sollen die aktuellen Hand Capture sowie Drohnensteuerungsmöglichkeiten aufgezeigt werden. Zur Realisierung des Hand Capture werden zwei Handkontroller angefertigt, die über jeweils einen Beschleunigungssensor an jeder Hand verfügen. Diese sind verbunden mit einem Arduino Mikrocontroller, der die Beschleunigungssensoren über das I²C-Protokoll ausliest. Um die virtuelle Drohnensteuerung und deren Simulation umzusetzen, wird die Echtzeit-3D-Entwicklungsplattform Unity verwendet. Zwischen Unity und dem Arduino wird über den seriellen Port durch eine USB-Schnittstelle eine bidirektionale Kommunikation aufgebaut, über welche die ausgemessenen Werte übertragen werden können. Zuvor werden diese Werte aber noch im Arduino in Roll- und Pitchneigungen umgewandelt, sodass Unity diese einfacher als Steuerbefehle für die Drohne interpretieren kann. Das Ergebnis ist eine funktionsfähige Drohnensteuerung, welche die Grundbewegungen der Drohne abdeckt. Zusätzlich zu der Drohnensteuerung werden in Unity drei Level erstellt, die es dem Nutzer ermöglichen, die Steuerung zu erlernen und die Drohne mit hoher Geschwindigkeit zu fliegen sowie in einem großen, offenen Level zu manövrieren. Einzelne Playtests der Simulation in denen die Level problemlos bewältigt werden konnten, bestätigen, dass die Drohnensteuerung die Aspekte: Übertragungsgeschwindigkeit, Präzision, Benutzerfreundlichkeit und Anzahl der Steuer- und Eingabemöglichkeiten erfüllt und somit als eine alternative Steuerungsmöglichkeit funktioniert.
Diese Bachelor Thesis behandelt das Thema MQTT 5, ein Anwendungsprotokoll im Internet der Dinge, das im Januar 2018 veröffentlicht wurde. MQTT 5 dient zur Kommunikation zwischen Geräten die mit dem Internet verbunden sind.
Innerhalb dieser Thesis werden die Neuerungen und Verbesserungen von MQTT 5 beschrieben.
Es wird untersucht, welche Mikrocontroller, SoC-Computer, Programmier-Frameworks und lattformdienste MQTT 5 unterstützen.
Anschließend wird die Entwicklung eines Smarthome-Szenarios beschrieben, das im "Interaktive Verteilte Systeme Labor" an der Hochschule Offenburg zur Anwendung kommt.
Um die Umgebung während der Durchführung von Laborversuchen zu verbessern,werden die Temperatur, Luftfeuchtigkeit, Luftqualität, Lautstärke und Lichtstärke im Labor gemessen.
Diese Werte werden anhand von Lichtern, die ihre Farbe ändern und einer Steckdose, die sich je ach Wert ein- und ausschaltet, visualisiert.
In dieser Arbeit werden die Bedrohungen für ein lokales IPv6 Netzwerk, mit besonderem Hinblick auf das neu eingeführte Neighbor Discovery Protocol (NDP), analysiert. Dabei wird der Frage nachgegangen, wie ein IPv6 Netz gegen lokale Angriffe geschützt werden kann. Zunächst werden mögliche Angriffe auf das Netzwerk beschrieben. Gegen die dann jeweils Maßnahmen vorgestellt werden. Die Funktionsweise der Maßnahmen wird erläutert und die mit Einführung sowie Betrieb verbundenen Kosten und Nutzen eingeordnet. Darauf basierend wird eine Bewertung der Maßnahmen durchgeführt, um konkrete Handlungsempfehlungen zum sicheren Betrieb von IPv6 Netzen in der Praxis zu geben. In der Bewertung wird deutlich, dass ein Großteil der Maßnahmen noch nicht ausgereift oder nur bedingt praktisch anwendbar erscheint. Reaktive Maßnahmen wie NDPMon eignen sich dabei nach Ergebnissen der Analyse am besten zur Absicherung von NDP Verkehr. Um die Integration von NDPMon durch eine einheitliche Plattform zu erleichern, wird ein Einsatzbeispiel auf Basis des ARM-Einplatinencomputer Raspberry Pi beschrieben. Abgeschlossen wird die Arbeit mit einem Fazit zur lokalen Absicherung von IPv6 Netzwerken und den damit verbundenen Herausforderungen, sowie einem kurzen Ausblick auf zukünftige Entwicklungen im Bezug auf Schutzmaßnahmen.
Informationsvisualisierung im Kundenbeziehungsmanagement am Beispiel eines interaktiven Streamgraphs
(2014)
In dieser Arbeit wird der Streamgraph als Methode der Informationsvisualisierung im Kontext des Kundenbeziehungsmanagements vorgestellt. Neben der Auseinandersetzung mit den theoretischen Grundlagen dieser Themenbereiche wird die Eignung des Streamgraphs als Form der Visualisierung überprüft. Hierfür wird ein CRM-spezifischer Anwendungsfall erarbeitet und in einer webbasierten Applikation prototypisch realisiert. In diesem Zusammenhang werden Anforderungen in Bezug zu Interaktivität und Funktionalität aufgestellt und im Prototypen implementiert. Die Anforderungen an die Interaktivität orientieren sich hierbei an dem von Ben Shneiderman aufgestellten Mantra der visuellen Datenexploration.
In der abschließenden Auswertung wird eine bedingte Eignung für den Einsatz des Streamgraphs als effiziente Visualisierungsform im unternehmerischen Kontext festgestellt. Im Hinblick auf den Anwendungsfall erfüllt dieser zwar alle an ihn gestellten Anforderungen, die korrekte Lesbarkeit der Daten ist aufgrund seiner Form jedoch nicht gewährleistet.
Arduino ist weitaus mehr als eine Leiterplatine mit verschiedenen Hardwarekomponenten, welche behilflich sind, die physische Welt zu erfassen und eine Verbindung zur virtuellen Welt herzustellen. Arduino besteht aus Communities, Plattformen und engagierten Entwicklern, die diese Open-Source-Plattform stetig weiterentwickeln. Durch die bereitgestellte Entwicklungsumgebung und der eigenen Programmiersprache können sogar Programmier-Laien mit diesen Boards umgehen und erste Projekte realisieren. Darüberhinaus existieren viele Klone auf dem Markt, welche eine preiswerte Integration eines Mikrocontrollers in ein Projekt ermöglichen und dennoch kompatibel zu Arduino sind und die Entwicklungsumgebung mitsamt den Bibliotheken nutzen lassen. Die Nachfrage nach vernetzten Lösungen zum Beispiel in der Hausautomation wächst unaufhaltsam und ist präsenter denn je. Für Hobbybastler und Entwickler bietet auch Arduino hierzu die geeigneten Hardwareerweiterungen an, um den Arduino in eine vernetzte Umgebung zu integrieren. Hierbei wird das Board nicht nur in Verbindung zur Client/Server-Kommunikation über das Internet verwendet, sondern auch im Funkbereich in Heimnetzwerken. Aufgrund der großen Nachfrage bezüglich Lösungen im Phyiscal- Computing-Bereich, können schon jetzt viele Standards in den genannten Bereichen eingesetzt werden, indem ein entsprechendes Erweiterungs-Shield für Arduino bezogen wird. Durch Bibliotheken ist die Einbindung mit nur geringem Aufwand verbunden und lässt somit experimentell in kurzer Zeit eine Idee in eine prototypische Implementierung umsetzen. Durch verschiedene Sensoren und Aktuatoren kann die Umgebung erfasst werden und zum Beispiel mechanische Komponenten gesteuert werden. In dieser Thesis wurde untersucht, inwiefern ein Arduino-Board als Monitoring-Anwendung im Gesundheitswesen eingesetzt werden kann. Der Anwendungsfall, der dabei durch den Autor festgelegt wurde, befasst sich mit unter Epilepsie leidenden Kindern. Der Prototyp soll hierbei über Sensoren den Schlaf dieser überwachen und die gewonnenen Daten an einen Server übermitteln. Die Implementierung des Boards in eine derartige Anwendung umschließt auch die Integration des Controllers in vernetzte Umgebungen, da für den Heimbereich die über Sensoren erfassten Daten, zum Ermitteln der Vitalfunktionen und Bewegungen, über ein Funknetzwerk übertragen werden und anschließend eine Client/Server-Kommunikation zwischen Arduino und PaaS-Server eine Verbindung über das weltweite Netzwerk abdeckt. Insofern wurden diesbezüglich bei der prototypischen Implementierung zwei vernetzte Umgebungen abgedeckt. Im Zusammenhang mit der Recherche und Implementierung eines Prototypen wird zudem das Potenzial von Arduino aufgezeigt, welches sich in der einfachen Handhabung, guten Konfigurationsmöglichkeiten und umfangreichen Hardwareerweiterungen beweist.
Konzept und Realisierung einer Smartphone-App, für die 3D-Visualisierung von Jogging-Aktivitäten
(2014)
Im Rahmen dieser Arbeit wird eine App konzipiert und entwickelt, welche die Häufigkeit und Art der Fortbewegung eines Nutzers visuell erfassbar aufbereitet. Eine dreidimensionale Darstellungsart zielt dabei besonders auf eine bessere Übersicht und Wertschätzung der erbrachten Laufleistung ab. Dies soll durch personifizierte Visualisierungsmöglichkeiten, in Verbindung mit dem 3D-Druck, gefördert werden. Der entwicklete Prototyp bildet die Grundlage für die Bereitstellung eines solchen leistungsorientierten 3D-Druckprodukts.
This thesis deals with the implementation of character controls and combat system of the Action Adventure 'Scout 3D'. The game development was realized with the game engine Unity 3D. In the first part, the architecture of a typical game engine is explained. The single components are describes step by step. Then, five well-known game engines are compared and evaluated. In the next chapter, a short overview about design and architecture patterns is worked out. The features of Unity, that are used for the implementation, and Unity's animation system 'Mecanim, are described finally. The second part includes the requirement definitions for the game 'Scout COD' which define player input, different conditions that allow or disallow several activities and the behaviour of enemies. With the help of patterns the architecture of the game is designed. Then, the implementation is explained by means of code snippets.
Gegenstand der hier vorgestellten Arbeit ist eine Webanwendung, die als Lernhilfe für die Grundlagen des algorithmischen Denkens und Arbeitens dienen soll. Das Erstellen eines Struktogramms (Nassi-Shneiderman-Diagramm) dient in vielen Vorlesungen und Unterrichten, die sich mit den Grundlagen der Informatik beschäftigen, als Mittel der Darstellung eines Algorithmus. Hierfür bestehen die unterschiedlichsten Editoren. Dabei handelt es sich um PC- oder Webanwendungen, welche hauptsächlich in Java realisiert sind. Diese Thesis beschäftigt sich mit der Erstellung eines webbasierten Tools, das es ermöglicht, ein solches Struktogramm zu erstellen und auch auf Funktion zu testen. Hierbei steht jedoch nicht nur die reine Ausführbarkeit, sondern auch der didaktische Nutzen im Vordergrund. Ziel ist es, mit der Anwendung die Studierenden des ersten Semesters des Studiengangs Medien und Informationswesen bei allen Vorgaben, die das Struktogramm betreffen, zu unterstützen. Die Ausführbarkeit des Struktogrammes ist hierbei eine wichtige Hilfe um eigene Fehler zu erkennen und zu verstehen. Umgesetzt wird die Anwendung mit dem interaktiven SVG-Format. Dabei handelt es sich um vektorbasierte Grafiken, die über JavaScript interaktiv gestaltet werden können. Die Arbeit enthält zudem eine gründliche Recherche über vergleichbare Anwendungen, deren Vor- und Nachteile sowie einen Vergleich untereinander. Aus den Resultaten der Vergleiche sowie weiterer Recherche im Bereich der Didaktik werden die Anforderungen an ein entsprechendes Hilfsmittel erfasst und aufgestellt. Nach der Konzeptionierung wird ein Prototyp erstellt und eine erste Evaluierung durchgeführt. Schlussendlich folgt eine Zusammenfassung und ein Ausblick.
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
In dieser Arbeit werden zunächst die technischen Grundlagen, die zur Erstellung der Applikation notwendig sind, näher betrachtet. Hierbei wird der Unterschied zwischen Nativen Apps und WebApps beleuchtet und verschiedene Techniken für die mobile Webentwicklung vorgestellt. Anschließend werden die didaktischen und sprachlichen Grundlagen, die eine optimale Aufbereitung des Lernstoffes gewährleisten sollen, näher betrachtet. Dabei werden neben der Sprachdidaktik und Methodik auch der Lernprozess sowie die japanische Sprache beleuchtet. Abgerundet wird dies mit einem Blick auf andere Sprachlernsoftware für die japanische Sprache. Danach wird auf die Konzeption der Applikation, welche den Aufbau und die Lerninhalte umfasst, eingegangen, bevor dann schließlich die Umsetzung der Applikation beschrieben wird. Hierbei werden einzelne Aspekte und Probleme der Realisierung näher beleuchtet.
Diese Bachelorarbeit befasst sich in Theorie und Praxis mit der Erstellung von mobilen Applikationen mit dem Ziel, einen reifen Prototypen einer App für das Schwarzwälder Freilichtmuseum Vogtsbauernhof in Gutach zu entwickeln. Smartphones sind heute ein wichtiger Bestandteil im Alltag vieler Menschen. Der Mobilfunkmarkt hat sich in den letzten Jahren dank zahlreicher Innovationen stark weiterentwickelt. Hierdurch ergeben sich neue Möglichkeiten des Einsatzes von digitalen Medien. Durch den Einsatz von Apps müssen Museen keine eigenen Geräte anschaffen, sondern können Applikationen für Smartphones anbieten. Die Erstellung der App wurde in zwei Bereiche aufgeteilt: 1. Redaktion, Design und Kommunikation 2. Technische Konzeption und Umsetzung Der Schwerpunkt dieser Bachelorarbeit liegt auf der technischen Konzeption und Umsetzung einer App für das Schwarzwälder Freilichtmuseum Vogtsbauernhof.
Integration eines Shopsystems in Typo3 am Beispiel „Relaunch des Webauftritts Elbe&Flut Edition“
(2013)
Im Rahmen meiner Bachelorarbeit habe ich bei Elbe&Flut, Agentur für Fotografie und Gestaltung in der Hamburger Speicherstadt, eine Neuauflage der Webpräsenz für den Verlag Elbe&Flut Edition erstellt. Themenschwerpunkt der Elbe&Flut Edition ist Hamburgs Viertel zwischen Tradition und Vision — die Speicherstadt mit der wachsenden Hafencity. Ziel der Bachelorthesis war ein ganzheitlicher Webauftritt der Website mit einem Gesamtumfang von circa 25 Seiten, erstellt mit dem Content Management System Typo3 Version 4.5, um das nachträgliche Ändern und Einfügen von Inhalten effizient und simpel zu gestalten. Hinzu wurde ein Online-Shop für die Elbe&Flut Edition integriert, über den Bücher sowie Kalender geordert werden können. Dafür werden verschiedene Web-Shopsysteme wie die Typo3-Erweiterung Commerce und tt_products zu einem funktionalen Vergleich herangezogen. Die Einbindung von JQuery-Elementen wie Slidern, Lightboxes und Popups soll eine ästhetische und angemessene Benutzerfreundlichkeit sinnvoll unterstützen. Ausgangspunkt für die neuen Webpräsenzen war die damalige Website der Elbe&Flut Edition euf-edition.de, von der ein Großteil des Inhaltes übernommen wurde.
Diese Arbeit beschäftigt sich primär mit der Erstellung von Konzepten, welche in den Bereichen der langfristigen Planung, welche eine IT-Strategie festlegt und der kurzfristigen Steuerung des Tagesgeschäfts, ein besser strukturiertes und effizienteres Vorgehen im Umgang mit der Vielzahl an anfallenden Daten und Informationen ermöglichen sollen. Hierzu werden in den Grundlagen zunächst alle relevanten Begriffe geklärt, welche in diesem Umfeld auftreten. Im Kapitel Stand der Technik werden, die in der Industrie am meisten zertifizierten Standards, zur Lösung dieser Problematik vorgestellt. In der darauf folgenden Konzeption werden alle notwendigen Elemente konzipiert. Dafür erfolgt zunächst eine Auswahl der ITIL-Prozesse, welche für ein erfolgreiches IT-Controlling umgesetzt werden sollen. Danach wird ein Vorschlag für einen Service-Katalog auf Basis von ITIL entwickelt, der es ermöglichen soll die wachsende Anzahl von IT-Services an Hochschulen zu verwalten. Nach diesem erfolgt eine Konzeption von neuen Kostenstellen und Kostenarten für das Rechenzentrum der Hochschule Offenburg. Dies ist notwendig, da die aktuellen Kostenstellen und Kostenarten nicht mehr den Anforderungen des Rechenzentrums gerecht werden. Auch wird in dieser Arbeit eine Konzeption für ein einfaches ordnerbasiertes Ablagesystem zur Verwaltung von Partner-, Lizenz- und Vertragsdokumenten erstellt. Der letzte Punkt dieser Arbeit besteht in der Konzeption und Umsetzung eines Informationssystems, durch welches alle relevanten Daten grafisch ansprechend aufbereitet zur Verfügung gestellt werden sollen. Die Umsetzung dieses Informationssystems wird in dieser Arbeit mithilfe der beiden Open-Source-Tools Talend und Palo vorgenommen.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
In dieser Bachelorarbeit geht es um die Konzeption und Realisierung einer Web-App für das iPad. Zuerst werden allgemeine Themen zu Apps auf Smartphones und Tablets besprochen und Unterschiede zwischen einer nativen App und einer Web-App aufgezeigt. Auf Basis der gängigen Webtechnologien HTML5, CSS3 und JavaScript, sowie mit Hilfe des Frameworks jQuery Mobile werden Grundlagen einer Web-App erklärt. Im Anschluss daran wird erläutert, wie die das praktische Beispiel der "Movie-DB" umgesetzt wurde.
Das Thema Honeypot nimmt einen immer größeren Stellenwert in der Weiterentwicklung der Informationssicherheit ein. Honeypots dienen nicht nur zur Erforschung von Angriffsmethoden und Vorgehensweisen, sondern können auch im Unternehmensumfeld aktiv zur Verbesserung der IT-Sicherheitsmaßnahmen beitragen. Diese Arbeit hat sich das Ziel gesetzt, das Themenspektrum Honeypot in Theorie und Praxis näher zu untersuchen. Im ersten Teil wird ein allgemeiner Überblick über das Thema Honeypot und Honeynet gegeben. Hier wird erklärt, welche Honeypot-Typen und Architekturen es gibt, welche Anforderungen ein Honeypot stellt und welche Risiken der Betrieb eines Honeypot-Systems verursacht. Am Ende des ersten Kapitels werden einige Beispiele eines Honeypot-Systems beschrieben. Im zweiten Teil wird konkret auf die Implementierung eines High Interaction Honeypots eingegangen, dessen Überwachungszentrale die Honeywall bildet. Dieser praktische Teil erklärt, wie ein komplettes Honeypot-System auf Basis der 'Honeywall CDROM Roo' eingerichtet wird, welche Möglichkeiten und Werkzeuge das Überwachungssystem besitzt und welche Einstellungen und Besonderheiten beim Einrichten beachtet werden müssen. Im darauffolgenden dritten Teil werden die gesammelten Daten ausgewertet. Dazu wird zuerst ein Überblick über mögliche Angreifer und deren Angriffswege gegeben. Mit diesem Hintergrundwissen werden die Daten im weiteren Verlauf konkret analysiert und zum Teil visualisiert. Nach dem praktischen Teil wird ein Ausblick gegeben, welche Ausbaumöglichkeiten die Versuchsanordnung bietet, welchen Schwerpunkt die Weiterentwickelung der Honeywall einnimmt und welche rechtlichen Fragen der Betrieb eines Honeypots aufwirft. Zu guter Letzt wird die Arbeit durch ein Fazit abgeschlossen.
Diese Arbeit beschäftigt sich mit der Leistungsanalyse und Optimierung eines Flugdatenservers. Für die Durchführung dieser Leistungsanalyse wird eine eigene Anwendung entwickelt. Mit dieser eigens entwickelten Anwendung wird das Leistungsverhalten des Flugdatenservers genau analysiert. Mit den Erkenntnissen aus der Leistungsanalyse werden am Flugdatenserver Optimierungen durchgeführt und weitere Möglichkeiten zur Optimierung aufgezeigt. Bei diesem Flugdatenserver (Air Traffic Control Server) handelt es sich um eine Client/Server-Anwendung zur Visualisierung von Flugbewegungen im Lauftraum. Hierfür wird der Flugdatenserver mit Flugsicherungsdaten durch das Flugüberwachungssystem Automatic Dependent Surveillance (ADS) versorgt.
Die Bachelor-Thesis "Entwicklung eines Web-Portals für M+I-Studierende" befasst sich mit der Entwicklung des Studierendenportals MI-Complete der Fakultät M+I der Hochschule Offenburg. In den üblichen Arbeitsschritten (Analyse, Konzeption, Umsetzung, Evaluation, Ausblick) wird darin der Werdegang des neuen Studierendenportals MI-Practix beschrieben.
Diese Bachelor Thesis analysiert bisherige Mensch-Computer-Interaktion und nennt wichtige Grundlagen des Interaction Design. Im Rahmen der Arbeit wird prototypisch eine NUI-Anwendung (NUI: Natural User Interface) konzipiert und umgesetzt. Um eine erfolgreiche Neukonzeption von natürlichen Interaktionsmöglichkeiten zu ermöglichen, wird die Mensch-Objekt-Interaktion analysiert. Wichtige Eckpunkte im visuellen Interface-Design wie auch in der Umsetzung einer NUI-Anwendung werden deutlich gemacht. Das Fazit macht klar: eine erfolgreiche Umsetzung des Konzepts ist gelungen, Verbesserungsansätze werden genannt. Im letzten Kapitel werden Anwendungsfälle und Ausblicke aufgeführt. Ergebnis: bei geschickter, massentauglicher Implementierung ist natürliche Interaktion zwischen Mensch und Computer schon in naher Zukunft sehr gut möglich und keine Vision aus dem Bereich der Science-Fiction.
Einleitung: Kaum eine andere Branche entwickelt sich so rasant wie die IT-Industrie. Die kontinuierlich steigende Rechnerkapazität hat zur Folge, dass man heute bei Anwendungssoftware allgemein von einer Halbwertzeit von fünf Jahren ausgeht. Die immer leistungsfähiger werdende Hardware bedingt die ständige Entwicklung neuer Software. Anwender, die die damit verbundenen Möglichkeiten für sich nutzen wollen, sind somit gezwungen, sich diesem Prozess anzupassen. Ausgangspunkt dieser Bachelorarbeit war die Herausforderung, eine Musikdatenbank, die Mitte der neunziger Jahre mit dem veralteten Datenbankprogramm F&A erstellt und bis 2011 damit gepflegt wurde, in eine neue Umgebung zu übertragen. Die Hauptmotivation hinter diesem Projekt bestand darin, anschließend die Möglichkeit zu besitzen, die in dieser Musikdatenbank abgelegten Informationen, welche bisher ausschließlich dem Anwender (der Autor) persönlich zugängig waren, zukünftig auf einer Webseite bereitzustellen. Das bisherige System konnte diese Anforderung nicht erfüllen, weshalb der Anwender gezwungen war, sein altes Anwendungssystem in eine neue technologische Umgebung zu übertragen. Einen solchen Prozess bezeichnet man als Migration. Im Fokus dieser Arbeit steht die Migration von Informationssystemen. Ein solches System, bestehend aus Hardware, Datenbank, Software und Anwendungen, dient der Bereitstellung von Informationen für eine bestimmte Zielgruppe. Während sich im Falle der Musikdatenbank das Angebot an interessierte Musikliebhaber richtet und somit einem ausschließlich informativen Zweck dient, hat die Erfassung, Verarbeitung, Übertragung, Analyse und Bereitstellung von Informationen für Unternehmen eine weitaus existentiellere Bedeutung, da sämtliche Geschäftsprozesse davon abhängen. Aus diesem Grunde sind Migrationsprojekte für Unternehmen besonders kritisch. Entsprechend beschäftigt sich der Großteil der Fachliteratur vorrangig mit der Migration von betrieblichen Informationssystemen. Die Musikdatenbank, die im Rahmen dieser Arbeit migriert wurde, ist verglichen mit solchen Informationssystemen weitaus weniger komplex und kann somit auch nicht als Fallstudie für betriebliche Migrationen großem Umfangs dienen, die mitunter eine Dauer von mehreren Jahren aufweisen. Dennoch lassen sich auch an diesem relativ kleinen Projekt typische Problemstellungen eines Migrationsprozesses exemplarisch darstellen. Zunächst wird im Kapitel 1 ein Überblick über das Thema Migration gegeben. Im Kapitel 2 werden anschließend zwei Vorgehensmodelle vorgestellt, die in der Praxis bei der Migration komplexer Informationssysteme angewandt werden. Das Fallbeispiel, die Migration der Musikdatenbank, wird in den Kapiteln 3 und 4 betrachtet. Diese Arbeit hat nicht den Anspruch, neue Strategien in diesem Feld zu entwickeln. Sie gibt vielmehr einen Überblick über den aktuellen Stand der Wissenschaft, verdeutlicht anhand des Fallbeispiels konkrete Problemstellungen und zeigt Lösungswege auf. Im Fokus steht hier insbesondere die Migration der Daten, welche aufgrund der unkonventionellen Ablage im Ausgangssystem eine besondere Herausforderung darstellte.
3D Produktpräsentationen im Internet sind komplexe Rich Media Anwendungen, bei deren Erstellung es viel zu beachten gilt. Diese Arbeit beleuchtet verschiedene Aspekte zur Erstellung von 3D Produktpräsentationen. Das Zielmedium Internet, die Gestaltung von 3D Produkten und Layouts, die Interaktivität von 3D Produktseiten, Technologien zu Erstellung, technische Hürden des Mediums, Visionen und ein Projektablauf sowie eine Perspektive zur Entwicklung von 3D Produktpräsentationen sind die inhaltlichen Schwerpunkte der Arbeit.