004 Informatik
Refine
Year of publication
Document Type
- Bachelor Thesis (51)
- Master's Thesis (34)
- Conference Proceeding (6)
- Contribution to a Periodical (5)
- Article (reviewed) (2)
- Doctoral Thesis (2)
- Book (1)
Conference Type
- Konferenzartikel (6)
Keywords
- IT-Sicherheit (12)
- JavaScript (9)
- Deep learning (5)
- Blockchain (4)
- Computersicherheit (4)
- E-Learning (4)
- HTML 5.0 (4)
- Internet der Dinge (4)
- Internet of Things (4)
- Künstliche Intelligenz (3)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (37)
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (36)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (19)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (4)
- Zentrale Einrichtungen (3)
- Fakultät Wirtschaft (W) (2)
- IMLA - Institute for Machine Learning and Analytics (1)
Open Access
- Closed Access (47)
- Open Access (28)
- Closed (26)
- Diamond (3)
Mobile Anwendungen werden im beruflichen Umfeld immer häufiger eingesetzt und dienen als praktische Helfer für Vertriebsmitarbeiter oder im Kundendienst. Dagegen ist ein Einsatz in der Baubranche ein recht neues Feld. Die tägliche Erfassung der Leistungsergebnisse einer Baustelle samt Geräteeinsatz, Mitarbeiterstunden, Lieferungen und Wetterdaten in Tagesberichten wird von vielen Bauunternehmen bisher noch auf Papier erledigt und später von Hand in ein Verwaltungsprogramm übertragen. Die Dokumentation direkt vor Ort mit einem mobilen Endgerät bietet den Vorteil, dass die Daten sofort verfügbar sind und auch besser ausgewertet werden können. Im Rahmen der vorliegenden Masterthesis wird nun in Zusammenarbeit mit dem Bauunternehmen Grafmüller untersucht, wie eine mobile Anwendung zu diesem Zweck aussehen kann. Dabei werden zunächst die Betriebsdatenerfassung im Allgemeinen und die Hintergründe der mobilen Anwendungsentwicklung analysiert. Dies dient dann als Basis für die Konzeption und die Umsetzung der Anwendung. Dabei werden bereits existierende Konkurrenzprodukte und die aktuelle Situation der Tagesberichtserstellung betrachtet. Besonderes Augenmerk liegt auf der plattformunabhängigen Entwicklung. Dazu wird der Einsatz von Webtechnologien zur Erstellung von hybriden Apps mit Hilfe entsprechender Werkzeuge untersucht. Die Umsetzung selbst beinhaltet den generellen Aufbau der mobilen Anwendung auf Basis eines hybriden App-Frameworks. Dazu zählt die persistente Datenspeicherung und die Synchronisation mit einer Administrationsanwendung sowie weitere Zusatzfunktionen, die gerätespezifische Eigenschaften nutzen, beispielsweise GPS.
Die Komplexität von Softwareprojekten hat in den letzten Jahren stetig zugenommen. Um den gleichzeitig steigenden Anforderungen an die Codequalität gerecht zu werden, setzen auch ursprünglich dynamisch typisierte Programmiersprachen zuhnemend auf statische Typisierung. Dies kann in Form von externen Werkzeugen geschehen, die zusätzlich zum eigentlichen Compiler den Code auf Typsicherheit überprüfen, oder alternativ durch Erweiterung der Compiler selbst, um die Unterstützung für statische Typisierung direkt in der Sprache zu verankern. Ziel des etylizer-Projekts ist es, für die Programmiersprache Erlang zunächst ein solches externes Tool bereitzustellen und langfristig Teil der Compiler-Toolchain zu werden.In dieser Arbeit wird der Typchecker um die Fähigkeit erweitert, Erlang-Projekte vollständig zu verifizieren. Dafür wird zunächst die interne Symboltabelle erweitert, die etylizer nutzt, um Verweise auf Funktionen und Typen aus anderen Modulen aufzulösen. Die Implementierung der Symboltabelle wird so angepasst,dass sie zur Laufzeit um alle für das aktuell geprüfte Modul benötigten Symbole erweitert wird. Um die Laufzeit im Rahmen zu halten, wird ein Algorithmus entwickelt, der die Abhängigkeiten zwischen den Source-Code Dateien des Erlang-Projekts erkennt und anhand dieser entscheidet, welche Dateien sich seit dem letzten Durchlauf geändert haben und deshalb erneut überprüft werden müssen.
Diese Bachelor-Thesis beschreibt die Entwicklung eines Informationssystems, das abteilungsintern für verschiedene Report- und Controllingaufgaben in der Abteilung Organisation/IT genutzt wird. Grundlage bilden Daten über Hard- und Software aller Client-Computer, die von der in der PWO AG eingesetzten Anwendung zur Installation / Softwareverteilung (Microsoft SCCM) wöchentlich gesammelt werden. Zunächst wird die Funktionalität der Inventarisierung auf Korrektheit überprüft und die daraus entstehenden Daten analysiert. Benötigte Daten werden gefiltert, sortiert und teilweise mit bestehenden Datenbanken verknüpft. Daraus entsteht ein Webportal, welches es den zuständigen Mitarbeitern/innen ermöglicht, ohne manuellen Aufwand Clients, Software und Lizenzen zu verwalten und entsprechende Berichte zu erstellen. Zudem wird die bestehende CMDB durch bisher fehlende Daten ergänzt. Ziel ist es, die Aufgaben der IT-Abteilung an die ITIL Vorgaben innerhalb der PWO AG auszurichten, um so effektives und effizientes IT Service Management betreiben zu können. Gleichzeitig wird somit ein Standard für die Tochterwerke entwickelt.
Diese Arbeit beschäftigt sich primär mit der Erstellung von Konzepten, welche in den Bereichen der langfristigen Planung, welche eine IT-Strategie festlegt und der kurzfristigen Steuerung des Tagesgeschäfts, ein besser strukturiertes und effizienteres Vorgehen im Umgang mit der Vielzahl an anfallenden Daten und Informationen ermöglichen sollen. Hierzu werden in den Grundlagen zunächst alle relevanten Begriffe geklärt, welche in diesem Umfeld auftreten. Im Kapitel Stand der Technik werden, die in der Industrie am meisten zertifizierten Standards, zur Lösung dieser Problematik vorgestellt. In der darauf folgenden Konzeption werden alle notwendigen Elemente konzipiert. Dafür erfolgt zunächst eine Auswahl der ITIL-Prozesse, welche für ein erfolgreiches IT-Controlling umgesetzt werden sollen. Danach wird ein Vorschlag für einen Service-Katalog auf Basis von ITIL entwickelt, der es ermöglichen soll die wachsende Anzahl von IT-Services an Hochschulen zu verwalten. Nach diesem erfolgt eine Konzeption von neuen Kostenstellen und Kostenarten für das Rechenzentrum der Hochschule Offenburg. Dies ist notwendig, da die aktuellen Kostenstellen und Kostenarten nicht mehr den Anforderungen des Rechenzentrums gerecht werden. Auch wird in dieser Arbeit eine Konzeption für ein einfaches ordnerbasiertes Ablagesystem zur Verwaltung von Partner-, Lizenz- und Vertragsdokumenten erstellt. Der letzte Punkt dieser Arbeit besteht in der Konzeption und Umsetzung eines Informationssystems, durch welches alle relevanten Daten grafisch ansprechend aufbereitet zur Verfügung gestellt werden sollen. Die Umsetzung dieses Informationssystems wird in dieser Arbeit mithilfe der beiden Open-Source-Tools Talend und Palo vorgenommen.
Die Bachelor-Thesis "Entwicklung eines Web-Portals für M+I-Studierende" befasst sich mit der Entwicklung des Studierendenportals MI-Complete der Fakultät M+I der Hochschule Offenburg. In den üblichen Arbeitsschritten (Analyse, Konzeption, Umsetzung, Evaluation, Ausblick) wird darin der Werdegang des neuen Studierendenportals MI-Practix beschrieben.
Software-defined Access (SD-Access, SDA) hat aufgrund der flexiblen, automatisierten und schnelleren Verwaltung von Unternehmensnetzwerken erhebliche Aufmerksamkeit erlangt. Im Gegensatz zu traditionellen Netzwerken mit manuellen Prozessen, bietet SD-Access Zugriffsrichtlinien, Netzwerksegmentierung und Endpunktüberwachung in einer Lösung und trägt damit zur Netzwerksicherheit in Unternehmen bei.
Zunächst wird die SD-Access-Lösung von Cisco vorgestellt und herausgearbeitet, welche Komponenten dafür benötigt werden. Auf dieser Grundlage wird überprüft, welche Voraussetzungen zur Einführung von SD-Access im konkreten Anwendungsfall, dem SWR, geschaffen werden müssen.
Anschließend wird in einer experimentellen Phase im SWR-eigenen Netzwerklabor eine beispielhafte Architektur mit allen benötigten Komponenten zu Testzwecken konzeptioniert und implementiert. Dabei ist das Design und die Konfiguration möglichst nahe an der realen Umgebung des SWRs orientiert. Mit dem vorliegenden Testsetup werden dann bestimmte Funktionen und Anwendungsszenarien genauer aufgezeigt und die Relevanz für den Sicherheitsgewinn im SWR-LAN untersucht.
Darauf folgt eine abschließende Beurteilung des Sicherheits- und Effizienzgewinns durch die Einführung von SD-Access im SWR-Netzwerk.
Evaluation des In-Memory Datenbanksystems SAP HANA als Cloudlösung für Business Intelligence Systeme
(2013)
Global agierende Unternehmen sind mit einem stetig ansteigenden Datenaufkommen konfrontiert. Zur Analyse werden diese Daten in Business Intelligence Systeme geladen. Aufbereitete Daten werden heutzutage in der Regel in zeilenbasierten (relationalen) Datenbanksystemen vorgehalten. Ein großer Nachteil dieses Datenbanksystems für diesen Anwendungsfall ist, dass es auf eine hohe Anzahl einfacher Transaktionen mit wenigen Datensätzen ausgelegt ist. Im Kontext eines analysebasierten Modells, wie hier beim Business Intelligence, fallen dagegen hauptsächlich komplexe Abfragen auf einer Vielzahl von Datensätze an [BaGü2009]. Die SAP AG stellt mit dem Produkt SAP HANA eine Lösung zur Verfügung, welche auf die Datenanalyse für Business Intelligence ausgelegt ist und zugleich auch transaktionalen Anforderungen genügen soll. Das System ist als Appliance aus Soft- und Hardware konzipiert, das auf einem spaltenorientierten, In-Memory Datenbanksystem aufbaut. Diese Arbeit geht zunächst auf die Grundlagen des Business Intelligence, die allgemeinen Prinzipien von spaltenorientieren In-Memory Datenbankensystemen sowie deren Abgrenzung zu klassischen relationalen Systemen ein. Weiterhin wird auf die Architektur von SAP HANA und deren Besonderheiten eingegangen. Hauptgegenstand dieser Arbeit ist die Umsetzung einer Demoanwendung basierend auf SAP HANA in einer Cloud Umgebung (SAP HANA ONE). Hierbei wird insbesondere auf die Realisierbarkeit der Anwendung mittels der Entwicklungsumgebung SAP HANA Studio in einer Cloudumgebung eingegangen. Weiterhin steht zur Diskussion inwiefern SAP HANA in bestehende Business Intelligence Umgebungen integriert werden kann.
Die Thesis beschäftigt sich mit dem Kommunikationsprotokoll Lightweight Machine to Machine, welches für das Internet of Things entwickelt wurde. Es soll untersucht werden, wie das Protokoll funktioniert und wie es eingesetzt werden kann. Ebenfalls soll die Thesis zeigen, wie und ob Lightweight Machine to Machine über Long Term Evolution for Machines für Anwendungen mit begrenzten Ressourcen geeignet ist. Um diese Fragestellung zu beantworten, wurde das Protokoll auf Grund seiner Spezifikation und seinen Softwareimplementationen untersucht. Daraufhin wurde ein Versuchssystem entworfen und dieses anschließend auf sein Laufzeitverhalten und auf sein Energieverbrauch getestet. Die Evaluation des Protokolls ergab, dass es viele sinnvolle Funktionen zugeschnitten auf Geräte im Internet of Things besitzt und diese Funktionen kompakt und verständlich umsetzt. Da das Protokoll noch relativ jung ist, stellt es an verschiedenen Punkten eine Herausforderung dar. Die Tests des Versuchssystems ergaben, dass Lightweight Machine to Machine sich unter bestimmten Bedingungen für ressourcenbegrenzte Anwendungen eignet.
Komplexe E-Commerce-Systeme müssen heutzutage immer schneller am Markt sein und sich an diesen anpassen. Dies wird durch SaaS-Services möglich, wodurch sich die Best-of-Breed-Lösungen einsetzen lassen. Der monolithische Ansatz der meisten E-Commerce-Systeme ist für diese Anwendungen nicht mehr geeignet. Abhilfe soll der Composable-Commerce-Ansatz schaffen. Für den Ansatz wird eine Integrationslösung benötigt. Ziel dieser Thesis ist es, Integrationslösungen zu evaluieren und mithilfe von Integration-Layer-Prototypen gegenüberzustellen. Es werden zwei Integrationslösungen ausgewählt, die als Prototyp implementiert werden. Für den ersten Prototypen wird Apache Camel in einem Spring-Boot-Server verwendet. Der zweite Prototyp setzt die AWS-eigenen Services für die Integration ein. Zum Schluss werden diese durch einen Last-Test auf ihre Performance geprüft.