AI
Refine
Document Type
- Bachelor Thesis (10)
Has Fulltext
- yes (10)
Is part of the Bibliography
- no (10)
Keywords
- Angewandte Informatik (1)
- Autonomes Fahren (1)
- Clustering (1)
- Flugdaten (1)
- Leistungsmessung (1)
- Microservice (1)
- Optimierung (1)
- Persistenz (1)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (10) (remove)
Open Access
- Closed Access (5)
- Open Access (5)
This thesis deals with the implementation of the SUBSCALE algorithm in the Python programming language. First, the current state of research and the needs of the target group are considered. Then, the choice of language is decided based on the findings. On the basis of self-generated requirements, the implementation is carried out.
Finally, the code is evaluated for accuracy, consistency, and execution time, as well as its applicability in practice.
Since the implementation of the current work proved to be unconvincing, an approach is tested in which Python is used only as a front-end.
Die vorliegende Bachelorarbeit beschreibt die Erstellung einer Anwendung, die es ermöglicht, einen Roboterarm mithilfe eines haptischen Geräts zu steuern. Zudem wird die Kraftrückkopplung des haptischen Geräts, abhängig von der wirkenden Kraft des Roboterarms, implementiert.
Zur Realisierung dieser Anforderungen wurden zwei Programme erstellt; diese beiden Programme sind über eine TCP Verbindung miteinander verbunden. Programm 1 stellt die haptische Umgebung bereit, Programm 2 die Robot Operating System Node, mit welcher die Daten zum Roboter gesendet und Daten vom Roboter empfangen werden können.
Die in dieser Arbeit erstellten Programme wurden mithilfe von Test Nodes überprüft und leiten die Position der haptischen Umgebung weiter. Die Kraftrückkopplung des haptischen Geräts ist ebenfalls vorhanden und integriert.
Ein Testlauf mithilfe eines simulierten Roboterarms konnte erfolgreich durchgeführt werden.
Im Rahmen dieser Arbeit wird ein dezentrales Usermanagement entwickelt, das ein vorhandenes aber veraltetes Usermanagement ersetzen soll.
Zuerst werden verschiedene Technologien für die Umsetzung evaluiert. Dabei wird begründet, warum z. B. dem Relationalen Datenbanksystem von Oracle der Vorzug gegenüber einem NoSQL-System wie MongoDB gegeben wird.
Im Rahmen einer ausführlichen Konzeption werden zuerst die Anforderungen detailliert formu-liert. In einem Grob-Entwurf werden die Beziehungen des alten und des neuen Usermanagements zur Außenwelt dargestellt. Datenmodellierung und Skizzierung der Paket- bzw. Klassen-Struktur innerhalb der Anwendung bilden die Grundlage für die spätere Implementierung. Ein besonderer Schwerpunkt bei der Konzeptionierung liegt auf dem Entwurf der REST-API.
Bei der Implementierung werden die Schritte von der Einrichtung des Spring-Frameworks bis zur lauffähigen Anwendung beschrieben. Der Umgang mit der Datenbank und dem OR-Mapper sind Schwerpunkte der Implementierung, ebenso wie die Umsetzung der REST-Schnittstellen. Die fachlichen Prozesse der Daten-Migration, der Verarbeitung von Requests aus einem zentralen System und des GLN-Mappings werden in eigenen Kapiteln behandelt.
Am Ende werden die erzielten Ergebnisse dokumentiert, offene Punkte angesprochen und ein Fazit gezogen.
Diese Bachelorarbeit untersucht die Möglichkeiten der Persistierung und anschließenden Analyse verschiedener Messwerte in einer geeigneten Software-Architektur. Zunächst wird dazu die genaue Aufgabenstellung betrachtet. Im Anschluss soll die geplante Software-Architektur und die vorgesehene Kommunikationsart erklärt werden. Um das entwickelte Produkt einfach zur Verfügung stellen zu können, sollen die Tools Vagrant, Puppet und Docker gemeinsam genutzt werden. Nachdem im Anschluss auf die eingesetzte Servertechnologie eingegangen wurde, beschäftigt sich die Arbeit mit der Persistierung der Messdaten. Hierzu werden die verschiedenen Arten verfügbarer Datenbanktechnologien erläutert und darauf aufbauend eine Auswahl getroffen. Als letzten Teil der Anwendung wird auf die Demonstrationsapplikation eingegangen. Hier werden wieder die nötigen Anforderungen erörtert und die Umsetzung beschrieben.
Anhand der gewonnenen Erkenntnisse wird abschließend ein Fazit der verwendeten Technologien und der Architektur verfasst. Hier soll die Eignung der verwendeten Technologien zur Lösung des Problems überprüft und bewertet werden.
Abschließend wird noch ein Ausblick auf die zukünftige Entwicklung in diesem Bereich gegeben.
Durch die Digitalisierung erschlossen sich in den letzten 15 Jahren nicht nur viele Möglichkeiten neues Bildmaterial oder Videomaterial aufzunehmen und zu verwahren, sondern auch die Zugänglichkeit der breiten Masse zu solcher Technologie. Abseits der Datenmengen wie sie Social Media Plattformen tagtäglich verarbeiten, existieren die Sende- und Rundfunkanstalten mit gigantischen Archiven von Videomaterial. Der Großteil davon ist von dokumentarischer oder szenischer Natur sowie verschiedenste Interviews aus allen Bereichen des öffentlichen Lebens.
Nach dem aktuellen Stand wird das Videomaterial von Hand kategorisiert und zur Indizierung verschlagwortet. Die Aufgabe war es nun, diesen Prozess zumindest teilweise zu automatisieren. Dazu sollten auf dem Markt verfügbare Technologien in Bereich der Gesichtserkennung und Texterkennung auf ihre Nutzbarkeit zu diesem Zweck hin evaluiert werden. Dabei soll mit Hilfe der in Interviews verwendeten Bauchbinden das momentan gezeigte Gesicht "gelernt" werden, um es später ohne solche Hilfe wiederzuerkennen.
In dieser Thesis wird die Visualisierung der Stammdaten der MARKANT Handels und
Service GmbH (MARKANT) überarbeitet. Zu Beginn wird auf die Firma MARKANT,
die aktuelle Lösung der Visualisierung und die daraus resultierenden Probleme eingegangen.
In der Thesis wird zunächst ein generisches Diagramm erstellt, welches Daten,
die eine hierarchische Ordnung haben, zeichnet. Darauf aufbauend soll als Beispiel, das
Organigramm der Firma MARKANT, mit allen Anforderungen, umgesetzt werden.
Um das Ziel zu erreichen, wird eine Marktübersicht eingeholt und die Frameworks
verglichen. Nachdem eine engere Auswahl getroffen ist, sollen die Frameworks hinsichtlich
der Visualisierung genauer evaluiert werden.
Nach der Wahl des Frameworks wird eine Konzeption erstellt, bei der auf einen neuen
Technologiestack, sowie auf die Bedienbarkeit des Diagrammes durch den Endanwender
eingegangen wird.
Anhand der erstellten Konzeption werden die verschiedenen Funktionen des Diagrammes
implementiert. Ein neuer Stack wird aufgebaut und an das System der Firma
MARKANT angepasst.
Abschließend zeigt ein Vergleich zwischen der alten und der neuen Visualisierung auf,
was in der Thesis erreicht wurde.
Das Ziel der vorliegenden Bachelorarbeit ist es, ein prototypisches Meldesystem für die Bankenaufsicht in einer privaten Cloud zu realisieren. Ferner sollen die Vorteile eines solchen Systems gegenüber bestehenden Systemen abgegrenzt werden. Im ersten Teil wird auf die Entwicklung von Software as a Service-Anwendungen sowie die rechtlichen Grundlagen und Zusammenhänge im Meldewesen eingegangen. Des Weiteren werden das Cloud-Computing und das verwendete Datenformat XBRL durchleuchtet. Anschließend werden bestehende Meldesysteme verglichen. Dabei stehen die unterschiedlichen Bereitstellungsarten im Fokus. Zur Erreichung des Ziels der Thesis wird ein Proof of Concept anhand einer Beispielmeldung aus dem Großkreditmeldewesen umgesetzt. Diese Meldung erfordert sowohl das Befüllen von PDF-Formularen sowie das Erstellen von XBRL-Dateien. Für die Umsetzung wird eine Testumgebung aufgebaut, mit welcher es bedingt möglich ist, reale Bedingungen zu simulieren. Nach einer Evaluation wird hierfür das Platform as a Service-System Openshift verwendet. Damit ist es möglich, eine Private Cloud zu erstellen, auf der eine Java EE Anwendung als Reporting as a Service-Lösung zur Verfügung gestellt wird. Deren Funktionsumfang umfasst das Einlesen, Prüfen, Konvertieren und Validieren von Daten sowie das Versenden von Meldungen zur Bankenaufsicht. Um die heterogenen Systeme im Finanzumfeld abzudecken, werden Testdaten als CSV, XLS und via Datenbank bereitgestellt. Die Tests mit diesen Daten sind sehr positiv. So ist es möglich, Daten aus allen Datenquellen einzulesen und mittels einer Plausibilitätsliste der Bundesbank zu prüfen. Anschließend können die Daten in eines der geforderten Formate PDF oder XBRL konvertiert werden. Durch den Ansatz einer privaten Cloud-Lösung können einige Sicherheitsbedenken ausgeschlossen werden, ohne auf die Vorteile wie Lastverteilung, Multitenancy, Skalierbarkeit und hohe Kompatibilität verzichten zu müssen. Abschließend werden in einer Schlussbetrachtung die Ergebnisse vorgestellt und ein Ausblick für die Zukunft gegeben.
In der vorliegenden Bachelorarbeit wird die Verwendung von persistenten Datenstrukturen in Anwendungen untersucht. Dafür werden zunächst verschiedene Eigenschaften von bestehenden Implementierungen persistenter Datenstrukturen im Vergleich zu ephemeralen Implementierungen der Datenstrukturen untersucht. Hierbei werden Laufzeiten und Speicherverbrauch analysiert. Dabei wird gezeigt, in welchen Fällen die Verwendung von persistenten Datenstrukturen Vorteile gegenüber der Verwendung ephemeralen Datenstrukturen bringt.
Im zweiten Teil wird die Verwendung von persistenten Datenstrukturen in asynchronen Umgebungen untersucht. Hierfür werden die grundlegenden Probleme aufgezeigt, die bei der Erzeugung von Thread lokalen Versionen geteilter Zustände entstehen. Es wird aufgezeigt, wie die verschiedenen Versionen durch ein Zusammenführungsverfahren in einen gemeinsamen Zustand überführt werden können. Als konkrete Implementierung wurde eine Framework in Java entwickelt, welches versucht, dieses Problem wiederverwendbar zu lösen. Das entwickelte Framework wird anhand einer Beispielsdomäne evaluiert, indem die Performanz mit der Verwendung von expliziter Synchronisation verglichen wird. Hierbei wird gezeigt, dass in Situationen, in denen die Modifikationen viel Zeit benötigen, der Ansatz des Zusammenführen Vorteile gegenüber expliziter Synchronisation bietet. Im letzten Teil der Arbeit wird die Verwendung eines geteilten persistenten Zustandes im an der Hochschule Offenburg durchgeführtem A 2 O Projekt untersucht, bei dem Software für eine autonomes Modellauto entwickelt wurde. Es werden die Schwierigkeiten bei der Umsetzung der im Framework entwickelten Techniken in C++, sowie mögliche Lösungswege aufgezeigt.
Diese Arbeit befasst sich mit der Konzeption und Entwicklung einer SharePoint App, die einen Datenabgleich zwischen Zoho CRM und JIRA ermöglicht. Mittels dieser App ist es möglich, einen Supportfall, den der Support mittels Zoho CRM aufgenommen hat, bei Bedarf der Entwicklung zuzuweisen, indem in JIRA ein neues Ticket erstellt wird. Des Weiteren können durch die App Informationen, wie Firmen- und Kontaktdaten beiden Abteilungen zugänglich gemacht werden. Realisiert wird dies auf Basis von SharePoint, auf das alle beteiligten Mitarbeiter Zugriff haben. Zunächst wird für eine Lösung mit SharePoint dessen App-Modell analysiert und die möglichen Hosting-Varianten evaluiert. Die dabei getroffene Entscheidung für eine SharePoint gehostete App wird zudem begründet. Um die Bearbeitung eines Supportfalls innerhalb der App zu ermöglichen, wird ein Workflow entworfen, der neben dem Ablauf der Bearbeitung auch die Kommunikation mit den beteiligten Anwendungen festlegt. Die zu diesem Zweck notwendige persistente Speicherung der Daten in der App erfolgt dabei mithilfe von SharePoint Listen. Diese werden aufgrund eines ähnlichen Aufbaus als Tabellen dargestellt. Die detaillierte Darstellung einzelner Listenelemente dagegen erfolgt mithilfe von Dialog-Fenstern, die von SharePoint bereitgestellt werden. Dabei werden abhängig von dem Land aus dem die App aufgerufen wird, die Texte auf Deutsch oder auf Englisch angezeigt.
Diese Arbeit beschäftigt sich mit der Leistungsanalyse und Optimierung eines Flugdatenservers. Für die Durchführung dieser Leistungsanalyse wird eine eigene Anwendung entwickelt. Mit dieser eigens entwickelten Anwendung wird das Leistungsverhalten des Flugdatenservers genau analysiert. Mit den Erkenntnissen aus der Leistungsanalyse werden am Flugdatenserver Optimierungen durchgeführt und weitere Möglichkeiten zur Optimierung aufgezeigt. Bei diesem Flugdatenserver (Air Traffic Control Server) handelt es sich um eine Client/Server-Anwendung zur Visualisierung von Flugbewegungen im Lauftraum. Hierfür wird der Flugdatenserver mit Flugsicherungsdaten durch das Flugüberwachungssystem Automatic Dependent Surveillance (ADS) versorgt.