Refine
Year of publication
Document Type
- Master's Thesis (32) (remove)
Has Fulltext
- yes (32)
Is part of the Bibliography
- no (32)
Keywords
- E-Learning (2)
- Internet der Dinge (2)
- Internet of Things (2)
- 10Gbit/s (1)
- 3D printing (1)
- 3D-Druck (1)
- 40Gbit/s (1)
- Agent <Künstliche Intelligenz> (1)
- Agent Fitness (1)
- Agrophotovoltaics (1)
- Anwendungsschicht-Protokolle (1)
- Apache Spark (1)
- AutoML (1)
- Autoencoder (1)
- Automatisierung (1)
- Autonomie (1)
- Bevölkerungsschutz (1)
- Blended Learning (1)
- CCS (1)
- COVID-19 (1)
- Cement Industry (1)
- China (1)
- Cloud (1)
- Cloud Computing (1)
- Comic (1)
- Corona-Pandemie (1)
- DVRIP (1)
- Datenbanksystem (1)
- Decentralized applications (1)
- Digitale Medien (1)
- Distributed Sensor Network (1)
- Distributed computing (1)
- Electric Tractors (1)
- Elektrofahrzeug (1)
- Energiespeicherung (1)
- Energy System Model (1)
- Energy Transition (1)
- Enterprise 2.0 (1)
- Ethernet (1)
- Ethernet-Stack (1)
- Fotovoltaik (1)
- Framework (1)
- Generics (1)
- Geschäftsmodell (1)
- Go (1)
- HTML (1)
- HTML 5.0 (1)
- HTTP Live Streaming (1)
- Handel (1)
- High Performance Computing (HPC) (1)
- High content measurement (1)
- Hochleistungsrechnen , Informatik (1)
- Informationsbeschaffung (1)
- Integriertes Lernen (1)
- JavaScript (1)
- JavaScript 1.5 (1)
- Jugendliche (1)
- Kommunikation (1)
- Kosten (1)
- Kostenrechnung (1)
- Krisenmanagement (1)
- Label (1)
- Landwirtschaft (1)
- Lernkonzept (1)
- Lernprogramm (1)
- Mass spectrometry (1)
- Massenspektrometrie (1)
- Mediennutzung (1)
- Mensch-Computer-Interaktion (1)
- Moodle 2.0 (1)
- Multi-task learning (1)
- Musikwirtschaft (1)
- Neuro-Evolution (1)
- New Retail (1)
- NoSQL-Datenbanksystem (1)
- Omni-Channel-Handel (1)
- Online Marketing (1)
- Online Speicher (1)
- Online Storage (1)
- Online-Handel (1)
- Operante Konditionierung (1)
- Oxyfuel (1)
- Penetration Testing (1)
- Penetrationstest (1)
- Platform as a Service (1)
- Product-Placement (1)
- Programmablauf (1)
- Programmiersprache (1)
- Proteine (1)
- QCM-D Array (1)
- RTMP (1)
- Reinforcement Learning (1)
- Rest-API (1)
- Scientific workflow (1)
- Scrum (1)
- SharePoint 2010 (1)
- Social Workplace 2020 (1)
- Stationärer Handel (1)
- Strategie (1)
- Streaming (1)
- Streit (1)
- TCO (1)
- Temperature control (1)
- Temperaturregelung (1)
- Total Cost of Ownership (1)
- Transfer learning (1)
- Usability (1)
- VHDL (1)
- Verteilter Speicher (1)
- Videostreaming (1)
- Visualisierung (1)
- Werbefilmproduktion (1)
- Wirtschaftskrise (1)
- World Wide Web (1)
- YouTube (1)
- Zement (1)
- analysis (1)
- binary (1)
- dahua (1)
- protocol (1)
- Überlebensstrategien (1)
- Übersetzungsstrategie (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (18)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (4)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (3)
- Fakultät Medien (M) (ab 22.04.2021) (3)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (2)
- Fakultät Wirtschaft (W) (2)
Open Access
- Open Access (32) (remove)
Evaluierung neuer HTML5- und JavaScript-Technologien bei der Nutzung in heterogenen Umgebungen
(2012)
Die 1&1 Internet AG in Karlsruhe betreibt einen Onlinespeicher, der von Kunden der diversen Tochter- und Schwestergesellschaften hauptsächlich über ein Browserfrontend bedient wird. Dieses kommuniziert mittels einer definierten JSON-Schnittstelle mit der auf Java basierenden Middleware. Da der Client schon vor einigen Jahren entwickelt wurde, nutzt er noch nicht alle Möglichkeiten die HTML5 in aktuellen Browsern bietet. Die Beschreibung und Bewertung dieser Möglichkeiten stellt die Kernaufgabe der Thesis dar. Einer der Schwerpunkt soll dabei auf der Offlinefähigkeit und intelligenten Benutzung von Caching- & Sync-Strategien zwischen Onlineanwendung und Offlineclient bestehen. Desweiteren sollen die Möglichkeiten von aktuellen Browsern ohne Beachtung der Rückwärtskompatibilität zu älteren Browsern genutzt werden. Zu Demonstrationszwecken sollen Beispielanwendungen den Einsatz der neuen Technologien erstellt werden, damit deren praktische Nutzung leichter zu erfassen ist. Das Hauptaugenmerk bei den Beispielanwendungen liegt indes nicht auf der Funktionalität, sondern auf dem Einsatz der jeweiligen Technologie, so dass deren Möglichkeiten getestet werden können. Ebenfalls Teil der Arbeit soll die Erarbeitung von theoretischen Aspekten sowie die Erstellung einer Übersicht über den aktuellen Stand der Fachliteratur darstellen. Dies soll bei weiterer Nutzung der Ergebnisse die Erarbeitung von erweitertem Fachwissen erleichtern. Basis sollen hier die aktuell Erschienenen Fachbücher auf deutsch und englisch sowie - naturgemäß nochmals aktueller - die regelmäßigen Veröffentlichungen im Internet und in Fachzeitschriften bilden. Die zu besprechenden Themen umfassen die grundsätzliche Beschreibung von HTML5 und dem Standardisierungsprozess, die neuen HTML-Element in Bezug auf Formulare, Multimedia-Darstellung, die Möglichkeiten der Offline-Anwendung (Application Cache, Cache Manifest, DOM Storage), die Drag & Drop API zur Nutzung beim Dateiupload sowie die File API. Mögliche Themen für den theoretischen Teil sind gängige Architekturmuster (beispielsweise MVC, MVP, MVVM, PAC), Caching- und Sync-Strategien sowie die Potentiale aktueller Skriptsprachen (ECMAScript 5, Coffeescript, DART).
Communication protocols enable information exchange between different information systems. If protocol descriptions for these systems are not available, they can be reverse-engineered for interoperability or security reasons. This master thesis describes the analysis of such a proprietary binary protocol, named the DVRIP or Dahua private protocol from Dahua Technology. The analysis contains the identification of the DVRIP protocol header format, security mechanisms and vulnerabilities inside the protocol implementation. With the revealing insights of the protocol, an increase of the overall security is achieved. This thesis builds the foundation for further targeted security analyses.
China ist eine aufstrebende Volkswirtschaft. Das Wirtschaftswachstum im Land führt zu einer steigenden Kaufkraft und der digitale Fortschritt verändert die Kaufgewohnheiten und die komplette Customer Journey. Einheitliche Online Marketing-Ansätze sind dabei längst überholt. Die Konsumierenden erwarten eine persönliche Customer Experience mit Integration von neuesten Technologien, die ihren mobilen Lebensstil effizienter gestaltet.
Deutsche Unternehmen erkennen die Auswirkungen dieser Veränderungen und stehen vor der Herausforderung die neuen, anspruchsvollen Verbraucher/innen mit innovativen Online Marketing-Maßnahmen anzusprechen.
Für die eigene Studie wurden deutsche Unternehmen befragt, die bereits erfolgreiches Online Marketing in China betreiben. Anhand der Online-Befragung und Experten-/Expertinneninterviews sollen die wichtigsten Online Marketing-Instrumente, deren Plattformen, Ziele und Herausforderungen ermittelt werden.
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines VHDL-Ethernet Protokollstapels. Aufbauend auf einem existierenden Protokollstapel für 1 GBit/s ist das Ziel dieser Arbeit, einen Protokollstapel zu entwerfen, der eine Datenübertragungsrate von mehr als 10 GBit/s erreicht. Dieser Protokollstapel soll die Protokolle Ethernet, IPv4, ARP, ICMP und UDP enthalten. Durch eine flexible Struktur der Ports und den Einsatz von generics soll dieser Protokollstapel leicht konfigurierbar und so für viele Anwendungszwecke nutzbar sein.
Zunächst wurde der existierende Protokollstapel von der Xilinx Vertix5 Serie auf die 7er Serie portiert und in Betrieb genommen. Dabei traten Probleme mit dem Transceiver und dem ARP Protokoll auf. Nachdem diese gelöst wurden, konnte ein Konzept für den neuen Protokollstapel erarbeitet werden. Dieser nutzt nun ein – in der Busbreite – flexibles Streaming Interface, um die Geschwindigkeit der Datenübertragung anzupassen.
Da jedes der genutzten Protokolle an die Daten einen Header/Trailer anhängt oder entfernt,
wurden für diese Aufgabe insgesamt vier Low-Level-Module entwickelt. Diese Module wurden
mit Hilfe einer Testbench und einer Testmatrix verifiziert. Die Protokollmodule stellen nun den Header/Trailer zusammen und fügen diese mit Hilfe der Low-Level-Module an oder entfernen diese.
Bei der Simulation des Protokollstapels wurde die Funktion der Protokolle nachgewiesen. Durch die große Busbreite, von 64 Bit bei 10 GBit/s und 128 oder 256 Bit bei 40 GBit/s, schlug allerdings die Timing-Analyse fehl. Der kritische Pfad konnte bei der CRC Berechnung gefunden werden. Durch parallele CRC-Berechnungen wurde eine vorübergehende Lösung dieses Problems für die Geschwindigkeit 10 GBit/s erreicht.
Die Analyse des Ressourcenverbrauchs zeigte, dass der neue Protokollstapel nur wenig Ressourcen in einem FPGA nutzt. Für 10 GBit/s werden lediglich 3000 LUTs und 2400 Register
benötigt. Des weiteren wurde festgestellt, dass der Ressourcenverbrauch nicht proportional zur Busbreite ist. Bei einer Verdopplung der Busbreite werden lediglich 60 % mehr Ressourcen benötigt.
Die Corona-Pandemie hat nicht nur tiefgreifende Auswirkungen auf das gesellschaftliche Leben, auch in der Wirtschaft sind die Folgen zu spüren. Dabei können diese Folgen in den einzelnen Branchen sehr unterschiedlich sein. Wo der E-Commerce eine steigende Nachfrage verzeichnen konnte, ist die Nachfrage im Kultur- und Freizeitsektor nahezu komplett eingebrochen. Aber nicht in allen Branchen sind die Auswirkungen so eindeutig. Diese Arbeit befasst sich deshalb mit den Auswirkungen der Corona-Pandemie auf die Werbefilmproduktionen in Deutschland. Dabei werden die folgenden beiden Forschungsfragen untersucht:
„Welche Gefahren birgt die wirtschaftliche Krise in Folge der Corona-Pandemie für die Werbefilmproduktionsbranche und wie kann diesen entgegengewirkt werden?“
„Welche Chancen ergeben sich aus der aktuellen Wirtschaftskrise und wie können diese für die Zukunft genutzt werden?“
Um diese Fragen zu beantworten, wurden zunächst die Begrifflichkeiten rund um das Thema genau definiert. Aufbauend auf der Literaturrecherche wurde zudem ein Leitfaden für Interviews mit drei Experten aus der Branche erstellt und diese anschließend durchgeführt. Dabei konnten neben einem detaillierteren Einblick in die Branche die Grundlagen für die ebenfalls durchgeführte quantitative Umfrage, die an eine repräsentative Stichprobe aus Unternehmen der Branche gestellt wurde, geschaffen werden.
Es zeigt sich, dass die Werbefilmproduktionen nach einem im ersten Lockdown nahezu kompletten Stillstand, durch schnelles Handeln, effektive Anpassungen in den Arbeitsabläufen vornehmen und dadurch zügig die Arbeit wieder aufnehmen konnten. Auch wenn die Unternehmen weiterhin Schwierigkeiten im Bereich der Planung und Produktion hatten und haben, konnten viele der Unternehmen durch die Verlagerung von Prozessen in die digitale Welt neue Geschäftsfelder erschließen und einen steigenden Umsatz verzeichnen. Schnelles Handeln und Innovationsbereitschaft zeigen sich dabei als zentrale Eigenschaften für eine positive Geschäftsentwicklung in der Krise.
Weiterführende Forschung kann sich mit dem Themenbereich effizientes Arbeiten im Home-Office beschäftigen. Auch im Bereich der Werbefilmproduktion für Social Media und Unternehmenshomepages und im Speziellen, welche Unternehmen diese in Zukunft vermehrt nachfragen, besteht noch Forschungsbedarf. Wie sich die fehlende praktische Erfahrung auf die Qualität der Lehre auswirkt, ist ebenfalls eine noch offene Fragestellung.
Das Thema dieser Masterthesis lautet „Camera Stream Solution – Marktübersicht, Lösungsansätze, Prototyp“. Mit dieser Arbeit wird eine Videostreaming-Lösung für die Herrenknecht-Plattform CONNECTED realisiert. Dabei geht es um die Bildschirmaufnahme von Navigations- und Steuerungsbildschirmen auf Tunnelbohrmaschinen und die Übertragung dieser Aufnahmen in die Cloud. Letztlich wird ermöglicht die Aufnahmen in nahezu Echtzeit als Videostream in einem Videoplayer wiederzugeben.
Zu Beginn werden die Grundlagen zur Datenübertragung im Internet sowie zum Streaming erläutert. Im Anschluss wird eine Marktübersicht verschiedener Streaming-Komponenten gegeben sowie einige Lösungsansätze vorgestellt und anhand ausgewählter Kriterien verglichen. Im nächsten Schritt wird die Implementierung eines Prototyps behandelt. Dieser nutzt unter anderem ffmpeg für die Bildschirmaufnahme und die Kodierung sowie die Streaming-Protokolle RTMP (Real Time Messaging Protocol) und HLS (HTTP Live Streaming). Zur Realisierung der Architektur gehört auch die Entwicklung einer REST-API und eines REST-Clients in C#.
Mit dem Projekt wird eine „echte“ Streaming-Lösung für die Kundenplattform CONNECTED entwickelt, die einen Videostream mit 24 Bildern pro Sekunde bietet, um die bisherige Darstellung von Screenshots auf der Plattform zu ersetzen.
Die vorliegende Arbeit beschäftigt sich mit ausgewählten Aspekten der Konzeption, Umsetzung und Implementierung eines E-Learning-Lernangebots für die NGO CartONG. Das E-Learning-Angebot soll abschließend vier Themen beinhalten, die sich unter dem Begriff REDD+ zusammenfassen lassen. „Forest Inventory“ ist eines der vier Themen und wurde von mir bearbeitet. Für die Aufbereitung und Umsetzung der anderen drei Themen erstellte ich Anleitungen und Richtlinien. Die anderen drei Themen werden auf Grundlage dieser Anleitungen in ähnlicher Weise von CartONG-Mitarbeitern aufbereitet. Die Grundlage dieser Arbeit bilden die Lerntheorien sowie die Auswertung des Fragebogens für die potentiellen zukünftigen Lerner, durch die ich meine Konzeption und Umsetzung begründe. Diese beiden Grundlagen behandle ich in den ersten zwei Kapiteln. Darauf folgt die Beschreibung der Entwicklung des Corporate Designs für das gesamte Lernangebot. Es bildet neben der zuvor genannten didaktischen Grundlage nun die visuelle Grundlage für die Konzeption der Inhalte, die sich diesem Kapitel anschließt. Der Konzeption folgt die Aufbereitung der Inhalte. Das abschließende Kapitel beschreibt die anschließende Umsetzung des Lernangebots auf der Lernplattform Moodle.
Distributed Flow Control and Intelligent Data Transfer in High Performance Computing Networks
(2015)
This document contains my master thesis report, including problem definition, requirements, problem analysis, review of current state of the art, proposed solution,
designed prototype, discussions and conclusion.
During this work we propose a collaborative solution to run different types of operations in a broker-less network without relying on a central orchestrator.
Based on our requirements, we define and analyze a number of scenarios. Then we design a solution to address those scenarios using a distributed workflow management approach. We explain how we break a complicated operation into simpler parts and how we manage it in a non-blocking and distributed way. Then we show how we asynchronously launch them on the network and how we collect and aggregate results. Later on we introduce our prototype which demonstrates the proposed design.
This Master's Thesis discusses intelligent sensor networks considering autonomous sensor placement strategies and system health management. Sensor networks for an intelligent system design process have been researched recently. These networks consist of a distributed collective of sensing units, each with the abilities of individual sensing and computation. Such systems can be capable of self-deployment and must be scalable, long-lived and robust. With distributed sensor networks, intelligent sensor placement for system design and online system health management are attractive areas of research. Distributed sensor networks also cause optimization problems, such as decentralized control, system robustness and maximization of coverage in a distributed system. This also includes the discovery and analysis of points of interest within an environment. The purpose of this study was to investigate a method to control sensor placement in a world with several sources and multiple types of information autonomously. This includes both controlling the movement of sensor units and filtering of the gathered information depending on individual properties to increase system performance, defined as a good coverage. Additionally, online system health management was examined in this study regarding the case of agent failures and autonomous policy reconfiguration if sensors are added to or removed from the system. Two different solution strategies were devised, one where the environment was fully observable, and one with only partial observability. Both strategies use evolutionary algorithms based on artificial neural networks for developing control policies. For performance measurement and policy evaluation, different multiagent objective functions were investigated. The results of the study show that in the case of a world with multiple types of information, individual control strategies performed best because of their abilities to control the movement of a sensor entity and to filter the sensed information. This also includes system robustness in case of sensor failures where other sensing units must recover system performance. Additionally, autonomous policy reconfiguration after adding or removing of sensor agents was successful. This highlights that intelligent sensor agents are able to adapt their individual control policies considering new circumstances.
Diese Arbeit beschäftigt sich mit den Grundlagen zu Multi-Agenten-Systemen in der Industrie. Der Begriff “Industrie 4.0“ wird eingeführt und es wird eingehend auf die Potentiale und Herausforderungen diesbezüglich eingegangen. Außerdem wird ein Überblick über aktuelle Entwicklungen und Ansätze zur Entwicklung von sogenannten autonomen Agenten gegeben. Diese werden auch im Hinblick auf die Themen Holonic Manufacturing und Multi-Agenten-System besprochen. Im praktischen Teil der Arbeit wird ein System bestehend aus vier BDI-Agenten ntwickelt, um einen beispielhaften Geschäftsprozess zu bearbeiten. Die Entwicklung basiert dabei auf Java und dem Jadex Agenten-Framework. Es wird gezeigt, dass sich damit autonome BDI-Agenten umsetzen lassen, die über Rechnergrenzen hinweg koordiniert werden können.
Die Visualisierung von Programmabläufen ist ein zentraler Aspekt für Programmieranfänger, um das Verständnis von Codeabläufen zu erleichtern und den Einstieg in der Softwareentwicklung zu unterstützen. In dieser Masterthesis wird ein speziell auf die Bedürfnisse von Einsteigern zugeschnittenes generisches Framework vorgestellt, wobei der Fokus auf einer einfachen, verständlichen aber auch korrekten Darstellung der Programmausführung liegt. Das Framework integriert das Debugger Adapter Protocol, um den Debugger unterschiedlicher Sprachen ansprechen und verwenden zu können.
In dieser Arbeit werden zunächst die Anforderungen für das generische Framework diskutiert. Anschließend werden bestehende Ansätze zur Visualisierung von Programmabläufen ausführlich untersucht und analysiert. Die Implementierung des Frameworks wird daraufhin detailliert beschrieben, wobei besonderer Wert auf die Erweiterbarkeit unterschiedlicher Sprachen gelegt wird.
Um die Eignung des Frameworks zu evaluieren, werden mehrere Aufgaben aus dem ersten Modul mit der jeweiligen Programmiersprache des Studiengangs Angewandte Informatik der Hochschule Offenburg betrachtet. Die Ergebnisse zeigen, dass das Framework mit den Aufgaben umgehen und diese korrekt und verständlich darstellen kann.
Ziel dieser Masterthesis ist die Konzeption und die Implementierung einer fortschrittlichen Social Business Plattform in einem IT-Dienstleistungsunternehmen unter Verwendung von MS SharePoint Server 2010. Im Vordergrund stehen dabei die Analyse aktueller und zukünftiger Anwendungsszenarien und Lösungen von Enterprise 2.0 Systemen. Desweiteren sollen Methoden zur Adaption der spezifischen Anforderungen des Unternehmens mittels SharePoint entwickelt werden. Eventuell auftretende Probleme sollen frühzeitig ausgelotet und die vielfältigen technischen Fähigkeiten von MS Share Point Server 2010 aufgezeigt werden. Langfristig gesehen sollen die im Rahmen dieser Arbeit gesammelten Ergebnisse Awareness und Know-How für SharePoint und Enterprise 2.0 im Unternehmen schaffen. Gegebenenfalls könnten sie die Basis für eine Umstrukturierung der vorhandenen Systemlandschaft bilden.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Die vorliegende Master-Thesis befasst sich mit dem Thema Handel. In der Arbeit wird der Bereich des Multi-Channel-Handels genauer durchleuchtet. Es wird aufgezeigt, wie der Zukunft des Handels weltweit und in Deutschland aussehen wird.
Der Handel wird besonders heute sehr vom Konsumierendenverhalten beeinflusst. Unternehmen passen sich mehr als je zuvor an Wünsche und Anforderungen der Zielgruppe an. Dies ist wichtig für Handelsunternehmen um wettbewerbsfähig und profitabel zu bleiben, vor allem in einem immer aggressiver werdenden Wettbewerbskampf um Konsumierende. In dieser Arbeit wird dargestellt, wie sich die Customer Journey und der Kaufprozess der Konsumierenden verändert hat und flexibler geworden ist. Es gibt nicht mehr nur einen Weg, wie potentielle Verkaufsinteressierende zu Kundschaft wird. Die Kundschaft lässt sich nicht mehr von Unternehmen leiten, sondern möchte eigenständig und selbstbestimmt zwischen verschiedenen Absatzkanälen und Endgeräten wechseln. Daher ist ein verknüpftes Multi-Channel-System für Handelsunternehmen wichtig. In dieser Arbeit soll zudem gezeigt werden, dass die Omni-Channel-Strategie die Strategie der Zukunft ist und wie der Begriff des New Retail sowohl den Online-Handel, als auch den stationären Handel prägen wird.
Online-Handelsunternehmen wie Amazon, Alibaba und Bonprix haben bereits verstanden, dass der stationäre Handel nicht „ausstirbt“, sondern durch eine intelligente Verknüpfung mit dem Online-Handel sehr zukunftsweisend gemacht werden kann. Daher wird in dieser Arbeit auch gezeigt, wie sich pure E-Commerce-Unternehmen in den Innenstädten und Einkaufszentren in den USA, China und Deutschland ausbreiten und damit eine Omni-Channel-Strategie schaffen.
Unabhängige Musikunternehmen, auch Independent-Label oder Indie-Label genannt, verfolgen unterschiedlichste Strategien, um im Musikgeschäft zu überleben. Die Strategien beziehen sich auf die Ausrichtung der Unternehmen in den jeweiligen Geschäftsbereichen. Ziel dieser Arbeit ist das Aufstellen von allgemeinen Hypothesen für jeden Geschäftsbereich eines unabhängigen Musikunternehmens. Zusammengefasst bilden alle Hypothesen einen Leitfaden für solche Unternehmen, um aktuell im Musikgeschäft überleben zu können. Das Bilden der Hypothesen ist die letzte Stufe einer qualitativen Inhaltsanalyse, der fünf Interviews mit Labelbetreibern und Labelangestellten zu Grunde liegen. Die Aussagen der Labelbetreiber und -angestellten werden in Bezug auf den aktuellen wissenschaftlichen Stand und die Lage der deutschen Musikindustrie analysiert und erörtert.
Die vorliegende Arbeit setzt sich mit dem Thema Product-Placement auf YouTube auseinander. Dabei wird der Frage nachgegangen, inwieweit sich Produktplatzierungen in YouTube-Videos auf das Kaufverhalten von Jugendlichen auswirken. Im Zuge dessen sollen außerdem Einblicke darüber gewonnen werden, ob und wie Jugendliche Product-Placement wahrnehmen. Die Fragestellungen werden auf Basis der Auswertung aktueller Fachliteratur und vor dem Hintergrund der Erkenntnisse einer quantitativen Onlinebefragung diskutiert.
Die Ergebnisse der Arbeit zeigen, dass YouTuber einen hohen Stellenwert im Leben vieler Jugendlicher einnehmen. Werbetreibende sehen in den YouTubern Influencer, die Werbebotschaften subtil und authentisch an eine junge Zielgruppe vermitteln können. Vor diesem Hintergrund wird diskutiert, inwieweit Produktplatzierungen in YouTube-Videos kenntlich gemacht werden müssen. Es kann vorweggenommen werden, dass eine eindeutige Kennzeichnung sowohl aus rechtlicher und medienethischer Sicht notwendig ist. Darüber hinaus zeigen auch die Umfrageergebnisse den Bedarf einer eindeutigen Kennzeichnung auf. Obwohl die Mehrheit annimmt, Werbung in YouTube-Videos zu erkennen, kann nur ein geringer Teil auch das platzierte Produkt richtig identifizieren.
Der Einfluss von Product-Placement in YouTube-Videos auf das bewusste Kaufverhalten von Jugendlichen ist geringer, als angenommen. Jugendliche, die eine erhöhte Kaufwahrscheinlichkeit angaben, sehen sich tendenziell häufiger die Videos des YouTubers an, folgen ihm auf mehreren Social Media Kanälen und empfinden ihn als glaubwürdig.
Gegenstand der hier vorgestellten Arbeit ist eine Untersuchung der gängigsten Anwendungsschicht-Protokolle für das Internet der Dinge. Sie umfasst zum einen die Recherche und den theoretischen Vergleich der Protokolle anhand vorher festgelegter Untersuchungskriterien und zum anderen einen praktisch implementierten Versuchsaufbau, der das Zusammenwirken verschiedener Protokolle veranschaulichen soll.
Zunächst wird eine kurze Einführung in das Thema „Internet der Dinge“ gegeben. Dabei wird auf die Entwicklung der letzten Jahre sowie den Stand der Technik eingegangen. Zum einen wird aufgezeigt, inwieweit sich das Thema auf die verschiedenen Bereiche des täglichen Lebens ausgebreitet hat und zum anderen welche verschiedenen Anwendungspakete diverser Software-Hersteller auf dem Markt sind. Bei der Untersuchung dieser Pakete werden die Protokolle ermittelt, die verwendet werden. Diese bilden die Menge an zu untersuchenden Protokolle für den späteren Vergleich. Um diese in einem wissenschaftlichen Rahmen miteinander vergleichen zu können, werden Kriterien als Basis der Untersuchung definiert. Anhand derer werden alle Protokolle untersucht und anschließend in einer Tabelle zusammengefasst.
Im zweiten Teil werden dann einige der untersuchten Protokolle mithilfe von diversen MCUs (Micro Controller Unit) verwendet und deren Funktionsweise/Handhabung miteinander verglichen. Dabei entsteht ein Aufbau, der zukünftigen Studierenden die Möglichkeit bietet, schnell einen Einblick in den Bereich „Internet der Dinge“ zu erhalten.
Sowohl die allgemeinen Erfolgsfaktoren von Start-ups als auch die Erfolgsfaktoren durch die Beteiligung eines Medienunternehmens werden in dieser Arbeit näher beleuchtet und einander gegenübergestellt. Im Fokus steht insbesondere die Frage, wie ein Medienunternehmen zu einer Wertsteigerung beitragen kann, damit das Start-up erfolgreicher ist, als es ohne die Beteiligung wäre.
Vergleichende Untersuchung von „Platform as a Service“-Angeboten für das „Internet of Things“
(2016)
Im Rahmen der Master Thesis werden eine Auswahl von Platform as a Service-Angeboten für das Internet of Things untersucht und miteinander verglichen. Auf Grundlage der Untersuchung erfolgt die Implementierung einer IoT-Anwendung für drei der Plattformen. Durch die theoretische Einleitung in die Themen Platform as a Service und Internet of Things, sowie die für das IoT typischen Verbindungsprotokolle HTTP und MQTT wird ein grundlegendes Verständnis für das Sachgebiet vermittelt.
Nach den erklärenden Definitionen folgt die Untersuchung der PaaS-Angebote. Hier werden zunächst die Untersuchungskriterien vorgestellt und erklärt, nach denen die einzelnen Plattformen untersucht werden. Diese umfassen die quantitativen Kriterien Verbreitung, Preis, Verbindungsrate, Datenmenge und Schnittstellen, sowie die qualitativen Kriterien API, Visualisierung, Weiterverarbeitung, Dokumentation, Usability und Sicherheit. Danach erfolgt die detailierte Untersuchung der Plattformen nach den festgelegten Kriterien. Untersucht wurden hierbei die Plattformen ThingSpeak, data.sparkfun.com, RunAbove IoT Lab, flowthings.io, Carriots, Ubidots, GroveStreams, Exosite, Beebotte, MODE, Initial State, Temboo, Oracle Cloud, IBM Watson Internet of Things, Azure IoT Hub, AWS IoT und Google Pub/Sub.
Im Anschluss an die Untersuchung werden die Ergebnisse gegliedert nach den Untersuchungskriterien miteinander verglichen und abschließend ausgewertet. Das Ergebnis der Plattformuntersuchung bietet die Grundlage für die Implementierung einer Internet of Things Anwendung.
Für die Anwendung werden zunächst die Anforderungen beschrieben, welche die eines realitätsnahen Nutzungsfall nachbilden sollen. Das Konzept und die Funktionsweise stellt das Zusammenspiel der einzelnen Komponenten dar. Die Anwendung soll hierbei die Funktionalität eines Infoterminals nachstellen, welches über NFC Informationen an mobile Endgeräte bereitstellt. Dieses sendet die Anzahl der Zugriffe an das PaaS-Angebot, welches wiederum als Schnittstelle zu Twitter und einer externen Webanwendung dient. Über die Webanwendung kann die Nachricht des Infoterminals aktualisiert werden. Im Folgenden werden die zum Einsatz kommende Hardware und Software beschrieben. Es handelt sich hierbei um einem Arduino Uno Rev3, welcher über ein Adafruit CC3000 Wifi Shield und ein Seeed Studio NFC Shield V2.0 die benötigten Schnittstellen zur Verfügung stellt.
Anschließend erfolgt die Auswahl der drei für die Implementierung verwendeten Plattformen anhand der zuvor durchgeführten Untersuchung. Hierbei wurden als Vertreter verschiedener Benutzergruppen ThingSpeak, Flowthings.io und IBM Watson Internet of Things gewählt.
Im Anschluss an die Plattformauswahl wird die konkrete Umsetzung beschrieben. Zuerst erfolgt der Aufbau und die Programmierung der Grundfunktionalitäten zur Datenübertragung des Arduinos. Danach wird im Detail auf den allgemeinen Teil der Webanwendung eingegangen, welche mit HTML, CSS und jQuery realisiert wurde. Danach erfolgt die Beschreibung der plattformspezifischen Umsetzung der jeweiligen Kommunikation zwischen Arduino und Plattform, sowie der Webanwendung. Hierbei belaufen sich die Unterschiede hauptsächlich auf die verschiedene Implementierung der Authentifizierung, sowie den verwendeten Übertragungsprotokollen HTTP und MQTT.
Nach der Implementierung wird diese ausgewertet um die konkreten Herausforderungen, sowie Vor- und Nachteile der Plattformen, der verwendeten Hardware und Protokolle herauszustellen.
Im letzten Kapitel wird die Arbeit zusammengefasst und abschließend anhand aller gesammelten Erkenntnisse bewertet.
Quarz crystal microbalances allow the monitoring of the adsorption process of mass from a liquid to their surface. The adsorbed mass can be analysed regarding to its protein content using mass spectromety. To ensure the protein identification the results of several measurements can be combined. A high content QCM-D array was developed to allow up to ten measurements parallel. The samples can be routed inside the array distributing one sample to several chips. The fluidic parts were prototyped using 3D printing. The assembled array was tight and the sample routing function could be demonstrated. A temperature controller was developed and implemented. The parameters for the PID controller were determined and the controller was shown to be able to keep the temperature constant over long time with high accuracy.
Diese Arbeit beschäftigt sich mit dem Thema NoSQL-Datenbanken in Webanwendungen. Dabei solle die verschiedenen Konzepte aktueller NoSQL-Datenbanken erläutert und exemplarische Implementierungen der einzelnen Konzepte vorgestellt werden. Anschließend wird der Einsatz in modernen Webanwendungen gezeigt. Hierzu soll eine einfache Social-Community-Plattform erstellt werden, welche zuerst auf Basis eines relationalen Datenbank Management System erstellt wird. Um die Einsatzmöglichkeiten der NoSQL-Vertreter zu zeigen werden anschließend einzelne Funktionen mit NoSQL-Datenbank implementiert und die Vor- und Nachteile erörtert.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
In dieser Arbeit geht es um das Thema des digitalisierten Scrum Prozesses. Scrum ist eine agile Projektmanagement Methode und ist mittlerweile nicht mehr aus der Softwarebranche wegzudenken.
Die Forschungsfrage, mit der sich dieser wissenschaftlichen Arbeit beschäftigt, lautet:
Wie lässt sich der Scrum Prozess bei der App-Entwicklung mittels einer geeigneten Softwarelösung effizienter durchführen?
Dabei wird zunächst die aktuelle Situation der eyeworkers GmbH in Bezug auf den Einsatz von Softwarelösungen im Projektmanagement beleuchtet und vorhandene Probleme her- ausgearbeitet.
Danach werden mit Hilfe einer Anforderungserhebung und -Analyse alle Anforderungen gesammelt und analysiert, die das Scrum Team und die Geschäftsleitung der Agentur an die gesuchte Softwarelösung stellen.
Im weiteren Schritt wird durch die Filterung eines Generators, der sich mit Scrum Software- lösungen befasst, eine Vorauswahl für weitere Einzelanalyse potenzieller Anwendungen durchgeführt. Diese Auswahl wird weiter verfeinert, sodass am Ende nur noch drei Systeme übrigbleiben, denen eine weitere Analyse unterzogen wird.
Bei den Einzelanalysen werden die drei Softwarelösungen – Jira, GitLab und Hansoft – auf die Erfüllung aller gesammelten Anforderungen geprüft. Dabei erweist sich die Jira Software als das am besten geeignetste Projektmanagement Tool für die Durchführung des Projekts „Die Sitema-App“.
Im vorletzten Schritt wird der Prozess mit der Anwendung GitLab durchlaufen und kritisch evaluiert um der Software dann die Empfehlung, Jira, gegenüberzustellen und herauszuarbeiten, wie der Verlauf mit dieser Software von Statten gegangen wäre. Dies beruht auf Annahmen der Verfasserin.
Zuletzt werden alle Forschungsergebnisse noch einmal zusammengefasst und ein Ausblick in die zukünftige Nutzung agiler Projektmanagement Tools bei der eyeworkers GmbH gegeben.
Decarbonisation Strategies in Energy Systems Modelling: APV and e-tractors as Flexibility Assets
(2023)
This work presents an analysis of the impact of introducing Agrophotovoltaic technologies and electric tractors into Germany’s energy system. Agrophotovoltaics involves installing photovoltaic systems in agricultural areas, allowing for dual usage of the land for both energy generation and food production. Electric tractors, which are agricultural machinery powered by electric motors, can also function as energy storage units, providing flexibility to the grid. The analysis includes a sensitivity study to understand how the availability of agricultural land influences Agrophotovoltaic investments, followed by the examination of various scenarios that involve converting diesel tractors to electric tractors. These scenarios are based on the current CO2 emission reduction targets set by the German Government, aiming for a 65% reduction below 1990 levels by 2030 and achieving zero emissions by 2045. The results indicate that approximately 3% of available agricultural land is necessary to establish a viable energy mix in Germany. Furthermore, the expansion of electric tractors tends to reduce the overall system costs and enhances the energy-cost-efficiency of Agrophotovoltaic investments.
Die vorliegende Arbeit beschäftigt sich am Beispiel der Vorlesung Risikomanagement mit der Konzepterstellung eines Blended Learning Szenarios. Die Vorlesung wird im Studiengang Unternehmens- und IT-Sicherheit der Hochschule Offenburg angeboten. Ziel ist es, das Konzept einer Probeveranstaltung zu erstellen, diese Veranstaltung durchzuführen und anschließend zu evaluieren. Die Ergebnisse und Learnings, welche aus der Veranstaltung
gezogen werden können, werden anschließend verwendet, um Handlungsempfehlungen für die Umsetzung eines Blended Learning Szenarios abzuleiten. Eine Umsetzung kann
nach einer inhaltlichen Konzeption, also erst nach Abschluss dieser Arbeit erfolgen. Das entwickelte Lernszenario baut auf den an der Hochschule Offenburg eingesetzten und lizenzierten Werkzeugen auf, dem LMS Moodle und der Virtual Classroom Software Adobe
Connect. Zusätzlich wurden weitere Werkzeuge recherchiert, diese sollen den Dozierenden die Erstellung von Lernmedien erleichtern, beispielhaft werden sie in den erstellten Lernlektionen eingesetzt. Vor der Konzepterstellung werden zunächst die Begriffe des E-Learning und Blended
Learning definiert. Das Konzept des Selbststudiums in der Hochschullehre wird anschließend anhand der Veröffentlichung „Begleitetes Selbststudium“ von Landwehr
und Müller beschrieben. Schließlich werden die Rahmenbedingungen der Lern-, Gedächtnis- und Motivationspsychologischen Grundlagen zur Entwicklung eines Blended Learning Szenarios definiert. Aufbauend auf diesen Grundlagen wird die Probeveranstaltung im Rahmen der Veranstaltung geplant und durchgeführt. Die Dokumentation der einzelnen Planungsschritte wird ausführlich dargestellt. Es wurden zwei unterschiedliche Veranstaltungsteile geplant, eine ca. 45-minütige Selbststudieneinheit, welche mit Online-Lernmaterialien umgesetzt wird sowie eine Präsenzveranstaltung.
Diese wurde mit Adobe Connect, ebenfalls online, durchgeführt. Die erste Veranstaltung soll den Studierenden zur selbstständigen Erarbeitung von Vorlesungsinhalten dienen und verschiedene Lernmedien präsentieren. Der zweite Veranstaltungsteil dient der Vorstellung von Adobe Connect. Aus der Reflexion der Veranstaltungen wurde ein Leitfaden abgeleitet, welcher einige zu beachtende Handlungsempfehlungen zusammenfasst, um ein Blended Learning Szenario erfolgreich umzusetzen.
Die vorliegende Masterarbeit setzt sich mit dem Thema „Digitale Medien und soziale Anerkennung“ auseinander. Dabei wird der Frage nachgegangen, welchen Einfluss die Nutzung digitaler Medien auf das Selbstbild junger Erwachsener, auf das Thema Cybermobbing und den zwischenmenschlichen Umgang in der Gesellschaft hat. Als Praxisbeispiel wurde exemplarisch die Folge „Nosedive“ der dystopischen Sci-Fi-Serie „Black Mirror“ ausgewählt, in der eine Gesellschaft porträtiert wird, deren Leben durch ein soziales Bewertungssystem bestimmt wird. Im Zuge dessen soll ein Bezug zu realen Sozialkredit-Systemen hergestellt werden. Das Ziel der Forschung ist es, eine umfangreiche Analyse der Auswirkungen des Medienkonsums von Fiktion und Realität vor dem Hintergrund sozialer Anerkennung durchzuführen.
Im theoretischen Teil der Arbeit soll allgemein auf digitale Medien, das Nutzungsverhalten von Jugendlichen sowie auf die Bedeutung von Identität und Selbstbild (im Netz) eingegangen werden. Sowohl die Einflüsse der digitalen Mediennutzung auf die Identität, das Selbstbild sowie die Selbstdarstellung als auch die allgemeinen positiven und negativen Auswirkungen durch exzessiven Medienkonsum von Jugendlichen sollen in dieser Arbeit näher beleuchtet und einander gegenübergestellt werden. Im nächsten Schritt sollen die Auswirkungen auf die Bereiche Cybermobbing sowie die zwischenmenschliche Kommunikation und soziale Beziehungen untersucht werden. Nach Abhandlung der Einflüsse und Auswirkungen auf die Jugendlichen unserer Gesellschaft folgt der praktische Teil der Arbeit, in dem zunächst die Anthologie-Serie „Black Mirror“ und die Inhalte der Folge „Nosedive“ vorgestellt werden sollen. Anhand ausgewählter Merkmale soll die fiktionale Welt mit unserer modernen Gesellschaft analysiert und verglichen werden. Abschließend soll auf die Sozialkredit-Systeme in China eingegangen und ein Bezug zur Folge hergestellt werden. In der Analyse sollen die Ergebnisse der vorangegangenen Kapitel miteinbezogen werden. Die Ergebnisse der Arbeit zeigen, dass digitale Medien einen weitreichenden sowohl positiven als auch negativen Einfluss auf Jugendliche haben. Die Nutzung hat viele Bereiche unseres Lebens bereits verändert. Besonders soziale Medien hinterlassen ihre Spuren in der Identität und Werteentwicklung von Kindern und Jugendlichen. Obwohl sie in der jüngeren Generation hohes Ansehen genießen, bestimmen sie jedoch (noch) nicht über andere Bereiche des Lebens.
Im Bereich des Bevölkerungsschutzes versteht man unter Krisensituationen, unerwartet auftretende Katastrophen, die ernste Folgen für Mensch und Natur haben. Einsatzkräfte stehen in Krisensituationen unter einer erhöhten physischen und psychischen Belastung. Im Ernstfall bleibt nicht viel Zeit und verschiedene Vorgehensweisen können über Leben und Tod entscheiden. Schnelle Entscheidungen sind in diesem zeitkritischen Nutzungskontext unumgänglich. Interaktive Systeme können die Einsatzkräfte in ihrer täglichen Arbeit unterstützen, vorausgesetzt, die Systeme sind intuitiv und einfach zu bedienen.
Um diese Systeme auf deren intuitive Bedienung einschätzen zu können, wird im Rahmen dieser Masterarbeit eine Bewertungsmethodik erarbeitet und angewandt. Zunächst wird hierfür ein Reifegradmodell erarbeitet, das Aufschluss darüber gibt, inwiefern ausgewählte Software-entwicklungsunternehmen im Bereich des Bevölkerungsschutzes Usability-Praktiken einsetzen. Dieses wird auf drei unterschiedliche Unternehmen im Bereich des Bevölkerungsschutzes angewandt. Im Anschluss daran werden drei Anwendungen der Unternehmen durch Usability Tests mit Endanwendern auf deren tatsächlich wahrgenommene Usability geprüft. So kann erforscht werden, inwiefern der Usability-Reifegrad eines Softwareentwicklungsunter-nehmens auch Aussagen auf die Gebrauchstauglichkeit seiner Software zulässt.
Diese Forschungsarbeit stellt fest, dass eine Messung des Usability-Reifegrades Aufschluss darüber gibt, wie gebrauchstauglich die untersuchten Anwendungen sind. Daher ist eine Messung des Usability-Reifegrades im Bevölkerungsschutz grundsätzlich als sinnvoll einzustufen.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
Das übergeordnete Ziel dieser Arbeit ist die Entwicklung einer Lernanwendung für die Theorieausbildung von Gleitschirm- und Drachenfliegern. Daraus abgeleitete Ziele sind eine Überprüfung der Tätigkeit auf ihre Wirtschaftlichkeit sowie eine vollständige Analyse der Anforderungen von Nutzern und anderen Stakeholdern.
Die Analyse von Markt, Anforderungen und Technologien liefert wertvolle und hilfreiche Erkenntnisse für die Umsetzung der Lernanwendung. Die Berechnungen in der Marktanalyse zeigen, dass eine Umsetzung der Anwendung grundsätzlich wirtschaftlich möglich ist. Die bestehende und potentielle Konkurrenz wurde ermittelt und ihr Angebot detailliert verglichen und analysiert. Die Ermittlung der notwendigen Kennzahlen zur Berechnung der Wirtschaftlichkeit der unternehmerischen Tätigkeit ergeben sich durch die Berechnung von Marktvolumen Marktsättigungsgrad und Marktpotential. Im Kapitel Anforderungsmanagement wird zunächst eine umfangreiche Anforderungsermittlung durchgeführt. Diese besteht aus einem Interview und der Durchführung und Auswertung einer Online-Umfrage. Die Ergebnisse der Anforderungsermittlung werden analysiert und anschließend in Form eines Lasten- und eines Pflichtenhefts dokumentiert. Es zeigt sich, dass die ermittelten und analysierten Daten eine solide Grundlage für die weiteren Arbeiten bilden. Ein Experten-Interview und die Umfrage unter Gleitschirmfliegern ergeben keine in Konflikt stehenden Anforderungen und die aus der Auswertung der Umfrage ermittelten Anforderungen bestätigen viele bereits aus dem Interview ermittelten Anforderungen. Die ausgewertete Umfrage bietet außerdem wichtige Erkenntnisse über gewünschte Funktionen und die Zahlungsbereitschaft der Ziel- gruppe. Diese Erkenntnisse sind besonders in Anbetracht der anzustrebenden Marktpositionierung hilfreich. Die Spezifikation von Anforderungen im Lastenheft ermöglicht es, ein passendes Konzept zu erstellen und den Anforderungen gerecht werdende Technologien auszuwählen. Für die Konzeption der Anwendung wurden Personas, Wireframes und Strukturdiagramme erstellt, die den Anforderungen aus dem Lastenheft gerecht werden. Der Konzeption der Anwendung wurde, verglichen mit den anderen Arbeits- schritten, weniger Platz eingeräumt, da erstens kaum restriktive Anforderungen an das Design bestehen und zweitens die Anwendungsentwicklung mit UI-Frameworks kein fotorealistisches Layout voraussetzt, um ästhetische und benutzerfreundliche Anwendungen zu konzipieren. Es zeigt sich, dass für die gegebenen Anforderungen die Erstellung von Wireframes ausreichend ist. Im Kapitel „Technologieauswahl“ wird eine umfangreiche analytische Arbeit betrieben, um eine optimale Auswahl von passenden Technologien zu erhalten. Die analytische Arbeit besteht dabei aus dem Vergleich verschiedener Systemumgebungen, App-Technologien und Frameworks. Dabei wird deutlich, dass eine Progressive Web-App in einer cloudbasierten Systemumgebung mit einem Backend-as-a-Service Modell die Anforderungen am besten erfüllt. Im Kapitel „Umsetzung“ wird dokumentiert, wie die Anwendung realisiert wurde. Für die Umsetzung der Lernanwendung und des dazugehörigen Administrationsbereiches wurden etwa 6000 Zeilen Code geschrieben. Sowohl den Administrationsbereich als auch die Lernanwendung konnte zu großen Teilen fertig gestellt werden.
Zusammenfassend lässt sich festhalten, dass die Zielsetzung dieser Arbeit erfüllt wurde, indem die wichtigsten Grundlagen zur späteren vollständigen Umsetzung erarbeitet wurden. Mit Spannung zu erwarten ist, wie sich die gewählte BaaS-System-umgebung in Zukunft entwickelt und ob diese auch weiterhin den Anforderungen gerecht wird. Neben den noch ausstehenden Arbeiten bei der Umsetzung sind auch mögliche Erweiterungen denkbar. So konnte das Lernsystem noch weiter optimiert werden, zum Beispiel durch automatische Erstellung eines Lernplans, basierend auf dem Prüfungstermin oder durch Implementierung von Push-Benachrichtigungen, die den Nutzer zum Öffnen der Anwendung auffordern. Denkbar ist auch eine Übertragung des Anwendungskonzepts auf andere Sportarten oder Ausbildungen. Dabei müsste überlegt werden, ob sich die jeweilige Prüfungsform zum Lernen mit einer Lernkartei eignet oder welche Aufwände für eine Anpassung an andere Sportarten notwendig wären.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
Ein Sachcomic von Schlogger:
- Warum streiten wir?
- Welche gesellschaftlichen und psychologischen Probleme erschweren moderne Beziehungen?
- Wie streiten wir?
- Warum lohnt es sich Streiten zu lernen?
- Was ist Kommunikation und was kann dabei schief laufen?
- Wie streiten wir konstruktiver?
Diese Fragen versucht "STREIT[SAM]"anhand vieler grafischer Beispiele und Theorien wie z.B."Das Vier-Seiten-Modell" von Schulz von Thun, den "Axiomen zur Kommunikationspsychologie"
von Paul Watzlawick oder der Gewaltfreien Kommunikation nach Rosenberg zu beantworten.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.