Refine
Year of publication
Document Type
- Master's Thesis (32) (remove)
Has Fulltext
- yes (32)
Is part of the Bibliography
- no (32)
Keywords
- E-Learning (2)
- Internet der Dinge (2)
- Internet of Things (2)
- 10Gbit/s (1)
- 3D printing (1)
- 3D-Druck (1)
- 40Gbit/s (1)
- Agent <Künstliche Intelligenz> (1)
- Agent Fitness (1)
- Agrophotovoltaics (1)
- Anwendungsschicht-Protokolle (1)
- Apache Spark (1)
- AutoML (1)
- Autoencoder (1)
- Automatisierung (1)
- Autonomie (1)
- Bevölkerungsschutz (1)
- Blended Learning (1)
- CCS (1)
- COVID-19 (1)
- Cement Industry (1)
- China (1)
- Cloud (1)
- Cloud Computing (1)
- Comic (1)
- Corona-Pandemie (1)
- DVRIP (1)
- Datenbanksystem (1)
- Decentralized applications (1)
- Digitale Medien (1)
- Distributed Sensor Network (1)
- Distributed computing (1)
- Electric Tractors (1)
- Elektrofahrzeug (1)
- Energiespeicherung (1)
- Energy System Model (1)
- Energy Transition (1)
- Enterprise 2.0 (1)
- Ethernet (1)
- Ethernet-Stack (1)
- Fotovoltaik (1)
- Framework (1)
- Generics (1)
- Geschäftsmodell (1)
- Go (1)
- HTML (1)
- HTML 5.0 (1)
- HTTP Live Streaming (1)
- Handel (1)
- High Performance Computing (HPC) (1)
- High content measurement (1)
- Hochleistungsrechnen , Informatik (1)
- Informationsbeschaffung (1)
- Integriertes Lernen (1)
- JavaScript (1)
- JavaScript 1.5 (1)
- Jugendliche (1)
- Kommunikation (1)
- Kosten (1)
- Kostenrechnung (1)
- Krisenmanagement (1)
- Label (1)
- Landwirtschaft (1)
- Lernkonzept (1)
- Lernprogramm (1)
- Mass spectrometry (1)
- Massenspektrometrie (1)
- Mediennutzung (1)
- Mensch-Computer-Interaktion (1)
- Moodle 2.0 (1)
- Multi-task learning (1)
- Musikwirtschaft (1)
- Neuro-Evolution (1)
- New Retail (1)
- NoSQL-Datenbanksystem (1)
- Omni-Channel-Handel (1)
- Online Marketing (1)
- Online Speicher (1)
- Online Storage (1)
- Online-Handel (1)
- Operante Konditionierung (1)
- Oxyfuel (1)
- Penetration Testing (1)
- Penetrationstest (1)
- Platform as a Service (1)
- Product-Placement (1)
- Programmablauf (1)
- Programmiersprache (1)
- Proteine (1)
- QCM-D Array (1)
- RTMP (1)
- Reinforcement Learning (1)
- Rest-API (1)
- Scientific workflow (1)
- Scrum (1)
- SharePoint 2010 (1)
- Social Workplace 2020 (1)
- Stationärer Handel (1)
- Strategie (1)
- Streaming (1)
- Streit (1)
- TCO (1)
- Temperature control (1)
- Temperaturregelung (1)
- Total Cost of Ownership (1)
- Transfer learning (1)
- Usability (1)
- VHDL (1)
- Verteilter Speicher (1)
- Videostreaming (1)
- Visualisierung (1)
- Werbefilmproduktion (1)
- Wirtschaftskrise (1)
- World Wide Web (1)
- YouTube (1)
- Zement (1)
- analysis (1)
- binary (1)
- dahua (1)
- protocol (1)
- Überlebensstrategien (1)
- Übersetzungsstrategie (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (18)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (4)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (3)
- Fakultät Medien (M) (ab 22.04.2021) (3)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (2)
- Fakultät Wirtschaft (W) (2)
Open Access
- Open Access (32) (remove)
Evaluierung neuer HTML5- und JavaScript-Technologien bei der Nutzung in heterogenen Umgebungen
(2012)
Die 1&1 Internet AG in Karlsruhe betreibt einen Onlinespeicher, der von Kunden der diversen Tochter- und Schwestergesellschaften hauptsächlich über ein Browserfrontend bedient wird. Dieses kommuniziert mittels einer definierten JSON-Schnittstelle mit der auf Java basierenden Middleware. Da der Client schon vor einigen Jahren entwickelt wurde, nutzt er noch nicht alle Möglichkeiten die HTML5 in aktuellen Browsern bietet. Die Beschreibung und Bewertung dieser Möglichkeiten stellt die Kernaufgabe der Thesis dar. Einer der Schwerpunkt soll dabei auf der Offlinefähigkeit und intelligenten Benutzung von Caching- & Sync-Strategien zwischen Onlineanwendung und Offlineclient bestehen. Desweiteren sollen die Möglichkeiten von aktuellen Browsern ohne Beachtung der Rückwärtskompatibilität zu älteren Browsern genutzt werden. Zu Demonstrationszwecken sollen Beispielanwendungen den Einsatz der neuen Technologien erstellt werden, damit deren praktische Nutzung leichter zu erfassen ist. Das Hauptaugenmerk bei den Beispielanwendungen liegt indes nicht auf der Funktionalität, sondern auf dem Einsatz der jeweiligen Technologie, so dass deren Möglichkeiten getestet werden können. Ebenfalls Teil der Arbeit soll die Erarbeitung von theoretischen Aspekten sowie die Erstellung einer Übersicht über den aktuellen Stand der Fachliteratur darstellen. Dies soll bei weiterer Nutzung der Ergebnisse die Erarbeitung von erweitertem Fachwissen erleichtern. Basis sollen hier die aktuell Erschienenen Fachbücher auf deutsch und englisch sowie - naturgemäß nochmals aktueller - die regelmäßigen Veröffentlichungen im Internet und in Fachzeitschriften bilden. Die zu besprechenden Themen umfassen die grundsätzliche Beschreibung von HTML5 und dem Standardisierungsprozess, die neuen HTML-Element in Bezug auf Formulare, Multimedia-Darstellung, die Möglichkeiten der Offline-Anwendung (Application Cache, Cache Manifest, DOM Storage), die Drag & Drop API zur Nutzung beim Dateiupload sowie die File API. Mögliche Themen für den theoretischen Teil sind gängige Architekturmuster (beispielsweise MVC, MVP, MVVM, PAC), Caching- und Sync-Strategien sowie die Potentiale aktueller Skriptsprachen (ECMAScript 5, Coffeescript, DART).
Communication protocols enable information exchange between different information systems. If protocol descriptions for these systems are not available, they can be reverse-engineered for interoperability or security reasons. This master thesis describes the analysis of such a proprietary binary protocol, named the DVRIP or Dahua private protocol from Dahua Technology. The analysis contains the identification of the DVRIP protocol header format, security mechanisms and vulnerabilities inside the protocol implementation. With the revealing insights of the protocol, an increase of the overall security is achieved. This thesis builds the foundation for further targeted security analyses.
China ist eine aufstrebende Volkswirtschaft. Das Wirtschaftswachstum im Land führt zu einer steigenden Kaufkraft und der digitale Fortschritt verändert die Kaufgewohnheiten und die komplette Customer Journey. Einheitliche Online Marketing-Ansätze sind dabei längst überholt. Die Konsumierenden erwarten eine persönliche Customer Experience mit Integration von neuesten Technologien, die ihren mobilen Lebensstil effizienter gestaltet.
Deutsche Unternehmen erkennen die Auswirkungen dieser Veränderungen und stehen vor der Herausforderung die neuen, anspruchsvollen Verbraucher/innen mit innovativen Online Marketing-Maßnahmen anzusprechen.
Für die eigene Studie wurden deutsche Unternehmen befragt, die bereits erfolgreiches Online Marketing in China betreiben. Anhand der Online-Befragung und Experten-/Expertinneninterviews sollen die wichtigsten Online Marketing-Instrumente, deren Plattformen, Ziele und Herausforderungen ermittelt werden.
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines VHDL-Ethernet Protokollstapels. Aufbauend auf einem existierenden Protokollstapel für 1 GBit/s ist das Ziel dieser Arbeit, einen Protokollstapel zu entwerfen, der eine Datenübertragungsrate von mehr als 10 GBit/s erreicht. Dieser Protokollstapel soll die Protokolle Ethernet, IPv4, ARP, ICMP und UDP enthalten. Durch eine flexible Struktur der Ports und den Einsatz von generics soll dieser Protokollstapel leicht konfigurierbar und so für viele Anwendungszwecke nutzbar sein.
Zunächst wurde der existierende Protokollstapel von der Xilinx Vertix5 Serie auf die 7er Serie portiert und in Betrieb genommen. Dabei traten Probleme mit dem Transceiver und dem ARP Protokoll auf. Nachdem diese gelöst wurden, konnte ein Konzept für den neuen Protokollstapel erarbeitet werden. Dieser nutzt nun ein – in der Busbreite – flexibles Streaming Interface, um die Geschwindigkeit der Datenübertragung anzupassen.
Da jedes der genutzten Protokolle an die Daten einen Header/Trailer anhängt oder entfernt,
wurden für diese Aufgabe insgesamt vier Low-Level-Module entwickelt. Diese Module wurden
mit Hilfe einer Testbench und einer Testmatrix verifiziert. Die Protokollmodule stellen nun den Header/Trailer zusammen und fügen diese mit Hilfe der Low-Level-Module an oder entfernen diese.
Bei der Simulation des Protokollstapels wurde die Funktion der Protokolle nachgewiesen. Durch die große Busbreite, von 64 Bit bei 10 GBit/s und 128 oder 256 Bit bei 40 GBit/s, schlug allerdings die Timing-Analyse fehl. Der kritische Pfad konnte bei der CRC Berechnung gefunden werden. Durch parallele CRC-Berechnungen wurde eine vorübergehende Lösung dieses Problems für die Geschwindigkeit 10 GBit/s erreicht.
Die Analyse des Ressourcenverbrauchs zeigte, dass der neue Protokollstapel nur wenig Ressourcen in einem FPGA nutzt. Für 10 GBit/s werden lediglich 3000 LUTs und 2400 Register
benötigt. Des weiteren wurde festgestellt, dass der Ressourcenverbrauch nicht proportional zur Busbreite ist. Bei einer Verdopplung der Busbreite werden lediglich 60 % mehr Ressourcen benötigt.
Die Corona-Pandemie hat nicht nur tiefgreifende Auswirkungen auf das gesellschaftliche Leben, auch in der Wirtschaft sind die Folgen zu spüren. Dabei können diese Folgen in den einzelnen Branchen sehr unterschiedlich sein. Wo der E-Commerce eine steigende Nachfrage verzeichnen konnte, ist die Nachfrage im Kultur- und Freizeitsektor nahezu komplett eingebrochen. Aber nicht in allen Branchen sind die Auswirkungen so eindeutig. Diese Arbeit befasst sich deshalb mit den Auswirkungen der Corona-Pandemie auf die Werbefilmproduktionen in Deutschland. Dabei werden die folgenden beiden Forschungsfragen untersucht:
„Welche Gefahren birgt die wirtschaftliche Krise in Folge der Corona-Pandemie für die Werbefilmproduktionsbranche und wie kann diesen entgegengewirkt werden?“
„Welche Chancen ergeben sich aus der aktuellen Wirtschaftskrise und wie können diese für die Zukunft genutzt werden?“
Um diese Fragen zu beantworten, wurden zunächst die Begrifflichkeiten rund um das Thema genau definiert. Aufbauend auf der Literaturrecherche wurde zudem ein Leitfaden für Interviews mit drei Experten aus der Branche erstellt und diese anschließend durchgeführt. Dabei konnten neben einem detaillierteren Einblick in die Branche die Grundlagen für die ebenfalls durchgeführte quantitative Umfrage, die an eine repräsentative Stichprobe aus Unternehmen der Branche gestellt wurde, geschaffen werden.
Es zeigt sich, dass die Werbefilmproduktionen nach einem im ersten Lockdown nahezu kompletten Stillstand, durch schnelles Handeln, effektive Anpassungen in den Arbeitsabläufen vornehmen und dadurch zügig die Arbeit wieder aufnehmen konnten. Auch wenn die Unternehmen weiterhin Schwierigkeiten im Bereich der Planung und Produktion hatten und haben, konnten viele der Unternehmen durch die Verlagerung von Prozessen in die digitale Welt neue Geschäftsfelder erschließen und einen steigenden Umsatz verzeichnen. Schnelles Handeln und Innovationsbereitschaft zeigen sich dabei als zentrale Eigenschaften für eine positive Geschäftsentwicklung in der Krise.
Weiterführende Forschung kann sich mit dem Themenbereich effizientes Arbeiten im Home-Office beschäftigen. Auch im Bereich der Werbefilmproduktion für Social Media und Unternehmenshomepages und im Speziellen, welche Unternehmen diese in Zukunft vermehrt nachfragen, besteht noch Forschungsbedarf. Wie sich die fehlende praktische Erfahrung auf die Qualität der Lehre auswirkt, ist ebenfalls eine noch offene Fragestellung.
Das Thema dieser Masterthesis lautet „Camera Stream Solution – Marktübersicht, Lösungsansätze, Prototyp“. Mit dieser Arbeit wird eine Videostreaming-Lösung für die Herrenknecht-Plattform CONNECTED realisiert. Dabei geht es um die Bildschirmaufnahme von Navigations- und Steuerungsbildschirmen auf Tunnelbohrmaschinen und die Übertragung dieser Aufnahmen in die Cloud. Letztlich wird ermöglicht die Aufnahmen in nahezu Echtzeit als Videostream in einem Videoplayer wiederzugeben.
Zu Beginn werden die Grundlagen zur Datenübertragung im Internet sowie zum Streaming erläutert. Im Anschluss wird eine Marktübersicht verschiedener Streaming-Komponenten gegeben sowie einige Lösungsansätze vorgestellt und anhand ausgewählter Kriterien verglichen. Im nächsten Schritt wird die Implementierung eines Prototyps behandelt. Dieser nutzt unter anderem ffmpeg für die Bildschirmaufnahme und die Kodierung sowie die Streaming-Protokolle RTMP (Real Time Messaging Protocol) und HLS (HTTP Live Streaming). Zur Realisierung der Architektur gehört auch die Entwicklung einer REST-API und eines REST-Clients in C#.
Mit dem Projekt wird eine „echte“ Streaming-Lösung für die Kundenplattform CONNECTED entwickelt, die einen Videostream mit 24 Bildern pro Sekunde bietet, um die bisherige Darstellung von Screenshots auf der Plattform zu ersetzen.
Die vorliegende Arbeit beschäftigt sich mit ausgewählten Aspekten der Konzeption, Umsetzung und Implementierung eines E-Learning-Lernangebots für die NGO CartONG. Das E-Learning-Angebot soll abschließend vier Themen beinhalten, die sich unter dem Begriff REDD+ zusammenfassen lassen. „Forest Inventory“ ist eines der vier Themen und wurde von mir bearbeitet. Für die Aufbereitung und Umsetzung der anderen drei Themen erstellte ich Anleitungen und Richtlinien. Die anderen drei Themen werden auf Grundlage dieser Anleitungen in ähnlicher Weise von CartONG-Mitarbeitern aufbereitet. Die Grundlage dieser Arbeit bilden die Lerntheorien sowie die Auswertung des Fragebogens für die potentiellen zukünftigen Lerner, durch die ich meine Konzeption und Umsetzung begründe. Diese beiden Grundlagen behandle ich in den ersten zwei Kapiteln. Darauf folgt die Beschreibung der Entwicklung des Corporate Designs für das gesamte Lernangebot. Es bildet neben der zuvor genannten didaktischen Grundlage nun die visuelle Grundlage für die Konzeption der Inhalte, die sich diesem Kapitel anschließt. Der Konzeption folgt die Aufbereitung der Inhalte. Das abschließende Kapitel beschreibt die anschließende Umsetzung des Lernangebots auf der Lernplattform Moodle.
Distributed Flow Control and Intelligent Data Transfer in High Performance Computing Networks
(2015)
This document contains my master thesis report, including problem definition, requirements, problem analysis, review of current state of the art, proposed solution,
designed prototype, discussions and conclusion.
During this work we propose a collaborative solution to run different types of operations in a broker-less network without relying on a central orchestrator.
Based on our requirements, we define and analyze a number of scenarios. Then we design a solution to address those scenarios using a distributed workflow management approach. We explain how we break a complicated operation into simpler parts and how we manage it in a non-blocking and distributed way. Then we show how we asynchronously launch them on the network and how we collect and aggregate results. Later on we introduce our prototype which demonstrates the proposed design.
This Master's Thesis discusses intelligent sensor networks considering autonomous sensor placement strategies and system health management. Sensor networks for an intelligent system design process have been researched recently. These networks consist of a distributed collective of sensing units, each with the abilities of individual sensing and computation. Such systems can be capable of self-deployment and must be scalable, long-lived and robust. With distributed sensor networks, intelligent sensor placement for system design and online system health management are attractive areas of research. Distributed sensor networks also cause optimization problems, such as decentralized control, system robustness and maximization of coverage in a distributed system. This also includes the discovery and analysis of points of interest within an environment. The purpose of this study was to investigate a method to control sensor placement in a world with several sources and multiple types of information autonomously. This includes both controlling the movement of sensor units and filtering of the gathered information depending on individual properties to increase system performance, defined as a good coverage. Additionally, online system health management was examined in this study regarding the case of agent failures and autonomous policy reconfiguration if sensors are added to or removed from the system. Two different solution strategies were devised, one where the environment was fully observable, and one with only partial observability. Both strategies use evolutionary algorithms based on artificial neural networks for developing control policies. For performance measurement and policy evaluation, different multiagent objective functions were investigated. The results of the study show that in the case of a world with multiple types of information, individual control strategies performed best because of their abilities to control the movement of a sensor entity and to filter the sensed information. This also includes system robustness in case of sensor failures where other sensing units must recover system performance. Additionally, autonomous policy reconfiguration after adding or removing of sensor agents was successful. This highlights that intelligent sensor agents are able to adapt their individual control policies considering new circumstances.
Diese Arbeit beschäftigt sich mit den Grundlagen zu Multi-Agenten-Systemen in der Industrie. Der Begriff “Industrie 4.0“ wird eingeführt und es wird eingehend auf die Potentiale und Herausforderungen diesbezüglich eingegangen. Außerdem wird ein Überblick über aktuelle Entwicklungen und Ansätze zur Entwicklung von sogenannten autonomen Agenten gegeben. Diese werden auch im Hinblick auf die Themen Holonic Manufacturing und Multi-Agenten-System besprochen. Im praktischen Teil der Arbeit wird ein System bestehend aus vier BDI-Agenten ntwickelt, um einen beispielhaften Geschäftsprozess zu bearbeiten. Die Entwicklung basiert dabei auf Java und dem Jadex Agenten-Framework. Es wird gezeigt, dass sich damit autonome BDI-Agenten umsetzen lassen, die über Rechnergrenzen hinweg koordiniert werden können.
Die Visualisierung von Programmabläufen ist ein zentraler Aspekt für Programmieranfänger, um das Verständnis von Codeabläufen zu erleichtern und den Einstieg in der Softwareentwicklung zu unterstützen. In dieser Masterthesis wird ein speziell auf die Bedürfnisse von Einsteigern zugeschnittenes generisches Framework vorgestellt, wobei der Fokus auf einer einfachen, verständlichen aber auch korrekten Darstellung der Programmausführung liegt. Das Framework integriert das Debugger Adapter Protocol, um den Debugger unterschiedlicher Sprachen ansprechen und verwenden zu können.
In dieser Arbeit werden zunächst die Anforderungen für das generische Framework diskutiert. Anschließend werden bestehende Ansätze zur Visualisierung von Programmabläufen ausführlich untersucht und analysiert. Die Implementierung des Frameworks wird daraufhin detailliert beschrieben, wobei besonderer Wert auf die Erweiterbarkeit unterschiedlicher Sprachen gelegt wird.
Um die Eignung des Frameworks zu evaluieren, werden mehrere Aufgaben aus dem ersten Modul mit der jeweiligen Programmiersprache des Studiengangs Angewandte Informatik der Hochschule Offenburg betrachtet. Die Ergebnisse zeigen, dass das Framework mit den Aufgaben umgehen und diese korrekt und verständlich darstellen kann.
Ziel dieser Masterthesis ist die Konzeption und die Implementierung einer fortschrittlichen Social Business Plattform in einem IT-Dienstleistungsunternehmen unter Verwendung von MS SharePoint Server 2010. Im Vordergrund stehen dabei die Analyse aktueller und zukünftiger Anwendungsszenarien und Lösungen von Enterprise 2.0 Systemen. Desweiteren sollen Methoden zur Adaption der spezifischen Anforderungen des Unternehmens mittels SharePoint entwickelt werden. Eventuell auftretende Probleme sollen frühzeitig ausgelotet und die vielfältigen technischen Fähigkeiten von MS Share Point Server 2010 aufgezeigt werden. Langfristig gesehen sollen die im Rahmen dieser Arbeit gesammelten Ergebnisse Awareness und Know-How für SharePoint und Enterprise 2.0 im Unternehmen schaffen. Gegebenenfalls könnten sie die Basis für eine Umstrukturierung der vorhandenen Systemlandschaft bilden.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Die vorliegende Master-Thesis befasst sich mit dem Thema Handel. In der Arbeit wird der Bereich des Multi-Channel-Handels genauer durchleuchtet. Es wird aufgezeigt, wie der Zukunft des Handels weltweit und in Deutschland aussehen wird.
Der Handel wird besonders heute sehr vom Konsumierendenverhalten beeinflusst. Unternehmen passen sich mehr als je zuvor an Wünsche und Anforderungen der Zielgruppe an. Dies ist wichtig für Handelsunternehmen um wettbewerbsfähig und profitabel zu bleiben, vor allem in einem immer aggressiver werdenden Wettbewerbskampf um Konsumierende. In dieser Arbeit wird dargestellt, wie sich die Customer Journey und der Kaufprozess der Konsumierenden verändert hat und flexibler geworden ist. Es gibt nicht mehr nur einen Weg, wie potentielle Verkaufsinteressierende zu Kundschaft wird. Die Kundschaft lässt sich nicht mehr von Unternehmen leiten, sondern möchte eigenständig und selbstbestimmt zwischen verschiedenen Absatzkanälen und Endgeräten wechseln. Daher ist ein verknüpftes Multi-Channel-System für Handelsunternehmen wichtig. In dieser Arbeit soll zudem gezeigt werden, dass die Omni-Channel-Strategie die Strategie der Zukunft ist und wie der Begriff des New Retail sowohl den Online-Handel, als auch den stationären Handel prägen wird.
Online-Handelsunternehmen wie Amazon, Alibaba und Bonprix haben bereits verstanden, dass der stationäre Handel nicht „ausstirbt“, sondern durch eine intelligente Verknüpfung mit dem Online-Handel sehr zukunftsweisend gemacht werden kann. Daher wird in dieser Arbeit auch gezeigt, wie sich pure E-Commerce-Unternehmen in den Innenstädten und Einkaufszentren in den USA, China und Deutschland ausbreiten und damit eine Omni-Channel-Strategie schaffen.
Unabhängige Musikunternehmen, auch Independent-Label oder Indie-Label genannt, verfolgen unterschiedlichste Strategien, um im Musikgeschäft zu überleben. Die Strategien beziehen sich auf die Ausrichtung der Unternehmen in den jeweiligen Geschäftsbereichen. Ziel dieser Arbeit ist das Aufstellen von allgemeinen Hypothesen für jeden Geschäftsbereich eines unabhängigen Musikunternehmens. Zusammengefasst bilden alle Hypothesen einen Leitfaden für solche Unternehmen, um aktuell im Musikgeschäft überleben zu können. Das Bilden der Hypothesen ist die letzte Stufe einer qualitativen Inhaltsanalyse, der fünf Interviews mit Labelbetreibern und Labelangestellten zu Grunde liegen. Die Aussagen der Labelbetreiber und -angestellten werden in Bezug auf den aktuellen wissenschaftlichen Stand und die Lage der deutschen Musikindustrie analysiert und erörtert.
Die vorliegende Arbeit setzt sich mit dem Thema Product-Placement auf YouTube auseinander. Dabei wird der Frage nachgegangen, inwieweit sich Produktplatzierungen in YouTube-Videos auf das Kaufverhalten von Jugendlichen auswirken. Im Zuge dessen sollen außerdem Einblicke darüber gewonnen werden, ob und wie Jugendliche Product-Placement wahrnehmen. Die Fragestellungen werden auf Basis der Auswertung aktueller Fachliteratur und vor dem Hintergrund der Erkenntnisse einer quantitativen Onlinebefragung diskutiert.
Die Ergebnisse der Arbeit zeigen, dass YouTuber einen hohen Stellenwert im Leben vieler Jugendlicher einnehmen. Werbetreibende sehen in den YouTubern Influencer, die Werbebotschaften subtil und authentisch an eine junge Zielgruppe vermitteln können. Vor diesem Hintergrund wird diskutiert, inwieweit Produktplatzierungen in YouTube-Videos kenntlich gemacht werden müssen. Es kann vorweggenommen werden, dass eine eindeutige Kennzeichnung sowohl aus rechtlicher und medienethischer Sicht notwendig ist. Darüber hinaus zeigen auch die Umfrageergebnisse den Bedarf einer eindeutigen Kennzeichnung auf. Obwohl die Mehrheit annimmt, Werbung in YouTube-Videos zu erkennen, kann nur ein geringer Teil auch das platzierte Produkt richtig identifizieren.
Der Einfluss von Product-Placement in YouTube-Videos auf das bewusste Kaufverhalten von Jugendlichen ist geringer, als angenommen. Jugendliche, die eine erhöhte Kaufwahrscheinlichkeit angaben, sehen sich tendenziell häufiger die Videos des YouTubers an, folgen ihm auf mehreren Social Media Kanälen und empfinden ihn als glaubwürdig.
Gegenstand der hier vorgestellten Arbeit ist eine Untersuchung der gängigsten Anwendungsschicht-Protokolle für das Internet der Dinge. Sie umfasst zum einen die Recherche und den theoretischen Vergleich der Protokolle anhand vorher festgelegter Untersuchungskriterien und zum anderen einen praktisch implementierten Versuchsaufbau, der das Zusammenwirken verschiedener Protokolle veranschaulichen soll.
Zunächst wird eine kurze Einführung in das Thema „Internet der Dinge“ gegeben. Dabei wird auf die Entwicklung der letzten Jahre sowie den Stand der Technik eingegangen. Zum einen wird aufgezeigt, inwieweit sich das Thema auf die verschiedenen Bereiche des täglichen Lebens ausgebreitet hat und zum anderen welche verschiedenen Anwendungspakete diverser Software-Hersteller auf dem Markt sind. Bei der Untersuchung dieser Pakete werden die Protokolle ermittelt, die verwendet werden. Diese bilden die Menge an zu untersuchenden Protokolle für den späteren Vergleich. Um diese in einem wissenschaftlichen Rahmen miteinander vergleichen zu können, werden Kriterien als Basis der Untersuchung definiert. Anhand derer werden alle Protokolle untersucht und anschließend in einer Tabelle zusammengefasst.
Im zweiten Teil werden dann einige der untersuchten Protokolle mithilfe von diversen MCUs (Micro Controller Unit) verwendet und deren Funktionsweise/Handhabung miteinander verglichen. Dabei entsteht ein Aufbau, der zukünftigen Studierenden die Möglichkeit bietet, schnell einen Einblick in den Bereich „Internet der Dinge“ zu erhalten.
Sowohl die allgemeinen Erfolgsfaktoren von Start-ups als auch die Erfolgsfaktoren durch die Beteiligung eines Medienunternehmens werden in dieser Arbeit näher beleuchtet und einander gegenübergestellt. Im Fokus steht insbesondere die Frage, wie ein Medienunternehmen zu einer Wertsteigerung beitragen kann, damit das Start-up erfolgreicher ist, als es ohne die Beteiligung wäre.
Vergleichende Untersuchung von „Platform as a Service“-Angeboten für das „Internet of Things“
(2016)
Im Rahmen der Master Thesis werden eine Auswahl von Platform as a Service-Angeboten für das Internet of Things untersucht und miteinander verglichen. Auf Grundlage der Untersuchung erfolgt die Implementierung einer IoT-Anwendung für drei der Plattformen. Durch die theoretische Einleitung in die Themen Platform as a Service und Internet of Things, sowie die für das IoT typischen Verbindungsprotokolle HTTP und MQTT wird ein grundlegendes Verständnis für das Sachgebiet vermittelt.
Nach den erklärenden Definitionen folgt die Untersuchung der PaaS-Angebote. Hier werden zunächst die Untersuchungskriterien vorgestellt und erklärt, nach denen die einzelnen Plattformen untersucht werden. Diese umfassen die quantitativen Kriterien Verbreitung, Preis, Verbindungsrate, Datenmenge und Schnittstellen, sowie die qualitativen Kriterien API, Visualisierung, Weiterverarbeitung, Dokumentation, Usability und Sicherheit. Danach erfolgt die detailierte Untersuchung der Plattformen nach den festgelegten Kriterien. Untersucht wurden hierbei die Plattformen ThingSpeak, data.sparkfun.com, RunAbove IoT Lab, flowthings.io, Carriots, Ubidots, GroveStreams, Exosite, Beebotte, MODE, Initial State, Temboo, Oracle Cloud, IBM Watson Internet of Things, Azure IoT Hub, AWS IoT und Google Pub/Sub.
Im Anschluss an die Untersuchung werden die Ergebnisse gegliedert nach den Untersuchungskriterien miteinander verglichen und abschließend ausgewertet. Das Ergebnis der Plattformuntersuchung bietet die Grundlage für die Implementierung einer Internet of Things Anwendung.
Für die Anwendung werden zunächst die Anforderungen beschrieben, welche die eines realitätsnahen Nutzungsfall nachbilden sollen. Das Konzept und die Funktionsweise stellt das Zusammenspiel der einzelnen Komponenten dar. Die Anwendung soll hierbei die Funktionalität eines Infoterminals nachstellen, welches über NFC Informationen an mobile Endgeräte bereitstellt. Dieses sendet die Anzahl der Zugriffe an das PaaS-Angebot, welches wiederum als Schnittstelle zu Twitter und einer externen Webanwendung dient. Über die Webanwendung kann die Nachricht des Infoterminals aktualisiert werden. Im Folgenden werden die zum Einsatz kommende Hardware und Software beschrieben. Es handelt sich hierbei um einem Arduino Uno Rev3, welcher über ein Adafruit CC3000 Wifi Shield und ein Seeed Studio NFC Shield V2.0 die benötigten Schnittstellen zur Verfügung stellt.
Anschließend erfolgt die Auswahl der drei für die Implementierung verwendeten Plattformen anhand der zuvor durchgeführten Untersuchung. Hierbei wurden als Vertreter verschiedener Benutzergruppen ThingSpeak, Flowthings.io und IBM Watson Internet of Things gewählt.
Im Anschluss an die Plattformauswahl wird die konkrete Umsetzung beschrieben. Zuerst erfolgt der Aufbau und die Programmierung der Grundfunktionalitäten zur Datenübertragung des Arduinos. Danach wird im Detail auf den allgemeinen Teil der Webanwendung eingegangen, welche mit HTML, CSS und jQuery realisiert wurde. Danach erfolgt die Beschreibung der plattformspezifischen Umsetzung der jeweiligen Kommunikation zwischen Arduino und Plattform, sowie der Webanwendung. Hierbei belaufen sich die Unterschiede hauptsächlich auf die verschiedene Implementierung der Authentifizierung, sowie den verwendeten Übertragungsprotokollen HTTP und MQTT.
Nach der Implementierung wird diese ausgewertet um die konkreten Herausforderungen, sowie Vor- und Nachteile der Plattformen, der verwendeten Hardware und Protokolle herauszustellen.
Im letzten Kapitel wird die Arbeit zusammengefasst und abschließend anhand aller gesammelten Erkenntnisse bewertet.
Quarz crystal microbalances allow the monitoring of the adsorption process of mass from a liquid to their surface. The adsorbed mass can be analysed regarding to its protein content using mass spectromety. To ensure the protein identification the results of several measurements can be combined. A high content QCM-D array was developed to allow up to ten measurements parallel. The samples can be routed inside the array distributing one sample to several chips. The fluidic parts were prototyped using 3D printing. The assembled array was tight and the sample routing function could be demonstrated. A temperature controller was developed and implemented. The parameters for the PID controller were determined and the controller was shown to be able to keep the temperature constant over long time with high accuracy.