Refine
Year of publication
Document Type
- Master's Thesis (77) (remove)
Keywords
- E-Learning (3)
- HTML 5.0 (3)
- App <Programm> (2)
- HTML (2)
- Internet der Dinge (2)
- Internet of Things (2)
- JavaScript (2)
- Künstliche Intelligenz (2)
- Marketing (2)
- Social Media (2)
- Web Site (2)
- 10Gbit/s (1)
- 3D (1)
- 3D printing (1)
- 3D-Druck (1)
- 40Gbit/s (1)
- 6LoWPAN (1)
- AR SDK (1)
- Agent <Künstliche Intelligenz> (1)
- Agent Fitness (1)
- Android (1)
- Anwendungsschicht-Protokolle (1)
- Apache Spark (1)
- Augmented Reality (1)
- Augmented Reality, Telepräsenz, Telerobotik, Google Cardboard, Head Mounted Device (1)
- AutoML (1)
- Autoencoder (1)
- Automatisierung (1)
- Bautagesbericht (1)
- Bellman Ford algorithm (1)
- Bevölkerungsschutz (1)
- Bildverarbeitung (1)
- Blended Learning (1)
- Blickaufzeichnung (1)
- Bluetooth-Applikation (1)
- Chatbot (1)
- China (1)
- Cloud (1)
- Cloud Computing (1)
- Comic (1)
- Computerunterstützte Kommunikation (1)
- Content Management (1)
- Content Management System (1)
- Conversational Commerce (1)
- Convolutional Neural Network (1)
- DVRIP (1)
- Datenbanksystem (1)
- Datenverarbeitung (1)
- Decentralized applications (1)
- Deep learning (1)
- Development (1)
- Digitale Medien (1)
- Distributed Sensor Network (1)
- Distributed computing (1)
- Drupal (1)
- Duale Ausbildung (1)
- Durchflussmessung von Gasen (1)
- E-Book (1)
- E-Magazin (1)
- E-Publishing (1)
- Einzelhandel (1)
- Elektronische Musik (1)
- Enterprise 2.0 (1)
- Entwicklung (1)
- Erfolgsfaktoren (1)
- Erweiterte Realität <Informatik> (1)
- Erweiterte Realität <Informatik> , Telepräsenz , Robotik (1)
- Ethernet (1)
- Ethernet-Stack (1)
- Eyetracking (1)
- Facebook Check-In Deals (1)
- Flash CS3 (1)
- Flash CS4 (1)
- Flash CS5 (1)
- FlowNet (1)
- Gallenschütz (1)
- Gaming (1)
- Geschäftsmodell (1)
- Glaubwürdigkeit (1)
- Grain boundary (1)
- Grain growth (1)
- Handel (1)
- High Performance Computing (HPC) (1)
- High content measurement (1)
- Hochleistungsrechnen , Informatik (1)
- Hot-Spot (1)
- IPv6 (1)
- IT-Sicherheit (1)
- Influencer (1)
- Instagram (1)
- Instagram Marketing (1)
- Integriertes Lernen (1)
- Interaktive Medien (1)
- Intranet (1)
- JavaScript 1.5 (1)
- Jugendliche (1)
- Kaba (1)
- Kommunikation (1)
- Konzeption (1)
- Kornwachstum (1)
- LPD <Funktechnik> (1)
- Label (1)
- Lernkonzept (1)
- Lernprogramm (1)
- Lernvideo (1)
- Lichtschranke (1)
- Location Based Services (1)
- Low-Power (1)
- MPC (1)
- Maschinelles Lernen (1)
- Mass spectrometry (1)
- Massenspektrometrie (1)
- Mediengestalterin / Mediengestalter (1)
- Medieninformatik (1)
- Mensch-Computer-Interaktion (1)
- Mitarbeiterschulung (1)
- Mobile Marketing (1)
- Mobiles Endgerät (1)
- Moodle 2.0 (1)
- Multi-Channel-Handel (1)
- Multi-task learning (1)
- Multichannel-Publishing (1)
- Multicrystalline silicon (mc-Si) (1)
- Multimedia (1)
- Musikproduktion (1)
- Musikwirtschaft (1)
- Neuro-Evolution (1)
- Neuronales Netz (1)
- New Media (1)
- New Retail (1)
- NoSQL-Datenbanksystem (1)
- Omni-Channel-Handel (1)
- Online Marketing (1)
- Online Medien (1)
- Online Speicher (1)
- Online Storage (1)
- Online-Handel (1)
- Online-Marketing (1)
- Optischer Fluss (1)
- Optischer Sensor (1)
- PROFINET (1)
- PV-Module (1)
- Personal Assistent (1)
- PhoneGap (1)
- Platform as a Service (1)
- Product-Placement (1)
- Produktentstehungsprozess (1)
- Produktkonfigurationssystem (1)
- Programmierung (1)
- Proteine (1)
- Prothetik (1)
- QCM-D Array (1)
- RFID-/NFC-Ausleseschnittstelle (1)
- Responsive Web Design (1)
- Responsive Web Design Workflow (1)
- Roboterfinger (1)
- Schalllokalisation (1)
- Schulung (1)
- Schulungskonzept (1)
- Scientific workflow (1)
- Scrum (1)
- Security (1)
- Sensomotorisch (1)
- Sensor (1)
- SharePoint 2010 (1)
- Shopper Marketing (1)
- Smartphone (1)
- Social Media Marketing (1)
- Social Web (1)
- Social Workplace 2020 (1)
- Soziale Software (1)
- Staatlich-geprüfter Grafikdesignerin / Staatlich-geprüfter Grafikdesigner (1)
- Stationärer Handel (1)
- Strategie (1)
- Streit (1)
- Stress (1)
- TLV (1)
- Temperature control (1)
- Temperaturregelung (1)
- Test-driven development (1)
- Testablauf (1)
- Thread (1)
- Timing Attacks (1)
- Transfer learning (1)
- Unity3d (1)
- Unternehmen (1)
- Unternehmenskommunikation (1)
- Usability (1)
- User Experience (1)
- VHDL (1)
- Verlag (1)
- Verteilter Speicher (1)
- Videogames (1)
- Virtual Reality (1)
- Visualisierung (1)
- Visuelle Notizen (1)
- Vitalparametern bei Kleinstlebewesen (1)
- Vollzeitschulische Ausbildung (1)
- Vuforia (1)
- Wahrnehmung (1)
- Web-Seite (1)
- Webassembly (1)
- Webdesign (1)
- Website (1)
- Wireless (1)
- Wissensmanagement (1)
- Workbook (1)
- Workflow (1)
- World Wide Web (1)
- YouTube (1)
- Zentrale Sauerstoffversorgung (1)
- analysis (1)
- binary (1)
- censhare (1)
- cross-platform (1)
- dahua (1)
- e-learning (1)
- electronic music (1)
- film (1)
- filmproduktion (1)
- flash (1)
- html5 (1)
- iPad (1)
- industrial communication (1)
- interactivity (1)
- interne Kommunikation (1)
- multimedia (1)
- music production (1)
- network layer (1)
- nicht-invasives Messsystem (1)
- protocol (1)
- routing (1)
- routing locator (1)
- security (1)
- virtual reality (1)
- vr (1)
- Überlebensstrategien (1)
Institute
- Fakultät Medien und Informationswesen (M+I) (49)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (12)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (11)
- Fakultät Betriebswirtschaft und Wirtschaftsingenieurwesen (B+W) (3)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (2)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (2)
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Seit 2011 beschäftigt sich die visionsbox GmbH mit der Erstellung von AR-Anwendungen. Momentan werden diese Apps auf Basis von Unity 3D und dem AR SDK Vuforia von Qualcomm erstellt. Der plattformunabhängige Ansatz von Unity 3D erlaubt es, sehr schnell Anwendungen für iOS als auch für Android zu kompilieren. Ein großer Nachteil des bestehenden Entwicklungskonzepts ist das Fehlen der Möglichkeit Inhalte zur Laufzeit aus dem Internet herunterzuladen. Eine Änderung oder Erweiterung der Anwendung ist nur über ein erneutes Kompilieren und erneutes Installieren der Applikation möglich. Dieser Updateprozess ist langwierig und wenig flexibel. Das Vorhandensein einer Anbindung ans Internet, ermöglicht jedoch prinzipiell das Herunterladen von neuen oder zusätzlichen Inhalten zur Laufzeit der Anwendung. Ziel dieser Master Thesis ist es, die Möglichkeiten des Nachladens von Anwendungsinhalten von einem eigenen Webserver zu evaluieren. Eine beispielhaft implementierte Anwendung soll die Machbarkeit für Android und iOS demonstrieren und gleichzeitig als Vorlage für bestehende und zukünftige AR-Anwendungen auf Basis von Unity3D und Vuforia dienen.
Evaluierung neuer HTML5- und JavaScript-Technologien bei der Nutzung in heterogenen Umgebungen
(2012)
Die 1&1 Internet AG in Karlsruhe betreibt einen Onlinespeicher, der von Kunden der diversen Tochter- und Schwestergesellschaften hauptsächlich über ein Browserfrontend bedient wird. Dieses kommuniziert mittels einer definierten JSON-Schnittstelle mit der auf Java basierenden Middleware. Da der Client schon vor einigen Jahren entwickelt wurde, nutzt er noch nicht alle Möglichkeiten die HTML5 in aktuellen Browsern bietet. Die Beschreibung und Bewertung dieser Möglichkeiten stellt die Kernaufgabe der Thesis dar. Einer der Schwerpunkt soll dabei auf der Offlinefähigkeit und intelligenten Benutzung von Caching- & Sync-Strategien zwischen Onlineanwendung und Offlineclient bestehen. Desweiteren sollen die Möglichkeiten von aktuellen Browsern ohne Beachtung der Rückwärtskompatibilität zu älteren Browsern genutzt werden. Zu Demonstrationszwecken sollen Beispielanwendungen den Einsatz der neuen Technologien erstellt werden, damit deren praktische Nutzung leichter zu erfassen ist. Das Hauptaugenmerk bei den Beispielanwendungen liegt indes nicht auf der Funktionalität, sondern auf dem Einsatz der jeweiligen Technologie, so dass deren Möglichkeiten getestet werden können. Ebenfalls Teil der Arbeit soll die Erarbeitung von theoretischen Aspekten sowie die Erstellung einer Übersicht über den aktuellen Stand der Fachliteratur darstellen. Dies soll bei weiterer Nutzung der Ergebnisse die Erarbeitung von erweitertem Fachwissen erleichtern. Basis sollen hier die aktuell Erschienenen Fachbücher auf deutsch und englisch sowie - naturgemäß nochmals aktueller - die regelmäßigen Veröffentlichungen im Internet und in Fachzeitschriften bilden. Die zu besprechenden Themen umfassen die grundsätzliche Beschreibung von HTML5 und dem Standardisierungsprozess, die neuen HTML-Element in Bezug auf Formulare, Multimedia-Darstellung, die Möglichkeiten der Offline-Anwendung (Application Cache, Cache Manifest, DOM Storage), die Drag & Drop API zur Nutzung beim Dateiupload sowie die File API. Mögliche Themen für den theoretischen Teil sind gängige Architekturmuster (beispielsweise MVC, MVP, MVVM, PAC), Caching- und Sync-Strategien sowie die Potentiale aktueller Skriptsprachen (ECMAScript 5, Coffeescript, DART).
Verschiedenste Hersteller von Prothesen treiben die Entwicklungen in der Neuroprothetik immer weiter voran. Jedoch steigen dadurch nicht nur die Komplexität und die Funktionen einer solchen Prothese, sondern auch die Kosten. Oft wird vernachlässigt, dass ein einfaches Greifen meist schon ausreicht und damit oftmals viel mehr Personen geholfen werden kann als mit einer teuren Highend-Prothese.
Die vorliegende Masterthesis soll zeigen, dass es möglich ist, mit einfachen Mitteln einen funktionsfähigen bionischen Prototyp zu entwickeln. Die Steuerung funktioniert per Knopfdruck, Bewegungen werden automatisch ausgeführt.
Hierfür wurde auf der Rekonstruktion der ersten eisernen Hand des Götz von Berlichin-gen aufgebaut. Diese wurde mit günstiger und einfach beschaffbarer Elektronik verändert, damit die Prothese durch elektrische Motoren aktiv ansteuerbar ist. Das Modell wurde mit SolidWorks 2018 verändert. Die elektronischen Bauteile wurden über ein Arduino Board UNO R3 angesteuert, welcher die Schnittstelle zum Computer bildet.
Im Buch "Visualisiere deine Welt! Ein Workbook für visuelle Notizen" erlernt der Leser in den ersten drei Teilen Schritt für Schritt, was visuelle Notizen sind und welchen Vorteil sie gegenüber rein textbasierten Notizen haben sowie aus welchen Elementen sie sich zusammensetzen. Anwendung finden visuelle Notizen beim Kommunizieren mit anderen, um sich visuell verständlich zu machen. Sie helfen aber auch dabei, Lösungen für Probleme zu finden, Ideen zu entwickeln und letztendlich bedeutsame Inhalte visuell zu dokumentieren. Im letzten Teil des Workbooks hat der Leser die Möglichkeit, sein erlerntes Wissen in zahlreichen Übungen anzuwenden.
Communication protocols enable information exchange between different information systems. If protocol descriptions for these systems are not available, they can be reverse-engineered for interoperability or security reasons. This master thesis describes the analysis of such a proprietary binary protocol, named the DVRIP or Dahua private protocol from Dahua Technology. The analysis contains the identification of the DVRIP protocol header format, security mechanisms and vulnerabilities inside the protocol implementation. With the revealing insights of the protocol, an increase of the overall security is achieved. This thesis builds the foundation for further targeted security analyses.
China ist eine aufstrebende Volkswirtschaft. Das Wirtschaftswachstum im Land führt zu einer steigenden Kaufkraft und der digitale Fortschritt verändert die Kaufgewohnheiten und die komplette Customer Journey. Einheitliche Online Marketing-Ansätze sind dabei längst überholt. Die Konsumierenden erwarten eine persönliche Customer Experience mit Integration von neuesten Technologien, die ihren mobilen Lebensstil effizienter gestaltet.
Deutsche Unternehmen erkennen die Auswirkungen dieser Veränderungen und stehen vor der Herausforderung die neuen, anspruchsvollen Verbraucher/innen mit innovativen Online Marketing-Maßnahmen anzusprechen.
Für die eigene Studie wurden deutsche Unternehmen befragt, die bereits erfolgreiches Online Marketing in China betreiben. Anhand der Online-Befragung und Experten-/Expertinneninterviews sollen die wichtigsten Online Marketing-Instrumente, deren Plattformen, Ziele und Herausforderungen ermittelt werden.
Der Kommunikation von Unternehmen wird gegenwärtig eine geringe Glaubwürdigkeit zugeschrieben – vor allen Dingen, wenn sie über das Social Web stattfindet. Dabei besitzt
die Social Web-Kommunikation, insbesondere über soziale Netzwerke, einen hohen Stellenwert für die Unternehmenskommunikation und es wird davon ausgegangen, dass dieser Stellenwert in Zukunft noch weiter zunehmen wird. Aus diesem Grund wurde im Rahmen der vorliegenden Masterthesis untersucht, wie die nternehmenskommunikation,
die über die Social Web-Plattform soziales Netzwerk stattfindet, positiv beeinflusst werden kann.
Hierzu wurden Vermutungen über positive Beeinflussungsmöglichkeiten in Form von Hypothesen formuliert, welche zum Teil auf Erkenntnissen bisheriger Arbeiten auf dem Gebiet der Glaubwürdigkeitsforschung basieren. Daraufhin wurden die zur Überprüfung der Hypothesen benötigten Daten mittels einer standardisierten Online-Befragung erhoben und anschließend mit Hilfe von Varianzanalysen ausgewertet. Dabei konnten vier Hypothesen verifiziert werden. Diese besagen, dass die Glaubwürdigkeit der Unternehmenskommunikation über soziale Netzwerke durch das Eingehen auf negative Nutzerkommentare, die sprachliche Korrektheit von Unternehmensbeiträgen sowie durch die Ausgestaltung dieser Beiträge mit Emoticons und professionellen Bildern positiv beeinflusst wird. Die fünfte und letzte Hypothese, welche eine positive Beeinflussung der kommunikativen Glaubwürdigkeit durch die Verwendung von Influencern für
Unternehmensbeiträge unterstellt, konnte nicht validiert werden.
Die vorliegende Arbeit beschäftigt sich mit der Wahrnehmung von Websites im One-Page-Design und der Verbesserung der User Experience mit Hilfe von Blickaufzeichnung und weiteren Methoden.
Für ein Unternehmen ist eine Website mittlerweile ein zentrales Marketinginstrument. Eine gute Umsetzung der Website ist maßgeblich am Unternehmenserfolg beteiligt.
Eine bedeutende Rolle für eine Website spielt das Webdesign. Dies beeinflusst entscheidend, ob das Interesse des Nutzers geweckt wird und er auf der Website verweilt oder diese direkt wieder verlässt. Doch das Webdesign verändert sich laufend. Ein neuer Trend ist die Website im One-Page-Design. Diese bietet neue Möglichkeiten der Gestaltung, stellt Webdesigner jedoch auch bei der Umsetzung vor neue Herausforderungen. Mit der vorliegenden Arbeit sollen deshalb Websites im One-Page-Design hinsichtlich ihrer Wirkung auf den Nutzer analysiert werden. Zu diesem Zweck werden mit ausgewählten Probanden User Experience Tests durchgeführt, die Aufschluss darüber geben sollen, wie die Zielgruppe mit der Website interagiert. Durch die Analyse der gewonnenen Daten und die daraus abgeleiteten Handlungsempfehlungen kann die User Experience von Websites im One-Page-Design gesteigert werden. Neben der Eyetracking-Methode (Blickaufzeichnung) wird die Think Aloud-Methode, der Interview-Leitfragen sowie die Mimikmessung eingesetzt.
Diese Abschlussarbeit beschäftigt sich mit der Entwicklung eines VHDL-Ethernet Protokollstapels. Aufbauend auf einem existierenden Protokollstapel für 1 GBit/s ist das Ziel dieser Arbeit, einen Protokollstapel zu entwerfen, der eine Datenübertragungsrate von mehr als 10 GBit/s erreicht. Dieser Protokollstapel soll die Protokolle Ethernet, IPv4, ARP, ICMP und UDP enthalten. Durch eine flexible Struktur der Ports und den Einsatz von generics soll dieser Protokollstapel leicht konfigurierbar und so für viele Anwendungszwecke nutzbar sein.
Zunächst wurde der existierende Protokollstapel von der Xilinx Vertix5 Serie auf die 7er Serie portiert und in Betrieb genommen. Dabei traten Probleme mit dem Transceiver und dem ARP Protokoll auf. Nachdem diese gelöst wurden, konnte ein Konzept für den neuen Protokollstapel erarbeitet werden. Dieser nutzt nun ein – in der Busbreite – flexibles Streaming Interface, um die Geschwindigkeit der Datenübertragung anzupassen.
Da jedes der genutzten Protokolle an die Daten einen Header/Trailer anhängt oder entfernt,
wurden für diese Aufgabe insgesamt vier Low-Level-Module entwickelt. Diese Module wurden
mit Hilfe einer Testbench und einer Testmatrix verifiziert. Die Protokollmodule stellen nun den Header/Trailer zusammen und fügen diese mit Hilfe der Low-Level-Module an oder entfernen diese.
Bei der Simulation des Protokollstapels wurde die Funktion der Protokolle nachgewiesen. Durch die große Busbreite, von 64 Bit bei 10 GBit/s und 128 oder 256 Bit bei 40 GBit/s, schlug allerdings die Timing-Analyse fehl. Der kritische Pfad konnte bei der CRC Berechnung gefunden werden. Durch parallele CRC-Berechnungen wurde eine vorübergehende Lösung dieses Problems für die Geschwindigkeit 10 GBit/s erreicht.
Die Analyse des Ressourcenverbrauchs zeigte, dass der neue Protokollstapel nur wenig Ressourcen in einem FPGA nutzt. Für 10 GBit/s werden lediglich 3000 LUTs und 2400 Register
benötigt. Des weiteren wurde festgestellt, dass der Ressourcenverbrauch nicht proportional zur Busbreite ist. Bei einer Verdopplung der Busbreite werden lediglich 60 % mehr Ressourcen benötigt.
Webassembly is a new technology to create application in a new way. Webassembly is being developed since 2017 by the worldwide web consortium (w3c). The primary task of webassembly is to improve web applications.
Today, more and more applications are being created as web applications. Web applications have some advantages - they are platform independent and even mobile platforms can run them, and no installation is needed apart from a modern web browser.
Currently, web applications are being developed in JavaScript (JS), hypertext mark-up language 5 (HTML 5), and cascading style sheets (CSS).
These technologies are not made for huge web applications, but they should not be replaced by webassembly; rather, webassembly is an extension to the currently existing technology.
The purpose of webassembly is to fix or improve the problems in web application development.
This master’s thesis reviews all of the aspects and checks whether the promises of webassembly are kept and where problems still exist.
In dieser Arbeit soll untersucht werden, wie lernförderlich eine Digital Storytelling Website im Unterrichtskontext für Schülerinnen und Schüler sein kann.
Hierfür wird das Thema Bioenergiedorf verwendet, wobei die Funktionsweise anhand des real existierenden Bioenergiedorfs Untermaßholderbach mittels der zu erstellenden Digital Storytelling Website anschaulich erklärt werden soll.
Ziel der hierzu zugehörigen Ausführungen ist es, die Konzeption sowie die Umsetzung dieser Thematik innerhalb einer Digital Storytelling Website, unter Berücksichtigung entsprechender Anforderungen und Aspekte für den Unterrichtskontext, nachvollziehbar darzulegen. Hierbei sollen besonders die Gedanken zu den verschiedenen mediendidaktischen und kognitionspsychologischen Modellen hervorgehoben werden, welche der entwickelten Website zugrunde liegen.
Diese Arbeit beschäftigt sich mit den verschiedenen Technologien, welche in verteilten Systemen zur Kommunikation dienen können. Kernpunkt der Arbeit ist es, eine Schnittstelle zu schaffen, in der eine extrem hohe Anzahl einzelner Anwendungen untereinander und mit einer zentralen Simulationsumgebung weitestgehend automatisch - kommunizieren können. Dabei ist auch ein wesentlicher Punkt die Frage wie Daten ausgetauscht werden können. Betrachtet man zunächst das System an sich, so wird es deutlich, dass speziell für die Entwicklung des Gesamtsystems, die Stabilität, Leistungsfähigkeit und Zuverlässigkeit des Interfaces von enormer Wichtigkeit ist.
Aktivität gibt Energie
(2017)
Bei der Produktion von Solarzellen aus multikristallinem Silizium haben Defekte aus der Kristallisationsphase starken Einfluss auf die Materialqualität der Wafer und damit auf den Wirkungsgrad der späteren Solarzelle. Ein Verständnis des Kornwachstums in multikristallinem Silizium während des Kristallisationsprozesses kann zur Optimierung desselben beitragen. In dieser Arbeit werden Methoden untersucht, optische Flüsse zwischen Korngrenzenbildern multikristalliner Si-Wafer mittels neuronaler Netze zu berechnen. Hierfür wird die Architektur eines ausgereiften faltungsbasierten neuronalen Netzes zur optischen Fluss-Berechnung genutzt und durch angepasstes Training auf Waferstrukturen zugeschnitten. Dies umfasst die Synthese eigener, auf Waferbilder basierender Trainingsdaten und das Training mit einer angepassten Fehlerfunktion zur Bewertung der Zuordnungsgenauigkeit von Körnern zwischen Wafern durch den optischen Fluss. Beide Maßnahmen zusammen führen zu einer Reduktion des Zuordnungsfehlers von Körnern zwischen Waferbildern um 45 % gegenüber einem hochoptimierten, auf allgemeine optische Flüsse trainierten Modell basierend auf demselben Netzwerk. Die geschätzte Zuordnungsgenauigkeit des besten Modells beträgt 92,4 % der Pixel der Korngrenzenbilder eines Wafers. Weiteres Verbesserungspotenzial ist vorhanden.
Das Verstehen und Extrahieren von Informationen aus Dokumenten stellt eine Herausforderung dar, welche den Einsatz weiterer Technologien bedarf. Vorliegende
Masterarbeit untersucht die Anwendbarkeit von Methoden des maschinellen Lernens im Bereich der Wissensextraktion auf Basis von Angebotsdokumenten. Hierbei gilt die Frage zu klären, inwiefern sich diese Dokumente eignen, um Strukturen
für die Modellierung mit einem Produktkonfigurator zu lernen. Kern der Arbeit stellen die Datenaufbereitung von PDF-Dokumenten sowie das Modeling multimodal
lernender Algorithmen dar. Abgesehen von Texten werden zusätzlich Layoutinformationen für das Lernen der Strukturen genutzt. Zudem werden die Ergebnisse der
erstellten Modelle evaluiert und die Güte in Anbetracht des vorliegenden Problems
bewertet.
Mit der prototypischen Implementierung einer automatisierten Dokumentengenerierung wird demonstriert, wie das extrahierte Wissen in der Software CAS Configurator Merlin genutzt werden kann.
In der vorliegenden Arbeit wird Augmented Reality (AR) sowohl in der Theorie als auch in der Praxis ausführlich behandelt. Die Technik, welche in den letzten Jahren stark weiterentwickelt wurde, die Entwicklungsgeschichte, sowie die Projektbegleitung (aus Sicht des Auftraggebers einer AR-Anwendung) stehen im Fokus.
Neben den einleitenden Kapiteln wurde die Ausarbeitung thematisch in zwei große Bereiche unterteilt. Der erste, eher theoretische Bereich (Kapitel 2), bildet den wissenschaftlichen Teil dieser Ausarbeitung. Er beinhaltet eine Einführung in Augmented Reality und analysiert aktuelle Techniken. Auch die Funktionsweise wird aufgezeigt, um zu verstehen, was hinter den Kulissen der Anwendungen steckt. Im zweiten, praxisnahen Bereich (Kapitel 3) wird der Entstehungsprozess der Augmented Reality Applikation (App) von Kaba begleitet. Es wurde der Entstehungsprozess der App für Android und iOS ausführlich dokumentiert. Für Leser, die Probleme mit einigen Wissensbereichen haben, gibt es im Anhang eine ausführliche Literaturliste.
Diese Arbeit befasst sich mit der Konzeption und Implementierung eines Dateiimportfilters für Mess- und Kalibrierwerkzeuge. Dieser ermöglicht das Importieren von INCA-Experimenten nach CANape, indem aus Experiment-Exportdateien Konfigurationsdateien generiert werden. Im Zuge der Umsetzung wurde dazu das aus binären Daten bestehende Exportdateiformat von INCA analysiert. Das Ziel dieser Analyse bestand darin, herauszufinden, wo und wie die Informationen in den Exportdateien gespeichert sind. Die so erlangten Erkenntnisse wurden verwendet, um den Dateiimportfilter zu entwickeln. Dieser liest aus Exportdateien die notwendigen Informationen aus, überführt sie in eine CANape interne Repräsentation und generiert daraus eine entsprechende Konfigurationsdatei. Die korrekte Funktionsweise wurde anhand von selbst erstellten Experimenten sowie mithilfe von Kundenexperimenten validiert.
Die vorliegende Arbeit beschäftigt sich mit ausgewählten Aspekten der Konzeption, Umsetzung und Implementierung eines E-Learning-Lernangebots für die NGO CartONG. Das E-Learning-Angebot soll abschließend vier Themen beinhalten, die sich unter dem Begriff REDD+ zusammenfassen lassen. „Forest Inventory“ ist eines der vier Themen und wurde von mir bearbeitet. Für die Aufbereitung und Umsetzung der anderen drei Themen erstellte ich Anleitungen und Richtlinien. Die anderen drei Themen werden auf Grundlage dieser Anleitungen in ähnlicher Weise von CartONG-Mitarbeitern aufbereitet. Die Grundlage dieser Arbeit bilden die Lerntheorien sowie die Auswertung des Fragebogens für die potentiellen zukünftigen Lerner, durch die ich meine Konzeption und Umsetzung begründe. Diese beiden Grundlagen behandle ich in den ersten zwei Kapiteln. Darauf folgt die Beschreibung der Entwicklung des Corporate Designs für das gesamte Lernangebot. Es bildet neben der zuvor genannten didaktischen Grundlage nun die visuelle Grundlage für die Konzeption der Inhalte, die sich diesem Kapitel anschließt. Der Konzeption folgt die Aufbereitung der Inhalte. Das abschließende Kapitel beschreibt die anschließende Umsetzung des Lernangebots auf der Lernplattform Moodle.
Distributed Flow Control and Intelligent Data Transfer in High Performance Computing Networks
(2015)
This document contains my master thesis report, including problem definition, requirements, problem analysis, review of current state of the art, proposed solution,
designed prototype, discussions and conclusion.
During this work we propose a collaborative solution to run different types of operations in a broker-less network without relying on a central orchestrator.
Based on our requirements, we define and analyze a number of scenarios. Then we design a solution to address those scenarios using a distributed workflow management approach. We explain how we break a complicated operation into simpler parts and how we manage it in a non-blocking and distributed way. Then we show how we asynchronously launch them on the network and how we collect and aggregate results. Later on we introduce our prototype which demonstrates the proposed design.
This Master's Thesis discusses intelligent sensor networks considering autonomous sensor placement strategies and system health management. Sensor networks for an intelligent system design process have been researched recently. These networks consist of a distributed collective of sensing units, each with the abilities of individual sensing and computation. Such systems can be capable of self-deployment and must be scalable, long-lived and robust. With distributed sensor networks, intelligent sensor placement for system design and online system health management are attractive areas of research. Distributed sensor networks also cause optimization problems, such as decentralized control, system robustness and maximization of coverage in a distributed system. This also includes the discovery and analysis of points of interest within an environment. The purpose of this study was to investigate a method to control sensor placement in a world with several sources and multiple types of information autonomously. This includes both controlling the movement of sensor units and filtering of the gathered information depending on individual properties to increase system performance, defined as a good coverage. Additionally, online system health management was examined in this study regarding the case of agent failures and autonomous policy reconfiguration if sensors are added to or removed from the system. Two different solution strategies were devised, one where the environment was fully observable, and one with only partial observability. Both strategies use evolutionary algorithms based on artificial neural networks for developing control policies. For performance measurement and policy evaluation, different multiagent objective functions were investigated. The results of the study show that in the case of a world with multiple types of information, individual control strategies performed best because of their abilities to control the movement of a sensor entity and to filter the sensed information. This also includes system robustness in case of sensor failures where other sensing units must recover system performance. Additionally, autonomous policy reconfiguration after adding or removing of sensor agents was successful. This highlights that intelligent sensor agents are able to adapt their individual control policies considering new circumstances.
Diese Arbeit beschäftigt sich mit den Grundlagen zu Multi-Agenten-Systemen in der Industrie. Der Begriff “Industrie 4.0“ wird eingeführt und es wird eingehend auf die Potentiale und Herausforderungen diesbezüglich eingegangen. Außerdem wird ein Überblick über aktuelle Entwicklungen und Ansätze zur Entwicklung von sogenannten autonomen Agenten gegeben. Diese werden auch im Hinblick auf die Themen Holonic Manufacturing und Multi-Agenten-System besprochen. Im praktischen Teil der Arbeit wird ein System bestehend aus vier BDI-Agenten ntwickelt, um einen beispielhaften Geschäftsprozess zu bearbeiten. Die Entwicklung basiert dabei auf Java und dem Jadex Agenten-Framework. Es wird gezeigt, dass sich damit autonome BDI-Agenten umsetzen lassen, die über Rechnergrenzen hinweg koordiniert werden können.
Die Masterarbeit untersucht verschiedene Möglichkeiten der digitalen Umsetzung von gedruckten Zeitschriften. Aktuelle Darstellungsformen von Magazinen als Blätter-PDF, E-Magazin oder App werden hinsichtlich der gelungenen Übertragung vom Papier- zum Digitalmedium untersucht. Auf Basis dieser Erkenntnisse wurde prototypisch ein eigenes Magazin mit dem Titel "Up and away" als Print- und E-Magazin entwickelt.
Ziel dieser Masterthesis ist die Konzeption und die Implementierung einer fortschrittlichen Social Business Plattform in einem IT-Dienstleistungsunternehmen unter Verwendung von MS SharePoint Server 2010. Im Vordergrund stehen dabei die Analyse aktueller und zukünftiger Anwendungsszenarien und Lösungen von Enterprise 2.0 Systemen. Desweiteren sollen Methoden zur Adaption der spezifischen Anforderungen des Unternehmens mittels SharePoint entwickelt werden. Eventuell auftretende Probleme sollen frühzeitig ausgelotet und die vielfältigen technischen Fähigkeiten von MS Share Point Server 2010 aufgezeigt werden. Langfristig gesehen sollen die im Rahmen dieser Arbeit gesammelten Ergebnisse Awareness und Know-How für SharePoint und Enterprise 2.0 im Unternehmen schaffen. Gegebenenfalls könnten sie die Basis für eine Umstrukturierung der vorhandenen Systemlandschaft bilden.
Die vorliegende Arbeit befasst sich mit der Fragestellung, inwiefern sich der Einsatz und die Produktion von Lernvideos an baden-württembergischen Berufsschulen aus der Per-spektive von Lehrpersonen auf Lehr- und Lernprozesse auswirken. Auf den ersten Blick ein sehr fokussierter Blick auf ein Randthema, auf eine von vielen didaktischen Möglich-keiten des Unterrichtens. Lernvideos – also irgendeine Methode, die sich aus den tech-nischen Möglichkeiten der digitalen Medien ergeben und eine zeitgemäße Weiterent-wicklung von Overhead-Projektor und Lehrbuch bedeuten. Dies wäre ein sehr verkürzter Blick, ja ein falscher auf dieses Thema. Nicht die technische Umsetzung, nicht die Er-gänzung des didaktischen Methodenpools steht im Vordergrund. Es geht um eine ganz grundsätzliche Sicht auf das Lehren und Lernen an Schulen, um die Kompetenzen, die bei den Schülern als output angestrebt werden, um die Anforderungen und Erwartun-gen welche die Gesellschaft – und vor allem die Arbeitswelt - zukünftig an die heran-wachsenden Generationen stellt.
DigitalPakt Schule der Bundesregierung , Industrie 4.0 , Berufsbildung 4.0 sind neue und umfassende Programme, um einen weiteren großen Schritt bei der so genannten digitalen Revolution zu gehen. Digitale Kompetenz, so formuliert das zuständige Minis-terium für Bildung und Forschung zur Begründung des DigitalPakts Schule, ist
„[…] von entscheidender Bedeutung für jeden und jede Einzelne, um digitale Medien selbst-bestimmt und verantwortungsvoll nutzen zu können und um gute Chancen auf dem Ar-beitsmarkt zu haben; und für die Gesellschaft, um Demokratie und Wohlstand im 21. Jahr-hundert zu erhalten.“
Auch innerhalb des Schulsystems wird seit langem geforscht und werden Handlungsempfehlungen herausgearbeitet, wie das System Schule auf die Digitalisierung aller Lebensbereiche reagieren muss. Später wird darauf noch näher eingegangen. Beispielhaft eine Aussage einer vom zuständigen Ministerium in Auftrag gegebenen Studie die festhält: Statt Wissensanhäufung und ‚Lernen auf Vorrat‘ sind andere Kompetenzen gefragt: In praxisbezogenen Problemstellungen soll Wissen angewendet werden. Dazu muss neues Wissen selbständig erarbeitet, neue Informationen recherchiert werden. Lernen und Arbeiten wachsen daher immer stärker zusammen.
Es geht also bei aller Integration der so genannten ‚Neuen Medien‘ in den Unterrichts-alltag an Schulen immer um die Prozess- und Ergebnisqualität des Lernprozesses.
Diese Vorgehensweise bietet auch ein Korrektiv in diesem Tempo der Veränderung, damit nicht jegliche Form der Digitalisierung per se als fortschrittlich und gut bewertet wird, sondern auf den qualitativen Prüfstand gestellt wird. Nicht die technische Mach-barkeit bestimmt den Fortschritt, sondern die Gütekriterien für eine gute Didaktik.
Ein weiterer Aspekt dieses Themenbereichs ist, dass bei der didaktischen Nut-zung von Lernvideos die Schule nicht Vorreiter oder gar Erfinder war. Die JIM-Studie aus dem Jahr 2016 zeigt, dass 87% der Jugendlichen und jungen Erwachsenen durchschnitt-lich 200 Minuten pro Tag im Internet surfen um sich zu informieren sowie zur Unterhal-tung. Weiter sehen sich 81% der Befragten mehrmals wöchentlich Videos im Internet an. Dabei steht die Nutzung des Online Portals YouTube an erster Stelle. Das Medium Film ist zusammenhängend als Leitmedium junger Erwachsener anzusehen und bedarf dementsprechend besonderer Aufmerksamkeit. Um nicht einer naiven Fortschrittsgläu-bigkeit zu verfallen soll daher der Einsatz von Lernvideos an baden-württembergischen Berufsschulen anhand einer qualitativen Forschung untersucht werden. Auch aufgrund der noch geringen Verbreitung dieser Lehr- und Lernform würde bei einer quantitativen Vorgehensweise kein ausreichendes Datenmaterial zur Verfügung stehen. Die vorlie-gende Arbeit fokussiert die Einbeziehung vorgefertigter Lernvideos in den Unterricht wie auch die eigene Herstellung und die damit verbundenen Lernprozesse. Da Lernvi-deos – zumindest von Ihrer Definition - eine sehr umfassende Möglichkeit selbstgesteu-erten Lernens beinhalten sollen, wird der Frage nachgegangen, ob Lernvideos auch im Rahmen von ‚Flipped Classroom‘ Anwendung finden können.
Aufgrund bisheriger Erfahrungen und theoretischen Auseinandersetzungen des Autors mit den Themen Film und digitale Medien wird der Arbeit folgende Hypothese vorweg-gestellt:
Der Einsatz und die Herstellung von Lernvideos im Unterricht an Berufsschu-len steigert die Prozess- wie auch die Ergebnisqualität des Unterrichts.
Die Auswertung wird zeigen, ob diese Lehr- und Lernmethode ein Baustein ist, die di-daktische Qualität des Unterrichts an die Anforderungen der digitalen Revolution anzu-passen.
Konkret soll die medienpädagogische Untersuchung auf Grundlage von 3 Forschungs-fragen durchgeführt werden.
1. Wie beeinflusst der Einsatz und die Herstellung von Lernvideos im Unterricht an beruflichen Schulen die Lehrer/Schüler Interaktion und wie verändert sich die Rolle der Lehrperson?
2. Wie wirken sich der Einsatz und die Herstellung von Lernvideos auf die Qualität des Unterrichts aus und lässt sich ein höherer Lernerfolg bei den Schülerinnen und Schülern feststellen?
3. Welche Rahmenbedingungen müssen an den Berufsschulen vorhanden sein, um diese Lehr- und Lernmethode gut integrieren zu können.
Aufbau und Ablauf dieser medienpädagogischen Untersuchung gliedert sich wie folgt: In Kapitel 2 findet eine Auseinandersetzung mit den mannigfaltigen Begrifflichkeiten statt, die in der Diskussion verwendet werden. Digitale Kompetenz, Medienkompetenz, Medi-enbildung, Medienpädagogik, sind Begriffe, die teilweise synonym verwendet werden, dadurch aber nicht zu Klarheit und Präzision führen. Oftmals entstehen aufgrund dieses Problems Verwirrungen, die für den Bereich beruflicher Praxis wenig hilfreich sind.
In Ableitung daraus soll das Thema in der bildungspolitischen Diskussion veror-tet werden, aber auch untersucht, inwieweit Gütekriterien für guten Unterricht in die Arbeit mit digitalen Medien integriert werden können. Im 3. Kapitel wird genauer auf die theoretischen Erkenntnisse und Forderungen der Lerntheorie eingegangen, mit Hilfe der Aspekte konstruktivistisches, kooperatives und selbstgesteuertes Lernen. Daraus folgernd, wie dieses Verständnis über Lernprozesse bei der Arbeit mit Lernvideos im Unterricht didaktisch umgesetzt werden kann. Im 4. Kapitel wird, ausgehend von einer kurzen theoretischen Begründung der qualitativen Sozialforschung, das Forschungsdes-ign beschrieben und ein Leitfaden für die Experteninterviews entwickeln. Nach Auswer-tung der transkribierten Gespräche werden die gewonnen Erkenntnisse auf die For-schungsfragen und die Erkenntnisse des Theorieteils bezogen.
Wünschenswert wäre, wenn diese Arbeit einen kleinen Baustein in die Diskussion eingebringen kann, wie die Formen heutiger Wissens- und Informationsverarbeitung sowie die prognostizierten Anforderungen der Arbeitswelt, in die Didaktik schulischen Lernens eingehen können.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Im Rahmen dieser Masterthesis wird ein quasi energieautarkes, nicht-invasives Messsystem für Kleinstlebewesen entwickelt, das Vitalparameter erfasst und diese in einem FRAM-Speicher bis zum Auslesen abspeichert. Durch eine drahtlose RFID-/NFC-Ausleseschnittstelle kann die erfasste Körpertemperatur und der Puls der letzten Wochen ausgelesen werden. Alle Einstellungen des Messsystems können durch einen geeigneten RFID-Reader für Laptops mit eigens entwickelter grafischer Nutzeroberfläche geändert werden. Das vollständige Aufladen des nur 3,3 g leichten und 15 mm x 25 mm großen Messsystems erfolgt durch eine selbstgedruckte RFID-Reader-Antenne in Verbindung mit einem RFID-Reader und benötigt hierzu weniger als 29 Stunden. Bei vollständig aufgeladenem Energiespeicher ist ein Betrieb von 47 Tagen möglich. Dies wird durch ein speziell für das Messsystem konzipiertes Lade- und Powermanagement erreicht. Neben der Auswahl von energiesparenden Komponenten für die Hardware und deren bestmöglichen Nutzung, wurde die Software so optimiert, dass das Programm schnell und stromsparend abgearbeitet wird. Die Erweiterbarkeit und Anpassung wird durch das modulare Konzept auch in anderen Bereichen gewährleistet.
Die vorliegende Master-Thesis befasst sich mit dem Thema Handel. In der Arbeit wird der Bereich des Multi-Channel-Handels genauer durchleuchtet. Es wird aufgezeigt, wie der Zukunft des Handels weltweit und in Deutschland aussehen wird.
Der Handel wird besonders heute sehr vom Konsumierendenverhalten beeinflusst. Unternehmen passen sich mehr als je zuvor an Wünsche und Anforderungen der Zielgruppe an. Dies ist wichtig für Handelsunternehmen um wettbewerbsfähig und profitabel zu bleiben, vor allem in einem immer aggressiver werdenden Wettbewerbskampf um Konsumierende. In dieser Arbeit wird dargestellt, wie sich die Customer Journey und der Kaufprozess der Konsumierenden verändert hat und flexibler geworden ist. Es gibt nicht mehr nur einen Weg, wie potentielle Verkaufsinteressierende zu Kundschaft wird. Die Kundschaft lässt sich nicht mehr von Unternehmen leiten, sondern möchte eigenständig und selbstbestimmt zwischen verschiedenen Absatzkanälen und Endgeräten wechseln. Daher ist ein verknüpftes Multi-Channel-System für Handelsunternehmen wichtig. In dieser Arbeit soll zudem gezeigt werden, dass die Omni-Channel-Strategie die Strategie der Zukunft ist und wie der Begriff des New Retail sowohl den Online-Handel, als auch den stationären Handel prägen wird.
Online-Handelsunternehmen wie Amazon, Alibaba und Bonprix haben bereits verstanden, dass der stationäre Handel nicht „ausstirbt“, sondern durch eine intelligente Verknüpfung mit dem Online-Handel sehr zukunftsweisend gemacht werden kann. Daher wird in dieser Arbeit auch gezeigt, wie sich pure E-Commerce-Unternehmen in den Innenstädten und Einkaufszentren in den USA, China und Deutschland ausbreiten und damit eine Omni-Channel-Strategie schaffen.
Unabhängige Musikunternehmen, auch Independent-Label oder Indie-Label genannt, verfolgen unterschiedlichste Strategien, um im Musikgeschäft zu überleben. Die Strategien beziehen sich auf die Ausrichtung der Unternehmen in den jeweiligen Geschäftsbereichen. Ziel dieser Arbeit ist das Aufstellen von allgemeinen Hypothesen für jeden Geschäftsbereich eines unabhängigen Musikunternehmens. Zusammengefasst bilden alle Hypothesen einen Leitfaden für solche Unternehmen, um aktuell im Musikgeschäft überleben zu können. Das Bilden der Hypothesen ist die letzte Stufe einer qualitativen Inhaltsanalyse, der fünf Interviews mit Labelbetreibern und Labelangestellten zu Grunde liegen. Die Aussagen der Labelbetreiber und -angestellten werden in Bezug auf den aktuellen wissenschaftlichen Stand und die Lage der deutschen Musikindustrie analysiert und erörtert.
Die vorliegende Arbeit setzt sich mit dem Thema Product-Placement auf YouTube auseinander. Dabei wird der Frage nachgegangen, inwieweit sich Produktplatzierungen in YouTube-Videos auf das Kaufverhalten von Jugendlichen auswirken. Im Zuge dessen sollen außerdem Einblicke darüber gewonnen werden, ob und wie Jugendliche Product-Placement wahrnehmen. Die Fragestellungen werden auf Basis der Auswertung aktueller Fachliteratur und vor dem Hintergrund der Erkenntnisse einer quantitativen Onlinebefragung diskutiert.
Die Ergebnisse der Arbeit zeigen, dass YouTuber einen hohen Stellenwert im Leben vieler Jugendlicher einnehmen. Werbetreibende sehen in den YouTubern Influencer, die Werbebotschaften subtil und authentisch an eine junge Zielgruppe vermitteln können. Vor diesem Hintergrund wird diskutiert, inwieweit Produktplatzierungen in YouTube-Videos kenntlich gemacht werden müssen. Es kann vorweggenommen werden, dass eine eindeutige Kennzeichnung sowohl aus rechtlicher und medienethischer Sicht notwendig ist. Darüber hinaus zeigen auch die Umfrageergebnisse den Bedarf einer eindeutigen Kennzeichnung auf. Obwohl die Mehrheit annimmt, Werbung in YouTube-Videos zu erkennen, kann nur ein geringer Teil auch das platzierte Produkt richtig identifizieren.
Der Einfluss von Product-Placement in YouTube-Videos auf das bewusste Kaufverhalten von Jugendlichen ist geringer, als angenommen. Jugendliche, die eine erhöhte Kaufwahrscheinlichkeit angaben, sehen sich tendenziell häufiger die Videos des YouTubers an, folgen ihm auf mehreren Social Media Kanälen und empfinden ihn als glaubwürdig.
Durch den stark wachsenden Klinikcampus des Universitätsklinikums Freiburg ist die zentrale Versorgung mit medizinischem Sauerstoff an ihrer Kapazitätsgrenze angelangt. Es handelt sich um ein großflächiges, teilweise über viele Jahrzehnte altes Ringleitungssystem, an das immer wieder neue Kliniken und Institute angeschlossen wurden.
Das Ziel der vorliegenden Masterarbeit ist eine umfangreiche Untersuchung und Beurteilung von Sicherheits- und Kapazitätsparametern der zentralen medizinischen Gasversorgung. Hierzu erfolgte zunächst eine Literaturrecherche zum aktuellen Stand der Technik. Danach wurde eine Umfrage an insgesamt 14 deutschen Universitätskliniken mit ähnlicher Ringleitungstopologie durchgeführt. Es zeigte sich, dass in den meisten Fällen bisher noch keine detaillierte Analyse des eigenen Ringleitungssystems für medizinische Zwecke durchgeführt wurde.
An der Universitätsklinik Freiburg erfolgte die Analyse des Ringleitungssystems mit Hilfe der nicht-invasiven Clamp-On Messmethode für Gase. Dabei wurde als erstes festgestellt, dass die Strömungsgeschwindigkeiten innerhalb des Ringleitungssystems im Mittel so niedrig sind, dass keine Brandgefährdung vom z.B. durch die Selbstentzündung von Sauerstoff für die Klinik zu erwarten ist. Es stellte sich weiter heraus, dass für die Notversorgung der einzelnen Kliniken und Institute die Dimensionierung der Flaschenbatterien in lokalen Gasunterzentralen deutlich zu gering ist und dort nachgebessert werden sollte. Im Hinblick auf die o.g. Umfrage ist diese Masterarbeit sicher auch für andere Universitätskliniken bzw. Kliniken mit Campusinfrastruktur mit ähnlicher Ringleitungstopologie interessant.
Diese Arbeit handelt von der Entwicklung zweier zukunfts- und handlungsorientierter e-Learning Module für das Triebwerkswechselgerät „Cobra“. Dabei wird das didaktische Konzept für diese e-Learning Module entwickelt und reflektiert. Dies beinhaltet die Auseinandersetzung mit verschiedenen Lerntheorien und didaktischen Modellen. Neben diesen didaktischen Modellen findet die Instruktionstheorie nach Gagnè eine Anwendung. Um den Wissenserwerb zu prüfen werden Aufgaben unter Berücksichtigung der Taxonomien nach Bloom entwickelt. Ausschnitte aus den e-Learning Modulen geben einen Einblick in die Umsetzung des didaktischen Konzeptes.
Im Rahmen dieser Arbeit wurde die Performanz grundlegender Bildverarbeitungsalgorithmen wie einem Gaußfilter und Farbraumkonvertierung, aber auch der Feature Detection-Algorithmen Scale Invariant Feature Transform (SIFT) und Speeded-Up Robust Features (SURF) auf einem Raspberry Pi 4 unter Verwendung von openCV unter Variation der Parameter untersucht. Ein Algorithmus zur Farberkennung der Würfelsteine des Rubik's Cube wurde entwickelt, implementiert und evaluiert. Die Laufzeiten der Algorithmen wurden mit dem Raspberry Pi 4 und einem Lenovo P12.Gen Notebook mit Intel-i9 Prozessor gemessen. Die Ergebnisse wurden verglichen und diskutiert.
Gegenstand der hier vorgestellten Arbeit ist eine Untersuchung der gängigsten Anwendungsschicht-Protokolle für das Internet der Dinge. Sie umfasst zum einen die Recherche und den theoretischen Vergleich der Protokolle anhand vorher festgelegter Untersuchungskriterien und zum anderen einen praktisch implementierten Versuchsaufbau, der das Zusammenwirken verschiedener Protokolle veranschaulichen soll.
Zunächst wird eine kurze Einführung in das Thema „Internet der Dinge“ gegeben. Dabei wird auf die Entwicklung der letzten Jahre sowie den Stand der Technik eingegangen. Zum einen wird aufgezeigt, inwieweit sich das Thema auf die verschiedenen Bereiche des täglichen Lebens ausgebreitet hat und zum anderen welche verschiedenen Anwendungspakete diverser Software-Hersteller auf dem Markt sind. Bei der Untersuchung dieser Pakete werden die Protokolle ermittelt, die verwendet werden. Diese bilden die Menge an zu untersuchenden Protokolle für den späteren Vergleich. Um diese in einem wissenschaftlichen Rahmen miteinander vergleichen zu können, werden Kriterien als Basis der Untersuchung definiert. Anhand derer werden alle Protokolle untersucht und anschließend in einer Tabelle zusammengefasst.
Im zweiten Teil werden dann einige der untersuchten Protokolle mithilfe von diversen MCUs (Micro Controller Unit) verwendet und deren Funktionsweise/Handhabung miteinander verglichen. Dabei entsteht ein Aufbau, der zukünftigen Studierenden die Möglichkeit bietet, schnell einen Einblick in den Bereich „Internet der Dinge“ zu erhalten.
Inhalt und Ziel dieser Masterarbeit ist zum einen, die Identifikation derjenigen Faktoren, die den Erfolg eines Intranets entscheidend beeinflussen können. Zum anderen wird auf Basis dieser Erfolgsfaktoren und der Analyse des Intranets der Flughafen Stuttgart GmbH ein umfassendes und realisierbares Konzept für ein weiterentwickeltes Intranet erstellt . Dabei wird auch untersucht, in welcher Form das Intranet als neues Medium die interne Kommunikation im Unternehmen verändert hat und welche Voraussetzungen gegeben sein müssen, um ein Intranet erfolgreich als gemeinsame Wissensbasis zu etablieren.
Spätestens mit der Markteinführung des iPhones im Jahr 2007 und mit der Einführung des Android Betriebssystems im Jahr darauf ist die Bedeutung der mobilen Endgeräte und deren Diversität auf dem Softwaremarkt nicht mehr zu leugnen. Bis heute ist das Marktwachstum bei den mobilen Endgeräten ungebrochen. Im Jahr 2012 wurden alleine in Deutschland 23 Millionen neue Smartphones verkauft. Somit nutzt inzwischen etwa jeder vierte Bundesbürger mobile Software. Dies ist ein hundertprozentiges Wachstum im Vergleich zum Jahr 2010. Mit der Einführung des ersten iPads (2010) und vieler ähnlicher Produkte, die meist mit dem Android Betriebssystem betrieben werden, haben sich die Möglichkeiten und Anforderungen für Softwareentwickler erneut erheblich verändert und erweitert. Aufgrund der größeren Displays und immer besserer Rechenleistungen können nun Programme mit komplexen Interfaces, wie sie zuvor nur von Desktoprechnern bekannt waren, auch auf dem mobilen Softwaremarkt Fuß fassen. Bei der Entwicklung einer neuen Anwendung stellt sich immer auch die Frage, auf welchen Endgeräten sie später ausgeführt werden soll. Grundsätzlich gibt es derzeit drei Möglichkeiten Anwendungen für die neuen und mobilen Endgeräte zu entwickeln: des entsprechenden Systems erstellt und verwendet dessen spezielle Schnittstellen. Eine solche App muss folglich für jedes Zielsystem separat entwickelt werden. Um eine plattformübergreifende Anwendung zu entwickeln bietet sich derzeit die Möglichkeit, sogenannte Web-Apps zu implementieren. Hier dient der gemeinsam genutzte WebKit-Webbrowser der verschiedenen Systeme als technische Grundlage. Hierbei können die Anwendungen mit Webtechnologien wie HTML5, CSS3 und JavaScript entwickelt werden. Mit JavaScript Frameworks wie jQuery mobile oder Sencha Touch ist es möglich,Webanwendungen zu erstellen, die vom Bedienkonzept und ihrer Anmutung kaum von nativen Apps zu unterscheiden sind. Die Entwicklung sogenannter hybrider Apps vereint die Möglichkeiten der nativen und der webbasierten Apps. Eine Web-App kann dann mit Hilfe eines Frameworks wie z.B. Titanium oder PhoneGap verpackt werden und wird so zu einer hybriden App, die beispielsweise über die Appstores der Hersteller vertrieben werden kann. In dieser Arbeit beschäftige ich mich insbesondere mit den Möglichkeiten der hybriden App-Entwicklung am Beispiel einer Präsentationsanwendung, die ich im Rahmen dieser Arbeit für die visionsbox GmbH aus Offenburg konzipiert und umgesetzt habe. Eine ähnliche Anwendung auf Basis von Adobe Flash wird bereits seit einiger Zeit von der visionsbox GmbH vertrieben. Meine Aufgabe war es, diese Anwendung auf Basis von Webtechnologien so nachzubilden, dass sie in Zukunft auf möglichst vielen Software-Plattformen lauffähig ist.
Der Vertrieb von Produkten über mobile Endgeräte wird für Verlage und Unternehmen immer wichtiger. Für die Erstellung von Medien für unterschiedliche Ausgabekanäle werden technische Produktionssysteme benötigt. Welche und wie viele solcher Systeme existieren und ob diese für das Multichannel-Publishing für Verlage und Unternehmen geeignet sind, wird in dieser Thesis ermittelt. Auch die censhare bietet eine Multichannel-Publishing-Plattform an, die die Erstellung mobiler Anwendungen mit zentral verwalteten Media-Assets ermöglicht. In der Masterthesis wird untersucht, wie eine optimale mobile Anwendung und Produktionsumgebung für Verlage und Unternehmen aufgebaut sein soll. Dabei werden verschiedene Punkte wie die Funktionen und Nutzen der Apps und Werkzeuge, Rollen und Fähigkeiten der Publishing-Software mit einbezogen. In einer Marktanalyse werden verschiedene bereits existierende mobile Anwendungen von Verlagen und Unternehmen und bestehende Produktionssysteme betrachtet. Unter Berücksichtigung der unterschiedlichen mobilen Plattformen werden unter anderem folgende Kriterien analysiert: Funktionen und Nutzen der Apps, Verfügbarkeit auf mobilen Endgeräten, Bezahl- und Geschäftsmodelle, Bewertung und Nutzung der Apps durch die Anwender und Produktionszyklus. Des Weiteren werden die verschiedenen technischen Ansätze zur Erstellung und Veröffentlichung einer App untersucht. Die aus der Marktanalyse gewonnenen Erkenntnisse dienen als Grundlage zur Erstellung einer hybriden App für das mobile Betriebssystem Android. Bei dieser Mischform aus nativer und Webapp dient die Viewer-App als Rahmen für die Inhalte. Die Viewer-App wird in der Programmiersprache Java und mit Hilfe von Webtechnologien (HTML5, CSS und JavaScript) im Hinblick auf die Verwendung im censhare-System prototypisch realisiert.
Virtual Reality ist auf dem Vormarsch. Die Technik wird immer besser, das Erlebnis als solches intensiver und glaubwürdiger. Auch abseits der interaktiven Unterhaltung wie dem Gaming-Bereich findet VR zunehmend Anwendung, wie etwa in der Inneneinrichtung von Wohnflächen, Autos oder Büros oder virtuellen Touren durch kulturelle Einrichtungen oder Touristenattraktionen.
Diese Arbeit widmet sich dem Filmbereich. Anhand eines funktionalen Prototyps, aufgebaut auf der Unreal Engine 4, wird eine Umgebung geschaffen, in welcher Studenten in einem virtuellen Filmstudio die Möglichkeit gegeben wird, Filmsets zu planen, gestalten und auszuprobieren. Dies geschieht in Anlehnung an das real-existierende Filmstudio der Hochschule Offenburg.
Des Weiteren wird ausführlich eine mögliche finale Anwendung beschrieben, welche das ganze Potential eines solchen Ansatzes beschreibt.
Die vorliegende Arbeit befasst sich mit dem Thema Influencer in der Gaming-Branche. Dabei wird untersucht, wie wichtig Influencer auch für Gamer und ihr Kaufverhalten, sowie für Gaming-Unternehmen und die Platzierung von Influencern in der Mediaplanung sind. Die Fragestellung wird aufgrund einer Online-Befragung mit Gamern, leitfadengestützten Interviews mit Influencern und Literaturrecherchen diskutiert.
Die Ergebnisse der Arbeit zeigen, dass Influencer auch in der Gaming-Branche einen sehr hohen Stellenwert einnehmen. Die Umfrage hat ergeben, dass Let's Player, Live Streamer und YouTuber einen großen, auch aktiven Einfluss auf die Kaufentscheidung besitzen. Besonders interessant sind in diesem Zusammenhang die rechtlichen Bestimmungen, die sehr viele Vorgaben für Influencer mit sich bringen, sowie die unbewusst und bewusst beeinflussenden Aspekte im Kaufentscheidungsprozess. Vor diesem Hintergrund werden in einer SWOT-Analyse einige Strategien entwickelt um beispielsweise rechtlichen Problemen entgegen zu wirken und die Stärken der Gaming-Influencer, wie beispielsweise hohe Reichweite, hohes Vertrauen und zielgruppengenaue Platzierung der Inhalte zu gewährleisten.
Sowohl die allgemeinen Erfolgsfaktoren von Start-ups als auch die Erfolgsfaktoren durch die Beteiligung eines Medienunternehmens werden in dieser Arbeit näher beleuchtet und einander gegenübergestellt. Im Fokus steht insbesondere die Frage, wie ein Medienunternehmen zu einer Wertsteigerung beitragen kann, damit das Start-up erfolgreicher ist, als es ohne die Beteiligung wäre.
Vergleichende Untersuchung von „Platform as a Service“-Angeboten für das „Internet of Things“
(2016)
Im Rahmen der Master Thesis werden eine Auswahl von Platform as a Service-Angeboten für das Internet of Things untersucht und miteinander verglichen. Auf Grundlage der Untersuchung erfolgt die Implementierung einer IoT-Anwendung für drei der Plattformen. Durch die theoretische Einleitung in die Themen Platform as a Service und Internet of Things, sowie die für das IoT typischen Verbindungsprotokolle HTTP und MQTT wird ein grundlegendes Verständnis für das Sachgebiet vermittelt.
Nach den erklärenden Definitionen folgt die Untersuchung der PaaS-Angebote. Hier werden zunächst die Untersuchungskriterien vorgestellt und erklärt, nach denen die einzelnen Plattformen untersucht werden. Diese umfassen die quantitativen Kriterien Verbreitung, Preis, Verbindungsrate, Datenmenge und Schnittstellen, sowie die qualitativen Kriterien API, Visualisierung, Weiterverarbeitung, Dokumentation, Usability und Sicherheit. Danach erfolgt die detailierte Untersuchung der Plattformen nach den festgelegten Kriterien. Untersucht wurden hierbei die Plattformen ThingSpeak, data.sparkfun.com, RunAbove IoT Lab, flowthings.io, Carriots, Ubidots, GroveStreams, Exosite, Beebotte, MODE, Initial State, Temboo, Oracle Cloud, IBM Watson Internet of Things, Azure IoT Hub, AWS IoT und Google Pub/Sub.
Im Anschluss an die Untersuchung werden die Ergebnisse gegliedert nach den Untersuchungskriterien miteinander verglichen und abschließend ausgewertet. Das Ergebnis der Plattformuntersuchung bietet die Grundlage für die Implementierung einer Internet of Things Anwendung.
Für die Anwendung werden zunächst die Anforderungen beschrieben, welche die eines realitätsnahen Nutzungsfall nachbilden sollen. Das Konzept und die Funktionsweise stellt das Zusammenspiel der einzelnen Komponenten dar. Die Anwendung soll hierbei die Funktionalität eines Infoterminals nachstellen, welches über NFC Informationen an mobile Endgeräte bereitstellt. Dieses sendet die Anzahl der Zugriffe an das PaaS-Angebot, welches wiederum als Schnittstelle zu Twitter und einer externen Webanwendung dient. Über die Webanwendung kann die Nachricht des Infoterminals aktualisiert werden. Im Folgenden werden die zum Einsatz kommende Hardware und Software beschrieben. Es handelt sich hierbei um einem Arduino Uno Rev3, welcher über ein Adafruit CC3000 Wifi Shield und ein Seeed Studio NFC Shield V2.0 die benötigten Schnittstellen zur Verfügung stellt.
Anschließend erfolgt die Auswahl der drei für die Implementierung verwendeten Plattformen anhand der zuvor durchgeführten Untersuchung. Hierbei wurden als Vertreter verschiedener Benutzergruppen ThingSpeak, Flowthings.io und IBM Watson Internet of Things gewählt.
Im Anschluss an die Plattformauswahl wird die konkrete Umsetzung beschrieben. Zuerst erfolgt der Aufbau und die Programmierung der Grundfunktionalitäten zur Datenübertragung des Arduinos. Danach wird im Detail auf den allgemeinen Teil der Webanwendung eingegangen, welche mit HTML, CSS und jQuery realisiert wurde. Danach erfolgt die Beschreibung der plattformspezifischen Umsetzung der jeweiligen Kommunikation zwischen Arduino und Plattform, sowie der Webanwendung. Hierbei belaufen sich die Unterschiede hauptsächlich auf die verschiedene Implementierung der Authentifizierung, sowie den verwendeten Übertragungsprotokollen HTTP und MQTT.
Nach der Implementierung wird diese ausgewertet um die konkreten Herausforderungen, sowie Vor- und Nachteile der Plattformen, der verwendeten Hardware und Protokolle herauszustellen.
Im letzten Kapitel wird die Arbeit zusammengefasst und abschließend anhand aller gesammelten Erkenntnisse bewertet.
Diese Thesis befasst sich mit der Konzeption, Kommunikation und Umsetzung eines eigens ins Leben gerufenen Non-Profit Projekts namens green&easy. Der Name verdeutlicht den Ursprungsgedanken, aus dessen Überzeugung die Idee entstand: „green“ steht für einen nachhaltigen Lifestyle und „easy“ für den Gedanken, dass Umweltschutz nicht kompliziert oder belastend sein muss. Das Projekt ist der Versuch Umweltschutz mal anders anzugehen. Statt sich auf die Politik und wissenschaftliche Durchbrüche zu verlassen, setzt green&easy mit einem Buttom-Up-Ansatz bei den kleinen alltäglichen Handlungen an. Umweltschutz einfach und attraktiv zu machen, um den Einzelnen zum Handeln zu ermuti-gen – das ist das Ziel von green&easy.
Im Berufsbereich Medien existieren innerhalb einer Berufsuntergruppe die duale Ausbildung zur/zum Mediengestalter/-in Digital und Print sowie die vollzeitschulische Ausbildung zur/zum staatlich-geprüften Grafikdesigner/-in. In der vorliegenden Arbeit werden anhand dieser beiden Ausbildungsberufe die Ausbildungsformen verglichen, deren Stellenwert beleuchtet sowie die Vor- und Nachteile analysiert. Hierfür werden zunächst die theoretischen Hintergründe erarbeitet und die verschiedenen Perspektiven untersucht. Dieser Teil der Arbeit bildet dann die Basis zur Erstellung konkreter Fragen, anhand derer mit einer geeigneten Forschungsmethode empirische Daten erhoben werden sollen. Diese sollen im Anschluss ausgewertet, analysiert und interpretiert werden um möglichst präzise die Forschungsfrage beantworten zu können.
Elektronische Musik wird heute häufig mit erschwinglichen, digitalen Mitteln produziert. Die vorliegende Arbeit geht der Frage nach, welche Lernpotenziale das Internet im Hinblick auf die digitale Produktion elektronischer Musik bietet. Auf Basis einer umfassenden Literatur- und Medienrecherche, insbesondere in den Bereichen ELearning und Musikpädagogik, sowie eigenen Überlegungen werden zum einen Online-Lernvorgänge charakterisiert, zum anderen wird beleuchtet, welche Besonderheiten und Herausforderungen die digitale elektronische Musikproduktion als spezielles Lerngebiet mit sich bringt. Verschiedene Formen von Online-Lernmöglichkeiten werden dabei jeweils anhand diverser Praxisbeispiele dargestellt und deren Lernpotenziale untersucht.
Quarz crystal microbalances allow the monitoring of the adsorption process of mass from a liquid to their surface. The adsorbed mass can be analysed regarding to its protein content using mass spectromety. To ensure the protein identification the results of several measurements can be combined. A high content QCM-D array was developed to allow up to ten measurements parallel. The samples can be routed inside the array distributing one sample to several chips. The fluidic parts were prototyped using 3D printing. The assembled array was tight and the sample routing function could be demonstrated. A temperature controller was developed and implemented. The parameters for the PID controller were determined and the controller was shown to be able to keep the temperature constant over long time with high accuracy.
Diese Arbeit beschäftigt sich mit dem Thema NoSQL-Datenbanken in Webanwendungen. Dabei solle die verschiedenen Konzepte aktueller NoSQL-Datenbanken erläutert und exemplarische Implementierungen der einzelnen Konzepte vorgestellt werden. Anschließend wird der Einsatz in modernen Webanwendungen gezeigt. Hierzu soll eine einfache Social-Community-Plattform erstellt werden, welche zuerst auf Basis eines relationalen Datenbank Management System erstellt wird. Um die Einsatzmöglichkeiten der NoSQL-Vertreter zu zeigen werden anschließend einzelne Funktionen mit NoSQL-Datenbank implementiert und die Vor- und Nachteile erörtert.