Refine
Year of publication
Document Type
- Master's Thesis (208) (remove)
Has Fulltext
- yes (208)
Is part of the Bibliography
- no (208)
Keywords
- IT-Sicherheit (10)
- E-Learning (7)
- Maschinelles Lernen (7)
- Deep learning (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Social Media (5)
- Computersicherheit (4)
- Internet of Things (4)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (55)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (40)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34)
- Fakultät Wirtschaft (W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (5)
- INES - Institut für nachhaltige Energiesysteme (4)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (75)
- Open Access (32)
- Diamond (6)
Die vorliegende Arbeit beschäftigt sich am Beispiel der Vorlesung Risikomanagement mit der Konzepterstellung eines Blended Learning Szenarios. Die Vorlesung wird im Studiengang Unternehmens- und IT-Sicherheit der Hochschule Offenburg angeboten. Ziel ist es, das Konzept einer Probeveranstaltung zu erstellen, diese Veranstaltung durchzuführen und anschließend zu evaluieren. Die Ergebnisse und Learnings, welche aus der Veranstaltung
gezogen werden können, werden anschließend verwendet, um Handlungsempfehlungen für die Umsetzung eines Blended Learning Szenarios abzuleiten. Eine Umsetzung kann
nach einer inhaltlichen Konzeption, also erst nach Abschluss dieser Arbeit erfolgen. Das entwickelte Lernszenario baut auf den an der Hochschule Offenburg eingesetzten und lizenzierten Werkzeugen auf, dem LMS Moodle und der Virtual Classroom Software Adobe
Connect. Zusätzlich wurden weitere Werkzeuge recherchiert, diese sollen den Dozierenden die Erstellung von Lernmedien erleichtern, beispielhaft werden sie in den erstellten Lernlektionen eingesetzt. Vor der Konzepterstellung werden zunächst die Begriffe des E-Learning und Blended
Learning definiert. Das Konzept des Selbststudiums in der Hochschullehre wird anschließend anhand der Veröffentlichung „Begleitetes Selbststudium“ von Landwehr
und Müller beschrieben. Schließlich werden die Rahmenbedingungen der Lern-, Gedächtnis- und Motivationspsychologischen Grundlagen zur Entwicklung eines Blended Learning Szenarios definiert. Aufbauend auf diesen Grundlagen wird die Probeveranstaltung im Rahmen der Veranstaltung geplant und durchgeführt. Die Dokumentation der einzelnen Planungsschritte wird ausführlich dargestellt. Es wurden zwei unterschiedliche Veranstaltungsteile geplant, eine ca. 45-minütige Selbststudieneinheit, welche mit Online-Lernmaterialien umgesetzt wird sowie eine Präsenzveranstaltung.
Diese wurde mit Adobe Connect, ebenfalls online, durchgeführt. Die erste Veranstaltung soll den Studierenden zur selbstständigen Erarbeitung von Vorlesungsinhalten dienen und verschiedene Lernmedien präsentieren. Der zweite Veranstaltungsteil dient der Vorstellung von Adobe Connect. Aus der Reflexion der Veranstaltungen wurde ein Leitfaden abgeleitet, welcher einige zu beachtende Handlungsempfehlungen zusammenfasst, um ein Blended Learning Szenario erfolgreich umzusetzen.
Eine reine Passwortauthentifizierung, wie sie im Hochschulumfeld eingesetzt wird, bringt Sicherheitsrisiken mit sich. Ziel dieser Arbeit ist es zu analysieren, wie die Sicherheit in der Praxis mittels einer Zwei-Faktor-Authentifizierung erhöht werden kann und in welcher Weise die Einführung eines Single-Sign-On Konzept zum Erreichen dieses Ziels beiträgt. Es konnte gezeigt werden, dass eine Shibboleth IdP Installation als zentraler Zugangspunkt für Single-Sign-On sowie eine daran angebundene privacyIDEA-Instanz die Umsetzung der Zwei-Faktor-Authentifizierung für einige aber nicht alle Dienste ermöglicht.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
Instagram-Marketing: Erfolgsfaktoren und Handlungsempfehlungen am Beispiel der Kosmetikindustrie
(2015)
Das Ziel dieser Arbeit lag darin, Faktoren, die den Erfolg eines Instagram-Auftritts von Kosmetik produzierenden oder vertreibenden Unternehmen aus dem deutsch-sprachigen Raum steigern, zu ermitteln und auf Grundlage der Ergebnisse Handlungs-empfehlungen auszusprechen. Im Zuge dessen wurden sieben qualitative Befragungen von Experten durchgeführt und anschließend mit Hilfe der zusammen-fassenden Inhaltsanalyse nach Mayring ausgewertet. Aus der empirischen Studie geht hervor, dass Instagram bereits jetzt eine große Rolle im Social-Media-Mix einnimmt und Unternehmen primär Ziele des Brandings und der Markenrepräsentation auf Instagram verfolgen. Desweiteren konnten mit Hilfe der leitfadengestützten Experteninterviews 15 Faktoren identifiziert werden, die positiven Einfluss auf das Instagram-Marketing ausüben: Persönlichkeit, Qualität, Authentizität, Aktualität, Kanalmix, Hashtags, Videos, die Verknüpfung mit anderen Unternehmensbereichen, Transparenz, Relevanz, Influencer-Relations, Community, Bestätigung und Management. Als am bedeutend-sten haben sich die Punkte Persönlichkeit, Qualität und Relevanz gezeigt: Marken stehen demnach vor der Herausforderung, ästhetische, zielgruppenrelevante Inhalte, die an die Eigenheiten Instagrams als Plattform angepasst sind, zu veröffentlichen und auf Augenhöhe mit den Nutzern zu kommunizieren, ohne sich selbst als Marke zu verlieren. Ferner führte die Expertenbefragung zu der Erkenntnis, dass Instagram sowohl als Community als auch als Marketing-Tool weiterhin an Bedeutung gewinnen wird, vor allem im deutschen Raum und in der Beauty-Branche.
Es ist von großem Nutzen, wenn energieeffiziente Leichtbaufahrzeuge einen effizienten und leichten Antrieb besitzen. Der aktuell verbaute Hatz-Dieselmotor des Schluckspecht S5 erfüllt diese Anforderungen nur teilweise. Aus diesem Grund wird der Motor zukünftig durch einen leichteren und effizienteren ethanolbetriebenen Ottomotor ersetzt. Da der Versuchsmotor keineswegs an die Anforderungen des Shell Ecomarathons angepasst ist und bis auf dessen Hubraum von 125 cm³ kaum Motordaten vorhanden sind, gilt es den Versuchsmotor verbrauchsoptimal zu applizieren. Die vorliegende Abschlussarbeit befasst sich mit den experimentellen Untersuchungen und einigen Optimierungen des ethanolbetriebenen Ottomotors am Motorenprüfstand. Um in Zukunft die Durchführung der Untersuchungen zu gewährleisten und den bestmöglichen Betrieb des Versuchsmotors zu garantieren, ist es elementar alle optimierten Bauteile für den Kraftstoff Ethanol auszulegen. Neben der Überarbeitung des Kraftstoffsystems liegt das Hauptaugenmerk hierbei auf der Optimierung des Kolbens und der Nockenwelle. Durch den optimierten Kolben soll die Verdichtung des Verbrennungsmotors erhöht und durch die optimierte Nockenwelle die Ventilsteuerzeiten perfektioniert werden. Demnach besteht die Aufgabe die Bauteile zu besorgen, die Fertigung zu koordinieren und den Umbau der optimierten Komponenten zu realisieren. Des Weiteren erfolgt die Konstruktion einer Kupplung, welche in Zukunft zwischen Verbrennungsmotor und Elektromotor montiert werden soll. Ein zentrale Tätigkeit ist die Fehlerbeseitigung am Motorenprüfstand, sodass der Versuchsalltag reibungslos abläuft. Die letzte Tätigkeit umfasst die Durchführung der experimentellen Untersuchungen des Verbrennungsmotors sowie das Anlegen von Kennfeldern, welche einen effizienten Motorlauf garantieren. Das Betriebskennfeld hinsichtlich der Last und Drehzahl wird mittels verschiedener Einstellparameter appliziert. Zur Unterstützung dienen dabei die Kalibrierungssoftware EcoCal und die Indizierungssoftware IndiCom.
Decarbonisation Strategies in Energy Systems Modelling: APV and e-tractors as Flexibility Assets
(2023)
This work presents an analysis of the impact of introducing Agrophotovoltaic technologies and electric tractors into Germany’s energy system. Agrophotovoltaics involves installing photovoltaic systems in agricultural areas, allowing for dual usage of the land for both energy generation and food production. Electric tractors, which are agricultural machinery powered by electric motors, can also function as energy storage units, providing flexibility to the grid. The analysis includes a sensitivity study to understand how the availability of agricultural land influences Agrophotovoltaic investments, followed by the examination of various scenarios that involve converting diesel tractors to electric tractors. These scenarios are based on the current CO2 emission reduction targets set by the German Government, aiming for a 65% reduction below 1990 levels by 2030 and achieving zero emissions by 2045. The results indicate that approximately 3% of available agricultural land is necessary to establish a viable energy mix in Germany. Furthermore, the expansion of electric tractors tends to reduce the overall system costs and enhances the energy-cost-efficiency of Agrophotovoltaic investments.
Für Unternehmen ist es zunehmend von Interesse, durch Social-Media-Kommunikation nicht nur die Aufmerksamkeit der Zielgruppe zu wecken, sondern mit der aufmerksamkeitsstarken Ansprache die Wahrnehmung ihrer Marke und das marktbezogene Verhalten zu beeinflussen. Humorvolle Appelle sind in diesem Zusammenhang zur gängigen Werbepraxis geworden und finden auf Social Media in der direkten Interaktion zwischen Marken und ihrer Zielgruppe statt. Mit der vorliegenden Arbeit wird humorvoll-schlagfertige Unternehmenskommunikation auf Social Media untersucht. Das Ziel war es, die Wirkungszusammenhänge zwischen derartiger Kommunikation, deren Bewertung, dem Markenimage, der Markenauthentizität und den Handlungsabsichten besser zu verstehen. Die Erkenntnisse über diese Zusammenhänge können sowohl der weiteren Erforschung als auch künftigen Marketingentscheidungen dienen.
Im Zuge dessen wurden die theoretischen Hintergründe moderner Markenkommunikation sowie der Konzepte Humor und Schlagfertigkeit ausgearbeitet. Der empirische Teil der Arbeit besteht aus der Konzipierung, Durchführung, Analyse und Ergebnisdiskussion einer quantitativen Studie. Zu den zentralen Ergebnissen zählt, dass sich der Grad an Humor und an Schlagfertigkeit darauf auswirkt, wie sehr die Kommunikation gefällt. Wenn diese gut gefällt, stärkt das wiederum das Markenimage. Auch die wahrgenommene Markenauthentizität bestimmt das Markenimage und wird selbst vor allem durch den Grad der Schlagfertigkeit bestimmt. Das Markenimage beeinflusst die Weiterleitungsabsicht der Kommunikation (virale Effekte) und die Kaufabsicht. Dabei unterscheidet sich humorvoll-schlagfertige Unternehmenskommunikation von neutraler Vergleichskommunikation hinsichtlich der Weiterleitungsabsicht signifikant.
Die durch den Konsumenten intensive Nutzung des Smartphones im Alltag sowie der fortwährend technologische Wandel erzeugen eine Abwanderung der Konsumenten in die Onlinewelt. Das infolgedessen zunehmend veränderte Konsumentenverhalten zwingt Unternehmen, ihre Kommunikationskanäle anzupassen sowie zu überdenken, um so bestmöglich mit ihren Kunden zu interagieren. Vor diesem Hintergrund beschäftigt sich die vorliegende Arbeit mit der Thematik des Conversational Commerce, einem derzeit noch jungen Trend innerhalb des E-Commerce.
Das Ziel dieser Masterarbeit ist es, eine fundierte Wissensgrundlage zum Gebiet Conversational Commerce zu schaffen, einschließlich den wichtigsten, damit in Verbindung stehenden Begriffen.
Als Einstieg in das Thema wird zu Beginn der Arbeit die Entwicklung des E-Commerce, hinsichtlich der Transformation dessen durch die Digitalisierung, thematisiert sowie auf die Marktentwicklung von Messaging Applikationen eingegangen. Neben der Unterteilung in text- und sprachbasierte Dialogsysteme, sprich Bots und Sprachassistenten, sollen die derzeit aktuell am Markt befindlichen Systeme vorgestellt und detailliert erläutert werden. Darüber hinaus werden diese anhand ihrer unterschiedlichen Typologien klassifiziert.
Anhand der Einbindung zweier Studien zum Thema Conversational Commerce sowie der Untersuchung dreier Chat Applikationen, soll nicht nur der künftige Einsatz von messaging-basierter Kommunikation geprüft, sondern auch, der für den Kunden und das Unternehmen entsprechende Mehrwert herausgearbeitet werden. Zusätzlich setzt sich die Arbeit mit den Herausforderungen aus Kunden-, Anbieter- und Händlersicht auseinander. Die daraus resultierenden Ergebnisse führen zu einem abschließenden Gesamtfazit dieser Arbeit.
Im ersten Teil der vorliegenden Master-Thesis geht es um die Entwicklung einer Low-Power Wireless-Lichtschranke. Der Hardware-Aufbau wird ausführlich beschrieben und Besonderheiten für die Low-Power-Auslegung, wie beispielsweise Power-Management, werden vorgestellt. Optische Einheiten, Power-Management-Einheiten, System-On-Chip und Funkstufe werden ausführlich angesprochen. Die interrupt-gesteuerte und zeitlich optimierte Programmierung wird im Anschluss an den Hardware-Aufbau vorgestellt. Auch hier werden Low-Power-Eigenschaften diskutiert. Die Anbindung der Lichtschranke an einen Hub im 868 MHz ISM Band (engl.: Industrial, Scientific and Medical Band) und die Datenübertragung mittels Bluetooth an einen Computer, sowie die Programmierung einer Anzeige-GUI zur Visualisierung der Funkdaten mit LabVIEW werden weiterführend behandelt. Ergänzend hierzu wird die entwickelte Hardware vermessen und charakterisiert. Die Messergebnisse werden ausgewertet und vorgestellt.
Im zweiten Teil der Master-Thesis geht es um die Entwicklung eines Schulungskonzepts. In der Sick AG halten sich alle Abteilungen (Divisions) beim Entwickeln eines Produktes an einen vorgegebenen Produktentstehungsprozess. Division 1 hat im Rahmen dieses Produktentstehungsprozesses eine Konkretisierung vorgenommen: den Masterplan. Für die Einführung des Masterplans wurde ein teilnehmerorientiertes Schulungskonzept entwickelt. Es wird zuerst auf die Inhalte eingegangen. Im Anschluss werden die Teilnehmer untersucht und Motive und Lernvoraussetzungen charakterisiert. Nachdem diese und weitere Rahmenbedingungen geklärt sind, wird ein didaktisch durchdachtes Schulungskonzept entwickelt, ausführlich vorgestellt und diskutiert.
Im Rahmen dieser Arbeit wird eine digitale Volkshochschule, die Onrhein vhs, konzipiert und umgesetzt. Ziel ist es, eine neue Zielgruppe im Alter von 18- bis 35-Jahren zu erreichen und die Digitalisierung in den Volkshochschulen zu fördern. Dies umfasst die Entwicklung einer für diese Zielgruppe attraktive Internetpräsenz, bestehend aus einem neuen Design, einer neuen Webseite und einem Social-Media-Kanal. Während der Pilotphase der Weiterbildungsoffensive WEITER.mit.BILDUNG@BW werden Erkenntnisse für den zukünftigen digitalen Betrieb der Volkshochschulen gesammelt und evaluiert. Um die Entwicklungen auf die Bedürfnisse der Zielgruppe anzupassen, wird im Verlauf der Arbeit eine Umfrage zur Weiterentwicklung der Volkshochschulen durchgeführt und ausgewertet. Gemeinsam mit der Region werden Ansätze zur Zusammenarbeit unter den bestehenden Volkshochschulen und der Onrhein vhs erarbeitet, um die Digitalisierung gemeinsam zu bewältigen.
Gegenstand der hier vorgestellten Master-Thesis stellt das sogenannte Mobile Location Based Couponing, eine Erweiterung des Mobile Marketing dar. Dabei handelt es sich um ein ortsbasiertes Kommunikationsinstrument, welches Konsumenten, abhängig von ihrer aktuellen Position, Sonderangebote über das mobile Endgerät zur Verfügung stellt. Für lokale Unternehmen eröffnen sich somit neue Geschäftsmöglichkeiten. Im Verlauf der Arbeit soll das Potenzial des Mobile Location Based Couponing hinsichtlich des deutschen Marktes mit Hilfe diverser Studien analysiert werden. Darüber hinaus sollen für ein besseres Verständnis Anwendungsmöglichkeiten am Beispiel des Dienstes „Facebook Check-In Deals“ dargestellt werden.
Cloud computing has revolutionized the way businesses operate by providing them with access to scalable, cost-effective, and flexible IT resources. This technology has enabled businesses to store, manage, and process data more efficiently, leading to improved competitiveness and increased revenue. The purpose of this thesis is to explore the impacts of using cloud computing from a business perspective. The research employs both primary and secondary sources of data, including a literature review, interviews with employees who have more than 5 years of experience, a questionnaire, and observations from Billwerk+ company.
The findings of this research indicate that cloud computing has had a significant impact on businesses, providing them with cost savings, improved agility and flexibility, and enhanced access to data and applications. However, it has been revealed that the benefits of cloud computing for companies may vary according to the departments of the employees. The results of this research contribute to the existing body of knowledge on the topic of cloud computing and its impact on businesses. The findings of this thesis can be used by business owners, managers, technology professionals, and students to make informed decisions about the adoption and use of cloud computing technology.
In conclusion, this thesis provides a comprehensive understanding of the impacts of using cloud computing from a business perspective, highlighting the factors that companies consider when deciding to use cloud environments and the views from different departments. The results of this research will be valuable to a wide range of individuals interested in exploring the implications of cloud computing for businesses.
Wassermangel in Deutschland
(2023)
Die Arbeit beschäftigt sich mit der medialen Berichterstattung von vier deutschen Leitmedien in Bezug auf das Thema Wassermangel in Deutschland. Ziel ist es, das in der Gesellschaft vorhandene Bewusstsein für die Umwelt zu stärken und ein besonderes Augenmerk auf die Problematik des sich verschärfenden Wassermangels zu lenken.
Zunächst wird hierfür die Vorgehensweise einer Medieninhaltsanalyse dargelegt und mit dem konkreten Beispiel in jedem Schritt verknüpft. Dabei werden die relevantesten Schwerpunkte der Berichterstattung zwischen April und Oktober 2022 herausgearbeitet. Es wird angenommen, dass die Berichterstattung vor allem im Sommer besonders hoch ist und es sowohl thematische als auch regionale Unterschiede zwischen den vier Verlagen gibt. Die gewonnenen Beobachtungen werden sowohl im Gesamtzusammenhang der untersuchten Artikel als auch in einer Einzelbetrachtung der vier Medien, Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung, Focus und Spiegel, grafisch aufbereitet und interpretiert. Die Ergebnisse zeigen, dass die Kategorien Hitze und Dürre besonders häufig codiert werden. Damit stehen vor allem die Ursachen und Auswirkungen, aber nicht der Wassermangel selbst, im Fokus der Berichterstattung.
Diese Erkenntnisse werden anschließend in eine Online-Kampagne überführt, mit dem Ziel, das Bewusstsein einer jungen, medienaffinen Zielgruppe auf den steigenden Wassermangel in Deutschland zu lenken.
Ziel der vorliegenden Arbeit ist die Durchführung einer Stadtklimasimulation vom Campus Offenburg. Um die Simulation auf Plausibilität überprüfen zu können, werden zudem Mikroklimamessungen vom Offenburger Campus durchgeführt. Die Ergebnisse der Simulation sollten im Anschluss mit den Messergebnissen verglichen werden.
Für die Durchführung der Stadtklimasimulation sowie der Mikroklimamessung werden zunächst verschiedene Vorbereitungen getroffen. Für die Stadtklimasimulation müssen im wesentlichen zwei Dateien vorbereitet werden. Eine Datei enthält Informationen zur Topologie, während die andere Datei Informationen zur Initialisierung der Simulation beinhaltet. Um den Rechenaufwand der Simulation gering halten zu können, müssen verschiedene Vereinfachungen getroffen werden. Für die Mikroklimamessung muss ein Messsystem entwickelt werden, welches sich aus stationären sowie mobilen Temperaturmessungen zusammensetzt. Für die stationäre Temperaturmessung werden Sensoren, verteilt über den ganzen Campus, platziert. Bei der mobilen Messung kommt eine Messvorrichtung mit GPS System, welches auf einem Fahrrad aufgebaut wird, zum Einsatz. Für Innenraum-temperaturen stehen fest installierte Sensoren zur Verfügung.
Der Vergleich zwischen Simulation und Messung zeigt auf, dass die Außentemperaturen der Simulation zu hoch sind. Die simulierten Temperaturdifferenzen können unter Berücksichtigung der getroffenen Vereinfachungen plausibilisiert werden. Die simulierten Innenraumtemperaturen weisen große Unterschiede im Vergleich zu den Messungen auf. Dies kann auf die getroffenen Vereinfachungen bei der Simulation zurückgeführt werden. Der Vergleich der Ergebnisse zeigt, dass Anpassungen in der Simulation erforderlich sind.
Conceptualization and implementation of automated optimization methods for private 5G networks
(2023)
Today’s companies are adjusting to the new connectivity realities. New applications require more bandwidth, lower latency, and higher reliability as industries become more distributed and autonomous. Private 5th Generation (5G) networks known as 5G Non-Public Networks (5G-NPN), is a novel 3rd Generation Partnership Project (3GPP)- based 5G network that can deliver seamless and dedicated wireless access for a particular industrial use case by providing the mentioned application’s requirements. To meet these requirements, several radio-related aspects and network parameters should be considered. In many cases, the behavior of the link connection may vary based on wireless conditions, available network resources, and User Equipment (UE) requirements. Furthermore, Optimizing these networks can be a complex task due to the large number of network parameters and KPIs that need to be considered. For these reasons, traditional solutions and static network configuration are not affordable or simply impossible. Despite the existence of papers in the literature that address several optimization methods for cellular networks in industrial scenarios, more insight into these existing but complex or unknown methods is needed.
In this thesis, a series of optimization methods were implemented to deliver an optimal configuration solution for a 5G private network. To facilitate this implementation, a testing system was implemented. This system enables remote control over the UE and 5G network, establishment of a test environment, extraction of relevant KPI reports from both UE and network sides, assessment of test results and KPIs, and effective utilization of the optimization and sampling techniques.
The research highlights the advantageous aspects of automated testing by using OFAT, Simulated Annealing, and Random Forest Regressor methods. With OFAT, as a common sampling method, a sensitivity analysis and an impact of each single parameter variation on the performance of the network were revealed. With Simulated Annealing, an optimal solution with MSE of roughly 10 was revealed. And, in the Random Forest Regressor, it was seen that this method presented a significant advantage over the simulated annealing method by providing substantial benefits in time efficiency due to its machine- learning capability. Additionally, it was seen that by providing a larger dataset or using some other machine-learning techniques, the solution might be more accurate.
"The web’s greatest strength, I believe, is often seen as a limitation, as a defect. It is the nature of the web to be flexible, and it should be our role as designers and developers to embrace this flexibility, and produce pages which, by being flexible, are accessible to all. The journey begins by letting go of control, and becoming flexible."
Mit diesem Satz schloss Allsopp sein im Jahre 2000 auf alistapart.com publiziertes Essay 'A Dao of Webdesign'. Obwohl die Veröffentlichung nun über ein Jahrzehnt zurückliegt, hat der diesem Zitat zugrundeliegende Gedanke der Flexibilität, Anpassungsfähigkeit und Zugänglichkeit des Web, nichts an seiner Aktualität verloren. Vielmehr hat er in außerordentlichem Maße an Relevanz hinzugewonnen, denn nie in seiner noch jungen Geschichte war das Web unbeständiger, die verwendeten Technologien kurzlebiger und die internetfähigen Geräte vielfältiger als heute.
Im Jahr 2007 stellte Apple mit dem iPhone erstmals ein mobiles Endgerät vor, welches in der Lage war, dem Nutzer ein akzeptables Surferlebnis zu bieten. Seitdem ist der Siegeszug mobiler, internetfähiger Devices ungebrochen. Dabei sind Smartphones nicht die einzigen Geräte, die für Aufruhr sorgen. Tablets und Netbooks besetzen die Nische zwischen Smartphone und Laptop und auch E-Book Reader und Handheld- Konsolen sind in der Lage, auf das Web zuzugreifen. Gleichermaßen steigt die Vielfalt internetfähiger Geräte im stationären Sektor. Klassische Spielkonsolen werden ebenso mit Browser ausgeliefert wie Blu-ray-Player, Receiver und Smart-TVs. Smartwatches, Fuelbands, Kühlschränke oder Autos mit internetfähigen Komponenten bilden die nächste Stufe dieser Entwicklung.
Das Web ist damit jenseits des Desktops angekommen. Es hat sich von einem Computermedium zu einem universellen Medium entwickelt, das überall und auf einer unüberschaubaren Vielzahl von Geräten stattfindet. Die Geräte unterscheiden sich dabei nicht nur in ihrer Bildschirmgröße. Auch das Leistungsvermögen ihrer Hardware, die Fähigkeiten ihrer Betriebssysteme und Browser, das Ausmaß der Unterstützung von Standards und die Interaktionsmethoden variieren. Immer unklarer wird auch der Kontext, in dem ein internetfähiges Gerät verwendet wird. Neben der Anzahl und Vielfalt internetfähiger Geräte jenseits des Desktops, wächst auch der Umfang der Internetnutzung mit diesen Geräten. Im Jahr 2013 nutzten in Deutschland 70 Prozent der Internetuser das Web über Smartphones . Im ersten Quartal 2014 wurden bereits 31,2 Prozent des weltweiten Traffics durch mobile Geräte generiert. In den USA, Großbritannien und Italien verbringen die Nutzer bereits heute über mobile Geräte mehr Zeit im Internet als über Desktop-PCs.
Die bislang üblichen statischen und für die Spezifikationen eines Desktop-Computers optimierten Websites, sind nicht in der Lage auf die mannigfachen Anforderungen der verschiedenen Devices angemessen zu reagieren. Konzepte, die darauf beruhen für verschiedene Gerätetypen separate Websites zu entwickeln, sind angesichts der Vielzahl und der Heterogenität der vorhandenen Geräte ebenfalls nicht mehr oder nur noch in Ausnahmefällen praktikabel.
Vielmehr geht es darum einen flexiblen geräteagnostischen Designansatz für das Web zu verfolgen, um geräteübergreifend eine bestmögliche User Experience gewährleisten zu können. Dieser muss neben Anpassungen an die Bildschirmgröße auch darüber hinausgehende Faktoren wie Performance, Interaktionsmethoden und die individuellen Leistungsmerkmale der Geräte berücksichtigen. Responsive Web Design beschreibt solch ein Konzept. Dieser Ansatz erfordert die Anwendung einiger neuer Techniken und ein konzeptionelles Umdenken beim Entwickeln von Websites. Gleichermaßen bedarf es einer Abkehr vom bisherigen linearen Workflow hin zu einem iterativen, kollaborativen Prozess zwischen den Disziplinen, der es ermöglicht, den neuen Herausforderungen responsiven Webdesigns gerecht zu werden.
Aluminiumgussbauteile spielen heutzutage in vielen Branchen, wie der Automobilindustrie und der Luft- und Raumfahrtindustrie eine wichtige Rolle. Sie zeichnen sich durch hohe Festigkeit und Steifigkeit bei vergleichsweise geringem Gewicht aus. Bei der Herstellung von Aluminiumgussbauteilen, kommt es prozessbedingt immer zu Defekten im Werkstoff. Mit Computer Tomographie Aufnahmen können diese Defekte zerstörungsfrei detektiert werden. Anschließend sollen die Defekte in Finite-Elemente-Methode Berechnungen berücksichtigt werden. Dies bietet einen entscheidenden Vorteil bei der Schadensvorhersage dieser Bauteile.
In dieser Masterarbeit wurde zwei Programme entwickelt, welche das Mapping von Defekten aus CT-Aufnahmen eines Aluminiumgussbauteils auf ein LS-Dyna Netz ermöglichen. Dadurch können die Defekte und damit die Porosität eines Gussbauteils in der Festigkeitsberechnung berücksichtigt und die Schadensvorhersage verbessert werden. Die Programmierung erfolgte in Python.
Das weiterentwickelte Mapping-Programm benötigt zwei Input Dateien. Zum einen wird die Defektdatei aus den CT-Aufnahmen benötigt und zum anderen ein LS-Dyna Netz. Die komplexen Defektgeometrien werden in dem Mapping-Programm vereinfacht als umschließende Kugeln um den Defekt beschrieben. Diese Vereinfachung ist aufgrund der benötigten Rechenleistung notwendig. Anschließend prüft das Mapping-Programm alle Kollisionen zwischen Elementen des FE-Netzes und den Defekten und ermittelt für jedes Element ein Schnittvolumen. Aus dem Schnittvolumen und dem Elementvolumen wird die Porosität berechnet. Die Rechenzeit für ein Bauteil mit 107379 Elementen beträgt 480 Minuten.
Ein zweites, neu entwickeltes Programm ermöglicht das Mapping der wahren Porengeometrie auf FE-Netze. Durch die optimierte Porenbeschreibung wird eine höhere Genauigkeit beim Mapping der Defekte erreicht. Die Rechenzeit beträgt bei einem Bauteil mit 107379 Elementen lediglich 15 Minuten.
Ziel dieser Masterarbeit ist es, das Mapping-Programm zu optimieren, damit es neben Hexaedern weitere Elementtypen verarbeiten kann. Darüber hinaus sollte die Porenbeschreibung verbessert werden, um genauere Ergebnisse zu erhalten. Dafür wurde ein zweites Programm mit einer verbesserter Porenbeschreibung entwickelt, dass zudem deutlich geringere Rechenzeiten benötigt.
Data Mining of the Edge
(2016)
Kleine, intelligente Systeme prägen zunehmend unsere Umwelt, dass sogenannte Internet of Things wird immer mehr Teil unseres Alltages. Diese Geräte sind immer mehr dazu in der Lage Daten aufzunehmen und zu verarbeiten. Doch wie jede Technische Revolution, führt auch der Ausbau des IoT zu neuen Herausforderungen. Das Ziel dieser Arbeit ist die Bewertung der Qualität von verschiedenen Data Mining Frameworks im Edge Bereich, die Erstellung mehrere Demonstatoren eines Edge Szenario Aufbaus sowie deren Evaluation.
In der vorliegenden Thesis werden Empfehlungsalgorithmen zur Verbesserung von Wein-Empfehlungen evaluiert. Der Algorithmus wird zur Entscheidung zwischen zwei Weinen eingesetzt, so dass der jeweils für den Kunden geeignetere Wein empfohlen wird. Das derzeitige System setzt Collaborative Filtering durch den Alternating Least Squares (ALS) Algorithmus um. Bei Kunden und Weinen, die nicht die notwendigen Bedingungen für die Anwendung von ALS erfüllen, wird durch Zufall entschieden.
Dem bestehenden Ansatz wurden folgenden Verfahren gegenübergestellt: Content-based Filtering mit einen Autoencoder und Hybrid Filtering mit einem neuronalen Netz sowie mit der Empfehlungsbibliothek LightFM. Die neuen Ansätze berücksichtigen immer die Weineigenschaften und können für noch nicht gekaufte Weine eingesetzt werden (Cold-Start Problem). Verglichen wurden die Ansätze durch zwei Ranking-Methoden und einen selbst-entwickelten offline A/B-Test.
Unter den neuen Ansätzen schnitt LightFM am besten ab. ALS lieferte insgesamt die besten Ranking-Werte. Durch ein online A/B-Test zwischen ALS und LightFM konnten keine signifikanten Ergebnisse ermittelt werden. Insgesamt konnte auf Basis der in den Tests gesammelten Daten keine Verbesserung der Empfehlungslogik gegenüber dem bestehenden Verfahren mittels ALS nachgewiesen werden. Für eine abschließende statistisch signifikante Beurteilung müssten mehr online A/B-Tests durchgeführt werden.
Das Lokalisationssystem besteht aus einem Anwender-PC mit Bluetooth-Adapter, einem Lautsprecherkreis sowie einem Tablet. Eine Funktion im Programm Matlab auf dem Anwender-PC dient zur Eingabe der Steuerparameter, welche in einer Textdatei an eine Schnittstelle, die ebenfalls auf dem Anwender-PC installiert ist, übergeben und via Bluetooth an eine native App auf einem Tablet gesendet wird. Die Schnittstelle wurde mithilfe der IDE Eclipse mit der Programmiersprache Java erstellt und kann unter der Bedingung, dass auf dem verwendeten PC JRE Version 1.8.0 oder jünger vorinstalliert ist, systemunabhängig ausgeführt werden. Je nach gesendeten Parametern wird eine von sechs möglichen GUIs auf dem Bildschirm des Tablets angezeigt, welche die Anordnung der Lautsprecher im Audiometrieraum wiedergibt. Nach dem Schallereignis hat der Proband die Möglichkeit, je nach gewählter GUI, einen von sieben bzw. zwölf angezeigten Lautsprechersymbolen oder einen beliebigen Punkt auf dem Bildschirm anzutippen. Diese Eingabe entspricht der Richtung, welche der Proband als Schallquelle lokalisierte. Nach Eingabe der Probandenantwort wird diese via Bluetooth an die Schnittstelle und somit an Matlab gesendet, wo die Antwort ausgewertet werden kann.
Die vorliegende Masterthesis erarbeitet eine Handlungsempfehlung für die erfolgreiche Umsetzung von Datenstrategien im strategischen Management. Dazu wird im Voraus eine Definition des Begriffs Datenstrategie erstellt und eine Einordnung in die Prozesse des strategischen Managements vorgenommen.
Im ersten Teil der empirischen Studien wird eine systematische Literaturrecherche zum Gegenstand der Arbeit durchgeführt, um einen Überblick des aktuellen Forschungsstands zu geben und eventuelle Forschungslücken aufzuzeigen. Ferner wird durch die Methodologie einer fallstudienbasierten Grounded Theory eine Theorie zur Entwicklung von Datenstrategien induktiv hergeleitet.
Das Ergebnis der Arbeit ist eine Handlungsempfehlung für die Entwicklung von Datenstrategien, die unabhängig von Branche und Unternehmensform angewandt werden kann. Sowohl die Definition als auch die Handlungsempfehlung zeigen deutlich, dass die Anwendungsbereiche, Funktionen und Prozesse, die zu einer Datenstrategie beitragen können, im Rahmen von Big Data und Strategietheorien bereits bekannt sind und in der Praxis Anwendung finden. Die Handlungsempfehlung verbindet demnach bestehende Methoden und bietet einen Leitfaden zu deren korrekten Anwendung innerhalb einer Datenstrategie.
Durch die Umstrukturierung in der Automobilindustrie hinsichtlich Elektromobilität steigen die technischen und wirtschaftlichen Anforderungen an die Zulieferunternehmen von Automobilherstellern. Um im Wettbewerb konkurrenzfähig zu sein, müssen die jeweiligen Prozesse stetig geprüft und optimiert werden. Anhand dieser Masterarbeit wird daher die Produktion von Komfortaktuatoren bezüglich Wirtschaftlichkeit sowie Kapazitätserweiterung analysiert und demnach ein Konzept zur Fertigungsoptimierung entwickelt.
Für diese Konzeptentwicklung wird zunächst die bestehende Produktion der Komfortaktuatoren anhand der Prozesskette bezüglich des Automatisierungsgrades erforscht. Eine Taktzeitanalyse der Endmontage weist den Engpass am manuellen Handarbeitsplatz auf, an dem die Bestückung des Transferträgers stattfindet. Die Betrachtung des Produktionsvolumens zeigt die Verdopplung der Stückzahlen ab 2024 bei den Aktuatoren mit Getriebelage rechts. Um diese Produktionsstückzahlen zu fertigen und den Engpass auszugleichen, ist eine Automatisierung der bestehenden Endmontage erforderlich. Die wirtschaftliche Investition in die Automatisierung bedeutet eine erhöhte Amortisationszeit, die sich je nach Stückzahlen zwischen acht und 15 Jahre befindet.
Eine geringere Kapitalrückflussdauer kann mit der Erweiterung der Fertigungslinie mit einem höheren Automatisierungsgrad sowie einer geringeren Taktzeit erreicht werden. Der benötigte Platzbedarf für diese Erweiterung der Fertigungslinie wird auf ungefähr 5,7 m abgeschätzt. Mit einer kompakten Anordnung der Fertigungsstationen kann dieser Einbau erfolgen. Für die Entwicklung des Transfersystems wird eine Anforderungsliste erstellt und anhand dieser ein Transfer-Konzept innerhalb der Fertigungslinie entwickelt. Aufgrund der Kostenschätzung und des Platzbedarfs erzielt das Konzept mit einem Transferträger die höhere Wertigkeit. Mit dem in dieser Masterarbeit erarbeiteten planerischen Konzept zur Fertigungsoptimierung wird eine Einsparung der Vorgabezeit von 11,3 min im Vergleich zum aktuellen Stand erzielt. Die Kosten der Neubau-Stationen und die anfallenden Umbaumaßnahmen werden auf etwa 950.000 € geschätzt. Der zeitliche Beginn dieser Erweiterungsmaßnahmen ist auf Anfang 2023 terminiert.
Die vorliegende Masterarbeit hat sich zum Ziel gesetzt, den Messeauftritt für die ABI-Sicherheitssysteme GmbH zu gestalten. Aufgrund des Corona-Virus und den damit einhergehenden Kontaktbeschränkungen wurden dabei die ersten Planungsdaten für einen konventionellen Messestand in eine digitale Variante umgewandelt. Als Basis wird eine ausführliche Analyse der Kommunikationspolitik des Unternehmens durchgeführt, um darauf die Planung des digitalen Messestandes und der Inhalte aufzubauen. Zusätzlich werden bereits bestehende digitale Messestände detailliert betrachtet, um daraus Rückschlüsse für die Planung zu generieren. Auf der Grundlage der Analysen wird dann der digitale Messeauftritt ausgearbeitet. Dazu gehört der Aufbau des Messestandes, die Gestaltung der Grafiken, die Auswahl der Inhalte sowie die Produktion des Informationsmaterials. Die Planung der Kommunikationsmaßnahmen, mit denen der digitale Messestand an die Zielgruppe herangeführt werden soll, ist ebenfalls Teil dieser Arbeit.
In dieser Arbeit geht es um das Thema des digitalisierten Scrum Prozesses. Scrum ist eine agile Projektmanagement Methode und ist mittlerweile nicht mehr aus der Softwarebranche wegzudenken.
Die Forschungsfrage, mit der sich dieser wissenschaftlichen Arbeit beschäftigt, lautet:
Wie lässt sich der Scrum Prozess bei der App-Entwicklung mittels einer geeigneten Softwarelösung effizienter durchführen?
Dabei wird zunächst die aktuelle Situation der eyeworkers GmbH in Bezug auf den Einsatz von Softwarelösungen im Projektmanagement beleuchtet und vorhandene Probleme her- ausgearbeitet.
Danach werden mit Hilfe einer Anforderungserhebung und -Analyse alle Anforderungen gesammelt und analysiert, die das Scrum Team und die Geschäftsleitung der Agentur an die gesuchte Softwarelösung stellen.
Im weiteren Schritt wird durch die Filterung eines Generators, der sich mit Scrum Software- lösungen befasst, eine Vorauswahl für weitere Einzelanalyse potenzieller Anwendungen durchgeführt. Diese Auswahl wird weiter verfeinert, sodass am Ende nur noch drei Systeme übrigbleiben, denen eine weitere Analyse unterzogen wird.
Bei den Einzelanalysen werden die drei Softwarelösungen – Jira, GitLab und Hansoft – auf die Erfüllung aller gesammelten Anforderungen geprüft. Dabei erweist sich die Jira Software als das am besten geeignetste Projektmanagement Tool für die Durchführung des Projekts „Die Sitema-App“.
Im vorletzten Schritt wird der Prozess mit der Anwendung GitLab durchlaufen und kritisch evaluiert um der Software dann die Empfehlung, Jira, gegenüberzustellen und herauszuarbeiten, wie der Verlauf mit dieser Software von Statten gegangen wäre. Dies beruht auf Annahmen der Verfasserin.
Zuletzt werden alle Forschungsergebnisse noch einmal zusammengefasst und ein Ausblick in die zukünftige Nutzung agiler Projektmanagement Tools bei der eyeworkers GmbH gegeben.
Kooperativer Unterricht im Kontext des Lernfeldkonzepts an beruflichen Schulen - Chancen und Grenzen
(2021)
Obwohl Lehrkräfte die Kooperation heutzutage als wichtig ansehen und diese durch das Lernfeldkonzept an Berufsschulen impliziert wird, ist es in der praktischen Umsetzung nach Aussagen der Lehrkräfte immer noch eine Ausnahme, mit Kollegen direkt zusammenzuarbeiten. An diesem Punkt setzt die Fragestellung dieser Arbeit an, in welcher geklärt werden soll, welche hemmenden Faktoren bei Lehrkräften an beruflichen Schulen im Rahmen von kooperativer Zusammenarbeit innerhalb des Kollegiums bestehen.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
Diese Arbeit beschäftigt sich mit dem Thema NoSQL-Datenbanken in Webanwendungen. Dabei solle die verschiedenen Konzepte aktueller NoSQL-Datenbanken erläutert und exemplarische Implementierungen der einzelnen Konzepte vorgestellt werden. Anschließend wird der Einsatz in modernen Webanwendungen gezeigt. Hierzu soll eine einfache Social-Community-Plattform erstellt werden, welche zuerst auf Basis eines relationalen Datenbank Management System erstellt wird. Um die Einsatzmöglichkeiten der NoSQL-Vertreter zu zeigen werden anschließend einzelne Funktionen mit NoSQL-Datenbank implementiert und die Vor- und Nachteile erörtert.
Quarz crystal microbalances allow the monitoring of the adsorption process of mass from a liquid to their surface. The adsorbed mass can be analysed regarding to its protein content using mass spectromety. To ensure the protein identification the results of several measurements can be combined. A high content QCM-D array was developed to allow up to ten measurements parallel. The samples can be routed inside the array distributing one sample to several chips. The fluidic parts were prototyped using 3D printing. The assembled array was tight and the sample routing function could be demonstrated. A temperature controller was developed and implemented. The parameters for the PID controller were determined and the controller was shown to be able to keep the temperature constant over long time with high accuracy.
Elektronische Musik wird heute häufig mit erschwinglichen, digitalen Mitteln produziert. Die vorliegende Arbeit geht der Frage nach, welche Lernpotenziale das Internet im Hinblick auf die digitale Produktion elektronischer Musik bietet. Auf Basis einer umfassenden Literatur- und Medienrecherche, insbesondere in den Bereichen ELearning und Musikpädagogik, sowie eigenen Überlegungen werden zum einen Online-Lernvorgänge charakterisiert, zum anderen wird beleuchtet, welche Besonderheiten und Herausforderungen die digitale elektronische Musikproduktion als spezielles Lerngebiet mit sich bringt. Verschiedene Formen von Online-Lernmöglichkeiten werden dabei jeweils anhand diverser Praxisbeispiele dargestellt und deren Lernpotenziale untersucht.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
Die vorliegende Masterthesis befasst sich mit dem Entwicklungsprozess und der Vorstellung eines Konzepts einer selbst entworfenen Mini-Jugendserie TOA. Wesentliche Merkmale dieser Serie sind eine zeitdeckende und kammerspielartige Erzählstruktur.
Das Ziel dieser Arbeit ist es, einen Einblick in das Zusammenspiel von theoriegestützter Entwicklung und kreativen Schreibens einer Serie zu ermöglichen. Zum allgemeinen Verständnis der Serie und deren Faszination wird dabei zunächst ihre zeitliche Entwicklung beleuchtet und der Begriff „Quality-TV“ sowie die Herausforderungen deutscher Qualitätsserien erörtert. Basierend auf der Definition der wichtigsten Merkmale erfolgreicher Serien wird im Anschluss im Hauptteil dieser Arbeit ein Konzept für die Mini-Jugendserie TOA erarbeitet. Dazu werden neben dem Genre und der Zielgruppe weitere wesentliche Bestandteile eines Serienkonzepts bestimmt.
Eine kurze Zusammenfassung der Grundidee in Form eines Exposés liefert dabei eine erste Vorstellung von der Welt von TOA. Anschließend werden mithilfe ausgewählter Methoden zur Figurentwicklung die sechs Hauptfiguren der Serie charakterisiert und im Folgenden die Thematik, Struktur und Erzählweise herausgearbeitet. Anhand von drei beispielhaften Episoden wird zudem ein kurzer Einblick in den Handlungsverlauf der Serie gewonnen. Abschließend werden nach dem Festlegen des Stils und der jeweiligen Gestaltungsmittel der Entwicklungsprozess des Formats reflektiert und die Chancen des Formats am deutschen Serienmarkt beurteilt.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
Im Berufsbereich Medien existieren innerhalb einer Berufsuntergruppe die duale Ausbildung zur/zum Mediengestalter/-in Digital und Print sowie die vollzeitschulische Ausbildung zur/zum staatlich-geprüften Grafikdesigner/-in. In der vorliegenden Arbeit werden anhand dieser beiden Ausbildungsberufe die Ausbildungsformen verglichen, deren Stellenwert beleuchtet sowie die Vor- und Nachteile analysiert. Hierfür werden zunächst die theoretischen Hintergründe erarbeitet und die verschiedenen Perspektiven untersucht. Dieser Teil der Arbeit bildet dann die Basis zur Erstellung konkreter Fragen, anhand derer mit einer geeigneten Forschungsmethode empirische Daten erhoben werden sollen. Diese sollen im Anschluss ausgewertet, analysiert und interpretiert werden um möglichst präzise die Forschungsfrage beantworten zu können.
Das Konzept der Thermoaktiven Bauteilsysteme (TABS) zur Heizung und Kühlung von Gebäuden gewinnt aufgrund seiner Kompatibilität mit erneuerbaren Energiequellen an Popularität. Die Steuerung von TABS und somit auch die Gewährleistung eines behaglichen Raumklimas erweist sich allerdings aufgrund der hohen Systemträgheit als komplex. Kurzfristige Witterungsänderungen sorgen für unerwünschte Raumtemperaturänderungen, die nur langsam korrigiert werden können. Bei Nichtwohngebäuden wie dem Regionalen Innovationszentrum für Energie (RIZ Energie) in Offenburg wird dieser Umstand durch die unregelmäßige Gebäudenutzung zusätzlich erschwert, da innere Wärmelasten stark variieren und nicht vorhersehbar sind.
Konventionelle TABS-Steuerungen können Störgrößen im TABS-Betrieb nur bedingt und zeitverzögert berücksichtigen, weswegen eine dauerhafte Gewährleistung des thermischen Komforts im Gebäude oft nicht erreichbar ist – dies ist auch am RIZ Energie der Fall. Als Lösung dient der Einsatz prädiktiver Steuerungsalgorithmen, die Störgrößen prognostizieren und den TABS-Betrieb dementsprechend anpassen können.
Diese Arbeit überprüft das Potenzial von intelligenten TABS-Steuerungsalgorithmen für den Einsatz am RIZ Energie anhand der Umsetzung mit einem digitalen Zwilling des Gebäudes. Dabei konnte unter Verwendung der Algorithmen und Berücksichtigung von inneren und äußeren Störgrößen im TABS-Betrieb ein verbessertes Raumklima simuliert werden. Infolgedessen konnte zudem der digitale Zwilling optimiert werden.
Automation research has become one of the most important tools for future thinking organizations. It includes studying the economic and social aspects to determine how accountants were affected by automating the accounting profession. Moreover, this research studied the social aspect of automation, including the accountants' satisfaction and agreement towards the shift from manual-based accounting to automated accounting. Additionally, the purpose of the research was to comprehend the aspects that affect the variance of the satisfaction and agreement levels before and after automation and whether there is a relationship between those satisfaction and agreement levels and the demographic profile of accountants.
A quantitative method was used to answer the research questions. The findings and results were gathered through an online survey. The respondents in the study represent forty-three accountants who are located and working in Germany. The implications and conclusions of the research were observed from the accountants' perspective.
The research results presented that the automation of accounting significantly impacted the accountants' profession. It indicated that accountants are satisfied with automated accounting and agree with its effects and impacts on their profession. Accountants agreed that automated accounting tasks made the accounting process more effective and valuable. The findings also showed that educational level and length of experience in automated accounting are correlated with the satisfaction of accountants towards automated accounting. It presented that the more experience in automation and higher education accountants have, the more satisfied they are with automated accounting. Due to this phenomenon, higher qualifications and more basic IT knowledge are required in comparison with previous times.
Wie können sich Unternehmen erfolgreich im Social-Media-Umfeld ihrer Kunden platzieren? Mit dieser Fragestellung beschäftigt sich die vorliegende Forschungsarbeit. Die sozialen Netzwerke bieten viele Möglichkeiten, um potenzielle und bestehende Kunden zu erreichen, bringen aber gleichzeitig verschiedene Herausforderungen mit sich. Der Fokus dieser Arbeit liegt auf der Plattform Instagram. Dabei wird der Nutzer fokussiert, denn der Trend im Marketing geht zur Customer Centricity.
Maßnahmen, die Nutzer zum Abonnieren animieren, können nicht eindeutig benannt werden. Sie sind individuell vom Nutzer, aber auch vom Unternehmen und den jeweiligen Inhalten abhängig. Die Probanden der Umfragenstichprobe verhalten sich nach eigener Angabe beim Konsum, der Interaktion und dem Abonnieren zurückhaltend. Lediglich 8,94 Prozent gaben an, sich regelmäßig Profile von Unternehmen anzuschauen. Noch seltener als der Konsum findet die Interaktion mit Unternehmensinhalten statt. Die Hürde zur Interaktion und dem Abonnieren ist scheinbar hoch. Die Ergebnisse zeigen, dass es keine signifikanten Unterschiede im Nutzungsverhalten zwischen den Geschlechtern, den Beschäftigungsarten oder dem Budget gibt. Das lässt darauf schließen, dass das Handeln individuell und von anderen Faktoren abhängig ist. Jedoch bestätigt dies auch, dass der Trend des Content Marketings und der Customer Centricity weiterhin eine wichtige Rolle spielen. Der Nutzer möchte individuell angesprochen werden. Dabei sollen die Inhalte sinnvoll und inspirierend sein sowie nicht werblich wirken. Es bleibt die größte Herausforderung für Unternehmen in das private Umfeld der Nutzer auf Instagram einzutreten, ohne als „störend“ empfunden zu werden. Aus diesen Gründen ist eine weitere Forschung im Bereich „Unternehmen auf Instagram“ nötig. Die Schattenseite dieses Themenbereichs ist die Schnelllebigkeit und die fehlende Transparenz, beispielsweise zum Instagram-Algorithmus. Die vorliegende Forschung dient lediglich einer ersten Einschätzung des Themas, die ein möglichst breites Bild der Wahrnehmung von Unternehmen auf Instagram sowie vom Beispiel-Unternehmen Deinzigartig abbilden soll.
This research presents a comprehensive exploration of hydroponic systems and their practical applications, with a focus on innovative solutions for managing environmental and analytical sensors in hydroponic setups. Hydroponic systems, which enable soilless cultivation, have gained increasing importance in modern agriculture due to their resource-efficient and high-yield nature.
The study delves into the development and deployment of the SensVert system, an adaptable solution tailored for hydroponic environments. SensVert offers adaptability and accessibility to farmers across various agricultural domains, addressing contemporary challenges in supervising and managing environmental and analytical sensors within hydroponic setups. Leveraging LoRa technology for seamless wireless data transmission, SensVert empowers users with a feature-rich dashboard for real-time monitoring and control. The study showcases the practical implementation of SensVert through a single sensor node, seamlessly integrating temperature, humidity, pressure, light, and pH sensors. The system automates pH regulation, employing the Henderson-Hasselbalch equation, and precisely controls liquid dosing using a PID controller. At the core of SensVert lies an architecture comprising The Things Stack as the network server, Node-Red as the application server, and Grafana as the user interface. These components synergize within a local network hosted on a Raspberry Pi; effectively mitigating challenges associated with data packet transmission in areas with limited internet connectivity.
As part of ongoing research, this work also paves the way for future advancements. These include the establishment of a wireless sensor network (WSN) utilizing LoRa technology, enabling seamless over-the-air sensor node updates for maintenance or replacement scenarios. These enhancements promise to further elevate the system's reliability and functionality within hydroponic cultivation, fostering sustainable agricultural practices.
Bei dem deutsch-französischen Kulturkanal ARTE ist die Corporate Social Responsibility (CSR, dt. gesellschaftliche Verantwortung von Unternehmen) ein wichtiger Aspekt ihrer Unternehmensstrategie. Soziale und ökologische Belange sollen in den Unternehmensstrukturen und -tätigkeiten sowie in der Herstellung ihres Programms verbessert werden. Diese CSR-Strategie verfolgt ARTE in einem inkrementellen Prozess, welcher in dieser Arbeit einem organisatorischen Wandel 1. Ordnung (evolutionär, gradual change) zugeordnet wird. Von den Maßnahmen und Veränderungen, welche in der CSR bei ARTE verfolgt werden, sind auch die ARTE-Mitarbeitenden betroffen. Ein organisatorischer Wandel bedeutet nicht nur eine Veränderung auf der Sachebene, er wirkt sich auch auf die psychologische Ebene der betroffenen Mitarbeitenden aus und verlangt Veränderungen in ihren Gewohnheiten. Daher setzen Unternehmen zunehmend auf die Veränderungsbegleitung (Change Management), welche darauf abzielt, eine Veränderung aktiv zu steuern und zu beeinflussen. Eine spezifische Form des Change Managements, die Organisationsentwicklung, hat zum Ziel, bei der Veränderung die Betroffenen zu Beteiligten zu machen. Ein zentraler Aspekt der Organisationsentwicklung bildet daher die Mitarbeitendenbeteiligung (oder Partizipation).
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie die Mitarbeitendenbeteiligung im CSR-Wandel von ARTE erfolgreich eingesetzt werden kann. Im Rahmen eines Praktikums im CSR-Bereich bei ARTE, konnte der Autor durch Beobachtungen, Mitarbeit und Dokumentenanalysen diesen Fragen nachgehen und die Ergebnisse durch fünf qualitative Expert:inneninterviews mit Personen aus dem Top-Management, dem CSR-Bereich und der Herstellungsleitung bei ARTE ergänzen und bekräftigen. Es zeigt sich, dass verschiedene Voraussetzungen erfüllt werden müssen, um eine Partizipation zielführend einsetzen zu können. Zudem kann die Mitarbeitendenbeteiligung in Form von Lösungserarbeitung und/oder in Form der Kommunikation eingesetzt werden. Die Mitarbeitendenbeteiligung wurde bei ARTE im CSR-Bereich bereits punktuell angewendet und es gibt Bestrebungen, künftig in der CSR noch stärker einen partizipativen Ansatz zu verfolgen. Für künftige Anwendungen der Mitarbeitendenbeteiligung im CSR-Wandel bei ARTE werden eine Reihe an Empfehlungen aufgestellt.
The current thesis conducts the study on the integration of digitalization techniques aimed at improving energy supply efficiency in off-grid energy systems. The primary objective is to fortify the security of energy supply in remote areas, particularly in instances of adverse weather conditions, unanticipated changes in load and fluctuations in the performance of renewable energy systems. This objective is to be achieved through the implementation of a smart load management strategy in stand-alone photovoltaic systems (SAPVS). This strategy involves deployment of forecasting algorithms on an edge device that operates with limited processing resources in an environment characterized for the lack of internet connection. The edge device is designed to interact with a smart home gateway that prioritizes, and schedules smart appliances based on the forecasted state of charge (SOC) in the 36-hours ahead of the SAPVS operation (the implementation of the loads schedule deployed on the Home Assistant device is out of the scope of the tasks implemented for this project).
The edge device, developed using a Raspberry Pi 3B+, was specifically intended for being implemented along with a SAPVS, in remote areas such as health stations in Africa and tropical islands, providing communities with a reliable source of electrical energy. The deployment of the strategy was carried out in four phases. The first phase involved the implementation of an Extraction-Transformation-Load (ETL) pipeline, where data was gathered from various heterogeneous hardware sources of an implemented test system that served as the enabler and testbench of this research, this test stand is composed of power electronics components such as an inverter, a MPPT solar charge controller, a smart meter, and a BOS LiFePo4 battery prototype. In the transformation stage, a data model was developed to identify the most critical parameters of the energy system, and to eliminate outliers and null values. In the load stage, a local SQL database was established for saving and structuring the data gathered and to ensure high-quality data with defined units and casting.
The second phase involved data analysis to identify the relevant features and potential exogenous variables for the forecasting model to implement. In the third phase, an Auto Regressive Moving Average (ARMA) model with two selected exogenous variables was implemented to forecast the AC load consumption profile for the 36- hours ahead of the off-grid system operation. The final phase involved the information exchange with the Home Assistant device, by transferring to it from the edge device the battery SOC present value and the predicted 36-hour ahead AC load profile information for prioritization and scheduling of loads; this through an MQTT interface.
The outcome of the experiment was a successful deployment of a data engineering and data forecasting approach that enabled data quality strategy implementation, local database storage, and forecasting algorithms on a processing and internet-constrained edge device. The interface with a home assistant implementation resulted in the successful execution of smart load management endeavors in an off-grid system, thereby enhancing the energy security of supply and contributing to the advancement of data-driven strategies in the rural electrification sector.
This thesis emphasizes the significance of digitalization strategies in smart SAPVS and highlights the potential of edge computing solutions in achieving seamless energy management in smart homes.
Videokonferenzen, überregionale Teamarbeit und ständig mögliche Kommunikation: Durch den in den letzten Jahrzehnten vorangetriebenen technischen Fortschritt sind die Möglichkeiten, global vernetzt zu arbeiten immer weiter gestiegen. Auch die Digitalisierung von Organisationen und die globale Wirtschaft erfordern durch den damit einhergehenden Wandel an Wettbewerb eine verstärkte und sogar notwendige Auseinandersetzung mit virtuellen Unternehmens- und Arbeitsstrukturen. So ergibt sich die Notwendigkeit, virtuelle Teambildung und die damit verbundenen Strukturen zu beleuchten. Ziel dieser Arbeit ist es, ein Modell zur virtuellen Teamentwicklung zu erarbeiten, das als Planungsrahmen für digitale Führungskräfte dienen soll.
Diese Thesis befasst sich mit der Konzeption, Kommunikation und Umsetzung eines eigens ins Leben gerufenen Non-Profit Projekts namens green&easy. Der Name verdeutlicht den Ursprungsgedanken, aus dessen Überzeugung die Idee entstand: „green“ steht für einen nachhaltigen Lifestyle und „easy“ für den Gedanken, dass Umweltschutz nicht kompliziert oder belastend sein muss. Das Projekt ist der Versuch Umweltschutz mal anders anzugehen. Statt sich auf die Politik und wissenschaftliche Durchbrüche zu verlassen, setzt green&easy mit einem Buttom-Up-Ansatz bei den kleinen alltäglichen Handlungen an. Umweltschutz einfach und attraktiv zu machen, um den Einzelnen zum Handeln zu ermuti-gen – das ist das Ziel von green&easy.
Das Ziel der Arbeit ist zu erforschen, ob die Erstellung eines Digital Twin des Hamburger Hafens durch Open Source Lösungen realisierbar ist. Die Grundlagen führen in die Themen Digital Twin und Smart City ein. Es wird darauf eingegangen, welche Vorteile durch die Verwendung eines Digital Twins gewonnen werden können und wie sich die verschiedenen Digital Twin-Typen unterscheiden. Es werden verschiedene Architekturen anhand eines Smart City Index weltweit evaluiert, um ein geeignetes Digital Twin-Framework zu finden. FIWARE hat sich als geeignetes Frame- work erwiesen und wird im Anschluss analysiert. Anhand der Evaluierung wird ebenfalls das 3D-Visualisierungs Framework CesiumJS als Open Source Lösung ermit- telt. Das Unternehmen Hamburg Port Authority wird vorgestellt und die interne IT- Infrastruktur betrachtet. Anhand der Architekturdokumentation arc42 werden die Anforderungen und die erforderliche Architektur in Zusammenarbeit mit der Hamburg Port Authority ermittelt. Im Anschluss wird der Architekturentwurf anhand eines Prototyps implementiert. Probleme oder Anforderungen, die nicht erfüllt werden können, werden beschrieben. Abschließend werden die Ergebnisse und das Fazit der Hamburg Port Authority zusammengefasst.
Vergleichende Untersuchung von „Platform as a Service“-Angeboten für das „Internet of Things“
(2016)
Im Rahmen der Master Thesis werden eine Auswahl von Platform as a Service-Angeboten für das Internet of Things untersucht und miteinander verglichen. Auf Grundlage der Untersuchung erfolgt die Implementierung einer IoT-Anwendung für drei der Plattformen. Durch die theoretische Einleitung in die Themen Platform as a Service und Internet of Things, sowie die für das IoT typischen Verbindungsprotokolle HTTP und MQTT wird ein grundlegendes Verständnis für das Sachgebiet vermittelt.
Nach den erklärenden Definitionen folgt die Untersuchung der PaaS-Angebote. Hier werden zunächst die Untersuchungskriterien vorgestellt und erklärt, nach denen die einzelnen Plattformen untersucht werden. Diese umfassen die quantitativen Kriterien Verbreitung, Preis, Verbindungsrate, Datenmenge und Schnittstellen, sowie die qualitativen Kriterien API, Visualisierung, Weiterverarbeitung, Dokumentation, Usability und Sicherheit. Danach erfolgt die detailierte Untersuchung der Plattformen nach den festgelegten Kriterien. Untersucht wurden hierbei die Plattformen ThingSpeak, data.sparkfun.com, RunAbove IoT Lab, flowthings.io, Carriots, Ubidots, GroveStreams, Exosite, Beebotte, MODE, Initial State, Temboo, Oracle Cloud, IBM Watson Internet of Things, Azure IoT Hub, AWS IoT und Google Pub/Sub.
Im Anschluss an die Untersuchung werden die Ergebnisse gegliedert nach den Untersuchungskriterien miteinander verglichen und abschließend ausgewertet. Das Ergebnis der Plattformuntersuchung bietet die Grundlage für die Implementierung einer Internet of Things Anwendung.
Für die Anwendung werden zunächst die Anforderungen beschrieben, welche die eines realitätsnahen Nutzungsfall nachbilden sollen. Das Konzept und die Funktionsweise stellt das Zusammenspiel der einzelnen Komponenten dar. Die Anwendung soll hierbei die Funktionalität eines Infoterminals nachstellen, welches über NFC Informationen an mobile Endgeräte bereitstellt. Dieses sendet die Anzahl der Zugriffe an das PaaS-Angebot, welches wiederum als Schnittstelle zu Twitter und einer externen Webanwendung dient. Über die Webanwendung kann die Nachricht des Infoterminals aktualisiert werden. Im Folgenden werden die zum Einsatz kommende Hardware und Software beschrieben. Es handelt sich hierbei um einem Arduino Uno Rev3, welcher über ein Adafruit CC3000 Wifi Shield und ein Seeed Studio NFC Shield V2.0 die benötigten Schnittstellen zur Verfügung stellt.
Anschließend erfolgt die Auswahl der drei für die Implementierung verwendeten Plattformen anhand der zuvor durchgeführten Untersuchung. Hierbei wurden als Vertreter verschiedener Benutzergruppen ThingSpeak, Flowthings.io und IBM Watson Internet of Things gewählt.
Im Anschluss an die Plattformauswahl wird die konkrete Umsetzung beschrieben. Zuerst erfolgt der Aufbau und die Programmierung der Grundfunktionalitäten zur Datenübertragung des Arduinos. Danach wird im Detail auf den allgemeinen Teil der Webanwendung eingegangen, welche mit HTML, CSS und jQuery realisiert wurde. Danach erfolgt die Beschreibung der plattformspezifischen Umsetzung der jeweiligen Kommunikation zwischen Arduino und Plattform, sowie der Webanwendung. Hierbei belaufen sich die Unterschiede hauptsächlich auf die verschiedene Implementierung der Authentifizierung, sowie den verwendeten Übertragungsprotokollen HTTP und MQTT.
Nach der Implementierung wird diese ausgewertet um die konkreten Herausforderungen, sowie Vor- und Nachteile der Plattformen, der verwendeten Hardware und Protokolle herauszustellen.
Im letzten Kapitel wird die Arbeit zusammengefasst und abschließend anhand aller gesammelten Erkenntnisse bewertet.
In der Dokumentation dieser Masterthesis wird die Produktion eines zweidimensionalen Platformer-Spiels beschrieben, in dem mit mehreren Fähigkeiten und dem Lösen von diversen Rätseln verschiedene Level durchquert werden können. Zudem wird in dieser Dokumentation anhand einer Tabelle alle möglichen Eingaben zur Tastatur- und Controller-Steuerung gezeigt. Des weiteren wird das gestalterische Konzept dargestellt. Dazu gehört die Beschreibung der Synopsis der in dem Spiel erzählten Geschichte, das Darstellen des Designs der vorkommenden Charaktere und das Beschreiben des Aufbaus und der gestalterischen Intention der verschiedenen Level. Der Fokus in dieser Dokumentation liegt im detaillierten Beschreiben der in dem Spiel vorkommenden Elemente und wie diese in der gewählten Spiele-Engine Godot implementiert wurden. Dazu zählen wie der Spieler-Charakter aufgebaut ist und wie dieser mit den einzelnen Objekten oder anderen Charakteren im Spiel interagieren kann. Zudem wird die Implementierung eines umfangreichen Dialog-Systems mit seinen Bausteinen beschrieben. Des weiteren werden alle weiteren wichtigen Elemente, die das Spiel spielbar machen, erklärt.
An organized strategy to ensure the security of an organization is an information security management system. During various security crises, hazards, and breaches, this strategy aids an organization in maintaining the confidentiality, integrity, and accessibility of information. Organizations are getting ready to comply with information security management system criteria. Despite this, security concerns continue to plague ineffective controls, have poor connectivity, or cause a silo effect, which is a common cause. One of the causes is a low maturity model that is not synchronized with the organization’s business processes. For a higher level of maturity, it is best to evaluate the practices.
Different maturity models on information security and cyber security capacity, management processes, security controls, implementation level, and many more have already been developed by numerous international organizations, experts, and scholars. The present models, however, do not assess a particular organization's particular practices. The evaluation of the business process is frequently neglected because measurement requirements for models are typically more concentrated on examining specific elements. For this reason, it caused the maturity assessment to not be executed explicitly and broadly.
We developed an organizational information security maturity model, a combination of work of different maturity models currently existing. While making this model, we considered that any size or type of organization could use this model. The model considers the success elements of the information security management system when assessing the implementation's effectiveness. We employed a mixed-method strategy that included both qualitative and quantitative research. With the help of a questionnaire survey, we evaluated the previous research using a qualitative methodology. In the quantitative method, we'll figure out how mature the information security management system is now. The proposed model could be used to reduce security incidents by improving implementation gaps.
Die Grundlage meiner Masterarbeit ist die Musikvideoproduktion „Honey“ in Zusammenarbeit mit der Band Sebamana. Der vorliegende theoretische Teil der Arbeit ergänzt die Musikvideoproduktion auf wissenschaftlicher Ebene. Er soll die einzelnen Schritte einer Filmproduktion aufzeigen, vom Drehbuch bis zur Verwertung, und auf die Arbeits- und Rollenverteilung im Team eingehen.
Die verschiedenen Rollen innerhalb eines Projektes werden mit ihren jeweiligen Aufgabenbereichen vorgestellt. Dabei machen sich auch Unterschiede zwischen kleinen und großen Produktionen bemerkbar und ihre Vor- und Nachteile werden deutlich. Kommunikation und Transparenz zwischen den Departments ist die Voraussetzung für eine gute Zusammenarbeit im Team.
Sowohl die allgemeinen Erfolgsfaktoren von Start-ups als auch die Erfolgsfaktoren durch die Beteiligung eines Medienunternehmens werden in dieser Arbeit näher beleuchtet und einander gegenübergestellt. Im Fokus steht insbesondere die Frage, wie ein Medienunternehmen zu einer Wertsteigerung beitragen kann, damit das Start-up erfolgreicher ist, als es ohne die Beteiligung wäre.
Die vorliegende Arbeit befasst sich mit dem Thema Influencer in der Gaming-Branche. Dabei wird untersucht, wie wichtig Influencer auch für Gamer und ihr Kaufverhalten, sowie für Gaming-Unternehmen und die Platzierung von Influencern in der Mediaplanung sind. Die Fragestellung wird aufgrund einer Online-Befragung mit Gamern, leitfadengestützten Interviews mit Influencern und Literaturrecherchen diskutiert.
Die Ergebnisse der Arbeit zeigen, dass Influencer auch in der Gaming-Branche einen sehr hohen Stellenwert einnehmen. Die Umfrage hat ergeben, dass Let's Player, Live Streamer und YouTuber einen großen, auch aktiven Einfluss auf die Kaufentscheidung besitzen. Besonders interessant sind in diesem Zusammenhang die rechtlichen Bestimmungen, die sehr viele Vorgaben für Influencer mit sich bringen, sowie die unbewusst und bewusst beeinflussenden Aspekte im Kaufentscheidungsprozess. Vor diesem Hintergrund werden in einer SWOT-Analyse einige Strategien entwickelt um beispielsweise rechtlichen Problemen entgegen zu wirken und die Stärken der Gaming-Influencer, wie beispielsweise hohe Reichweite, hohes Vertrauen und zielgruppengenaue Platzierung der Inhalte zu gewährleisten.