Refine
Year of publication
Document Type
- Master's Thesis (200) (remove)
Has Fulltext
- yes (200)
Is part of the Bibliography
- no (200)
Keywords
- IT-Sicherheit (8)
- E-Learning (7)
- Deep learning (6)
- Maschinelles Lernen (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Computersicherheit (4)
- Internet of Things (4)
- JavaScript (4)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (51)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (37)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (33)
- Fakultät Wirtschaft (W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- INES - Institut für nachhaltige Energiesysteme (4)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (4)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (68)
- Open Access (31)
- Diamond (5)
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
Die akustischen Emissionen von Wasserinstallationsgeräten, insbesondere während der nächtlichen Ruhezeit in angrenzenden Räumen, können erhebliche Störungen verursachen. Die primäre Ursache dieser Belästigungen liegt in der spezifischen Funktionsweise von Wasserarmaturen, welche somit als Hauptquelle der Lärmemissionen identifiziert werden können. Hydrodynamische und -akustische Simulationen erweisen sich in diesem Zusammenhang als wertvolle Werkzeuge zur Identifikation von kritischen Bereichen, welche für die Schallabstrahlung verantwortlich sind.
In dieser vorliegenden Arbeit werden die hydrodynamischen und -akustischen Eigenschaften eines Installationsgeräuschnormals mithilfe numerischer Methoden untersucht, wobei gleichzeitig ein kommerzielles Berechnungswerkzeug zur Vorhersage von akustischen Schallfeldern in Bezug auf ein hybrides Verfahren evaluiert und validiert wird. Das Installationsgeräuschnormal dient dabei als Testfall, um die Leistungsfähigkeit des hybriden Akustikmodells in Verbindung mit einem RANS- sowie RANS/LES-Ansatz zu überprüfen. Es werden verschiedene Varianten des Installationsgeräuschnormals untersucht und mit experimentellen Messdaten validiert.
Die hydrodynamischen Simulationsergebnisse der verschiedenen Varianten zeigen eine hervorragende Übereinstimmung mit den experimentellen Daten bei der Verwendung eines RANS/LES-Ansatzes. Der Einsatz eines solchen Hybrid-Modells zur Turbulenzmodellierung hat gezeigt, dass eine verbesserte Wiedergabe von zeitabhängigen Phänomenen in der Strömung erreicht werden kann, welche in direktem Zusammenhang mit der Vorhersage der Schallausbreitung stehen und somit eine bedeutende Auswirkung darauf haben.
Die akustische Untersuchung der verschiedenen Varianten des Installationsgeräuschnormals zeigt, dass die Schallabstrahlung ausschließlich in breitbandigen Frequenzspektren erfolgt. Im Rahmen des Vergleichs mit den Messdaten lässt sich erkennen, dass eine akustische Analyse auf Basis eines hybriden Modells in Verbindung mit dem Akustikmodell vielversprechende Ergebnisse bezüglich der Vorhersage des Schallfelds liefern kann und dabei im Vergleich zu einfachen RANS-Modellen Vorteile aufweist.
As cyber threats continue to evolve, it is becoming increasingly important for organizations to have a Security Operations Center (SOC) in place to effectively defend against them. However, building and maintaining a SOC can be a daunting task without clear guidelines, policies, and procedures in place. Additionally, most current SOC solutions used by organizations are outdated, lack key features and integrations, and are expensive to maintain and upgrade. Moreover, proprietary solutions can lead to vendor lock-in, making it difficult to switch to a different solution in the future.
To address these challenges, this thesis proposes a comprehensive SOC framework and an open-source SOC solution that provides organizations with a flexible and cost-effective way to defend against modern cyber threats. The research methodology involved conducting a thorough literature review of existing literature and research on building and maintaining a SOC, including using SOC as a service. The data collected from the literature review was analyzed to identify common themes, challenges, and best practices for building and maintaining a SOC.
Based on the data collected, a comprehensive framework for building and maintaining a SOC was developed. The framework addresses essential areas such as the scope and purpose of the SOC, governance and leadership, staffing and skills, technologies and tools, processes and procedures, service level agreements (SLAs), and evaluation and measurement. This framework provides organizations with the necessary guidance and resources to establish and effectively operate a SOC, as well as a reference for evaluating the service provided by SOC service providers.
In addition to the SOC framework, a modern open-source SOC solution was developed, which emphasizes several key measures to help organizations defend against modern cyber threats. These measures include real-time, actionable threat intelligence, rapid and effective incident response, continuous security monitoring and alerting, automation, integration, and customization. The use of open-source technologies and a modular architecture makes the solution cost-effective, allowing organizations to scale it up or down as needed.
Overall, the proposed SOC framework and open-source SOC solution provide organizations with a comprehensive and systematic approach for building and maintaining a SOC that is aligned with the needs and objectives of the organization. The open-source SOC solution provides a flexible and cost-effective way to defend against modern cyber threats, helping organizations to effectively operate their SOC and reduce their risk of security incidents and breaches.
Cloud computing has revolutionized the way businesses operate by providing them with access to scalable, cost-effective, and flexible IT resources. This technology has enabled businesses to store, manage, and process data more efficiently, leading to improved competitiveness and increased revenue. The purpose of this thesis is to explore the impacts of using cloud computing from a business perspective. The research employs both primary and secondary sources of data, including a literature review, interviews with employees who have more than 5 years of experience, a questionnaire, and observations from Billwerk+ company.
The findings of this research indicate that cloud computing has had a significant impact on businesses, providing them with cost savings, improved agility and flexibility, and enhanced access to data and applications. However, it has been revealed that the benefits of cloud computing for companies may vary according to the departments of the employees. The results of this research contribute to the existing body of knowledge on the topic of cloud computing and its impact on businesses. The findings of this thesis can be used by business owners, managers, technology professionals, and students to make informed decisions about the adoption and use of cloud computing technology.
In conclusion, this thesis provides a comprehensive understanding of the impacts of using cloud computing from a business perspective, highlighting the factors that companies consider when deciding to use cloud environments and the views from different departments. The results of this research will be valuable to a wide range of individuals interested in exploring the implications of cloud computing for businesses.
Wie können sich Unternehmen erfolgreich im Social-Media-Umfeld ihrer Kunden platzieren? Mit dieser Fragestellung beschäftigt sich die vorliegende Forschungsarbeit. Die sozialen Netzwerke bieten viele Möglichkeiten, um potenzielle und bestehende Kunden zu erreichen, bringen aber gleichzeitig verschiedene Herausforderungen mit sich. Der Fokus dieser Arbeit liegt auf der Plattform Instagram. Dabei wird der Nutzer fokussiert, denn der Trend im Marketing geht zur Customer Centricity.
Maßnahmen, die Nutzer zum Abonnieren animieren, können nicht eindeutig benannt werden. Sie sind individuell vom Nutzer, aber auch vom Unternehmen und den jeweiligen Inhalten abhängig. Die Probanden der Umfragenstichprobe verhalten sich nach eigener Angabe beim Konsum, der Interaktion und dem Abonnieren zurückhaltend. Lediglich 8,94 Prozent gaben an, sich regelmäßig Profile von Unternehmen anzuschauen. Noch seltener als der Konsum findet die Interaktion mit Unternehmensinhalten statt. Die Hürde zur Interaktion und dem Abonnieren ist scheinbar hoch. Die Ergebnisse zeigen, dass es keine signifikanten Unterschiede im Nutzungsverhalten zwischen den Geschlechtern, den Beschäftigungsarten oder dem Budget gibt. Das lässt darauf schließen, dass das Handeln individuell und von anderen Faktoren abhängig ist. Jedoch bestätigt dies auch, dass der Trend des Content Marketings und der Customer Centricity weiterhin eine wichtige Rolle spielen. Der Nutzer möchte individuell angesprochen werden. Dabei sollen die Inhalte sinnvoll und inspirierend sein sowie nicht werblich wirken. Es bleibt die größte Herausforderung für Unternehmen in das private Umfeld der Nutzer auf Instagram einzutreten, ohne als „störend“ empfunden zu werden. Aus diesen Gründen ist eine weitere Forschung im Bereich „Unternehmen auf Instagram“ nötig. Die Schattenseite dieses Themenbereichs ist die Schnelllebigkeit und die fehlende Transparenz, beispielsweise zum Instagram-Algorithmus. Die vorliegende Forschung dient lediglich einer ersten Einschätzung des Themas, die ein möglichst breites Bild der Wahrnehmung von Unternehmen auf Instagram sowie vom Beispiel-Unternehmen Deinzigartig abbilden soll.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
The goal of this thesis is to thoroughly investigate the concepts of stand-alone and decarbonization of optical fiber networks. Because of their dependability, fast speed, and capacity, optical fiber networks are vital inmodern telecommunications. Their considerable energy consumption and carbon emissions, on the other hand, constitute a danger to global sustainability objectives and must be addressed.
The first section of the thesis presents a summary of the current state of optical fiber networks, their
components, and the energy consumption connected with them. This part also goes over the difficulties of lowering energy usage and carbon emissions while preserving network performance and dependability.
The second section of the thesis focuses on the stand-alone idea, which entails powering the optical fiber network with renewable energy sources and energy-efficient technology. This section investigates and explores the possibilities of renewable energy sources like solar and wind power to power the network. It also investigates energy-efficient technologies like virtualization and cloud computing, as well as their potential to minimize network energy usage.
The third section of the thesis focuses on the notion of decarbonization, which entails lowering carbon emissions linked with the optical fiber network. This section looks at various carbon-reduction measures, such as employing low-carbon energy sources and improving energy efficiency. It also covers the relevance of carbon offsets and the difficulties associated with adopting decarbonization measures in the context of optical fiber networks.
The fourth section of the thesis compares the ideas of stand-alone and decarbonization. It investigates the advantages and disadvantages of each strategy, as well as their potential to minimize energy consumption and carbon emissions in optical fiber networks. It also explores the difficulties in applying these notions as well as potential hurdles to their wider adoption.
Finally, the need of addressing the energy consumption and carbon emissions connected with optical fiber networks is emphasized in this thesis.
It outlines important obstacles and potential impediments to adopting these initiatives and gives insights into potential ways for decreasing them.
It also makes suggestions for further study in this area.
Mit der Corona-Krise ist die digitale Bildung sehr stark in den Vordergrund gerückt. damit einhergehend wurde verstärkt E-Learning eingesetzt. Meistens wurde allerdings das volle Potenzial von E-Learning Plattformen nicht genutzt. Häufig wurden solche Systeme als Dateiablagen, Wissensdatenbanken oder nur für die Kollaboration Fähigkeiten benutzt. Aber darüber hinaus besitzen E-Learning Plattformen die Fähigkeit, eine Learning-Experience für die Lernenden zu erzeugen.
Diese Thesis beschäftigt sich mit KI-basierten Empfehlungssystemen im E-Learning Bereich. Dabei werden wissenschaftliche Arbeiten anhand der Methodik analysiert, welche Programmiersprachen, Algorithmen und Bibliotheken verwendet werden. Abhängig davon werden verschiedene prototypische Empfehlungsprogramme erstellt, wobei verschiedene Algorithmen ausprobiert werden. Diese Algorithmen werden bereinigte Tabellendateien verarbeiten, welche zuvor aus Moodle generiert werden. Dadurch sollen dann konkrete Empfehlungen erzeugt werden, die anschließend evaluiert und bewertet werden. Anschließend wird ein Fazit gezogen, worauf unter anderem auf die Probleme der verschiedenen Algorithmen hingewiesen wird und in welcher Hinsicht man das Empfehlungssystem verbessern könnte.
Diese Arbeit beschäftigt sich mit der Einführung von Digital Asset Management Systemen in einem Unternehmen. Ein Digital Asset Management dient der Verwaltung von digitalen Dateien von besonderer Bedeutung, sogenannte digitale Assets. Meist handelt es sich dabei um Bilder, aber auch Videos, Textdokumente und viele andere Dateitypen können in einem solchen System verwaltet werden. Unternehmen verfolgen dabei in der Regel das Ziel, einen zentralen Speicherort für alle relevanten Assets zu schaffen, um von dort aus die Verteilung steuern und die Dateien aktuell halten zu können. Systeme dieser Art werden beispielsweise in Marketingabteilungen eingesetzt, um Markeninhalte zentral verwalten und verteilen zu können. Die Einführung eines solchen Systems erfordert aufgrund der damit verbundenen Komplexität ein strukturiertes Vorgehen. Hierzu wird in dieser Arbeit ein mehr phasiges Vorgehen vorgeschlagen, das zu einer erfolgreichen Einführung eines Digital Asset Management Systems führt. Darüber hinaus werden auf Basis dieses Phasenansatzes Erfolgsfaktoren identifiziert und vorgestellt, auf die bei der Einführung besonders zu achten ist. Die Fallstudie einer tatsächlichen Einführung aus der Praxis beleuchtet die theoretisch erarbeiteten Erkenntnisse nochmals aus praktischer Sicht und erlaubt Rückschlüsse auf das vorgestellte theoretische Vorgehen.
Licht war für die Menschheit schon immer ein Hilfsmittel zur Orientierung. Das Zusammenspiel zwischen hellen und schattierten Oberflächen macht eine räumliche Wahrnehmung erst möglich. Die Lokalisierung von Lichtquellen bietet darüber hinaus für zahlreiche Anwendungsfelder, wie beispielsweise Augmented Reality, ein großes Potential.
Das Ziel der vorliegenden Arbeit war es, ein neuronales Netzwerk zu entwickeln, welches mit Hilfe eines selbst generierten, synthetischen Datensatzes eine Lichtsetzung parametrisiert. Dafür wurden State-of-the-Art Netzwerke aus der digitalen Bildverarbeitung eingesetzt.
Zu Beginn der Arbeit mussten die Eigenschaften der Lichtsetzung extrahiert werden. Eine weitere fundamentale Anforderung war die Aufbereitung des Wissens von Deep Learning.
Für die Generierung des synthetischen Datensatzes wurde eigens ein Framework entwickelt, welches auf der Blender Engine basiert.
Anschließend wurden die generierten Bilder und Metadaten in einem abgewandelten VGG16- und ResNet50-Netz trainiert, validiert und evaluiert.
Eine gewonnene Erkenntnis ist, dass sich künstlich generierte Daten eignen um ein neuronales Netz zu trainieren. Des Weiteren konnte gezeigt werden, dass sich mit Hilfe von Deep Learning Lichtsetzungsparameter extrahieren lassen.
Eine weiterführende Forschungsaufgabe könnte mit dem vorgeschlagenen Ansatzdie Lichtinszenierung von Augmented Reality Anwendungen verbessern.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
Das Thema dieser Masterthesis lautet „Camera Stream Solution – Marktübersicht, Lösungsansätze, Prototyp“. Mit dieser Arbeit wird eine Videostreaming-Lösung für die Herrenknecht-Plattform CONNECTED realisiert. Dabei geht es um die Bildschirmaufnahme von Navigations- und Steuerungsbildschirmen auf Tunnelbohrmaschinen und die Übertragung dieser Aufnahmen in die Cloud. Letztlich wird ermöglicht die Aufnahmen in nahezu Echtzeit als Videostream in einem Videoplayer wiederzugeben.
Zu Beginn werden die Grundlagen zur Datenübertragung im Internet sowie zum Streaming erläutert. Im Anschluss wird eine Marktübersicht verschiedener Streaming-Komponenten gegeben sowie einige Lösungsansätze vorgestellt und anhand ausgewählter Kriterien verglichen. Im nächsten Schritt wird die Implementierung eines Prototyps behandelt. Dieser nutzt unter anderem ffmpeg für die Bildschirmaufnahme und die Kodierung sowie die Streaming-Protokolle RTMP (Real Time Messaging Protocol) und HLS (HTTP Live Streaming). Zur Realisierung der Architektur gehört auch die Entwicklung einer REST-API und eines REST-Clients in C#.
Mit dem Projekt wird eine „echte“ Streaming-Lösung für die Kundenplattform CONNECTED entwickelt, die einen Videostream mit 24 Bildern pro Sekunde bietet, um die bisherige Darstellung von Screenshots auf der Plattform zu ersetzen.
Diese Arbeit beschäftigt sich mit der simulativen Untersuchung von Strömung und Wärmeübergang im Kontext von Vorkammerzündsystemen. Dies geschieht im Rahmen der Entwicklung eines Gasmotors mit gasgespülter Vorkammer. Entscheidene Größen für die Strömung und Arbeitsweise in einer Vorkammerzündkerze sind die Geometrie und Anordnung der Überströmbohrungen, das Vorkammervolumen und die Form der Vorkammer. Die Betrachtung wird dafür aufgeteilt in die Themen Spaltströmungen, Wärmeübergang und drallbehaftete Strömungen. Diese werden zunächst isoliert betrachtet und letztendlich in einem Anwendungsfall zusammengeführt. Für die Betrachtung von Spaltströmungen werden unterschiedliche Platten mit Bohrlöchern zu verschiedenen Drücken, Durchmessern und Plattenstärken durchströmt und der Wärmeübergang und der Drall werden mithilfe einer durch Leitbleche gelenkte Strömung in einem beheizten Rohr untersucht. Die Zusammenführung der Themen wird anhand einer Anströmvorrichtung für Brenngase auf Motorzylinder durchgeführt. Dabei erreichen die Gase hohe Temperaturen und aufgrund von hohen Drücken und Spaltströmungen große Geschwindigkeiten.
Für die Simulation werden die Programme Ansys Fluent und Ansys Forte verwendet. Während ersteres primär für die Simulation von Strömungen verwendet wird, ist Forte speziell aufgebaut, um in Verbrennungsmotoren neben der Berechnung der Strömung auch die Einspritzung von Kraftstoff, die Verbrennung dessen und die resultierenden Schadstoffe zu berechnen. Da die Ergebnisse aus Forte eine große Gewichtung in der Beurteilung der Entwicklungsarbeit des Gasmotors hat, muss Forte selbst validiert werden. Dies wird durchgeführt anhand der angesprochenen Teilthemen und verglichen mit Messungen aus der Literatur und Simulationsergebnissen in Fluent.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
The rapid pace of innovation and technological advancements has led to the emergence of start-up companies in various sectors. To remain competitive and sustainable, start-ups need to make informed business decisions that can enhance their operations and profitability. Business Intelligence (BI) has become an essential tool for businesses of all sizes in managing their operations and gaining a competitive edge.
This master thesis explores the role of Business Intelligence in start-up companies. The study aims to investigate the use of BI in start-up companies, the drivers and the inhibitors for its adoption and their relationship with price. The research conducted for this thesis involves a review of relevant literature on Business Intelligence, start-up companies, and related topics. The study also includes structured survey with entrepreneurs, start-up company executives, and BI experts to gain data for a quantitative analysis of the topic.
The thesis aims to contribute to the existing body of knowledge on Business Intelligence and its role in start-up companies. The research conducted for this thesis can be of value to start-up entrepreneurs, investors, and other stakeholders who seek to improve their understanding of the benefits and challenges of implementing BI in start-up companies.
Encryption techniques allow storing and transferring of sensitive information securely by using encryption at rest and encryption in transit, respectively. However, when computation is performed on these sensitive data, the data needs to be decrypted first and encrypted again after performing the computations. During the computations, the sensitive data becomes vulnerable to attackers as it's in decrypted form. Homomorphic encryption, a special type of encryption technique that allows computation on encrypted data can be used to solve the above-mentioned problem. The best way to achieve maximum security with homomorphic encryption is to perform at least the homomorphic encryption and decryption on the client side (browser) of a web application by not trusting the server. At present time there are many libraries with different homomorphic schemes available for homomorphic encryption. However, there are very few to no JavaScript libraries available to perform homomorphic encryption on the client side of any web application. This thesis mainly focuses on the JavaScript implementation of client-side homomorphic encryption. The fully homomorphic encryption scheme BFV is selected for the implementation. After implementing the fully homomorphic encryption scheme based on the “py-fhe” library, tests are also carried out in order to determine the applicability (in terms of time consumption, security and correctness) of this implementation in a web application by comparing the performance and security for different test cases and different settings.
The effects of climate change, including severe storms, heat waves, and melting glaciers, are highlighted as an urgent concern, emphasising the need to decrease carbon emissions to restrict global warming to 1.5°C. To accomplish this goal, it is vital to substitute fossil fuel-based power plants with renewable energy sources like solar, wind, hydro, and biofuels. Despite some progress being made, the proportion of renewables used in generating electricity is still lower than the levels needed for 2030 and 2050. Decarbonising the power grid is also critical in lowering the energy consumption of buildings, which is responsible for a substantial percentage of worldwide electricity usage. Even though there has been substantial expansion in the worldwide renewable energy market in the past 15 years, the transition to renewable energy sources also requires taking into account the importance of energy trading.
Peer-to-peer (P2P) electricity trading is an emerging type of energy exchange that can revolutionise the energy sector by providing a more decentralised and efficient way of trading energy. This research deals about P2P electricity trading in a carbon-neutral scenario. 'Python for Power System Analysis' (PyPSA) was used to develop models through which the P2P effect was tested. Data for the entire state of Baden-Württemberg (BW) was collected. Three scenarios were taken into consideration while developing models: 2019 (base), 2030 (coal phase-out), and 2040(climate neutral). Alongside this, another model with no P2P trading was developed to make a comparison. In addition, the use case of community storage in a P2P trading network is also presented.
The research concludes that P2P has a significant positive effect on a pathway to achieve climate neutrality. The findings show that the share of renewables in electricity generation is increasing compared to conventional sources in BW, which can be traded to meet the demand. From the storage analysis, it can be concluded that community storage can be effectively utilised in P2P trading. While the emissions are reduced, the operating costs are also reduced when the grid has P2P trading available. By highlighting the benefits of P2P trading, this research contributed to the growing body of research on the effectiveness of P2P trading in an electricity network grid.
Risk-based Cybermaturity Assessment Model - Protecting the company against ransomware attacks
(2023)
Ransomware has become one of the most catastrophic attacks in the previous decade, hurting businesses of all sorts worldwide. So, no organization is safe, and most companies are reviewing their ransomware defensive solutions to avoid business and operational hazards. IT departments are using cybersecurity maturity assessment frameworks like CMMC, C2M2, CMMI, NIST, CIS, CPP, and others to analyze organization security capabilities. In addition to maturity assessment models for the process layer and human pillar, there are much research on the analysis, identification, and defense of cyber threats in product/software layers that propose state-of-the-art approaches.
This motivates a comprehensive ransomware cyber security solution. Then, a crucial question arises: “How companies can measure the security maturity of controls in a specific danger for example for Ransomware attack?” Several studies and frameworks addressed this subject.
Complexity of understanding the ransomware attack, Lack of comprehensive ransomware defense solutions and Lack of cybermaturity assessment model for ransomware defense solutions are different aspects of problem statement in this study. By considering the most important limitations to developing a ransomware defense cybermaturity assessment method, this study developed a cybermaturity assessment methodology and implemented a Toolkit to conduct cyber security self-assessment specifically for ransomware attack to provide a clearer vision for enterprises to analyze the security maturity of controls regardless of industry or size.
It is generally agreed that the development and deployment of an important amount of IoT devices throughout the world has revolutionized our lives in a way that we can rely on these devices to complete certain tasks that may have not been possible just years ago which also brought a new level of convenience and value to our lives.
This technology is allowing us in a smart home environment to remotely control doors, windows, and fridges, purchase online, stream music easily with the use of voice assistants such as Amazon Echo Alexa, also close a garage door from anywhere in the world to cite some examples as this technology has added value to several domains ranging from household environments, cites, industries by exchanging and transferring data between these devices and customers. Many of these devices’ sensors, collect and share information in real-time which enables us to make important business decisions.
However, these devices pose some risks and also some security and privacy challenges that need to be addressed to reach their full potential or be considered to be secure. That is why, comprehensive risk analysis techniques are essential to enhance the security posture of IoT devices as they can help evaluate the robustness and reliability towards potential susceptibility to risks, and vulnerabilities that IoT devices in a smart home setting might possess.
This approach relies on the basis of ISO/IEC 27005 methodology and risk matrix method to highlight the level of risks, impact, and likelihood that an IoT device in smart home settings can have, map the related vulnerability, threats and risks and propose the necessary mitigation strategies or countermeasures that can be taken to secure a device and therefore satisfying some security principles. Around 30 risks were identified on Amazon Echo and the related IoT system using the methodology. A detailed list of countermeasures is proposed as a result of the risk analysis. These results, in turn, can be used to elevate the security posture of the device.
Das Konzept der Thermoaktiven Bauteilsysteme (TABS) zur Heizung und Kühlung von Gebäuden gewinnt aufgrund seiner Kompatibilität mit erneuerbaren Energiequellen an Popularität. Die Steuerung von TABS und somit auch die Gewährleistung eines behaglichen Raumklimas erweist sich allerdings aufgrund der hohen Systemträgheit als komplex. Kurzfristige Witterungsänderungen sorgen für unerwünschte Raumtemperaturänderungen, die nur langsam korrigiert werden können. Bei Nichtwohngebäuden wie dem Regionalen Innovationszentrum für Energie (RIZ Energie) in Offenburg wird dieser Umstand durch die unregelmäßige Gebäudenutzung zusätzlich erschwert, da innere Wärmelasten stark variieren und nicht vorhersehbar sind.
Konventionelle TABS-Steuerungen können Störgrößen im TABS-Betrieb nur bedingt und zeitverzögert berücksichtigen, weswegen eine dauerhafte Gewährleistung des thermischen Komforts im Gebäude oft nicht erreichbar ist – dies ist auch am RIZ Energie der Fall. Als Lösung dient der Einsatz prädiktiver Steuerungsalgorithmen, die Störgrößen prognostizieren und den TABS-Betrieb dementsprechend anpassen können.
Diese Arbeit überprüft das Potenzial von intelligenten TABS-Steuerungsalgorithmen für den Einsatz am RIZ Energie anhand der Umsetzung mit einem digitalen Zwilling des Gebäudes. Dabei konnte unter Verwendung der Algorithmen und Berücksichtigung von inneren und äußeren Störgrößen im TABS-Betrieb ein verbessertes Raumklima simuliert werden. Infolgedessen konnte zudem der digitale Zwilling optimiert werden.
Bei dem deutsch-französischen Kulturkanal ARTE ist die Corporate Social Responsibility (CSR, dt. gesellschaftliche Verantwortung von Unternehmen) ein wichtiger Aspekt ihrer Unternehmensstrategie. Soziale und ökologische Belange sollen in den Unternehmensstrukturen und -tätigkeiten sowie in der Herstellung ihres Programms verbessert werden. Diese CSR-Strategie verfolgt ARTE in einem inkrementellen Prozess, welcher in dieser Arbeit einem organisatorischen Wandel 1. Ordnung (evolutionär, gradual change) zugeordnet wird. Von den Maßnahmen und Veränderungen, welche in der CSR bei ARTE verfolgt werden, sind auch die ARTE-Mitarbeitenden betroffen. Ein organisatorischer Wandel bedeutet nicht nur eine Veränderung auf der Sachebene, er wirkt sich auch auf die psychologische Ebene der betroffenen Mitarbeitenden aus und verlangt Veränderungen in ihren Gewohnheiten. Daher setzen Unternehmen zunehmend auf die Veränderungsbegleitung (Change Management), welche darauf abzielt, eine Veränderung aktiv zu steuern und zu beeinflussen. Eine spezifische Form des Change Managements, die Organisationsentwicklung, hat zum Ziel, bei der Veränderung die Betroffenen zu Beteiligten zu machen. Ein zentraler Aspekt der Organisationsentwicklung bildet daher die Mitarbeitendenbeteiligung (oder Partizipation).
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie die Mitarbeitendenbeteiligung im CSR-Wandel von ARTE erfolgreich eingesetzt werden kann. Im Rahmen eines Praktikums im CSR-Bereich bei ARTE, konnte der Autor durch Beobachtungen, Mitarbeit und Dokumentenanalysen diesen Fragen nachgehen und die Ergebnisse durch fünf qualitative Expert:inneninterviews mit Personen aus dem Top-Management, dem CSR-Bereich und der Herstellungsleitung bei ARTE ergänzen und bekräftigen. Es zeigt sich, dass verschiedene Voraussetzungen erfüllt werden müssen, um eine Partizipation zielführend einsetzen zu können. Zudem kann die Mitarbeitendenbeteiligung in Form von Lösungserarbeitung und/oder in Form der Kommunikation eingesetzt werden. Die Mitarbeitendenbeteiligung wurde bei ARTE im CSR-Bereich bereits punktuell angewendet und es gibt Bestrebungen, künftig in der CSR noch stärker einen partizipativen Ansatz zu verfolgen. Für künftige Anwendungen der Mitarbeitendenbeteiligung im CSR-Wandel bei ARTE werden eine Reihe an Empfehlungen aufgestellt.
Videokonferenzen, überregionale Teamarbeit und ständig mögliche Kommunikation: Durch den in den letzten Jahrzehnten vorangetriebenen technischen Fortschritt sind die Möglichkeiten, global vernetzt zu arbeiten immer weiter gestiegen. Auch die Digitalisierung von Organisationen und die globale Wirtschaft erfordern durch den damit einhergehenden Wandel an Wettbewerb eine verstärkte und sogar notwendige Auseinandersetzung mit virtuellen Unternehmens- und Arbeitsstrukturen. So ergibt sich die Notwendigkeit, virtuelle Teambildung und die damit verbundenen Strukturen zu beleuchten. Ziel dieser Arbeit ist es, ein Modell zur virtuellen Teamentwicklung zu erarbeiten, das als Planungsrahmen für digitale Führungskräfte dienen soll.
Decarbonisation Strategies in Energy Systems Modelling: Biochar as a Carbon Capture Technology
(2022)
The energy system is changing since some years in order to achieve the climate goals from the Paris Agreement which wants to prevent an increase of the global temperature above 2 °C. Decarbonisation of the energy system has become for governments a big challenge and different strategies are being stablished. Germany has set greenhouse gas reduction limits for different years and keeps track of the improvement made yearly. The expansion of renewable energy systems (RES) together with decarbonisation technologies are a key factor to accomplish this objective.
This research is done to analyse the effect of introducing biochar, a decarbonisation technology, and study how it will affect the energy system. Pyrolysis is the process from which biochar is obtained and it is modelled in an open-source energy system model. A sensibility analysis is made in order to assess the effect of changing the biomass potential and the costs for pyrolysis.
The role of pyrolysis is analysed in the form of different future scenarios to evaluate the impact. The CO2 emission limits from the years 2030 and 2045 are considered to create the scenarios, as well as the integration of flexibility technologies. Four scenarios in total are assessed and the result from the sensibility analysis considering pyrolysis are always compared to the reference scenario, where pyrolysis is not considered.
Results show that pyrolysis has a bigger impact in the energy system when the CO2 limit is low. Biochar can be used to compensate the emissions from other conventional power plant and achieve an energy transition with lower costs. Furthermore, it was also found that pyrolysis can also reduce the need of flexibility. This study also shows that the biomass potential and the pyrolysis costs can affect a lot the behaviour of pyrolysis in the energy system.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
Durch die Fortschritte im Bereich der Quantencomputer rückt der Zeitpunkt näher, dass Quantencomputer die bestehenden mathematischen Probleme lösen können, welche in den aktuellen Public-Key-Verschlüsselungsverfahren verwendet werden. Als Reaktion darauf wurde ein Standardisierungsprozess für quantensichere Public-Key-Verschlüsselungsverfahren gestartet. Diese Arbeit analysiert diese und vergleicht sie untereinander, um Stärken und Schwächen der einzelnen Verfahren aufzuzeigen.
One of the most critical areas of research and expansion has been exploiting new technologies in supply chain risk management. One example of this is the use of Digital Twins. The performance of physical systems can be analyzed and simulated using digital twins, virtual versions of these systems that use real-time data, and sophisticated algorithms. Inside the supply chain risk management field, digital twins present a one-of-a-kind opportunity to improve an organization's ability to anticipate, address, and react to the possibility of problems within the supply chain.
The objective of this study is to identify and assess the advantages that accrue to supply chain risk management as a result of Digital Twins' adoption into the system, as well as to identify the challenges associated with achieving those benefits. In the context of supply chain risk management, a thorough literature study is conducted to analyze the essential traits and capabilities of digital twins and how these qualities lead to enhanced risk management methods. This study investigates the essential properties and capacities of digital twins. In addition, the state of digital twin technology and its applications in supply chain risk management are evaluated, and prospective areas for further study and development are highlighted.
The primary purpose of this investigation is to provide a comprehensive and in-depth analysis of the digital twins' role in supply chain risk management through the utilization of digital twins, as well as to highlight the potential benefits and challenges associated with the implementation of digital twins. The research was carried out based on the existing body of written material and the replies of 27 individuals who had previous experience making use of digital twins and took part in an online questionnaire.
The results of this study will be relevant to a diverse group of stakeholders, including specialists in risk management and researchers, amongst others.
Automation research has become one of the most important tools for future thinking organizations. It includes studying the economic and social aspects to determine how accountants were affected by automating the accounting profession. Moreover, this research studied the social aspect of automation, including the accountants' satisfaction and agreement towards the shift from manual-based accounting to automated accounting. Additionally, the purpose of the research was to comprehend the aspects that affect the variance of the satisfaction and agreement levels before and after automation and whether there is a relationship between those satisfaction and agreement levels and the demographic profile of accountants.
A quantitative method was used to answer the research questions. The findings and results were gathered through an online survey. The respondents in the study represent forty-three accountants who are located and working in Germany. The implications and conclusions of the research were observed from the accountants' perspective.
The research results presented that the automation of accounting significantly impacted the accountants' profession. It indicated that accountants are satisfied with automated accounting and agree with its effects and impacts on their profession. Accountants agreed that automated accounting tasks made the accounting process more effective and valuable. The findings also showed that educational level and length of experience in automated accounting are correlated with the satisfaction of accountants towards automated accounting. It presented that the more experience in automation and higher education accountants have, the more satisfied they are with automated accounting. Due to this phenomenon, higher qualifications and more basic IT knowledge are required in comparison with previous times.
Durch immer erschwinglichere Technik wird der Eintritt in die Videobranche zunehmend einfacher. Gleichzeitig gibt es immer mehr Personen, die am Markt aktiv werden und ihre Leistungen für Kunden anbieten. Was braucht das eigene Unternehmen, um im Bereich der Musikvideoproduktion, speziell innerhalb der Metalszene, erfolgreich zu sein, und welche Kanäle müssen genutzt werden, um Kunden innerhalb dieser Szene zu erreichen? Diese Fragen sollen eingangs durch Experteninterviews mit relevanten Personen innerhalb der Szene beantwortet werden. Anschließend liegt der Fokus der Arbeit darauf, mittels der gewonnenen Erkenntnisse, Literatur und eigenen Erfahrungen einen entsprechenden Unternehmensauftritt grafisch und inhaltlich zu konzipieren und umzusetzen. Dabei beginnt der Prozess bei der Namensfindung und führt über Logodesign, Farb- und Schriftwahl bis hin zur Erstellung der konzipierten Kanäle und Materialien, um die visuellen Arbeiten des Unternehmens bestmöglich zu präsentieren. Neben einer Webseite werden Social-Media-Kanäle, Printprodukte und ein Styleguide erstellt. Die gewonnenen Erkenntnisse und Rückschlüsse werden schließlich bei einer Musikvideoproduktion in der Praxis angewendet und anschließend reflektiert.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Digitales Engineering wird zunehmend wichtiger in unserer digitalen Welt. Auch die Hochschule und im speziellen der Bildungscampus Gengenbach hat den Anspruch, sich stets weiterzuentwickeln und den Studierenden die fortschreitende Technik greifbar und praxisnah zu vermitteln. Das digitale Engineering bietet dazu Möglichkeiten, neue studentische Lehrkonzepte zu entwickeln und umzusetzen, die beispielsweise aus neuartiger Software besteht. Durch den demografischen Wandel und den zunehmenden Kostendruck sind immer mehr Industrieunternehmen gezwungen, ihre Prozesse zu digitalisieren und neuste Software im Bereich Engineering einzusetzen. Deswegen müssen die zukünftigen Studierenden auf die neue Rolle optimal vorbereitet werden.
Die Herausforderung ist dabei, eine geeignete Software zu finden und zu analysieren. Vor diesem Hintergrund beschäftigt sich diese Arbeit zuerst mit einer Softwareanalyse. Zunächst gilt es, nach einer Einarbeitungsphase in die verschiedensten Engineering Softwaretools One Pager mit den wichtigsten Informationen zu erstellen. Danach wird eine Nutzwertanalyse durchgeführt, um zu definieren, welche Software den Ansprüchen gerecht wird.
Danach wird eine Planung und Auslegung eines Kollaborativen Engineering Laborkonzeptes durchgeführt. Dabei wird unterschieden in eine Planung auf einer grünen Wiese, das bedeutet es gibt keine Flächenbegrenzung und als weitere Variante mit der Planung auf der Fläche des derzeitigen Virtual Engineering Labors im Bildungscampus Gengenbach.
Anschließend wird ein Lehrkonzept für das neue Labor und entsprechenden Engineering Tools erarbeitet. Dabei geht es hauptsächlich um die Machbarkeit und der Definition der möglichen Potenziale und Umsetzung der Kollaboration.
Komplexe E-Commerce-Systeme müssen heutzutage immer schneller am Markt sein und sich an diesen anpassen. Dies wird durch SaaS-Services möglich, wodurch sich die Best-of-Breed-Lösungen einsetzen lassen. Der monolithische Ansatz der meisten E-Commerce-Systeme ist für diese Anwendungen nicht mehr geeignet. Abhilfe soll der Composable-Commerce-Ansatz schaffen. Für den Ansatz wird eine Integrationslösung benötigt. Ziel dieser Thesis ist es, Integrationslösungen zu evaluieren und mithilfe von Integration-Layer-Prototypen gegenüberzustellen. Es werden zwei Integrationslösungen ausgewählt, die als Prototyp implementiert werden. Für den ersten Prototypen wird Apache Camel in einem Spring-Boot-Server verwendet. Der zweite Prototyp setzt die AWS-eigenen Services für die Integration ein. Zum Schluss werden diese durch einen Last-Test auf ihre Performance geprüft.
Herr Vater & Ich
(2022)
Mein Vater wurde im Jahr 1952 geboren. Über das, was er in den 40 Jahren vor meiner Geburt erlebt hat, hat er mir immer wieder Geschichten erzählt, die mich unterhalten, belustigt oder verwundert haben. Geschichten, die mir immer wieder zeigten, dass ich ihn, abseits von seiner Rolle als Vater, gar nicht wirklich kenne. Dabei hat er mich in vielerlei Hinsicht geprägt. Mit der Musik, die er mit mir gemacht hat, den Bildern, die er mit mir gemalt hat, den Büchern, Platten und Filmen, die er mir geschenkt hat und mit den Geschichten, die er erzählt und vor allem wie er sie erzählt. Aber was für meine Person ist mein Vater eigentlich?
Ich sammle Anekdoten, die einen lebhaften Eindruck über seine Erfahrungen und Erlebnisse geben und erfahre mehr über den historischen Kontext und die gesellschaftliche Situation, die seine persönliche Lebensgeschichte prägten. Ich tauche ein, in ein Leben voll von Kindheitserinnerungen aus der Nachkriegszeit und zufälligen Begegnungen, aus denen sich langjährige Freundschaften ergeben. Ich lerne mehr über den Umgang mit dem Tod, darüber wie man Entscheidungen trifft und lausche Geschichten von jugendlichem Übermut und aufregenden Schiffsfahrten. Mit jeder dieser Geschichten lerne ich meinen Vater neu und besser kennen, sehe mich darin selbst wieder oder bin auch einfach nur überrascht.
Denn die Auseinandersetzung mit meinem Vater ist notwendigerweise eine Auseinandersetzung mit mir selbst. Wo finde ich mich in seinen Geschichten selbst wieder? Wo macht er Fehler, die ich auch gemacht hätte, aber wo trifft er auch Entscheidungen, die ich mir nicht zutrauen würde? Ich erfahre, was wir gemeinsam haben, aber auch wo wir uns unterscheiden. Wir als Person, aber auch wir in unserem historischen Kontext. Wo in ihm ein Seemanns-Lied aus einer Musiktruhe den Wunsch weckte, zur See zu fahren, da höre ich noch immer die Platten, die er mir als Kind vorgespielt hat. Dass er mit seinen Eltern und seinem Bruder in einem Zimmer geschlafen und aufgewachsen ist, scheint für mich heute undenkbar. Und zusammen versuchen wir den Weg seines Vaters, meines Opa, nach Deutschland nachzuvollziehen und ergründen die Wurzeln der Familie.
Bilder, Dokumente und Tape-Aufnahmen eines rumänischen Kirchenchors veranschaulichen Erzählungen, die bis vor den Zweiten Weltkrieg zurückreichen und werden ergänzt und erweitert durch Medien, die erst im Rahmen dieser Arbeit entstanden sind. Es entsteht eine digitale Ausstellung und weit mehr, als ein individuelles Porträt. „Herr Vater & Ich” ist eine Sammlung von Kurzgeschichten, eine Auseinandersetzung mit Geschichte und gesellschaftlicher Veränderung, eine Verständigung zwischen Generationen.
Eine Einladung zum Zuhören & Kennenlernen.
An organized strategy to ensure the security of an organization is an information security management system. During various security crises, hazards, and breaches, this strategy aids an organization in maintaining the confidentiality, integrity, and accessibility of information. Organizations are getting ready to comply with information security management system criteria. Despite this, security concerns continue to plague ineffective controls, have poor connectivity, or cause a silo effect, which is a common cause. One of the causes is a low maturity model that is not synchronized with the organization’s business processes. For a higher level of maturity, it is best to evaluate the practices.
Different maturity models on information security and cyber security capacity, management processes, security controls, implementation level, and many more have already been developed by numerous international organizations, experts, and scholars. The present models, however, do not assess a particular organization's particular practices. The evaluation of the business process is frequently neglected because measurement requirements for models are typically more concentrated on examining specific elements. For this reason, it caused the maturity assessment to not be executed explicitly and broadly.
We developed an organizational information security maturity model, a combination of work of different maturity models currently existing. While making this model, we considered that any size or type of organization could use this model. The model considers the success elements of the information security management system when assessing the implementation's effectiveness. We employed a mixed-method strategy that included both qualitative and quantitative research. With the help of a questionnaire survey, we evaluated the previous research using a qualitative methodology. In the quantitative method, we'll figure out how mature the information security management system is now. The proposed model could be used to reduce security incidents by improving implementation gaps.
Im Rahmen dieser Arbeit wird eine digitale Volkshochschule, die Onrhein vhs, konzipiert und umgesetzt. Ziel ist es, eine neue Zielgruppe im Alter von 18- bis 35-Jahren zu erreichen und die Digitalisierung in den Volkshochschulen zu fördern. Dies umfasst die Entwicklung einer für diese Zielgruppe attraktive Internetpräsenz, bestehend aus einem neuen Design, einer neuen Webseite und einem Social-Media-Kanal. Während der Pilotphase der Weiterbildungsoffensive WEITER.mit.BILDUNG@BW werden Erkenntnisse für den zukünftigen digitalen Betrieb der Volkshochschulen gesammelt und evaluiert. Um die Entwicklungen auf die Bedürfnisse der Zielgruppe anzupassen, wird im Verlauf der Arbeit eine Umfrage zur Weiterentwicklung der Volkshochschulen durchgeführt und ausgewertet. Gemeinsam mit der Region werden Ansätze zur Zusammenarbeit unter den bestehenden Volkshochschulen und der Onrhein vhs erarbeitet, um die Digitalisierung gemeinsam zu bewältigen.
Ziel der vorliegenden Arbeit ist die Durchführung einer Stadtklimasimulation vom Campus Offenburg. Um die Simulation auf Plausibilität überprüfen zu können, werden zudem Mikroklimamessungen vom Offenburger Campus durchgeführt. Die Ergebnisse der Simulation sollten im Anschluss mit den Messergebnissen verglichen werden.
Für die Durchführung der Stadtklimasimulation sowie der Mikroklimamessung werden zunächst verschiedene Vorbereitungen getroffen. Für die Stadtklimasimulation müssen im wesentlichen zwei Dateien vorbereitet werden. Eine Datei enthält Informationen zur Topologie, während die andere Datei Informationen zur Initialisierung der Simulation beinhaltet. Um den Rechenaufwand der Simulation gering halten zu können, müssen verschiedene Vereinfachungen getroffen werden. Für die Mikroklimamessung muss ein Messsystem entwickelt werden, welches sich aus stationären sowie mobilen Temperaturmessungen zusammensetzt. Für die stationäre Temperaturmessung werden Sensoren, verteilt über den ganzen Campus, platziert. Bei der mobilen Messung kommt eine Messvorrichtung mit GPS System, welches auf einem Fahrrad aufgebaut wird, zum Einsatz. Für Innenraum-temperaturen stehen fest installierte Sensoren zur Verfügung.
Der Vergleich zwischen Simulation und Messung zeigt auf, dass die Außentemperaturen der Simulation zu hoch sind. Die simulierten Temperaturdifferenzen können unter Berücksichtigung der getroffenen Vereinfachungen plausibilisiert werden. Die simulierten Innenraumtemperaturen weisen große Unterschiede im Vergleich zu den Messungen auf. Dies kann auf die getroffenen Vereinfachungen bei der Simulation zurückgeführt werden. Der Vergleich der Ergebnisse zeigt, dass Anpassungen in der Simulation erforderlich sind.
Die vorliegende Masterarbeit hatte zum Ziel, die Effektivität des Influencer Marketings auf der Livestreaming-Plattform Twitch.tv zu untersuchen, da diesbezüglich zum einen bisher kaum geforscht wurde und zum anderen die Influencer Marketing Industrie weiterhin von Jahr zu Jahr wächst. Mittels eines Experiments basierend auf einem Forschungsmodell zweier norwegischer Masterstudentinnen wurde ein randomisiertes Zwei-Gruppen-Experiment durchgeführt, um die Effektivität des Influencer Marketings zu messen, sowie den Einfluss von Parasozialen Interaktionen auf die Effektivität des Influencer Marketings zu analysieren. Außerdem wurde ein Vergleich zwischen dem Influencer Marketing und einer regulären Online-Werbung gezogen. Für die Durchführung des Experiments konnten 184 Probanden gewonnen werden, welche randomisiert einem Treatment in Form eines gesponserten Twitch-Streams oder einem Videospieltrailer ausgesetzt waren. Trotz dieser Anzahl konnten im Laufe der Analyse keine signifikanten Ergebnisse erzielt werden. Jedoch konnten diverse Erkenntnisse gewonnen und Empfehlungen für zukünftige Forschung mit dem Fokus Influencer Marketing auf Twitch.tv ausgesprochen werden.
Die hohen Produktionskosten verhindern derzeit weitere industrielle Anwendungen des Rührreibschweißens (engl. friction stir welding, FSW), selbst wenn eine deutlich höhere Ermüdungsfestigkeit der Verbindungen im Vergleich zum konventionellen Lichtbogenschweißen erreicht werden kann. Eine höhere Schweißgeschwindigkeit kann zwar die Kosten senken, wirkt sich aber negativ auf die Ermüdungsfestigkeit der FSW-Verbindungen aus. Als mögliche Lösung wurde das hydrostatische Festwalzen angewandt, um die Ermüdungsfestigkeit artgleicher und ungleicher FSW-Verbindungen aus den Legierungen EN AW 5083 und EN AW 6082 zu verbessern, die mit unterschiedlichen Schweißgeschwindigkeiten hergestellt wurden. Zusätzlich wurde die Ermüdungsfestigkeit direkt mit konventionell durch Metall-Inertgasschweißen (MIG) hergestellten Verbindungen und mit Grundwerkstoffproben aus EN AW 5083 verglichen. Die Oberflächenbeschaffenheit im geschweißten Zustand wurde durch Messungen der Oberflächenrauigkeit und der Eigenspannung charakterisiert. Ermüdungsversuche wurden durchgeführt, um die Ermüdungsfestigkeit der Verbindungen zu quantifizieren. Nach dem Festwalzen wurden ähnliche Druckeigenspannungen für artgleiche und ungleiche Verbindungen ermittelt. Für festgewalzte artgleiche Verbindungen aus EN AW 5083 wurde keine Verbesserung der Ermüdungsfestigkeit festgestellt. In diesem Zustand lag die Ermüdungslebensdauer der Probe jedoch im Bereich des Grundmaterials. Somit wurde eine signifikant niedrigere Ermüdungslebensdauer und eine hohe Verbesserung der Ermüdungslebensdauer durch Festwalzen für ungleiche Verbindungen erreicht. Eine Erhöhung der Schweißgeschwindigkeit von 300 mm/min auf 800 mm/min verringerte die Ermüdungsfestigkeit von Mischschweißverbindungen in diesem Fall stark.
Laut einer Studie der AZT Automotive GmbH sind etwa 75% aller Verkehrsteilnehmer im deutschsprachigen Raum durch fahrzeugseitige Technik abgelenkt. Dies stellt eine der größten Unfallgefahren dar: Bei ca. 11% der Verkehrsunfälle 2002-2012 in Deutschland ist die Ursache auf die Ablenkung des Fahrers zurückzuführen. Mittels Sperrkonzepten, welche den Zugriff auf Bereiche und Funktionen des Infotainmentsystems während der Fahrt limitieren, soll die Fahrerablenkung bei den immer größer werdenden Displays, komplexeren Einstellungsmöglichkeiten und längeren Interaktionspfaden minimiert und die Sicherheit im Straßenverkehr gewährleistet werden.
Diese Masterarbeit befasst sich mit dem Thema Fahrerablenkung im Kontext von automatisierten Fahrfunktionen. Durch die zunehmende Automatisierung des Fahrzeugs können wichtige Fahraufgaben und -funktionen durch Fahrassistenzsysteme übernommen und somit der Fahrer bei der Fahraufgabe und der Überwachung des Verkehrsgeschehens unterstützt bzw. entlastet werden. Dadurch ergeben sich für den Fahrer neue Freiheiten, die es ihm erlauben, seine Aufmerksamkeit (teilweise) von der Fahraufgabe abzuwenden und für andere, fahrfremde Tätigkeiten, wie der Interaktion mit dem Infotainmentsystem, zu nutzen. Ziel der Arbeit ist die Spezifikation und prototypische Umsetzung eines dynamischen Sperrkonzeptes für Infotainmentsysteme in Abhängigkeit des Automatisierungsgrades des Fahrzeugs. Risiken durch Fahrerablenkung sollen mittels Sperrungen von Infotainment-Bereichen und -Funktionen minimiert werden, zeitgleich soll der Zugriff auf Informationen und Unterhaltung für den Fahrer möglichst uneingeschränkt gewährleistet werden. Dabei wird der Fokus auf die Automatisierungsgrade Level eins bis drei (nach SAE) gelegt, wo es immer noch zu einem Wechsel zwischen automatisierten und manuellen Fahrabschnitten kommt.
Als Basis für das dynamische Sperrkonzept dient der Stand der Technik bisheriger wissenschaftlicher Erkenntnisse sowie Studien zu automatisierten Fahrfunktionen, Fahrerablenkung, Arbeitsbelastung, Reaktionszeit und Situationsbewusstsein. Außerdem soll ein Überblick über aktuelle Gesetzes- und Normenlagen sowie Gestaltungsrichtlinien in Bezug auf automatisierte Fahrzeuge bzw. Fahrfunktionen geschaffen werden, welche bei der Entwicklung von Sperrkonzepten eine essenzielle Rolle spielen.
In each company Top Managers have the responsibility to take major decisions that supports the success of their company, Adopting TQM is one of these decisions, the decision to carry out companies’ operations and procedures within TQM frameworks. (ASQ , n.d.). Applying TQM, involves implementing practices that needs putting extra efforts, otherwise there will be no use of the practices and the execution. (Nicca Jirah F Campos1, 2022).
Specifically in service sector, where the key to success and increased profit, comes directly through a satisfied customer. Therefor there is a need for both management and staff to have big tolerance and willingness to achieve the needed satisfaction, in order to attain the results that every company wants. (Charantimath, 2013)
In Germany in terms of customer care practices there is a famous stereotype ‘Customer is not the king’ A reputation That after DW investigated it, DW expressed it as a phenomenon where both expats and Germans tend to believe that service companies in Germany should do a better job of treating their consumers. (DW, 2016)
New concepts of business have emerged in the late century, for example strategy, leadership, marketing, entrepreneurship and others, these concepts spread internationally among most of the companies around the world. Many studies have been done reviewing these new business structures, some of them addressed the cultural differences within countries upon the applying them. But not many studies concentrated on taking into consideration how cultural differences affects the Implementation of TQM. (Lagrosen, 2002). It was concluded in general that although the comprehensive fundamentals of quality management are applicable and similar worldwide in all nations, but when coming to real practice accurate tunning must be made, it must be taken into account aligning different standards, due to different work cultures and traditions in Europe. (Krueger, 1999)
Die Suchmaschinenoptimierung (SEO) ist von zunehmender Bedeutung für ContentErsteller:innen. Ziel dieser Forschung ist das Erstellen eines strukturierten und übersichtlichen SEO-Leitfadens für Redakteur:innen. Dazu wird die folgende Forschungsfrage gestellt: ‚Welche Elemente der Suchmaschinenoptimierung spielen im redaktionellen Prozess eine wesentliche Rolle, um erfolgreiche SEO-Texte zu erstellen?’
Um die Forschungsfrage zu beantworten wurde eine qualitative Studie zu SEO in Bezug auf Redaktuer:innen durchgeführt. Daran nahmen sieben Auskunftspersonen teil, mitunter: erfahrene Redakteur:innen, Informatiker:innen, Online Marketing Expert:innen und SEOs. Konkret beschäftigt sich die Studie mit dem Erstellen von Texten und Artikeln für WebMagazine und Blogs. In der qualitativen Studie wurden offene Fragen durch die Interviewtechnik des problemzentrierten Interviews gestellt. Das erhobene Material wurde dann durch eine qualitative Inhaltsanalyse ausgewertet.
Die Analyse des Materials erlaubte die Schritte Keyword-Recherche, Themensuche, Keyword-Analyse, SEO-Briefing und Text-Schreiben zu definieren, um sie danach in eine sinnvolle Reihenfolge zu ordnen. Der Leitfaden soll Redakteur:innen dabei helfen, einen besseren Überblick zum SEO-Prozess zu erlangen und das selbständige Durcharbeiten der Schritte vor dem Schreiben eines SEO-Artikels oder -Texts ermöglichen.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
Die Hohlprobentechnik soll als Alternative zur Autoklavtechnik eingesetzt werden,
um Werkstoffe unter Druckwasserstoffeinfluss charakterisieren zu können. Daher
wird in dieser Arbeit die Hohlprobengeometrie unter LCF-Belastung mit Hilfe
der Finite-Elemente-Methode untersucht. Dabei wird besonders auf den Einfluss
des Innendrucks, der Belastung und der Temperatur eingegangen. Die Ergebnisse
werden mit der Vollprobengeometrie verglichen, um die Eignung der Hohlprobe als
Alternative zur Vollprobe zu untersuchen. Ohne Innendruck ist kein Unterschied
im Verformungsverhalten zwischen Voll- und Hohlprobe zu erkennen. Bei hohen
Innendrücken kann die Hohlprobe ihre Formstabilität verlieren. Daher können in
Experimenten nicht alle Kombinationen aus Temperatur und Innendruck untersucht
werden.
Im zweiten Teil der Arbeit wird die belastungsabhängige Wasserstoffdiffusion an einer
angerissenen Hohlprobe numerisch untersucht. Durch die Spannungsgradienten an der
Rissspitze wird die Wasserstoffkonzentration beeinflusst. Um einen Zusammenhang
zwischen der Plastizität und der Diffusion zu untersuchen, wird eine plastische und
eine Diffusionszone ausgewertet. Hier zeigt sich, dass die Diffusionszone hauptsächlich
von der Risslänge und weniger von der Belastung abhängt.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Die vorliegende Masterarbeit setzt sich mit dem Thema „Digitale Medien und soziale Anerkennung“ auseinander. Dabei wird der Frage nachgegangen, welchen Einfluss die Nutzung digitaler Medien auf das Selbstbild junger Erwachsener, auf das Thema Cybermobbing und den zwischenmenschlichen Umgang in der Gesellschaft hat. Als Praxisbeispiel wurde exemplarisch die Folge „Nosedive“ der dystopischen Sci-Fi-Serie „Black Mirror“ ausgewählt, in der eine Gesellschaft porträtiert wird, deren Leben durch ein soziales Bewertungssystem bestimmt wird. Im Zuge dessen soll ein Bezug zu realen Sozialkredit-Systemen hergestellt werden. Das Ziel der Forschung ist es, eine umfangreiche Analyse der Auswirkungen des Medienkonsums von Fiktion und Realität vor dem Hintergrund sozialer Anerkennung durchzuführen.
Im theoretischen Teil der Arbeit soll allgemein auf digitale Medien, das Nutzungsverhalten von Jugendlichen sowie auf die Bedeutung von Identität und Selbstbild (im Netz) eingegangen werden. Sowohl die Einflüsse der digitalen Mediennutzung auf die Identität, das Selbstbild sowie die Selbstdarstellung als auch die allgemeinen positiven und negativen Auswirkungen durch exzessiven Medienkonsum von Jugendlichen sollen in dieser Arbeit näher beleuchtet und einander gegenübergestellt werden. Im nächsten Schritt sollen die Auswirkungen auf die Bereiche Cybermobbing sowie die zwischenmenschliche Kommunikation und soziale Beziehungen untersucht werden. Nach Abhandlung der Einflüsse und Auswirkungen auf die Jugendlichen unserer Gesellschaft folgt der praktische Teil der Arbeit, in dem zunächst die Anthologie-Serie „Black Mirror“ und die Inhalte der Folge „Nosedive“ vorgestellt werden sollen. Anhand ausgewählter Merkmale soll die fiktionale Welt mit unserer modernen Gesellschaft analysiert und verglichen werden. Abschließend soll auf die Sozialkredit-Systeme in China eingegangen und ein Bezug zur Folge hergestellt werden. In der Analyse sollen die Ergebnisse der vorangegangenen Kapitel miteinbezogen werden. Die Ergebnisse der Arbeit zeigen, dass digitale Medien einen weitreichenden sowohl positiven als auch negativen Einfluss auf Jugendliche haben. Die Nutzung hat viele Bereiche unseres Lebens bereits verändert. Besonders soziale Medien hinterlassen ihre Spuren in der Identität und Werteentwicklung von Kindern und Jugendlichen. Obwohl sie in der jüngeren Generation hohes Ansehen genießen, bestimmen sie jedoch (noch) nicht über andere Bereiche des Lebens.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.