Refine
Document Type
- Bachelor Thesis (48)
- Master's Thesis (17)
Has Fulltext
- yes (65)
Is part of the Bibliography
- no (65) (remove)
Keywords
- JavaScript (6)
- Marketing (6)
- IT-Sicherheit (4)
- Webentwicklung (4)
- 3D (2)
- Content Management (2)
- Corporate Design (2)
- Corporate Identity (2)
- Deep learning (2)
- Digitalisierung (2)
Institute
- Fakultät Medien (M) (ab 22.04.2021) (65) (remove)
Open Access
- Closed Access (65) (remove)
Implementation and Evaluation of an Assisting Fuzzer Harness Generation Tool for AUTOSAR Code
(2024)
The digitalization in vehicles tends to add more connectivity such as over-the-air (OTA) updates. To achieve this digitization, each ECU (Electronic Control Unit) becomes smarter and needs to support more and more different externally available protocols such as TLS, which increases the attack surface for attackers. To ensure the security of a vehicle, fuzzing has proven to be an effective method to discover memory-related security vulnerabilities. Fuzzing the software run- ning on a ECU is not an easy task and requires a harness written by a human. The author needs a deep understanding of the specific service and protocol, which is time consuming. To reduce the time needed by a harness author, this thesis aims to develop FuzzAUTO, the first assistant harness generation tool targeting the AUTOSAR (AUTomotive Open System ARchitecture) BSW (Basic Software) to support manual harness generation.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
Um als Unternehmen heutzutage aus der Masse hervorzustechen und sich von der Konkur- renz abzuheben, bedarf es mehr als nur eines guten Produkts oder einer guten Dienstleis- tung. Kunden möchten wissen, welches Unternehmen dahintersteckt und ob sie sich damit identifizieren können. Um diese Werte und ein einheitliches Erscheinungsbild vermitteln zu können, ist eine ganzheitliche Corporate Identity erforderlich, die sowohl innen als auch außen wirkt. Das bietet die Möglichkeit, ein Markenimage aufzubauen, das langfristig Kun- den bindet und Vertrauen schafft.
Die Entwicklung einer neuen Corporate Identity erfordert zunächst eine entschlossene Ent- scheidung der Unternehmensführung. Sie muss sicherstellen, dass das gesamte Unterneh- men für ein solches Vorhaben bereit ist. Erst dann kann mit der Bildung eines CI-Teams begonnen werden, das mit der Entwicklung und Durchführung des Corporate Identity-Pro- zesses beauftragt wird. Dabei wird nach der AMC-Strategie vorgegangen, die mit einer aus- führlichen Ist- und Sollanalyse beginnt. Hierbei wird ermittelt, welche Fähigkeiten das Un- ternehmen besitzt und welches Image bei den unterschiedlichen Interessensgruppen vor- herrscht. Auch die internen und externen Auswirkungen einer CI sollten bedacht werden und dass die Angestellten einen maßgeblich Teil zur externen Wirkung beitragen. Die ge- sammelten Informationen dienen als Grundlage für die einzelnen Bestandteile der Corpo- rate Identity.
Basierend auf dem theoretischen Teil wurde für Dialogpunkt eine neue Corporate Identity entwickelt, wodurch verdeutlicht wurde, wie die theoretischen Grundlagen in die Praxis umgesetzt werden können. Durch eine gründliche Marktanalyse wurde ein neues Leitbild (Corporate Philosophy) für Dialogpunkt erstellt. Dieses Leitbild und die gewonnenen Er- kenntnisse dienten wiederum als Grundlage für die Entwicklung des Corporate Behaviors, der Corporate Communication und des Corporate Designs.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Cloud computing is a combination of technologies, including grid computing and distributed computing, that use the Internet as a network for service delivery. Organizations can select the price and service models that best accommodate their demands and financial restrictions. Cloud service providers choose the pricing model for their cloud services, taking the size, usage, user, infrastructure, and service size into account. Thus, cloud computing’s economic and business advantages are driving firms to shift more applications to the cloud, boosting future development. It enlarges the possibilities of current IT systems.
Over the past several years, the ”cloud computing” industry has exploded in popularity, going from a promising business concept to one of the fastest expanding areas of the IT sector. Most enterprises are hosting or installing web services in a cloud architecture for management simplicity and improved availability. Virtual environments are applied to accomplish multi-tenancy in the cloud. A vulnerability in a cloud computing environment poses a direct threat to the users’ privacy and security. In our digital age, the user has many identities. At all levels, access rights and digital identities must be regulated and controlled.
Identity and access management(IAM) are the process of managing identities and regulating access privileges. It is considered as a front-line soldier of IT security. It is the goal of identity and access management systems to protect an organization’s assets by limiting access to just those who need it and in the appropriate cases. It is required for all businesses with thousands of users and is the best practice for ensuring user access control. It identifies, authenticates, and authorizes people to access an organization’s resources. This, in turn, enhances access management efficiency. Authentication, authorization, data protection, and accountability are just a few of the areas in which cloud-based web services have security issues. These features come under identity and access management.
The implementation of identity and access management(IAM) is essential for any business. It’s becoming more and more business-centric, so we need more than technical know-how to succeed. Organizations may save money on identity management and, more crucially, become much nimbler in their support of new business initiatives if they have developed sophisticated IAM capabilities. We used these features of identity and access management to validate the robustness of the cloud computing environment with a comparison of traditional identity and access management.
Wassermangel in Deutschland
(2023)
Die Arbeit beschäftigt sich mit der medialen Berichterstattung von vier deutschen Leitmedien in Bezug auf das Thema Wassermangel in Deutschland. Ziel ist es, das in der Gesellschaft vorhandene Bewusstsein für die Umwelt zu stärken und ein besonderes Augenmerk auf die Problematik des sich verschärfenden Wassermangels zu lenken.
Zunächst wird hierfür die Vorgehensweise einer Medieninhaltsanalyse dargelegt und mit dem konkreten Beispiel in jedem Schritt verknüpft. Dabei werden die relevantesten Schwerpunkte der Berichterstattung zwischen April und Oktober 2022 herausgearbeitet. Es wird angenommen, dass die Berichterstattung vor allem im Sommer besonders hoch ist und es sowohl thematische als auch regionale Unterschiede zwischen den vier Verlagen gibt. Die gewonnenen Beobachtungen werden sowohl im Gesamtzusammenhang der untersuchten Artikel als auch in einer Einzelbetrachtung der vier Medien, Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung, Focus und Spiegel, grafisch aufbereitet und interpretiert. Die Ergebnisse zeigen, dass die Kategorien Hitze und Dürre besonders häufig codiert werden. Damit stehen vor allem die Ursachen und Auswirkungen, aber nicht der Wassermangel selbst, im Fokus der Berichterstattung.
Diese Erkenntnisse werden anschließend in eine Online-Kampagne überführt, mit dem Ziel, das Bewusstsein einer jungen, medienaffinen Zielgruppe auf den steigenden Wassermangel in Deutschland zu lenken.
In dieser kleinen schriftlichen Ausarbeitung behandele ich das Thema der Symbiose aus Kunst und Wissenschaft auf meine persönliche Einstellung.
Ich habe einen Dokumentarfilm zu diesem spannenden Thema in dem Rahmen erstellt und habe in diesem schriftlichen Teil erzählt, wie ich zu den einzelnen Themen wie auch zur Symbiose stehe. Dabei gehe ich auf die persönlichen Erkenntnisse ein, welche ich über den Zeitraum des Dokumentarfilms erlangt habe. Ein Teil des Filmes waren zwei Workshops, in denen ich die Parteien Kunst und Wissenschaft mit einem Thema in Verbindung gesetzt habe. Auch diese wird hier erläutert.
The Internet of Things is spreading significantly in every sector, including the household, a variety of industries, healthcare, and emergency services, with the goal of assisting all of those infrastructures by providing intelligent means of service delivery. An Internet of Vulnerabilities (IoV) has emerged as a result of the pervasiveness of the Internet of Things (IoT), which has led to a rise in the use of applications and devices connected to the IoT in our day-to-day lives. The manufacture of IoT devices are growing at a rapid pace, but security and privacy concerns are not being taken into consideration. These intelligent Internet of Things devices are especially vulnerable to a variety of attacks, both on the hardware and software levels, which leaves them exposed to the possibility of use cases. This master’s thesis provides a comprehensive overview of the Internet of Things (IoT) with regard to security and privacy in the area of applications, security architecture frameworks, a taxonomy of various cyberattacks based on various architecture models, such as three-layer, four-layer, and five-layer. The fundamental purpose of this thesis is to provide recommendations for alternate mitigation strategies and corrective actions by using a holistic rather than a layer-by-layer approach. We discussed the most effective solutions to the problems of privacy and safety that are associated with the Internet of Things (IoT) and presented them in the form of research questions. In addition to that, we investigated a number of further possible directions for the development of this research.
As cyber threats continue to evolve, it is becoming increasingly important for organizations to have a Security Operations Center (SOC) in place to effectively defend against them. However, building and maintaining a SOC can be a daunting task without clear guidelines, policies, and procedures in place. Additionally, most current SOC solutions used by organizations are outdated, lack key features and integrations, and are expensive to maintain and upgrade. Moreover, proprietary solutions can lead to vendor lock-in, making it difficult to switch to a different solution in the future.
To address these challenges, this thesis proposes a comprehensive SOC framework and an open-source SOC solution that provides organizations with a flexible and cost-effective way to defend against modern cyber threats. The research methodology involved conducting a thorough literature review of existing literature and research on building and maintaining a SOC, including using SOC as a service. The data collected from the literature review was analyzed to identify common themes, challenges, and best practices for building and maintaining a SOC.
Based on the data collected, a comprehensive framework for building and maintaining a SOC was developed. The framework addresses essential areas such as the scope and purpose of the SOC, governance and leadership, staffing and skills, technologies and tools, processes and procedures, service level agreements (SLAs), and evaluation and measurement. This framework provides organizations with the necessary guidance and resources to establish and effectively operate a SOC, as well as a reference for evaluating the service provided by SOC service providers.
In addition to the SOC framework, a modern open-source SOC solution was developed, which emphasizes several key measures to help organizations defend against modern cyber threats. These measures include real-time, actionable threat intelligence, rapid and effective incident response, continuous security monitoring and alerting, automation, integration, and customization. The use of open-source technologies and a modular architecture makes the solution cost-effective, allowing organizations to scale it up or down as needed.
Overall, the proposed SOC framework and open-source SOC solution provide organizations with a comprehensive and systematic approach for building and maintaining a SOC that is aligned with the needs and objectives of the organization. The open-source SOC solution provides a flexible and cost-effective way to defend against modern cyber threats, helping organizations to effectively operate their SOC and reduce their risk of security incidents and breaches.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Das Thema Elektromobilität wird immer wichtiger, was unter anderem durch den Ausbau eines kabelgebunden Ladenetzes deutlich wird. Aber auch die Entwicklung berührungsloser Ladetechnologien schreitet voran. So existieren bereits zahlreiche Projekte, die das Laden von Elektrofahrzeugen untersuchen. Untersucht wird hierbei das induktive statische sowie induktive dynamische Laden. In Norwegen, als einer der am schnellsten wachsenden Märkte in Bezug auf die Elektromobilität, wurde im Rahmen dieser Entwicklungsarbeit im Jahr 2020 ein Projekt initiiert, welches das berührungslose Laden mittels Induktion in der Praxis untersucht.
Da die Elektromobilität auch regional ein wichtiges Thema ist und weiter voran gebracht wird, brachte das Induktionsprojekt aus Norwegen den Anstoß, ein derartiges Vorhaben in Offenburg zu initiieren. Ziel des Vorhabens ist dabei, an Taxiständen am Offenburger Bahnhof eine Infrastruktur für induktiv ladbare Taxen aufzubauen, damit Elektro-Taxen während sie auf Kunden warten, kabellos aufgeladen werden können. Da die Durchführung eines solchen Projekts möglicherweise sehr teuer ist, ist es sinnvoll zunächst zu überprüfen, ob einem derartigen Vorhaben etwas im Wege steht.
Daher ist das Ziel der vorliegenden Arbeit im Rahmen einer vorläufigen Machbarkeitsstudie die Frage zu erörtern, ob das Induktionsprojekt am Standort Offenburg eine detaillierte Machbarkeitsstudie rechtfertigt oder nicht und aufzuzeigen, welche noch zu klärenden Punkte es gibt.
Aus diesem Grund wurden sechs Bereiche einer Machbarkeitsstudie zur Analyse ausgewählt. Dabei wurden unter anderem die Themen Standortanalyse, Stakeholderanalyse oder die Technische Machbarkeit bearbeitet. Zur Veranschaulichung des Schwerpunkts des jeweiligen Analysebereichs, wurde zu Beginn jeden Analysebereichs eine oder mehrere Leitfragen gestellt. Weiterhin erfolgte eine Maßnahmenplanung, die den Erfolg des Projekts fördern könnte.
Das Ergebnis der vorläufigen Machbarkeitsstudie zeigt, dass keine Notwendigkeit zu einer detaillierten Machbarkeitsstudie besteht. Stattdessen könnte das Projekt direkt in die Projektvorbereitungs- bzw. Planungsphase übergehen, da über die wichtigsten Analysebereiche ausreichend Informationen gewonnen werden konnten und zu klärende Fragen aufgezeigt wurden. In einem nächsten Schritt könnte nun die konkrete Öffentlichkeitsarbeit und die Umsetzung der Maßnahmen durchgeführt werden.
Digitalisierung und Visualisierung für die Lehre an Hochschulen am Beispiel der Medientechnik
(2022)
Ziel dieser Arbeit war die Erstellung eines Konzepts für die digitale Lehre am Beispiel der Medientechnik an der Hochschule Offenburg. Das Konzept sollte anhand der Funktionsweise von Digitalkameras und den Themengebieten Blende, Verschlusszeit, ISO und dem Crop-Faktor erstellt werden. Bei Konzepterstellung wurden insbesondere existierende, wissenschaftliche Erkenntnisse aus den Bereichen E-Learning, Blended-Learning und Visualisierung berücksichtigt. Darüber hinaus wurden für das Konzept Visualisierungen für die genannten Themengebiete erstellt. Vor Erstellung der Visualisierungen galt es, mögliche Vorteile der 3D-Visualisierung gegenüber der 2D-Visualisierung zu prüfen und eine Auswahl für das Konzept zu treffen. Als weiteres Ziel sollten die in der Arbeit gewonnenen Erkenntnisse, insbesondere bei der Konzepterstellung, anderen Hochschulen und Lehrenden als Grundlage für eigene Konzepte dienen, um eine digitale Lehre mit Online-Anteilen umsetzen zu können.
Diese Ziele werden im Verlauf der Arbeit uneingeschränkt erreicht.
Die in der Arbeit durchgeführte Literaturanalyse zeigt, dass der Einsatz von E-Learning und digitalen Medien zu einem besseren Lernerfolg bei Studierenden führt. Die Anwendung von Blended-Learning-Modellen, als Ergänzung zum E-Learning, können die Nachteile der Präsenzlehre ausgleichen.
Durch den Einsatz von Visualisierungen (Bilder und Animationen) kann in der Theorie belegt werden, dass sich beide Darstellungsformen positiv auf die Lernleistung von Studierenden auswirken. Insbesondere eigenen sich Animationen bei der Durchführung von Laboren zum Ausgleich unterschiedlicher Vorkenntnisse. Außerdem tragen Animationen dazu bei, die Fähigkeit zur eigenständigen Problemlösung zu verbessern, wenn Animationen gleichzeitig mit Erläuterungen eingesetzt werden.
Eine Vorteilhaftigkeit von 3D- gegenüber 2D-Visualisierungen in der Lehre, konnte in der Arbeit nicht bestätigt werden. Nicht zuletzt aufgrund eines erhöhten Aufwandes zur Erstellung und Anwendung von 3D-Visualisierungen, wurde für das Konzept eine 2D-Darstellung gewählt. Zwar werden 3D-Visualisierungen zur Wissensvermittlung an Hochschulen eingesetzt, es konnten jedoch keine wissenschaftlichen Erkenntnisse herangezogen werden, die eine verbesserte Lernleistung oder einen besseren Lernerfolg gegenüber 2D-Visualisierungen belegen. Diese Arbeit zeigt ebenfalls, dass die Anforderungen Expressivität, Effektivität und Angemessenheit für jede Visualisierung erfüllt werden müssen, damit eine Visualisierung im Kontext der Lehre vorteilhaft ist. Darüber hinaus müssen für jede Darstellung operationalisierte Lernziele definiert werden. Nur so kann eine Überprüfung und Beurteilung einer Visualisierung durchgeführt werden. Die Erfüllung dieser Anforderungen wurde für die selbsterstellten Illustrationen zu Blende, Verschlusszeit, ISO und dem Crop-Faktor berücksichtigt und kritisch geprüft. Die Anforderungen wurden vollumfänglich erfüllt.
Bei der Konzepterstellung wurden die in der Arbeit gewonnenen wissenschaftlichen Erkenntnisse berücksichtigt und am Beispiel der Vorlesung Digitale Medien 2 umgesetzt. Das Konzept zeigt in der Theorie, wie E-Learning, Blended-Learning und Visualisierungen bei dieser Vorlesung eingesetzt werden können.
Eine Erprobung in der praktischen Anwendung muss zwingend erfolgen, um die im Konzept definierten, operationalisierten Lernziele der Visualisierungen zu bestätigen. Ebenfalls gilt es den Einfluss des Konzepts auf den Lernerfolg von Studierenden an der Hochschule Offenburg zu prüfen.
Zu Beginn dieser Arbeit wurde das Problem beschrieben, dass das Ersetzen von einzelnen Modulen innerhalb TYPO3s durch React bisher nicht möglich war. Dadurch ergab sich die Aufgabe eine Lösung zu finden, mit der die Vorteile von React in TYPO3 eingebracht werden können, möglichst ohne große Veränderungen und Aufwände zu betreiben. Als zusätzliche Anforderung wurde definiert, dass React in TypeScript geschrieben werden soll.
Um dem Leser dieser Arbeit die Möglichkeit zu geben, den angefertigten Code verstehen und interpretieren zu können, wurden zunächst Grundlagen in TypeScript, React und TYPO3 geschaffen. Daraufhin wurde der Ist-Stand beschrieben, welcher ein simples TYPO3-Plugin beschreibt. Dies wurde für die grundsätzliche Umwandlung in React möglichst simpel gehalten, war dennoch mit einigen Grundsätzen wie AJAX und Rerendering ausgestattet, um gewisse Vorteile und Problematiken bei der Umsetzung aufzeigen zu können. Daraus ergab sich ein Soll-Stand, welcher zugleich weitere Anforderungen an die spätere Lösung definierte.
Um ein mögliches Lösungskonzept erarbeiten zu können wurden im Kapitel „Stand der Technik“ 2 verwandte Arbeiten und Möglichkeiten vorgestellt. Daraufhin wurden die beiden zu entwickelnden Plugins beschrieben, zunächst das Dummy-TYPO3-Plugin, gefolgt vom in React entwickelten Äquivalent.
In Kapitel 8 wurde ein Konzept erstellt und daraufhin die Umsetzung Schritt für Schritt durchgeführt. Dabei konnte erfolgreich React in TYPO3 aufgesetzt und zur Entwicklung genutzt werden. Das Dummy-Plugin konnte ohne größere Probleme umgesetzt werden und zeigte somit eine mögliche Lösung für die Umwandlung von TYPO3 zu React auf. Um diese Lösung zu validieren, wurde im Folgekapitel das ProofOfConcept entwickelt. Dabei handelte es sich um ein produktiv eingesetztes Projekt, welches auf einer älteren Version basiert und verschiedene Anforderungen mitbrachte. Dies wurde nach Vorstellung des Projektes und Lösungskonzept Schritt für Schritt umgesetzt.
Diese Thesis umfasst mit dem hybriden Rendering, Headless CMS und Progressive Web Apps drei moderne technologische Ansätze aus dem Bereich der Webentwicklung. Ziel der vorliegenden Arbeit ist es dabei, auf Basis eines Einblicks in die Grundlagen des modernen Web Developments zunächst die drei Konzepte einzeln zu betrachten, zu analysieren, Vor- und Nachteile herauszustellen und deren technologische Möglichkeiten zu erklären, um schließlich auch das Zusammenspiel dieser, derzeit relevanten Entwicklungsansätze im Hinblick auf die zugrunde liegende Forschungsfrage zu untersuchen: Ist es möglich verschiedene, aktuelle Trends der Webentwicklung sinnvoll miteinander zu kombinieren und so auf Basis eines Headless CMS, einem Frontendframework für verschiedene Renderingmethoden und der Idee der Progressive Web Apps eine performante und benutzerfreundliche protoytpsiche Web-applikation zu implementieren? Um dies zu überprüfen, wurde auf den zuvor erarbeiteten theoretischen Grundlagen mit MovieRec eine WebApp als interaktives Filmportal konzipiert und schlussendlich mit einem entsprechenden Technologiestack implementiert. Diese Schritte sowie die Umsetzung der Kernfunktionen der Anwendung wurden dabei anhand von Codeausschnitten erklärt.
Die Suchmaschinenoptimierung (SEO) ist von zunehmender Bedeutung für ContentErsteller:innen. Ziel dieser Forschung ist das Erstellen eines strukturierten und übersichtlichen SEO-Leitfadens für Redakteur:innen. Dazu wird die folgende Forschungsfrage gestellt: ‚Welche Elemente der Suchmaschinenoptimierung spielen im redaktionellen Prozess eine wesentliche Rolle, um erfolgreiche SEO-Texte zu erstellen?’
Um die Forschungsfrage zu beantworten wurde eine qualitative Studie zu SEO in Bezug auf Redaktuer:innen durchgeführt. Daran nahmen sieben Auskunftspersonen teil, mitunter: erfahrene Redakteur:innen, Informatiker:innen, Online Marketing Expert:innen und SEOs. Konkret beschäftigt sich die Studie mit dem Erstellen von Texten und Artikeln für WebMagazine und Blogs. In der qualitativen Studie wurden offene Fragen durch die Interviewtechnik des problemzentrierten Interviews gestellt. Das erhobene Material wurde dann durch eine qualitative Inhaltsanalyse ausgewertet.
Die Analyse des Materials erlaubte die Schritte Keyword-Recherche, Themensuche, Keyword-Analyse, SEO-Briefing und Text-Schreiben zu definieren, um sie danach in eine sinnvolle Reihenfolge zu ordnen. Der Leitfaden soll Redakteur:innen dabei helfen, einen besseren Überblick zum SEO-Prozess zu erlangen und das selbständige Durcharbeiten der Schritte vor dem Schreiben eines SEO-Artikels oder -Texts ermöglichen.
Printmedien befinden sich in der Krise. Durch die Fülle an frei zugänglichen Inhalten im Internet, verlieren immer mehr Printmedien an Leser. Mediale Inhalte sind nicht mehr nur über die klassischen Vertriebskanäle abrufbar, sondern auch digital. Dennoch zeigen hohe Reichweiten, dass Zeitungen und Zeitschriften noch eine Relevanz am deutschen Markt besitzen.
In der vorliegenden Arbeit wird untersucht, wie sich der Markt in den letzten 15 Jahren verändert hat. Durch die Digitalisierung entstehen neue Märkte und Endgeräte, wodurch sich neue crossmediale Medienangebote bilden. Die Rolle der Printmedien hat sich verändert und das Internet wird bereits von vielen Unternehmen als zusätzlicher Medienkanal für die Distribution von Druckprodukten genutzt. Anhand des Magazins GEO wird die Veränderung des Printproduktes Zeitschrift verdeutlicht. Wie haben sich die Auflagen und Reichweiten entwickelt? Es wird ebenfalls beleuchtet, inwieweit sich die Zugänglichkeit und Darstellung des Produktes verändert hat.
Diese Bachelorarbeit befasst sich mit den Entwicklungen des Webdesigns in den letzten zehn Jahren und den daraus resultierenden Anforderungen an eine erfolgreiche Webseite. Außerdem werden Grundlagen des Webdesign und die aktuellsten Webtrends betrachtet, um ein umfassendes Bild des Erfolges einer Webseite zu erhalten.
Im Rahmen der Thesis wurde außerdem ein interner StyleGuide für die Webseite des Softwareunternehmens „sevDesk“ aus Offenburg erstellt. Dieser bietet eine Übersicht der vorhandenen Komponenten in allen deren Varianten, sowie den allgemeingültigen StylingRichtlinien, welche das Design der kompletten Webseite definieren.
Die Arbeit beschäftigt sich mit dem Thema der Progressive Web App, dabei wird auf die Entwicklung und das Wirtschaftliche Potential eingegangen. Die Arbeit kann als Hilfestellung bei der Entscheidung, ob eine Progressive Web App in einem Unternehmen eingesetzt werden soll, dienen.
Mit der wachsenden Bedeutung von Nachhaltigkeit im Alltag von Konsument*innen, werden ökologische Aspekte zunehmend zum Kaufentscheidungsfaktor. Damit steigt auch das Angebot nachhaltiger Produkte am Markt. Immer mehr Unternehmen neh-men ökologische Alternativen mit in ihr Sortiment auf. Wie nachhaltig einzelne Güter tatsächlich sind, kann für Verbraucher*innen nur schwer ersichtlich sein.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von Green-washing auf das Konsumverhalten deutscher Verbraucher*innen am Markt für nach-haltige Lebensmittel. Innerhalb eines Fragebogens wird zunächst der Lebensmittel-konsum eines Probandenkreises erfasst. Dabei wird zudem erfasst, welche Bedeutung Gütezeichen als Beurteilungshilfe hinsichtlich der Nachhaltigkeit eines Produkts in der Lebensmittelbranche innehalten. Dazu werden zunächst einige Öko-Siegel bzgl. ihrer Seriosität bewertet. In einem weiteren Schritt werden die Ergebnisse dieser Bewertung mittels empirische Forschung der Einschätzung des Probandenkreises gegenüberge-stellt.
Aus der Befragung ist hervorgegangen, dass Greenwashing eines Unternehmens durchaus Veränderungen in der Kaufbereitschaft der betroffenen Produkte sowie – zu einem geringeren Ausmaß – Produkte innerhalb der gleichen Kategorie betrifft. Wei-terhin wurde identifiziert, dass die Einschätzungen des Probandenkreises hinsichtlich der Seriosität und der Vertrauenswürdigkeit maßgeblich von der – innerhalb dieser wissenschaftlichen Arbeit – durchgeführten Bewertung abweichen. Die Einschätzung hinsichtlich der Seriosität und Vertrauenswürdigkeit von Seiten der Proband*innen, scheint zu großen Teilen von der Bekanntheit des betreffenden Gütezeichens abzu-hängen.
Die vorliegende Bachelorarbeit gibt einen Überblick über verschiedene Java Game Engines und wie diese über ein Konzept in die aktuelle Informatik Vorlesung integriert werden können, um dadurch die Motivation der Studierenden signifikant zu steigern. Dabei wurde in den Grundlagen das Lernpotenzial von Computerspielen untersucht sowie der allgemeine Aufbau von Game Engines definiert. Diese Ergebnisse flossen im Anschluss in die Untersuchung ein und führten zu einer Auswahl der geeigneten Java Game Engine. Über eine SWOT-Analyse, welche nach V. Wollny und H. Paul durchgeführt wurde, konnte eine gut geeignete Engine ermittelt werden. Auf der Basis des Buches von Michael Kölling wurde ein Konzept für die Informatik - Vorlesung entwickelt, welches im letzten Kapitel der Arbeit mit passenden Aufgaben beschrieben wurde. Die Bachelorarbeit ist sowohl für Studierende der Informatik als auch für Lehrende in diesem Bereich interessant und bietet neue Einblicke in ein Nischengebiet.
Die vorliegende Bachelorthesis setzt sich mit dem Einsatz von digitalen Medien in den Bildungseinrichtungen Hochschule und Berufsschule auseinander. Zunächst werden grundlegende Begrifflichkeiten und digitale Medien beschrieben. Anschließend wird der Gerätebesitz Jugendlicher und die Ausstattung der Bildungsinstitute gezeigt. Im Folgenden wird auf den Einfluss der Coronapandemie in Bezug auf die Digitalisierung eingegangen. Anschließend folgen zwei Konzepte, die einen sinnvollen Einsatz von digitalen Medien in der Bildung gewährleisten sollen.
are you okay?
(2022)
Die Frage “Wie geht es dir?” ist in unserer Gesellschaft eine Höflichkeitsfloskel geworden. Die meisten Menschen antworten mit einem “Gut, und selbst?” und dann wird über etwas anderes gesprochen. Der Großteil redet nicht allzu oft darüber, was sie wirklich beschäftigt. Aber warum eigentlich nicht? Ist es Scham, Angst vor Ablehnung oder einfach nur „gutes“ Benehmen?
Besonders negative Gefühle, wie Wut und Trauer haben in unserem Leben wenig Platz. Sie werden als nicht gut betrachtet und alles was nicht “gut” ist, sollte laut der Gesellschaft lieber versteckt werden. Dieses Buch steht für mehr Gefühlsbewusstsein und soll einen offeneren Austausch mit sich selbst und anderen anstoßen. Denn auch negative Gefühle sollen einen Platz bekommen und können sanftmütig und bewusst gelebt werden.
Dieses Buch ist eine bunte Mischung aus ausgedachten aber realitätsnahen Geschichten vom Scheitern, Texten von Musikern und Bildern zum Träumen und Interpretieren. Es scheint zuerst ungewöhnlich, ausschließlich deutsche Rapper statt alte Philosophen zu zitieren. Doch die Hip-Hop-Kultur hat einiges zu sagen und bringt alltägliche Probleme und Ängste unverblümt auf den Punkt. Manchmal müssen wir nur etwas genauer hinhören.
Das Ziel ist es, einen Workflow zu erstellen, mit dem Produkte von Kunden im 3D-Format aufbereitet und in einer webbasierten Echtzeit-360°-Anwendung zur Schau gestellt werden. Dabei können Betrachter mit dem Produkt interagieren und sich darüber informieren.
Dabei soll sich der Workflow auf den 3D-Artist richten und der Aufwand des Entwicklers möglichst minimiert werden.
Mit dem Öffnen der Webseite wird eine ThreeJS-Anwendung geladen. Die Anwendung enthält eine Szenendatei, in welcher sich eine GLB-Datei (Graphics Language Binary) des 3D-Modells befindet. Diese Datei wurde in 3DsMax, einem gängigen 3D-Programm, aufbereitet und exportiert. Neben der GLB-Datei enthält die Webseite ein Lichtsetting und ein Environment mit separatem Background.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
Um mit einer Marketing- oder Werbemaßnahme erfolgreich zu sein, muss ein Unternehmen die Bedürfnisse und Wünsche der anzusprechenden Zielgruppen kennen. Da
die Generation Z in den kommenden Jahren im Vergleich zu vorangegangenen Generationen einen immer größeren Anteil der Weltbevölkerung und somit der zukünftigen
Konsument*innen ausmachen wird, stellt sie die Zielgruppe der Zukunft dar. Für diese
Generation ist der Umgang mit dem Internet, Smartphones und Apps alltäglich und hat
sich in ihrem Leben bereits fest etabliert. Die vorliegende Bachelorarbeit behandelt basierend auf dieser Tatsache die Frage, ob Mitglieder der Generation Z noch von klassischer Werbung erreicht werden können und wie ein Unternehmen die eigenen Werbemaßnahmen gestalten sollte, um die Generation Z anzusprechen. Damit Rückschlüsse
auf die zielgruppengerechte Marketingkommunikation eines Unternehmens mit der Generation Z gezogen werden konnten, wurden Werke der Fachliteratur und nationale sowie internationale Studien über das Konsument*innenverhalten der Generation Z herangezogen. Um die Erkenntnisse der Literaturrecherche zu untermauern, wurde zusätzlich eine Gruppendiskussion mit Vertreter*innen der Generation Z durchgeführt. Die
qualitative Studie manifestierte die im Theorie-Teil herausgearbeiteten Informationen
und half somit maßgeblich bei der Beantwortung der Forschungsfragen. Im Rahmen
dieser Arbeit konnte festgestellt werden, dass die Generation Z grundsätzlich nicht mehr
von klassischer Werbung erreicht wird, da sie klassische Medien nur noch selten nutzt.
Um Mitglieder der Generation Z als Zielgruppe für sich zu gewinnen, bedarf es einer
Marketingkommunikation, die vorwiegend online und bestenfalls über Social Media
stattfindet und die Konsument*innen individuell mit relevanten Inhalten anspricht.
Unternehmen verfolgen seit Jahren das Ziel, Marketingkampagnen online zur Vermarktung ihrer Produkte einzusetzen. Um einen wachsenden Umsatz zu generieren, greifen sie insbesondere auf das E-Mail-Marketing und Newsletter als Instrument zurück. Viele lassen dabei allerdings trotz der regelmäßigen Versendung von E-Mails Optimierungsbedarf entstehen. Daher ist es notwendig zu verstehen, wie solche Newsletter-Kampagnen konzipiert sind und wie sie funktionieren.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, welche Faktoren für eine gelungene Kampagne beachtet werden sollten und aus diesen einen übersichtlichen Leitfaden zu generieren. Dazu wird die folgende Forschungsfrage gestellt: Inwiefern kann das E-Mail-Marketing und der Newsletter genutzt werden, um die B2C Ziele des Unternehmens erfolgreich zu erfüllen und gleichzeitig die Empfänger und Empfängerinnen zufrieden zu stellen?
Um die Forschungsfrage zu beantworten, wurde eine Literaturrecherche sowie eine qualitative Studie in Form eines Experteninterviews durchgeführt. Die theoretische Literaturrecherche unter-suchte, welche Kriterien bei den jeweiligen Prozessschritten erfüllt sein müssen, damit diese den Nutzenden zufriedenstellt. In der qualitativen Studie waren den teilnehmenden Fachleuten offene Fragen zum E-Mail-Marketing Prozess gestellt worden, die im Anschluss ausgewertet wurden. Dadurch wurden die vorab gewonnenen Kenntnisse auf ihre Anwendbarkeit in der Praxis validiert.
Die Recherche und Interview-Aussagen zeigen, dass die Erfolgsfaktoren in allen Prozessschritten verteilt liegen. Besonders die Planung und die Konzeption der Werbemittel haben einen großen Anteil an der Zufriedenheit von Empfangenden Personen. Neben der Einhaltung der Gesetzlage liegt der Fokus auf einer unternehmensspezifischen Zielsetzung und einer umfangreichen Ziel-gruppenanalyse. Adressen variieren in der Qualität und können unterschiedlich generierbar sein. Sie sollten vor der Nutzung und unabhängig von dem Ursprung validiert werden. Bei der Gestal-tung empfiehlt sich der Einsatz von interessanten Texten, emotionalen Bildern und gut platzierten Call-to-Actions. Die Nutzung einer Personalisierung und Individualisierung erhöht die Aufmerksam-keit und die E-Mail sollte abschließend getestet werden. Grundsätzlich muss für eine inhaltliche Relevanz für den Nutzenden gesorgt sein. Hinsichtlich des Versands sollten Frequenz und Zeit-punkt an die individuellen Zielgruppen angepasst werden. Der Einsatz einer Blacklist vor dem Ver-sand und die Aufnahme in eine Whitelist führen beide zu einer verbesserten Resonanz auf Kun-denseite. Ein erfolgreiches Controlling besteht, neben der Vielzahl an Kennzahlen, vor allem aus einem transparenten Tracking dieser. Nur durch ein Zusammenspiel beider kann die Zielerreichung realistisch betrachtet werden. Die regelmäßige Bereinigung des Adressverteilers von Abmeldern und nicht erreichbaren Adressen, sowie das zielgerichtete Anschreiben von Nicht-Reagierern er-höhen die Performance. Software wirkt dabei unterstützend und sollte genutzt werden
Weiterführende Forschung im E-Mail-Marketing Marketings für Newsletter könnte auf eine noch genauere Betrachtung des Controllings oder der Zielgruppenanalyseausgerichtet sein.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
Die vorliegende Bachelorarbeit befasst sich mit den Marketing-Kommunikationsstrategien im zweiseitigen Markt am Beispiel einer Immobilienplattform.
Das primäre Ziel dieser Arbeit besteht darin, auf Grundlage der Netzwerkeffekte im zweiseitigen Markt und durch Anwendung von Onlinemarketingmaßnahmen die Positionierung der Plattform Immobilien Rith in den Internetsuchergebnissen zu optimieren.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
In this work, an implementation of the somewhat homomorphic BV encryption scheme is presented. During the implementation, care was taken to ensure that the resulting program will be as efficient as possible i.e. fast and resource-saving. The basis for this is the work of Arndt Bieberstein, who implemented the BV scheme with respect to functionality. The presented implementation supports the basics of the BV scheme, namely (symmetric and asymmetric) encryption, decryption and evaluation of addition as well as multiplication. Additionally, it supports the encoding of positive and negative numbers, various gaussian sampling methods, basically infinitely large polynomial coefficients, the generation of suitable parameters for a use case, threading and relinearization to reduce the size of a ciphertext after multiplications. After presenting the techniques used in the implementation, it’s actual efficiency is determined by measuring the timings of the operations for various parameters.
Der Fokus dieser Arbeit liegt auf den Bewegtbildstrategien von Tageszeitungen in Baden-Württemberg. Es sollte aufgezeigt werden welche strategischen Vorgehensweisen die Lokalzeitungen in Baden-Württemberg verwenden und wie sie diese Umsetzen. Weiter sollten Faktoren extrahiert werden, die als erfolgskritisch angenommen werden können. Herausgefunden wurde, dass alle befragten Zeitungsverlage eine konvergenzinduzierte Cross-Media-Strategie verfolgen, in der die Diversifikation vertikal verläuft. Das heißt die Zeitungen sind meist selbst Produzent des Bewegtbilds und nutzen die wechselseitigen Synergieeffekte der redaktionellen Kompetenzen und multimedialen Distributionskanäle. Weiter kann festgestellt werden, dass Im Bereich Bewegtbild Ansätze einer Nischen- oder Fokusstrategie zu erkennen sind.
Als Erfolgsfaktoren können vor allem die lokale Kompetenz, die Format- und Themenwahl von Videos sowie die Redaktionsorganisation, die stark mit der Nutzung von Synergieeffekten zusammenhängt, angenommen werden.
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
Die Bachelorarbeit erarbeitet, welche Rolle das digital Storytelling für B2C-Unternehmen bei der Kundengewinnung -und bindung einnimmt. Gleichzeitig erörtert sie, ob und wie diese intern in der Organisation vom Geschichtenerzählen profitieren.
Um die Forschungsfragen zu beantworten, wird eine Literaturrecherche durchgeführt. Diese gibt Auskunft über die biologische Wirkung und die ausschlaggebende Struktur von Geschichten.
Der wachsende Trend zur Individualisierung von Produkten wird von immer mehr Unternehmen aufgegriffen und umgesetzt. Mithilfe von Produktkonfiguratoren bieten sie ihren Kund*innen die Möglichkeit, ihr eigenes Produkt nach Wunsch zu kreieren. Die Konfiguratoren stehen mit dieser Interaktion vor der Herausforderung die Nutzer*innen als Nicht-Experten erfolgreich durch den Prozess zu leiten. Ein zentraler Bestandteil der erfolgreichen Umsetzung ist die Benutzerfreundlichkeit und dessen anwendungsorientierte Gestaltung.
Diese Arbeit befasst sich mit der Analyse und Optimierung der Usability des Möbelkonfigurators der mycs GmbH. Das Ziel der Arbeit ist die Aufdeckung von Schwachstellen und die Entwicklung passender Handlungsempfehlungen für die Optimierung der Benutzerfreundlichkeit.
Zu diesem Zweck wird der IST-Zustand des Konfigurators ermittelt und darauf aufbauend ein Usability-Test erstellt und durchgeführt. Die verwendeten Methoden des Tests sind Remote-Usability-Interviews, eine qualitative Nachbefragung und die Think-Aloud-Methode. Die im Anschluss ermittelten Handlungsempfehlungen stellen Lösungen zu den analysierten Schwachstellen des Usability-Tests dar.
Die Ergebnisse der Analyse zeigen Schwachstellen in der Orientierung und Unterstützung von Nutzer*innen. Sie bestätigen zudem die Wichtigkeiten dieser beiden Kriterien für die Auseinandersetzung mit einem Möbelkonfigurator. Die entwickelten Handlungsempfehlungen zeigen einige Verbesserungen der Bereiche mit geringem Umsetzungsaufwand auf.
Diese Arbeit befasst sich mit dem Thema Internet of Things und darin insbesondere mit dem Bereich Smart Home und Smart Mobile Home. Wesentliche Aspekte werden zu diesen Gebieten herausgearbeitet und analysiert. Es wird festgestellt, dass kaum Möglichkeiten existieren, Mobile Homes um smarte Systeme zu erweitern, wie es im herkömmlichen Smart Home Bereich der Fall ist.
Die Low-Code Entwicklungsplattform Node-RED wird als Tool für IoT-Anwendungen im Detail vorgestellt und die Funktionsweise wird ausführlich analysiert. Die Vorgehensweise bei der Anwendungsentwicklung, nach welcher einzelne Bausteine zu aneinanderhängenden Abläufen verkettet werden, wird aufgezeigt.
Der in diesem Rahmen entwickelte Prototyp Smart Van setzt dort an, wo die aktuellen Beschränkungen für Smart Mobile Home Systeme sitzen. Planung, Konzeption und die Implementierung mithilfe von Node-RED werden dokumentiert. Die Ergebnisse werden präsentiert und die Umsetzung des Prototyps wird als Erfolg ausgewertet.
Zusammenfassend wird festgehalten, dass Node-RED gegenwärtig und voraussichtlich auch in Zukunft ein wichtiges Werkzeug für Anwendungen im Bereich IoT ist. Für den Prototyp Smart Van werden die nächsten notwendigen Schritte festgehalten, mit deren Umsetzung der Prototyp auf dem Markt von Smart Mobile Home Systemen ein gewisses Potenzial besitzt.
Mit der kontinuierlichen Weiterentwicklung des World Wide Web, der steigenden Anforderungen an beispielsweise Ladege-schwindigkeit (in Millisekunden!) und Nutzungserlebnis und der Einführung moderner Jamstack-Frameworks mit verschiedenen Rendering-Methoden, wird der Prozess bei der Entwicklung von Webanwendungen immer komplexer.
Das Ziel der vorliegenden Arbeit ist es, die Funktionsweise der einzelnen Rendering-Methoden von Webanwendungen und de-ren Vor- und Nachteile zu untersuchen, um anschließend mit dem gewonnenen Wissen entscheiden zu können, welcher Ansatz für bestimmte Projekttypen der richtige ist. Dazu wird die folgende Forschungsfrage gestellt:
Wie kann unter Verwendung neuster Webtechnologien und Ansätze eine performante, nutzungsfreundliche und für Suchmaschinen optimierte Webanwendung erstellt werden, die den heutigen Standards (Core Web Vitals) gerecht wird?
Um die Forschungsfrage zu beantworten, wurde zunächst die Webanwendung selbst und nachfolgend der Stand der Technik bei der Entwicklung von Webanwendungen erläutert. Um ver-schiedene Ansätze und Funktionsweisen bei der Entwicklung einer Webanwendung beurteilen zu können, wurden diese ge-genübergestellt, auf Anwendbarkeit geprüft und die für den Rahmen dieser Arbeit geeigneten Technologien ausgewählt.
Die erarbeiteten theoretischen Grundlagen dienen zur Konzeption und Umsetzung einer interaktiven, multimedialen Präsentations- und Kollaborationsplattform mit dem Namen Collab. Hierbei ist es Benutzer:innen möglich sich über Dienstanbieter:innen und deren Leistungen zu informieren oder sich selbst als Dienstanbieter:in zu registrieren. Zudem können registrierte Personen eigene Projekte erstellen oder an existierenden Projekten teilnehmen, um diese zusammen in Form einer Kollaboration umzusetzen.