Refine
Year of publication
- 2022 (27) (remove)
Document Type
- Master's Thesis (27) (remove)
Has Fulltext
- yes (27)
Is part of the Bibliography
- no (27)
Keywords
- Deep learning (2)
- IT-Sicherheit (2)
- Access Management (1)
- Algorithmus (1)
- Attention-basiert (1)
- Aufmerksamkeit (1)
- Ausstellung (1)
- Automatisiertes Fahren (1)
- Autonomes Fahrzeug (1)
- Bildverarbeitung (1)
Institute
Open Access
- Closed (13)
- Closed Access (13)
- Open Access (1)
An organized strategy to ensure the security of an organization is an information security management system. During various security crises, hazards, and breaches, this strategy aids an organization in maintaining the confidentiality, integrity, and accessibility of information. Organizations are getting ready to comply with information security management system criteria. Despite this, security concerns continue to plague ineffective controls, have poor connectivity, or cause a silo effect, which is a common cause. One of the causes is a low maturity model that is not synchronized with the organization’s business processes. For a higher level of maturity, it is best to evaluate the practices.
Different maturity models on information security and cyber security capacity, management processes, security controls, implementation level, and many more have already been developed by numerous international organizations, experts, and scholars. The present models, however, do not assess a particular organization's particular practices. The evaluation of the business process is frequently neglected because measurement requirements for models are typically more concentrated on examining specific elements. For this reason, it caused the maturity assessment to not be executed explicitly and broadly.
We developed an organizational information security maturity model, a combination of work of different maturity models currently existing. While making this model, we considered that any size or type of organization could use this model. The model considers the success elements of the information security management system when assessing the implementation's effectiveness. We employed a mixed-method strategy that included both qualitative and quantitative research. With the help of a questionnaire survey, we evaluated the previous research using a qualitative methodology. In the quantitative method, we'll figure out how mature the information security management system is now. The proposed model could be used to reduce security incidents by improving implementation gaps.
Diese Arbeit beschäftigt sich mit der simulativen Untersuchung von Strömung und Wärmeübergang im Kontext von Vorkammerzündsystemen. Dies geschieht im Rahmen der Entwicklung eines Gasmotors mit gasgespülter Vorkammer. Entscheidene Größen für die Strömung und Arbeitsweise in einer Vorkammerzündkerze sind die Geometrie und Anordnung der Überströmbohrungen, das Vorkammervolumen und die Form der Vorkammer. Die Betrachtung wird dafür aufgeteilt in die Themen Spaltströmungen, Wärmeübergang und drallbehaftete Strömungen. Diese werden zunächst isoliert betrachtet und letztendlich in einem Anwendungsfall zusammengeführt. Für die Betrachtung von Spaltströmungen werden unterschiedliche Platten mit Bohrlöchern zu verschiedenen Drücken, Durchmessern und Plattenstärken durchströmt und der Wärmeübergang und der Drall werden mithilfe einer durch Leitbleche gelenkte Strömung in einem beheizten Rohr untersucht. Die Zusammenführung der Themen wird anhand einer Anströmvorrichtung für Brenngase auf Motorzylinder durchgeführt. Dabei erreichen die Gase hohe Temperaturen und aufgrund von hohen Drücken und Spaltströmungen große Geschwindigkeiten.
Für die Simulation werden die Programme Ansys Fluent und Ansys Forte verwendet. Während ersteres primär für die Simulation von Strömungen verwendet wird, ist Forte speziell aufgebaut, um in Verbrennungsmotoren neben der Berechnung der Strömung auch die Einspritzung von Kraftstoff, die Verbrennung dessen und die resultierenden Schadstoffe zu berechnen. Da die Ergebnisse aus Forte eine große Gewichtung in der Beurteilung der Entwicklungsarbeit des Gasmotors hat, muss Forte selbst validiert werden. Dies wird durchgeführt anhand der angesprochenen Teilthemen und verglichen mit Messungen aus der Literatur und Simulationsergebnissen in Fluent.
Laut einer Studie der AZT Automotive GmbH sind etwa 75% aller Verkehrsteilnehmer im deutschsprachigen Raum durch fahrzeugseitige Technik abgelenkt. Dies stellt eine der größten Unfallgefahren dar: Bei ca. 11% der Verkehrsunfälle 2002-2012 in Deutschland ist die Ursache auf die Ablenkung des Fahrers zurückzuführen. Mittels Sperrkonzepten, welche den Zugriff auf Bereiche und Funktionen des Infotainmentsystems während der Fahrt limitieren, soll die Fahrerablenkung bei den immer größer werdenden Displays, komplexeren Einstellungsmöglichkeiten und längeren Interaktionspfaden minimiert und die Sicherheit im Straßenverkehr gewährleistet werden.
Diese Masterarbeit befasst sich mit dem Thema Fahrerablenkung im Kontext von automatisierten Fahrfunktionen. Durch die zunehmende Automatisierung des Fahrzeugs können wichtige Fahraufgaben und -funktionen durch Fahrassistenzsysteme übernommen und somit der Fahrer bei der Fahraufgabe und der Überwachung des Verkehrsgeschehens unterstützt bzw. entlastet werden. Dadurch ergeben sich für den Fahrer neue Freiheiten, die es ihm erlauben, seine Aufmerksamkeit (teilweise) von der Fahraufgabe abzuwenden und für andere, fahrfremde Tätigkeiten, wie der Interaktion mit dem Infotainmentsystem, zu nutzen. Ziel der Arbeit ist die Spezifikation und prototypische Umsetzung eines dynamischen Sperrkonzeptes für Infotainmentsysteme in Abhängigkeit des Automatisierungsgrades des Fahrzeugs. Risiken durch Fahrerablenkung sollen mittels Sperrungen von Infotainment-Bereichen und -Funktionen minimiert werden, zeitgleich soll der Zugriff auf Informationen und Unterhaltung für den Fahrer möglichst uneingeschränkt gewährleistet werden. Dabei wird der Fokus auf die Automatisierungsgrade Level eins bis drei (nach SAE) gelegt, wo es immer noch zu einem Wechsel zwischen automatisierten und manuellen Fahrabschnitten kommt.
Als Basis für das dynamische Sperrkonzept dient der Stand der Technik bisheriger wissenschaftlicher Erkenntnisse sowie Studien zu automatisierten Fahrfunktionen, Fahrerablenkung, Arbeitsbelastung, Reaktionszeit und Situationsbewusstsein. Außerdem soll ein Überblick über aktuelle Gesetzes- und Normenlagen sowie Gestaltungsrichtlinien in Bezug auf automatisierte Fahrzeuge bzw. Fahrfunktionen geschaffen werden, welche bei der Entwicklung von Sperrkonzepten eine essenzielle Rolle spielen.
Die Suchmaschinenoptimierung (SEO) ist von zunehmender Bedeutung für ContentErsteller:innen. Ziel dieser Forschung ist das Erstellen eines strukturierten und übersichtlichen SEO-Leitfadens für Redakteur:innen. Dazu wird die folgende Forschungsfrage gestellt: ‚Welche Elemente der Suchmaschinenoptimierung spielen im redaktionellen Prozess eine wesentliche Rolle, um erfolgreiche SEO-Texte zu erstellen?’
Um die Forschungsfrage zu beantworten wurde eine qualitative Studie zu SEO in Bezug auf Redaktuer:innen durchgeführt. Daran nahmen sieben Auskunftspersonen teil, mitunter: erfahrene Redakteur:innen, Informatiker:innen, Online Marketing Expert:innen und SEOs. Konkret beschäftigt sich die Studie mit dem Erstellen von Texten und Artikeln für WebMagazine und Blogs. In der qualitativen Studie wurden offene Fragen durch die Interviewtechnik des problemzentrierten Interviews gestellt. Das erhobene Material wurde dann durch eine qualitative Inhaltsanalyse ausgewertet.
Die Analyse des Materials erlaubte die Schritte Keyword-Recherche, Themensuche, Keyword-Analyse, SEO-Briefing und Text-Schreiben zu definieren, um sie danach in eine sinnvolle Reihenfolge zu ordnen. Der Leitfaden soll Redakteur:innen dabei helfen, einen besseren Überblick zum SEO-Prozess zu erlangen und das selbständige Durcharbeiten der Schritte vor dem Schreiben eines SEO-Artikels oder -Texts ermöglichen.
Digitales Engineering wird zunehmend wichtiger in unserer digitalen Welt. Auch die Hochschule und im speziellen der Bildungscampus Gengenbach hat den Anspruch, sich stets weiterzuentwickeln und den Studierenden die fortschreitende Technik greifbar und praxisnah zu vermitteln. Das digitale Engineering bietet dazu Möglichkeiten, neue studentische Lehrkonzepte zu entwickeln und umzusetzen, die beispielsweise aus neuartiger Software besteht. Durch den demografischen Wandel und den zunehmenden Kostendruck sind immer mehr Industrieunternehmen gezwungen, ihre Prozesse zu digitalisieren und neuste Software im Bereich Engineering einzusetzen. Deswegen müssen die zukünftigen Studierenden auf die neue Rolle optimal vorbereitet werden.
Die Herausforderung ist dabei, eine geeignete Software zu finden und zu analysieren. Vor diesem Hintergrund beschäftigt sich diese Arbeit zuerst mit einer Softwareanalyse. Zunächst gilt es, nach einer Einarbeitungsphase in die verschiedensten Engineering Softwaretools One Pager mit den wichtigsten Informationen zu erstellen. Danach wird eine Nutzwertanalyse durchgeführt, um zu definieren, welche Software den Ansprüchen gerecht wird.
Danach wird eine Planung und Auslegung eines Kollaborativen Engineering Laborkonzeptes durchgeführt. Dabei wird unterschieden in eine Planung auf einer grünen Wiese, das bedeutet es gibt keine Flächenbegrenzung und als weitere Variante mit der Planung auf der Fläche des derzeitigen Virtual Engineering Labors im Bildungscampus Gengenbach.
Anschließend wird ein Lehrkonzept für das neue Labor und entsprechenden Engineering Tools erarbeitet. Dabei geht es hauptsächlich um die Machbarkeit und der Definition der möglichen Potenziale und Umsetzung der Kollaboration.
Even though the internet has only been there for a short period, it has grown tremendously. To- day, a significant portion of commerce is conducted entirely online because of increased inter- net users and technological advancements in web construction. Additionally, cyberattacks and threats have expanded significantly, leading to financial losses, privacy breaches, identity theft, a decrease in customers’ confidence in online banking and e-commerce, and a decrease in brand reputation and trust. When an attacker pretends to be a genuine and trustworthy institution, they can steal private and confidential information from a victim. Aside from that, phishing has been an ongoing issue for a long time. Billions of dollars have been shed on the global economy. In recent years, there has been significant progress in the development of phishing detection and identification systems to protect against phishing attacks. Phishing detection technologies frequently produce binary results, i.e., whether a phishing attempt was made or not, with no explanation. On the other hand, phishing identification methodologies identify phishing web- pages by visually comparing webpages with predetermined authentic references and reporting phishing together with its target brand, resulting in findings that are understandable. However, technical difficulties in the field of visual analysis limit the applicability of currently available solutions, preventing them from being both effective (with high accuracy) and efficient (with little runtime overhead). Here, we evaluate existed framework called Phishpedia. This hybrid deep learning system can recognize identity logos from webpage screenshots and match logo variants of the same brand with high precision. Phishpedia provides high accuracy with low run- time. Lastly, unlike other methods, Phishpedia does not require training on any phishing sam- ples whatsoever. Phishpedia exceeds baseline identification techniques (EMD, PhishZoo, and LogoSENSE), inaccurately detecting phishing pages in lengthy testing using accurate phishing data. The effectiveness of Phishpedia was tested and compared against other standard machine learning algorithms and some state-of-the-art algorithms. The given solutions performed better than different algorithms in the given dataset, which is impressive.
Reibung und Verschleiß in tribologischen Kontakten verursachen knapp ein Viertel des weltweiten Primärenergiebedarfs. Dies stellt ein enormes Potential zur Minderung von Treibhausgasemissionen und Absenkung von Kosten dar. Aufgrund dessen ist die Optimierung von Reibkontakten ein Kernthema der Tribologie. Hierfür ist der Supraschmierzustand, bei welchem die Reibung aufgrund spezieller Schmiermechanismen annähernd vollständig verschwindet (Reibungszahl 𝜇 ⩽ 0,01), von besonderem Interesse. Die jährlich steigende Anzahl an Veröffentlichungen belegt das hohe wissenschaftliche Interesse an dem Thema. Bisher konnte Supraschmierung jedoch nur für Modellsysteme nachgewiesen werden, das Übertragen auf technische Systeme ist noch nicht gelungen.
Ziele dieser Arbeit waren der Nachweis von Supraschmierung in einem punktförmigen Modellkontakt und die Überführung in den Flächenkontakt eines realen Gleitlagers durch Verwendung von technischer Keramik und/oder DLC-Beschichtungen.
Hierfür wurde zunächst das Schmierverhalten einiger Modellschmierstoffe in einem Stahl/a-C:H:Si- Kontakt untersucht. Die niedrigsten Reibwerte wurden bei Verwendung von Glycerol erzielt. Daher wurde Glycerol als Modellschmierstoff für weitere tribologische Untersuchungen an unterschiedlichen Oberflächen (a-C:H, ta-C, Keramik) verwendet.
Die besten Ergebnisse hinsichtlich Reibung und Verschleiß wurden mit technischer Keramik erzielt. Mit einer Stahl/Si3N4-Paarung wird bei 80 °C Supraschmierung für Gleitgeschwindigkeiten von 0,007 𝑚/𝑠 bis 0,965 𝑚/𝑠 nachgewiesen. Als kleinste Reibungszahl wird 𝜇 = 0,0015 gemessen.
Die geringste Reibung in einem Stahl/DLC-Kontakt wird mit einer a-C:H:Si-Schicht erreicht. Hierbei konnte Supraschmierung bei 80 °C für Gleitgeschwindigkeiten von 0,029𝑚/𝑠 bis 0,484𝑚/𝑠 nachgewiesen werden. Die kleinste Reibungszahl für das System beträgt 𝜇 = 0,0063.
Der Nachweis von Supraschmierung gelingt für anwendungsnahe Betriebsparameter, dies stellt einen Fortschritt gegenüber den meisten Literaturdaten dar. Um die Übertragbarkeit auf technische Systeme zu demonstrieren,werden die besten identifizierten Oberflächen und Schmierstoffe auf einem anwendungsnahen Gleitlagerprüfstand untersucht. Durch Verwendung von a-C:H:Si-beschichteten Wellen und Glycerol als Schmierstoff kann der Reibwert bei Raumtemperatur von 𝜇 = 0,965 im Referenzsystem auf 𝜇 = 0,038 gesenkt werden.
Um die Arbeit fortzusetzen, werden die identifizierten Systeme in axiallagerähnlicher Anordnung (Gleitring/Gleitpad) untersucht.
Um gezielt DLC-Schichten zu entwickeln, sind Reibungssimulationen notwendig. Im nächsten Schritt sollen umfassende Oberflächenanalysen durchgeführt werden, um die nötige Datenbasis für die Simulation zu erstellen.
Die Hohlprobentechnik soll als Alternative zur Autoklavtechnik eingesetzt werden,
um Werkstoffe unter Druckwasserstoffeinfluss charakterisieren zu können. Daher
wird in dieser Arbeit die Hohlprobengeometrie unter LCF-Belastung mit Hilfe
der Finite-Elemente-Methode untersucht. Dabei wird besonders auf den Einfluss
des Innendrucks, der Belastung und der Temperatur eingegangen. Die Ergebnisse
werden mit der Vollprobengeometrie verglichen, um die Eignung der Hohlprobe als
Alternative zur Vollprobe zu untersuchen. Ohne Innendruck ist kein Unterschied
im Verformungsverhalten zwischen Voll- und Hohlprobe zu erkennen. Bei hohen
Innendrücken kann die Hohlprobe ihre Formstabilität verlieren. Daher können in
Experimenten nicht alle Kombinationen aus Temperatur und Innendruck untersucht
werden.
Im zweiten Teil der Arbeit wird die belastungsabhängige Wasserstoffdiffusion an einer
angerissenen Hohlprobe numerisch untersucht. Durch die Spannungsgradienten an der
Rissspitze wird die Wasserstoffkonzentration beeinflusst. Um einen Zusammenhang
zwischen der Plastizität und der Diffusion zu untersuchen, wird eine plastische und
eine Diffusionszone ausgewertet. Hier zeigt sich, dass die Diffusionszone hauptsächlich
von der Risslänge und weniger von der Belastung abhängt.
Ziel der vorliegenden Arbeit ist die Durchführung einer Stadtklimasimulation vom Campus Offenburg. Um die Simulation auf Plausibilität überprüfen zu können, werden zudem Mikroklimamessungen vom Offenburger Campus durchgeführt. Die Ergebnisse der Simulation sollten im Anschluss mit den Messergebnissen verglichen werden.
Für die Durchführung der Stadtklimasimulation sowie der Mikroklimamessung werden zunächst verschiedene Vorbereitungen getroffen. Für die Stadtklimasimulation müssen im wesentlichen zwei Dateien vorbereitet werden. Eine Datei enthält Informationen zur Topologie, während die andere Datei Informationen zur Initialisierung der Simulation beinhaltet. Um den Rechenaufwand der Simulation gering halten zu können, müssen verschiedene Vereinfachungen getroffen werden. Für die Mikroklimamessung muss ein Messsystem entwickelt werden, welches sich aus stationären sowie mobilen Temperaturmessungen zusammensetzt. Für die stationäre Temperaturmessung werden Sensoren, verteilt über den ganzen Campus, platziert. Bei der mobilen Messung kommt eine Messvorrichtung mit GPS System, welches auf einem Fahrrad aufgebaut wird, zum Einsatz. Für Innenraum-temperaturen stehen fest installierte Sensoren zur Verfügung.
Der Vergleich zwischen Simulation und Messung zeigt auf, dass die Außentemperaturen der Simulation zu hoch sind. Die simulierten Temperaturdifferenzen können unter Berücksichtigung der getroffenen Vereinfachungen plausibilisiert werden. Die simulierten Innenraumtemperaturen weisen große Unterschiede im Vergleich zu den Messungen auf. Dies kann auf die getroffenen Vereinfachungen bei der Simulation zurückgeführt werden. Der Vergleich der Ergebnisse zeigt, dass Anpassungen in der Simulation erforderlich sind.
As information technology continues to advance at a rapid speed around the world, new difficulties emerge. The growing number of organizational vulnerabilities is among the most important issues. Finding and mitigating vulnerabilities is critical in order to protect an organization’s environment from multiple attack vectors.
The study investigates and comprehends the complete vulnerability management process from the standpoint of the security officer job role, as well as potential improvements. Few strategies are used to achieve efficient mitigation and the de- velopment of a process for tracking and mitigating vulnerabilities. As a result, a qualitative study is conducted in which the objective is to create a proposed vulner- ability and risk management process, as well as to develop a system for analyzing and tracking vulnerabilities and presenting the vulnerabilities in a graphical dash- board format. This thesis’s data was gathered through an organized literature study as well as through the use of various web resources. We explored numerous ap- proaches to analyze the data, such as categorizing the vulnerabilities every 30, 60, and 90 days to see whether the vulnerabilities were reoccurring or new. According to our findings, tracking vulnerabilities can be advantageous for a security officer.
We come to the conclusion that if an organization has a proper vulnerability tracking system and vulnerability management process, it can aid security officers in having a better understanding of and making plans for reducing vulnerabilities. In terms of system patching and vulnerability remediation, it will also assist the security officer in identifying areas of weakness in the process. As a result, the suggested ways provide an alternate approach to managing and tracking vulnerabilities in an effective manner, although there is still a small area that needs additional analysis and research to make it even better.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
Die vorliegende Masterarbeit hatte zum Ziel, die Effektivität des Influencer Marketings auf der Livestreaming-Plattform Twitch.tv zu untersuchen, da diesbezüglich zum einen bisher kaum geforscht wurde und zum anderen die Influencer Marketing Industrie weiterhin von Jahr zu Jahr wächst. Mittels eines Experiments basierend auf einem Forschungsmodell zweier norwegischer Masterstudentinnen wurde ein randomisiertes Zwei-Gruppen-Experiment durchgeführt, um die Effektivität des Influencer Marketings zu messen, sowie den Einfluss von Parasozialen Interaktionen auf die Effektivität des Influencer Marketings zu analysieren. Außerdem wurde ein Vergleich zwischen dem Influencer Marketing und einer regulären Online-Werbung gezogen. Für die Durchführung des Experiments konnten 184 Probanden gewonnen werden, welche randomisiert einem Treatment in Form eines gesponserten Twitch-Streams oder einem Videospieltrailer ausgesetzt waren. Trotz dieser Anzahl konnten im Laufe der Analyse keine signifikanten Ergebnisse erzielt werden. Jedoch konnten diverse Erkenntnisse gewonnen und Empfehlungen für zukünftige Forschung mit dem Fokus Influencer Marketing auf Twitch.tv ausgesprochen werden.
On a regular basis, we hear of well-known online services that have been abused or compromised as a result of data theft. Because insecure applications jeopardize users' privacy as well as the reputation of corporations and organizations, they must be effectively secured from the outset of the development process. The limited expertise and experience of involved parties, such as web developers, is frequently cited as a cause of risky programs. Consequently, they rarely have a full picture of the security-related decisions that must be made, nor do they understand how these decisions affect implementation accurately.
The selection of tools and procedures that can best assist a certain situation in order to protect an application against vulnerabilities is a critical decision. Regardless of the level of security that results from adhering to security standards, these factors inadvertently result in web applications that are insufficiently secured. JavaScript is a language that is heavily relied on as a mainstream programming language for web applications with several new JavaScript frameworks being released every year.
JavaScript is used on both the server-side in web applications development and the client-side in web browsers as well.
However, JavaScript web programming is based on a programming style in which the application developer can, and frequently must, automatically integrate various bits of code from third parties. This potent combination has resulted in a situation today where security issues are frequently exploited. These vulnerabilities can compromise an entire server if left unchecked. Even though there are numerous ad hoc security solutions for web browsers, client-side attacks are also popular. The issue is significantly worse on the server side because the security technologies available for server-side JavaScript application frameworks are nearly non-existent.
Consequently, this thesis focuses on the server-side aspect of JavaScript; the development and evaluation of robust server-side security technologies for JavaScript web applications. There is a clear need for robust security technologies and security best practices in server-side JavaScript that allow fine-grained security.
However, more than ever, there is this requirement of reducing the associated risks without hindering the web application in its functionality.
This is the problem that will be tackled in this thesis: the development of secure security practices and robust security technologies for JavaScript web applications, specifically, on the server-side, that offer adequate security guarantees without putting too many constraints on their functionality.
Technology advancement has played a vital role in business development; however, it has opened a broad attack surface. Passwords are one of the essential concepts used in applications for authentication. Companies manage many corporate applications, so the employees must meet the password criteria, which leads to password fatigue. This thesis addressed this issue and how we can overcome this problem by theoretically implementing an IAM solution. In this, we disused MFA, SSO, biometrics, strong password policies and access control. We introduced the IAM framework that should be considered while implementing the IAM solution. Implementing an IAM solution adds an extra layer of security.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
Herr Vater & Ich
(2022)
Mein Vater wurde im Jahr 1952 geboren. Über das, was er in den 40 Jahren vor meiner Geburt erlebt hat, hat er mir immer wieder Geschichten erzählt, die mich unterhalten, belustigt oder verwundert haben. Geschichten, die mir immer wieder zeigten, dass ich ihn, abseits von seiner Rolle als Vater, gar nicht wirklich kenne. Dabei hat er mich in vielerlei Hinsicht geprägt. Mit der Musik, die er mit mir gemacht hat, den Bildern, die er mit mir gemalt hat, den Büchern, Platten und Filmen, die er mir geschenkt hat und mit den Geschichten, die er erzählt und vor allem wie er sie erzählt. Aber was für meine Person ist mein Vater eigentlich?
Ich sammle Anekdoten, die einen lebhaften Eindruck über seine Erfahrungen und Erlebnisse geben und erfahre mehr über den historischen Kontext und die gesellschaftliche Situation, die seine persönliche Lebensgeschichte prägten. Ich tauche ein, in ein Leben voll von Kindheitserinnerungen aus der Nachkriegszeit und zufälligen Begegnungen, aus denen sich langjährige Freundschaften ergeben. Ich lerne mehr über den Umgang mit dem Tod, darüber wie man Entscheidungen trifft und lausche Geschichten von jugendlichem Übermut und aufregenden Schiffsfahrten. Mit jeder dieser Geschichten lerne ich meinen Vater neu und besser kennen, sehe mich darin selbst wieder oder bin auch einfach nur überrascht.
Denn die Auseinandersetzung mit meinem Vater ist notwendigerweise eine Auseinandersetzung mit mir selbst. Wo finde ich mich in seinen Geschichten selbst wieder? Wo macht er Fehler, die ich auch gemacht hätte, aber wo trifft er auch Entscheidungen, die ich mir nicht zutrauen würde? Ich erfahre, was wir gemeinsam haben, aber auch wo wir uns unterscheiden. Wir als Person, aber auch wir in unserem historischen Kontext. Wo in ihm ein Seemanns-Lied aus einer Musiktruhe den Wunsch weckte, zur See zu fahren, da höre ich noch immer die Platten, die er mir als Kind vorgespielt hat. Dass er mit seinen Eltern und seinem Bruder in einem Zimmer geschlafen und aufgewachsen ist, scheint für mich heute undenkbar. Und zusammen versuchen wir den Weg seines Vaters, meines Opa, nach Deutschland nachzuvollziehen und ergründen die Wurzeln der Familie.
Bilder, Dokumente und Tape-Aufnahmen eines rumänischen Kirchenchors veranschaulichen Erzählungen, die bis vor den Zweiten Weltkrieg zurückreichen und werden ergänzt und erweitert durch Medien, die erst im Rahmen dieser Arbeit entstanden sind. Es entsteht eine digitale Ausstellung und weit mehr, als ein individuelles Porträt. „Herr Vater & Ich” ist eine Sammlung von Kurzgeschichten, eine Auseinandersetzung mit Geschichte und gesellschaftlicher Veränderung, eine Verständigung zwischen Generationen.
Eine Einladung zum Zuhören & Kennenlernen.
Die hohen Produktionskosten verhindern derzeit weitere industrielle Anwendungen des Rührreibschweißens (engl. friction stir welding, FSW), selbst wenn eine deutlich höhere Ermüdungsfestigkeit der Verbindungen im Vergleich zum konventionellen Lichtbogenschweißen erreicht werden kann. Eine höhere Schweißgeschwindigkeit kann zwar die Kosten senken, wirkt sich aber negativ auf die Ermüdungsfestigkeit der FSW-Verbindungen aus. Als mögliche Lösung wurde das hydrostatische Festwalzen angewandt, um die Ermüdungsfestigkeit artgleicher und ungleicher FSW-Verbindungen aus den Legierungen EN AW 5083 und EN AW 6082 zu verbessern, die mit unterschiedlichen Schweißgeschwindigkeiten hergestellt wurden. Zusätzlich wurde die Ermüdungsfestigkeit direkt mit konventionell durch Metall-Inertgasschweißen (MIG) hergestellten Verbindungen und mit Grundwerkstoffproben aus EN AW 5083 verglichen. Die Oberflächenbeschaffenheit im geschweißten Zustand wurde durch Messungen der Oberflächenrauigkeit und der Eigenspannung charakterisiert. Ermüdungsversuche wurden durchgeführt, um die Ermüdungsfestigkeit der Verbindungen zu quantifizieren. Nach dem Festwalzen wurden ähnliche Druckeigenspannungen für artgleiche und ungleiche Verbindungen ermittelt. Für festgewalzte artgleiche Verbindungen aus EN AW 5083 wurde keine Verbesserung der Ermüdungsfestigkeit festgestellt. In diesem Zustand lag die Ermüdungslebensdauer der Probe jedoch im Bereich des Grundmaterials. Somit wurde eine signifikant niedrigere Ermüdungslebensdauer und eine hohe Verbesserung der Ermüdungslebensdauer durch Festwalzen für ungleiche Verbindungen erreicht. Eine Erhöhung der Schweißgeschwindigkeit von 300 mm/min auf 800 mm/min verringerte die Ermüdungsfestigkeit von Mischschweißverbindungen in diesem Fall stark.
Durch die Fortschritte im Bereich der Quantencomputer rückt der Zeitpunkt näher, dass Quantencomputer die bestehenden mathematischen Probleme lösen können, welche in den aktuellen Public-Key-Verschlüsselungsverfahren verwendet werden. Als Reaktion darauf wurde ein Standardisierungsprozess für quantensichere Public-Key-Verschlüsselungsverfahren gestartet. Diese Arbeit analysiert diese und vergleicht sie untereinander, um Stärken und Schwächen der einzelnen Verfahren aufzuzeigen.
Komplexe E-Commerce-Systeme müssen heutzutage immer schneller am Markt sein und sich an diesen anpassen. Dies wird durch SaaS-Services möglich, wodurch sich die Best-of-Breed-Lösungen einsetzen lassen. Der monolithische Ansatz der meisten E-Commerce-Systeme ist für diese Anwendungen nicht mehr geeignet. Abhilfe soll der Composable-Commerce-Ansatz schaffen. Für den Ansatz wird eine Integrationslösung benötigt. Ziel dieser Thesis ist es, Integrationslösungen zu evaluieren und mithilfe von Integration-Layer-Prototypen gegenüberzustellen. Es werden zwei Integrationslösungen ausgewählt, die als Prototyp implementiert werden. Für den ersten Prototypen wird Apache Camel in einem Spring-Boot-Server verwendet. Der zweite Prototyp setzt die AWS-eigenen Services für die Integration ein. Zum Schluss werden diese durch einen Last-Test auf ihre Performance geprüft.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Die vorliegende Masterarbeit setzt sich mit dem Thema „Digitale Medien und soziale Anerkennung“ auseinander. Dabei wird der Frage nachgegangen, welchen Einfluss die Nutzung digitaler Medien auf das Selbstbild junger Erwachsener, auf das Thema Cybermobbing und den zwischenmenschlichen Umgang in der Gesellschaft hat. Als Praxisbeispiel wurde exemplarisch die Folge „Nosedive“ der dystopischen Sci-Fi-Serie „Black Mirror“ ausgewählt, in der eine Gesellschaft porträtiert wird, deren Leben durch ein soziales Bewertungssystem bestimmt wird. Im Zuge dessen soll ein Bezug zu realen Sozialkredit-Systemen hergestellt werden. Das Ziel der Forschung ist es, eine umfangreiche Analyse der Auswirkungen des Medienkonsums von Fiktion und Realität vor dem Hintergrund sozialer Anerkennung durchzuführen.
Im theoretischen Teil der Arbeit soll allgemein auf digitale Medien, das Nutzungsverhalten von Jugendlichen sowie auf die Bedeutung von Identität und Selbstbild (im Netz) eingegangen werden. Sowohl die Einflüsse der digitalen Mediennutzung auf die Identität, das Selbstbild sowie die Selbstdarstellung als auch die allgemeinen positiven und negativen Auswirkungen durch exzessiven Medienkonsum von Jugendlichen sollen in dieser Arbeit näher beleuchtet und einander gegenübergestellt werden. Im nächsten Schritt sollen die Auswirkungen auf die Bereiche Cybermobbing sowie die zwischenmenschliche Kommunikation und soziale Beziehungen untersucht werden. Nach Abhandlung der Einflüsse und Auswirkungen auf die Jugendlichen unserer Gesellschaft folgt der praktische Teil der Arbeit, in dem zunächst die Anthologie-Serie „Black Mirror“ und die Inhalte der Folge „Nosedive“ vorgestellt werden sollen. Anhand ausgewählter Merkmale soll die fiktionale Welt mit unserer modernen Gesellschaft analysiert und verglichen werden. Abschließend soll auf die Sozialkredit-Systeme in China eingegangen und ein Bezug zur Folge hergestellt werden. In der Analyse sollen die Ergebnisse der vorangegangenen Kapitel miteinbezogen werden. Die Ergebnisse der Arbeit zeigen, dass digitale Medien einen weitreichenden sowohl positiven als auch negativen Einfluss auf Jugendliche haben. Die Nutzung hat viele Bereiche unseres Lebens bereits verändert. Besonders soziale Medien hinterlassen ihre Spuren in der Identität und Werteentwicklung von Kindern und Jugendlichen. Obwohl sie in der jüngeren Generation hohes Ansehen genießen, bestimmen sie jedoch (noch) nicht über andere Bereiche des Lebens.
Im Rahmen dieser Arbeit wird eine digitale Volkshochschule, die Onrhein vhs, konzipiert und umgesetzt. Ziel ist es, eine neue Zielgruppe im Alter von 18- bis 35-Jahren zu erreichen und die Digitalisierung in den Volkshochschulen zu fördern. Dies umfasst die Entwicklung einer für diese Zielgruppe attraktive Internetpräsenz, bestehend aus einem neuen Design, einer neuen Webseite und einem Social-Media-Kanal. Während der Pilotphase der Weiterbildungsoffensive WEITER.mit.BILDUNG@BW werden Erkenntnisse für den zukünftigen digitalen Betrieb der Volkshochschulen gesammelt und evaluiert. Um die Entwicklungen auf die Bedürfnisse der Zielgruppe anzupassen, wird im Verlauf der Arbeit eine Umfrage zur Weiterentwicklung der Volkshochschulen durchgeführt und ausgewertet. Gemeinsam mit der Region werden Ansätze zur Zusammenarbeit unter den bestehenden Volkshochschulen und der Onrhein vhs erarbeitet, um die Digitalisierung gemeinsam zu bewältigen.
Decarbonisation Strategies in Energy Systems Modelling: Biochar as a Carbon Capture Technology
(2022)
The energy system is changing since some years in order to achieve the climate goals from the Paris Agreement which wants to prevent an increase of the global temperature above 2 °C. Decarbonisation of the energy system has become for governments a big challenge and different strategies are being stablished. Germany has set greenhouse gas reduction limits for different years and keeps track of the improvement made yearly. The expansion of renewable energy systems (RES) together with decarbonisation technologies are a key factor to accomplish this objective.
This research is done to analyse the effect of introducing biochar, a decarbonisation technology, and study how it will affect the energy system. Pyrolysis is the process from which biochar is obtained and it is modelled in an open-source energy system model. A sensibility analysis is made in order to assess the effect of changing the biomass potential and the costs for pyrolysis.
The role of pyrolysis is analysed in the form of different future scenarios to evaluate the impact. The CO2 emission limits from the years 2030 and 2045 are considered to create the scenarios, as well as the integration of flexibility technologies. Four scenarios in total are assessed and the result from the sensibility analysis considering pyrolysis are always compared to the reference scenario, where pyrolysis is not considered.
Results show that pyrolysis has a bigger impact in the energy system when the CO2 limit is low. Biochar can be used to compensate the emissions from other conventional power plant and achieve an energy transition with lower costs. Furthermore, it was also found that pyrolysis can also reduce the need of flexibility. This study also shows that the biomass potential and the pyrolysis costs can affect a lot the behaviour of pyrolysis in the energy system.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
In each company Top Managers have the responsibility to take major decisions that supports the success of their company, Adopting TQM is one of these decisions, the decision to carry out companies’ operations and procedures within TQM frameworks. (ASQ , n.d.). Applying TQM, involves implementing practices that needs putting extra efforts, otherwise there will be no use of the practices and the execution. (Nicca Jirah F Campos1, 2022).
Specifically in service sector, where the key to success and increased profit, comes directly through a satisfied customer. Therefor there is a need for both management and staff to have big tolerance and willingness to achieve the needed satisfaction, in order to attain the results that every company wants. (Charantimath, 2013)
In Germany in terms of customer care practices there is a famous stereotype ‘Customer is not the king’ A reputation That after DW investigated it, DW expressed it as a phenomenon where both expats and Germans tend to believe that service companies in Germany should do a better job of treating their consumers. (DW, 2016)
New concepts of business have emerged in the late century, for example strategy, leadership, marketing, entrepreneurship and others, these concepts spread internationally among most of the companies around the world. Many studies have been done reviewing these new business structures, some of them addressed the cultural differences within countries upon the applying them. But not many studies concentrated on taking into consideration how cultural differences affects the Implementation of TQM. (Lagrosen, 2002). It was concluded in general that although the comprehensive fundamentals of quality management are applicable and similar worldwide in all nations, but when coming to real practice accurate tunning must be made, it must be taken into account aligning different standards, due to different work cultures and traditions in Europe. (Krueger, 1999)