Refine
Year of publication
Document Type
- Master's Thesis (205) (remove)
Has Fulltext
- yes (205)
Is part of the Bibliography
- no (205)
Keywords
- IT-Sicherheit (9)
- E-Learning (7)
- Deep learning (6)
- Maschinelles Lernen (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Computersicherheit (4)
- Internet of Things (4)
- JavaScript (4)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (53)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (39)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34)
- Fakultät Wirtschaft (W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (5)
- INES - Institut für nachhaltige Energiesysteme (4)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (72)
- Open Access (32)
- Diamond (6)
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
In each company Top Managers have the responsibility to take major decisions that supports the success of their company, Adopting TQM is one of these decisions, the decision to carry out companies’ operations and procedures within TQM frameworks. (ASQ , n.d.). Applying TQM, involves implementing practices that needs putting extra efforts, otherwise there will be no use of the practices and the execution. (Nicca Jirah F Campos1, 2022).
Specifically in service sector, where the key to success and increased profit, comes directly through a satisfied customer. Therefor there is a need for both management and staff to have big tolerance and willingness to achieve the needed satisfaction, in order to attain the results that every company wants. (Charantimath, 2013)
In Germany in terms of customer care practices there is a famous stereotype ‘Customer is not the king’ A reputation That after DW investigated it, DW expressed it as a phenomenon where both expats and Germans tend to believe that service companies in Germany should do a better job of treating their consumers. (DW, 2016)
New concepts of business have emerged in the late century, for example strategy, leadership, marketing, entrepreneurship and others, these concepts spread internationally among most of the companies around the world. Many studies have been done reviewing these new business structures, some of them addressed the cultural differences within countries upon the applying them. But not many studies concentrated on taking into consideration how cultural differences affects the Implementation of TQM. (Lagrosen, 2002). It was concluded in general that although the comprehensive fundamentals of quality management are applicable and similar worldwide in all nations, but when coming to real practice accurate tunning must be made, it must be taken into account aligning different standards, due to different work cultures and traditions in Europe. (Krueger, 1999)
The effects of climate change, including severe storms, heat waves, and melting glaciers, are highlighted as an urgent concern, emphasising the need to decrease carbon emissions to restrict global warming to 1.5°C. To accomplish this goal, it is vital to substitute fossil fuel-based power plants with renewable energy sources like solar, wind, hydro, and biofuels. Despite some progress being made, the proportion of renewables used in generating electricity is still lower than the levels needed for 2030 and 2050. Decarbonising the power grid is also critical in lowering the energy consumption of buildings, which is responsible for a substantial percentage of worldwide electricity usage. Even though there has been substantial expansion in the worldwide renewable energy market in the past 15 years, the transition to renewable energy sources also requires taking into account the importance of energy trading.
Peer-to-peer (P2P) electricity trading is an emerging type of energy exchange that can revolutionise the energy sector by providing a more decentralised and efficient way of trading energy. This research deals about P2P electricity trading in a carbon-neutral scenario. 'Python for Power System Analysis' (PyPSA) was used to develop models through which the P2P effect was tested. Data for the entire state of Baden-Württemberg (BW) was collected. Three scenarios were taken into consideration while developing models: 2019 (base), 2030 (coal phase-out), and 2040(climate neutral). Alongside this, another model with no P2P trading was developed to make a comparison. In addition, the use case of community storage in a P2P trading network is also presented.
The research concludes that P2P has a significant positive effect on a pathway to achieve climate neutrality. The findings show that the share of renewables in electricity generation is increasing compared to conventional sources in BW, which can be traded to meet the demand. From the storage analysis, it can be concluded that community storage can be effectively utilised in P2P trading. While the emissions are reduced, the operating costs are also reduced when the grid has P2P trading available. By highlighting the benefits of P2P trading, this research contributed to the growing body of research on the effectiveness of P2P trading in an electricity network grid.
Der aktuell verbaute Hatz-Dieselmotors des Schluckspecht V soll durch einen leichten und effizienten Ottomotor ersetzt werden. Dieser Ottomotor wird zukünftig mit dem Alkohol Ethanol betrieben. Hierfür müssen, auch hinsichtlich des Wettbewerb-Einsatzes beim Shell Eco-marathon, einige Optimierungen durchgeführt werden.
Die hier vorliegende Master-Thesis behandelt den Aufbau und die Optimierung des Ver-suchsprüfstands, welcher für Testzwecke für den neuen Ottomotor entwickelt wurde. Im speziellen wird auf das Thema Kraftstoffsystem, welches für den Betrieb mit Ethanol aus-gelegt wird, eingegangen. Des Weiteren erfolgt die Konstruktion einer optimierten Ansaugstrecke, welche auf den Verbrennungsmotor appliziert werden soll. Hierfür werden mehrere Varianten strömungstechnisch untersucht und am Objekt getestet. Zudem soll die Verdichtung des Verbrennungsmotors durch einen optimierten Kolben erhöht und die Ventilsteuerzeiten durch eine optimierte Nockenkontur perfektioniert werden. Hierbei besteht die Aufgabe darin diese Bauteile zu besorgen und die Fertigung zu koordinieren. Eine weitere Tätigkeit ist die Aufnahme und Beseitigung von Fehlern des Versuchsprüfstands, welche einen reibungslosen Versuchsalltag verhindern bzw. erschweren. Die letzte Tätigkeit umfasst das Durchführen von experimentellen Untersuchungen des Verbrennungsmotors und das Anlegen von Kennfeldern, welche einen effizienten Motorlauf gewährleisten.
Die Grundlage meiner Masterarbeit ist die Musikvideoproduktion „Honey“ in Zusammenarbeit mit der Band Sebamana. Der vorliegende theoretische Teil der Arbeit ergänzt die Musikvideoproduktion auf wissenschaftlicher Ebene. Er soll die einzelnen Schritte einer Filmproduktion aufzeigen, vom Drehbuch bis zur Verwertung, und auf die Arbeits- und Rollenverteilung im Team eingehen.
Die verschiedenen Rollen innerhalb eines Projektes werden mit ihren jeweiligen Aufgabenbereichen vorgestellt. Dabei machen sich auch Unterschiede zwischen kleinen und großen Produktionen bemerkbar und ihre Vor- und Nachteile werden deutlich. Kommunikation und Transparenz zwischen den Departments ist die Voraussetzung für eine gute Zusammenarbeit im Team.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
In der vorliegenden Arbeit wird Augmented Reality (AR) sowohl in der Theorie als auch in der Praxis ausführlich behandelt. Die Technik, welche in den letzten Jahren stark weiterentwickelt wurde, die Entwicklungsgeschichte, sowie die Projektbegleitung (aus Sicht des Auftraggebers einer AR-Anwendung) stehen im Fokus.
Neben den einleitenden Kapiteln wurde die Ausarbeitung thematisch in zwei große Bereiche unterteilt. Der erste, eher theoretische Bereich (Kapitel 2), bildet den wissenschaftlichen Teil dieser Ausarbeitung. Er beinhaltet eine Einführung in Augmented Reality und analysiert aktuelle Techniken. Auch die Funktionsweise wird aufgezeigt, um zu verstehen, was hinter den Kulissen der Anwendungen steckt. Im zweiten, praxisnahen Bereich (Kapitel 3) wird der Entstehungsprozess der Augmented Reality Applikation (App) von Kaba begleitet. Es wurde der Entstehungsprozess der App für Android und iOS ausführlich dokumentiert. Für Leser, die Probleme mit einigen Wissensbereichen haben, gibt es im Anhang eine ausführliche Literaturliste.
In the past ten years, applications of artificial neural networks have changed dramatically. outperforming earlier predictions in domains like robotics, computer vision, natural language processing, healthcare, and finance. Future research and advancements in CNN architectures, Algorithms and applications are expected to revolutionize various industries and daily life further. Our task is to find current products that resemble the given product image and description. Deep learning-based automatic product identification is a multi-step process that starts with data collection and continues with model training, deployment, and continuous improvement. The caliber and variety of the dataset, the design selected, and ongoing testing and improvement all affect the model's effectiveness. We achieved 81.47% training accuracy and 72.43% validation accuracy for our combined text and image classification model. Additionally, we have discussed the outcomes from the other dataset and numerous methods for creating an appropriate model.
Automation research has become one of the most important tools for future thinking organizations. It includes studying the economic and social aspects to determine how accountants were affected by automating the accounting profession. Moreover, this research studied the social aspect of automation, including the accountants' satisfaction and agreement towards the shift from manual-based accounting to automated accounting. Additionally, the purpose of the research was to comprehend the aspects that affect the variance of the satisfaction and agreement levels before and after automation and whether there is a relationship between those satisfaction and agreement levels and the demographic profile of accountants.
A quantitative method was used to answer the research questions. The findings and results were gathered through an online survey. The respondents in the study represent forty-three accountants who are located and working in Germany. The implications and conclusions of the research were observed from the accountants' perspective.
The research results presented that the automation of accounting significantly impacted the accountants' profession. It indicated that accountants are satisfied with automated accounting and agree with its effects and impacts on their profession. Accountants agreed that automated accounting tasks made the accounting process more effective and valuable. The findings also showed that educational level and length of experience in automated accounting are correlated with the satisfaction of accountants towards automated accounting. It presented that the more experience in automation and higher education accountants have, the more satisfied they are with automated accounting. Due to this phenomenon, higher qualifications and more basic IT knowledge are required in comparison with previous times.
Mit Hilfe eines Präzisionsmessplatzes soll es ermöglicht werden, automatisierte Tests mit optischen Distanzsensoren der Firma SICK durchzuführen. Hierbei handelt es sich um applikationsbezogene Vergleichsmessungen. Für die Realisierung einer erweiterbaren, automatischen Ansteuerung wird mit LabVIEW eine Software entwickelt, die unterschiedliche Distanzsensoren für Displacement Anwendungen (kurze Reichweite) einbindet. Zur Bewertung von Sensoren werden unterschiedliche Messmodi bereitgestellt. Hierbei werden motorisierte Linearachsen angesteuert, wodurch dynamische 2D-, bzw. 3D Messungen von unterschiedlichen Materialproben ermöglicht werden. Außerdem können Messergebnisse verschiedener Materialproben visuell verglichen werden. Des Weiteren besteht die Möglichkeit, aufgenommene Messdaten zu exportieren.
Mit der realisierten Ansteuerungssoftware ist es möglich, in Zukunft Mitarbeiter der global agierenden Sales & Service Units ressourcenschonend und in einem anwendungsbezogenen Kontext in die Benutzung und Bewertung von Dis-placementsensoren einzuarbeiten. Für diese Maßnahme der betrieblichen Weiterbildung ist eine Lerneinheit konzipiert. Hier geht es hauptsächlich darum, dass Mitarbeiter die Eigenschaften und Konfigurationsmöglichkeiten von Displacementsensoren verstehen und für unterschiedliche Testobjekte anwenden. Für die Lerneinheit sind Unterrichtsmaterialien erstellt sowie ein vollständiger Unterrichtsentwurf erarbeitet. Der Unterrichtsentwurf orientiert sich an dem Perspektivenschema nach Klafki (vgl. 1994, S. 270ff.).
Diese Arbeit beschäftigt sich mit den Grundlagen zu Multi-Agenten-Systemen in der Industrie. Der Begriff “Industrie 4.0“ wird eingeführt und es wird eingehend auf die Potentiale und Herausforderungen diesbezüglich eingegangen. Außerdem wird ein Überblick über aktuelle Entwicklungen und Ansätze zur Entwicklung von sogenannten autonomen Agenten gegeben. Diese werden auch im Hinblick auf die Themen Holonic Manufacturing und Multi-Agenten-System besprochen. Im praktischen Teil der Arbeit wird ein System bestehend aus vier BDI-Agenten ntwickelt, um einen beispielhaften Geschäftsprozess zu bearbeiten. Die Entwicklung basiert dabei auf Java und dem Jadex Agenten-Framework. Es wird gezeigt, dass sich damit autonome BDI-Agenten umsetzen lassen, die über Rechnergrenzen hinweg koordiniert werden können.
Im Rahmen dieser Masterarbeit soll ein Radträger für ein Leichtbaufahrzeug entwickelt werden. Dieser soll ein niedriges Gewicht sowie eine hohe Steifigkeit aufweisen und fertigbar sein.
Dabei wird über einen iterativen Prozess aus Simulation, Topologieoptimierung und Neukonstruktion ein neues Radträgerdesign entwickelt.
Zu Beginn der Arbeit wird auf die wissenschaftlichen Grundlagen eingegangen. Dabei spielen vor allem das Thema Leichtbau sowie die finite Elemente Methode eine Rolle. Es wird auf Prinzipien der Konstruktion eingegangen, um das Bauteil fertigungsgerecht und auch effizient zu gestalten.
Im nächsten Kapitel wird der aktuelle Stand der Technik genauer untersucht. Hierbei wird der Entwicklungsprozess der aktuellen Radträger-Varianten untersucht und diese mittels FEM nachgerechnet. Zuvor werden noch die für die Simulation benötigten wirkenden Kräfte berechnet und Plausibilitätstests durchgeführt, bei denen Computersimulationen mit realen Messwerten auf deren Richtigkeit überprüft werden.
In den letzten Kapiteln geht es um die Entwicklung des Radträgers. Hier werden einige Konzepte entwickelt und mittels FEM-Simulationen getestet. Durch den Einsatz von Topologieoptimierungen wird versucht, das Gewicht des Radträgers bei gleichbleibender Steifigkeit zu senken.
As e-commerce platforms have grown in popularity, new difficulties have emerged, such as the growing use of bots—automated programs—to engage with e-commerce websites. Even though some algorithms are helpful, others are malicious and can seriously hurt e-commerce platforms by making fictitious purchases, posting fictitious evaluations, and gaining control of user accounts. Therefore, the development of more effective and precise bot identification systems is urgently needed to stop such actions. This thesis proposes a methodology for detecting bots in E-commerce using machine learning algorithms such as K-nearest neighbors, Decision Tree, Random Forest, Support Vector Machine, and Neural Network. The purpose of the research is to assess and contrast the output of these machine learning methods. The suggested approach will be based on data that is readily accessible to the public, and the study’s focus will be on the research of bots in e-commerce.
The purpose of the study is to provide an overview of bots in e-commerce, as well as information on the different kinds and traits of bots, as well as current research on bots in e-commerce and associated work on bot detection in e-commerce. The research also seeks to create a more precise and effective bot detection system as well as find critical factors in detecting bots in e-commerce.
This research is significant because it sheds light on the increasing issue of bots in e-commerce and the requirement for more effective bot detection systems. The suggested approach for using machine learning algorithms to identify bots in ecommerce can give e-commerce platforms a more precise and effective bot detection system to stop malicious bot activities. The study’s results can also be used to create a more effective bot detection system and pinpoint key elements in detecting bots in e-commerce.
Das Thema dieser Masterthesis lautet „Camera Stream Solution – Marktübersicht, Lösungsansätze, Prototyp“. Mit dieser Arbeit wird eine Videostreaming-Lösung für die Herrenknecht-Plattform CONNECTED realisiert. Dabei geht es um die Bildschirmaufnahme von Navigations- und Steuerungsbildschirmen auf Tunnelbohrmaschinen und die Übertragung dieser Aufnahmen in die Cloud. Letztlich wird ermöglicht die Aufnahmen in nahezu Echtzeit als Videostream in einem Videoplayer wiederzugeben.
Zu Beginn werden die Grundlagen zur Datenübertragung im Internet sowie zum Streaming erläutert. Im Anschluss wird eine Marktübersicht verschiedener Streaming-Komponenten gegeben sowie einige Lösungsansätze vorgestellt und anhand ausgewählter Kriterien verglichen. Im nächsten Schritt wird die Implementierung eines Prototyps behandelt. Dieser nutzt unter anderem ffmpeg für die Bildschirmaufnahme und die Kodierung sowie die Streaming-Protokolle RTMP (Real Time Messaging Protocol) und HLS (HTTP Live Streaming). Zur Realisierung der Architektur gehört auch die Entwicklung einer REST-API und eines REST-Clients in C#.
Mit dem Projekt wird eine „echte“ Streaming-Lösung für die Kundenplattform CONNECTED entwickelt, die einen Videostream mit 24 Bildern pro Sekunde bietet, um die bisherige Darstellung von Screenshots auf der Plattform zu ersetzen.
Die vorliegende Masterthesis analysiert die Anwendungsbereiche und Einsatzmöglichkeiten von ChatGPT im Social-Media-Marketing sowie die Vorteile, aber auch die möglichen Herausforderungen, die sich aus dem Einsatz von ChatGPT in diesem Bereich ergeben. In einer Ära, in der Künstliche Intelligenz, kurz KI, zunehmend die Marketinglandschaft prägt, wird die Integration von ChatGPT in Social-Media-Strategien immer bedeutsamer. Der Fokus liegt dabei auf der Identifizierung von vielfältigen Einsatzmöglichkeiten von ChatGPT in folgenden potenziellen Bereichen: Content Marketing, Kundenkommunikation, Influencer Marketing und Community Management.
Die Zielsetzung besteht darin, die Auswirkungen und Potenziale von ChatGPT auf die Effizienz, Relevanz und Qualität von Social-Media-Marketing zu bewerten. Die Forschungsmethodik basiert auf einer umfassenden Literaturrecherche und Experteninterviews, um Erkenntnisse über Best Practices und Herausforderungen beim Einsatz von ChatGPT zu gewinnen.
Die Ergebnisse dieser Arbeit bieten wertvolle Einblicke für Marketingexperten und Unternehmen, die die Integration von ChatGPT in ihre Social-Media-Strategien in Betracht ziehen. Diese Kurzfassung liefert einen Überblick über die wichtigsten Aspekte dieser Forschung und die erzielten Erkenntnisse, die die Zukunft des Social-Media-Marketing maßgeblich beeinflussen können. Die Erkenntnisse aus der Literaturrecherche, der Auswertung der Experteninterviews sowie die Gegenüberstellung der Ergebnisse dieser beiden Forschungsmethoden zeigen, dass der Einsatz von ChatGPT im Kontext von Social-Media-Marketing vor allem bei der Arbeit mit textlichen Inhalten sinnvoll, effizient und ressourcensparend sein kann, z.B. bei der Ideengenerierung, Korrektur, Übersetzung, Zusammenfassung oder der Erstellung erster Textvorlagen. In allen anderen Bereichen fungiert ChatGPT vor allem als Rat- und Ideengeber sowie als Informationsquelle, deren Wahrheitsgehalt jedoch stets überprüft werden sollte.
Aufgrund der Dynamik und der stetigen Weiterentwicklung des Feldes der KI sollte in Zukunft weitere Forschung in diesem Bereich betrieben werden.
Organizations striving to achieve success in the long term must have a positive brand image which will have direct implications on the business. In the face of the rising cyber threats and intense competition, maintaining a threat-free domain is an important aspect of preserving that image in today's internet world. Domain names are often near-synonyms for brand names for numerous companies. There are likely thousands of domains that try to impersonate the big companies in a bid to trap unsuspecting users, usually falling prey to attacks such as phishing or watering hole. Because domain names are important for organizations for running their business online, they are also particularly vulnerable to misuse by malicious actors. So, how can you ensure that your domain name is protected while still protecting your brand identity? Brand Monitoring, for example, may assist. The term "Brand Monitoring" applies only to keep tabs on an organization's brand performance, reception, and overall online presence through various online channels and platforms [1]. There has been a rise in the need of maintaining one's domain clear of any linkages to malicious activities as the threat environment has expanded. Since attackers are targeting domain names of organizations and luring unsuspecting users to visit malicious websites, domain monitoring becomes an important aspect. Another important aspect of brand abuse is how attackers leverage brand logos in creating fake and phishing web pages. In this Master Thesis, we try to solve the problem of classification of impersonated domains using rule-based and machine learning algorithms and automation of domain monitoring. We first use a rule-based classifier and Machine Learning algorithms to classify the domains gathered into two buckets – "Parked" and "Non-Parked". In the project's second phase, we will deploy object detection models (Scale Invariant Feature Transform - SIFT and Multi-Template Matching – MTM) to detect brand logos from the domains of interest.
Server Side Rendering (SSR), Single Page Application (SPA), and Static Site Generation (SSG) are the three most popular ways of making modern Web applications today. If we go deep into these processes, this can be helpful for the developers and clients. Developers benefit since they do not need to learn other programming languages and can instead utilize their own experience to build different kinds of Web applications; for example, a developer can use only JavaScript in the three approaches. On the other hand, clients can give their users a better experience.
This Master Thesis’s purpose was to compare these processes with a demo application for each and give users a solid understanding of which process they should follow. We discussed the step-by-step process of making three applications in the above mentioned categories. Then we compared those based on criteria such as performance, security, Search Engine Optimization, developer preference, learning curve, content and purpose of the Web, user interface, and user experience. It also talked about the technologies such as JavaScript, React, Node.js, and Next.js, and why and where to use them. The goals we specified before the program creation were fulfilled and can be validated by comparing the solutions we gave for user problems, which was the application’s primary purpose.
Die Vision vom "Internet der Dinge" prägt seit Jahren Forschung und Entwicklung, wenn es um smarte Technologien und die Vernetzung von Geräten geht. In der Zukunft wird die reale Welt zunehmend mit dem Internet verknüpft, wodurch zahlreiche Gegenstände (Dinge) des normalen Alltags dazu befähigt werden, zu interagieren und sowohl online als auch autark zu kommunizieren. Viele Branchen wie Medizin, Automobilbau, Energieversorgung und Unterhaltungselektronik sind gleichermaßen betroffen, wodurch trotz Risiken auch neues wirtschaftliches Potential entsteht. Im Bereich "Connected Home" sind bereits Lösungen vorhanden, mittels intelligenter Vernetzung von Haushaltsgeräten und Sensoren, die Lebensqualität in den eigenen vier Wänden zu erhöhen. Diese Arbeit beschäftigt sich mit dem Thread Protokoll; einer neuen Technologie zur Integration mehrerer Kommunikationsschnittstellen innerhalb eines Netzwerks. Darüber hinaus wird die Implementierung auf Netzwerkebene (Network Layer) vorgestellt, sowie aufbereitete Informationen bezüglich verwendeter Technologien dargestellt.
The goal of this thesis is to thoroughly investigate the concepts of stand-alone and decarbonization of optical fiber networks. Because of their dependability, fast speed, and capacity, optical fiber networks are vital inmodern telecommunications. Their considerable energy consumption and carbon emissions, on the other hand, constitute a danger to global sustainability objectives and must be addressed.
The first section of the thesis presents a summary of the current state of optical fiber networks, their
components, and the energy consumption connected with them. This part also goes over the difficulties of lowering energy usage and carbon emissions while preserving network performance and dependability.
The second section of the thesis focuses on the stand-alone idea, which entails powering the optical fiber network with renewable energy sources and energy-efficient technology. This section investigates and explores the possibilities of renewable energy sources like solar and wind power to power the network. It also investigates energy-efficient technologies like virtualization and cloud computing, as well as their potential to minimize network energy usage.
The third section of the thesis focuses on the notion of decarbonization, which entails lowering carbon emissions linked with the optical fiber network. This section looks at various carbon-reduction measures, such as employing low-carbon energy sources and improving energy efficiency. It also covers the relevance of carbon offsets and the difficulties associated with adopting decarbonization measures in the context of optical fiber networks.
The fourth section of the thesis compares the ideas of stand-alone and decarbonization. It investigates the advantages and disadvantages of each strategy, as well as their potential to minimize energy consumption and carbon emissions in optical fiber networks. It also explores the difficulties in applying these notions as well as potential hurdles to their wider adoption.
Finally, the need of addressing the energy consumption and carbon emissions connected with optical fiber networks is emphasized in this thesis.
It outlines important obstacles and potential impediments to adopting these initiatives and gives insights into potential ways for decreasing them.
It also makes suggestions for further study in this area.