Refine
Year of publication
Document Type
- Master's Thesis (205) (remove)
Has Fulltext
- yes (205)
Is part of the Bibliography
- no (205)
Keywords
- IT-Sicherheit (9)
- E-Learning (7)
- Deep learning (6)
- Maschinelles Lernen (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Computersicherheit (4)
- Internet of Things (4)
- JavaScript (4)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (53)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (39)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34)
- Fakultät Wirtschaft (W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (5)
- INES - Institut für nachhaltige Energiesysteme (4)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (72)
- Open Access (32)
- Diamond (6)
Analyse der Anwendbarkeit des Dynamische Fähigkeiten-Konzepts am Beispiel von Großhandelsunternehmen
(2019)
Eine Anpassung aufgrund sich schnell verändernder Geschäftsumgebungen an aktuelle Gegebenheiten ist für alle Unternehmen sowohl in der freien Wirtschaft als auch staatlichen Ursprungs relevant. Diese kann durch starke dynamische Fähigkeiten der involvierten Unternehmen erfolgen. Zur Validierung des theoretischen Konzepts der dynamischen Fähigkeiten werden Großhandelsunternehmen herangezogen und deren Unternehmensaktivitäten im Hinblick auf die erste dynamische Fähigkeit in Gesprächen ermittelt. Die Ausführungen der vier Großhändler zielen in einem ersten Teil darauf ab, die grundsätzliche Anwendbarkeit des Konzepts in der Praxis zu bestätigen. In einem zweiten Teil wird analysiert in welchem Umfang sie für die betrachtete Branche beschrieben werden kann. Es zeigt sich, dass das Dynamische Fähigkeiten-Konzept nicht ohne Einschränkungen auf die Praxis übertragen werden kann, wenngleich die Ausprägungen dem Konzept zugrundeliegender Elemente bei allen Firmen ähnlich sind. Trotz dieser Ähnlichkeit konnten keine festen Muster bzw. Interdependenzen erkannt werden, die die Integration, den Aufbau und/oder die Neukonfiguration von Fähigkeiten zuverlässig fördern. Die Resultate ermöglichen es dennoch in einem letzten Teil zu beurteilen, welche Indikatoren eine Basis zur strategischen Anpassung an den Strukturwandel schaffen. Sie sind Teil der formulierten Hypothesen zu den einzelnen Elementen der ersten dynamischen Fähigkeit. Mit der Summe der Erkenntnisse konnte in gewisser Hinsicht eine Transparenz des Konzepts erreicht werden – mit Hilfe des entwickelten Interviewleitfadens kann analog zum Vorgehen in dieser Arbeit für die zweite und dritte dynamische Fähigkeit verfahren werden, sodass in einem breiteren Kontext erneut eine Aussage über die Anwendbarkeit des Konzepts getroffen werden kann.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
Das hocheffiziente Konzeptfahrzeug Schluckspecht VI (S6) hat im Sommer 2022 am Shell Eco Marathon als bestes Neufahrzeug abgeschlossen. Dennoch war die Reichweite von 560km/kWh nicht ausreichend, um sich gegen die anderen teilnehmenden Teams zu behaupten. Daher werden am Fahrzeug die Komponenten und Systeme ermittelt, welche das meiste Optimierungspotential bergen. Hierbei stechen besonders die Aerodynamik, die Motoransteuerung und die Rollreibung hervor. Die hier vorliegende Arbeit befasst sich mit der aerodynamischen Optimierung. Zunächst gilt es herauszufinden, welche Bauteile explizit für die Aerodynamik ausschlaggebend sind. Die drei Komponenten, die maßgeblichen Einfluss haben sind: der Grundkörper, die Radkästen und die Fahrwerksflügel. Einen weiteren Einflussfaktor bergen die sich drehenden Räder, da diese jedoch weitestgehend umhaust sind, ist in dieser Hinsicht keine weitere Optimierung erforderlich. Zu Ermittlung der derzeitigen aerodynamischen Werte, vor allem cW, cWA und Geschwindigkeits- und Druckverteilung um das Fahrzeug, wird ein digitales Modell des S6 aufgebaut. An diesem Modell werden Simulationen durchgeführt, die idealisierte Kennwerte liefern. Parallel zur Simulation liefern Versuche am Fahrzeug reale Messdaten. Speziell dafür wird eine neue Versuchsmethode entwickelt: die Konstantfahrtuntersuchung. Bei dieser Untersuchung wird die Vortriebskraft des Fahrzeugs anhand des Motorstroms ermittelt, um so auf die Fahrtwiderstandswerte zu schließen. Zur Erhebung der Messdaten am Fahrzeug wird zudem ein für die Untersuchung angepasster Sensor entwickelt. Diese Untersuchungen liefern plausible Ergebnisse, die jedoch mit denen der Simulation schwer vergleichbar sind. Dies ist bedingt durch die erschwerten Randbedingungen bei der Durchführung der Versuche und beim Aufzeichnen der Messdaten auf der Teststrecke.
Der Eignungsnachweis von Prüfprozessen ist sowohl für die Industrie, als auch für Forschungszwecke ausschlaggebend. Dabei sind die Genauigkeit, Präzision sowie die Messbeständigkeit der Messergebnisse von der zu untersuchenden Messeinrichtung mit statistischen Methoden auszuwerten. Mit Leitfäden wird unter einer sog. Messsystemanalyse die Fähigkeit einer Messeinrichtung mit den dazugehörigen statistischen Kennwerten beurteilt. Die Messsystemanalyse unterteilt sich in zwei Typen, wobei die Konsistenz bzw. Messdatenstreuung mit den entsprechenden Kennwerten beurteilt werden können. Unter MSA Typ 1 wird anhand Mittelwerte und Standardabweichungen von Wiederholmessungen die Konsistenz und Genauigkeit mit den Cg- bzw. Cgk-Indizes bewertet, die höher als 1,33 sein müssen, um die Messeinrichtung als fähig zu klassifizieren. Durch MSA Typ 2 wird die Präzision mit dem % R&R-Kennwert (Wiederholbarkeit & Reproduzierbarkeit) bewertet. Messeinrichtungen mit einem % R&R-Kennwert unterhalb 20 % liefern Messdaten mit einer ausreichenden Präzision, d.h. dass die Mittelwerte der Messdaten nicht signifikant voneinander unterscheiden. Die im Rahmen dieser Arbeit untersuchte akustische Messeinrichtung weist einen Cg-Index von 1, 58, einen Cgk-Index von 2, 13 und einen % R&R-Wert von 6, 56 % auf, weshalb die Messdaten mit einer hohen Konsistenz und Präzision erfasst werden.
Global energy demand is still on an increase during the last decade, with a lot of impact on the climate change due to the intensive use of conventional fossil-based fuels power plants to cover this demand. Most recently, leaders of the globe met in 2015 to come out with the Paris Agreement, stating that the countries will start to take a more responsible and effective behaviour toward the global warming and climate change issues. Many studies have discussed how the future energy system will look like with respecting the countries’ targets and limits of greenhouse gases and their CO2 emissions. However, these studies rarely discussed the industry sector in detail even though it is one of the major role players in the energy sector. Moreover, many studies have simulated and modelled the energy system with huge jumps of intervals in terms of years and environmental goals. In the first part of this study, a model will be developed for the German electrical grid with high spatial and temporal resolutions and different scenarios of it will be analysed meticulously on shorter periods (annual optimization), with different flexibilities and used technologies and degrees of innovations within each scenario. Moreover, the challenge in this research is to adequately map the diverse and different characteristics of the medium-sized industrial sector. In order to be able to take a first step in assessing the relevance of the industrial sector in Germany for climate protection goals, the industrial sector will be mapped in PyPSA-Eur (an open-source model data set of the European energy system at the level of the transmission network) by detailing the demand for different types of industry and assigning flexibilities to the industrial types. Synthetically generated load profiles of various industrial types are available. Flexibilities in the industrial sector are described by the project partner Fraunhofer IPA in the GaIN project and can be used. Using a scenario analysis, the development of the industrial sector and the use of flexibilities are then to be assessed quantitatively.
The Lattice Boltzmann Method is a useful tool to calculate fluid flow and acoustic effects at the same time. Although the acoustic perturbation is much smaller than normal pressure differences in fluid flow, this direct calculation is a great advantage of the Lattice Boltzmann Method (LBM). But each border used in calculation produces a multitude of reflections with the acoustic waves, which lead to an unusable result. Therefore, it is worked on different absorbing techniques.
In this thesis three absorbing layer techniques are described, explained and reviewed with different simulations. The absorbing layers are implemented in a basic LBM code in C++, and with this umpteen simulations within a box were performed to compare the different absorbing layers. The Doppler effect and a cylinder flow are also examined to compare the damping efficiencies.
The three studied absorbing techniques are the sponge layer, the perfectly matched layer and a force based Term II absorbing layer. The sponge layer is easy to implement but gives worse results than a calculation without any absorbing layer. The perfectly matched layer and a force based absorbing term provide very good results but the perfectly matched layer has problems with instability. The force based absorbing layer represents the best compromise between the additional computation time due the absorbing layer and the achieved damping efficiency.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
One of the most critical areas of research and expansion has been exploiting new technologies in supply chain risk management. One example of this is the use of Digital Twins. The performance of physical systems can be analyzed and simulated using digital twins, virtual versions of these systems that use real-time data, and sophisticated algorithms. Inside the supply chain risk management field, digital twins present a one-of-a-kind opportunity to improve an organization's ability to anticipate, address, and react to the possibility of problems within the supply chain.
The objective of this study is to identify and assess the advantages that accrue to supply chain risk management as a result of Digital Twins' adoption into the system, as well as to identify the challenges associated with achieving those benefits. In the context of supply chain risk management, a thorough literature study is conducted to analyze the essential traits and capabilities of digital twins and how these qualities lead to enhanced risk management methods. This study investigates the essential properties and capacities of digital twins. In addition, the state of digital twin technology and its applications in supply chain risk management are evaluated, and prospective areas for further study and development are highlighted.
The primary purpose of this investigation is to provide a comprehensive and in-depth analysis of the digital twins' role in supply chain risk management through the utilization of digital twins, as well as to highlight the potential benefits and challenges associated with the implementation of digital twins. The research was carried out based on the existing body of written material and the replies of 27 individuals who had previous experience making use of digital twins and took part in an online questionnaire.
The results of this study will be relevant to a diverse group of stakeholders, including specialists in risk management and researchers, amongst others.
Das übergeordnete Ziel dieser Arbeit ist die Entwicklung einer Lernanwendung für die Theorieausbildung von Gleitschirm- und Drachenfliegern. Daraus abgeleitete Ziele sind eine Überprüfung der Tätigkeit auf ihre Wirtschaftlichkeit sowie eine vollständige Analyse der Anforderungen von Nutzern und anderen Stakeholdern.
Die Analyse von Markt, Anforderungen und Technologien liefert wertvolle und hilfreiche Erkenntnisse für die Umsetzung der Lernanwendung. Die Berechnungen in der Marktanalyse zeigen, dass eine Umsetzung der Anwendung grundsätzlich wirtschaftlich möglich ist. Die bestehende und potentielle Konkurrenz wurde ermittelt und ihr Angebot detailliert verglichen und analysiert. Die Ermittlung der notwendigen Kennzahlen zur Berechnung der Wirtschaftlichkeit der unternehmerischen Tätigkeit ergeben sich durch die Berechnung von Marktvolumen Marktsättigungsgrad und Marktpotential. Im Kapitel Anforderungsmanagement wird zunächst eine umfangreiche Anforderungsermittlung durchgeführt. Diese besteht aus einem Interview und der Durchführung und Auswertung einer Online-Umfrage. Die Ergebnisse der Anforderungsermittlung werden analysiert und anschließend in Form eines Lasten- und eines Pflichtenhefts dokumentiert. Es zeigt sich, dass die ermittelten und analysierten Daten eine solide Grundlage für die weiteren Arbeiten bilden. Ein Experten-Interview und die Umfrage unter Gleitschirmfliegern ergeben keine in Konflikt stehenden Anforderungen und die aus der Auswertung der Umfrage ermittelten Anforderungen bestätigen viele bereits aus dem Interview ermittelten Anforderungen. Die ausgewertete Umfrage bietet außerdem wichtige Erkenntnisse über gewünschte Funktionen und die Zahlungsbereitschaft der Ziel- gruppe. Diese Erkenntnisse sind besonders in Anbetracht der anzustrebenden Marktpositionierung hilfreich. Die Spezifikation von Anforderungen im Lastenheft ermöglicht es, ein passendes Konzept zu erstellen und den Anforderungen gerecht werdende Technologien auszuwählen. Für die Konzeption der Anwendung wurden Personas, Wireframes und Strukturdiagramme erstellt, die den Anforderungen aus dem Lastenheft gerecht werden. Der Konzeption der Anwendung wurde, verglichen mit den anderen Arbeits- schritten, weniger Platz eingeräumt, da erstens kaum restriktive Anforderungen an das Design bestehen und zweitens die Anwendungsentwicklung mit UI-Frameworks kein fotorealistisches Layout voraussetzt, um ästhetische und benutzerfreundliche Anwendungen zu konzipieren. Es zeigt sich, dass für die gegebenen Anforderungen die Erstellung von Wireframes ausreichend ist. Im Kapitel „Technologieauswahl“ wird eine umfangreiche analytische Arbeit betrieben, um eine optimale Auswahl von passenden Technologien zu erhalten. Die analytische Arbeit besteht dabei aus dem Vergleich verschiedener Systemumgebungen, App-Technologien und Frameworks. Dabei wird deutlich, dass eine Progressive Web-App in einer cloudbasierten Systemumgebung mit einem Backend-as-a-Service Modell die Anforderungen am besten erfüllt. Im Kapitel „Umsetzung“ wird dokumentiert, wie die Anwendung realisiert wurde. Für die Umsetzung der Lernanwendung und des dazugehörigen Administrationsbereiches wurden etwa 6000 Zeilen Code geschrieben. Sowohl den Administrationsbereich als auch die Lernanwendung konnte zu großen Teilen fertig gestellt werden.
Zusammenfassend lässt sich festhalten, dass die Zielsetzung dieser Arbeit erfüllt wurde, indem die wichtigsten Grundlagen zur späteren vollständigen Umsetzung erarbeitet wurden. Mit Spannung zu erwarten ist, wie sich die gewählte BaaS-System-umgebung in Zukunft entwickelt und ob diese auch weiterhin den Anforderungen gerecht wird. Neben den noch ausstehenden Arbeiten bei der Umsetzung sind auch mögliche Erweiterungen denkbar. So konnte das Lernsystem noch weiter optimiert werden, zum Beispiel durch automatische Erstellung eines Lernplans, basierend auf dem Prüfungstermin oder durch Implementierung von Push-Benachrichtigungen, die den Nutzer zum Öffnen der Anwendung auffordern. Denkbar ist auch eine Übertragung des Anwendungskonzepts auf andere Sportarten oder Ausbildungen. Dabei müsste überlegt werden, ob sich die jeweilige Prüfungsform zum Lernen mit einer Lernkartei eignet oder welche Aufwände für eine Anpassung an andere Sportarten notwendig wären.
Gegenstand der hier vorgestellten Arbeit ist eine Untersuchung der gängigsten Anwendungsschicht-Protokolle für das Internet der Dinge. Sie umfasst zum einen die Recherche und den theoretischen Vergleich der Protokolle anhand vorher festgelegter Untersuchungskriterien und zum anderen einen praktisch implementierten Versuchsaufbau, der das Zusammenwirken verschiedener Protokolle veranschaulichen soll.
Zunächst wird eine kurze Einführung in das Thema „Internet der Dinge“ gegeben. Dabei wird auf die Entwicklung der letzten Jahre sowie den Stand der Technik eingegangen. Zum einen wird aufgezeigt, inwieweit sich das Thema auf die verschiedenen Bereiche des täglichen Lebens ausgebreitet hat und zum anderen welche verschiedenen Anwendungspakete diverser Software-Hersteller auf dem Markt sind. Bei der Untersuchung dieser Pakete werden die Protokolle ermittelt, die verwendet werden. Diese bilden die Menge an zu untersuchenden Protokolle für den späteren Vergleich. Um diese in einem wissenschaftlichen Rahmen miteinander vergleichen zu können, werden Kriterien als Basis der Untersuchung definiert. Anhand derer werden alle Protokolle untersucht und anschließend in einer Tabelle zusammengefasst.
Im zweiten Teil werden dann einige der untersuchten Protokolle mithilfe von diversen MCUs (Micro Controller Unit) verwendet und deren Funktionsweise/Handhabung miteinander verglichen. Dabei entsteht ein Aufbau, der zukünftigen Studierenden die Möglichkeit bietet, schnell einen Einblick in den Bereich „Internet der Dinge“ zu erhalten.
Über die letzten Jahre entstanden unterschiedlichste Gerätschaften, besonders im mobilen Bereich und der Industrie 4.0, die große Datenmengen generieren. Diese müssen in entsprechenden Netzwerken entgegengenommen, verarbeitet und ggf. analysiert werden um einen Mehrwert zu erzielen. Ein Vertreter für die Umsetzung von Echtzeit-Datenverarbeitung ist Apache Spark, ein Open Source Framework, welches für die Analyse von Informationsströmen und Datenbeständen eingesetzt werden kann. Im Rahmen dieser Masterarbeit wird die Apache Spark Plattform von Grund auf erläutert und auf ihre Einsatzfähigkeit im Bereich der verteilten Datenverarbeitung untersucht. Durch die theoretische Einleitung in die Themen Big Data, Streaming Data, Data Mining und Real-Time Analytics wird ein grundlegendes Verständnis für die Aufgaben und Herausforderungen dieses Sachgebiets vermittelt. Es wird die Entwicklung von der Batch- zur Streamingverarbeitung vorgestellt und die Anforderungen, sowie Voraussetzungen für die Umsetzung von Echtzeitsystemen aufgezeigt.
Nachdem diese Grundlagen vermittelt wurden, folgt eine Vorstellung des Projektumfangs der Apache Software Foundation, in welchen sich auch das Spark Projekt einordnen lässt. Die Arbeit erläutert die Grundkonzepte von Apache Spark, wie die Entwicklung, Architektur und der Clusterbetrieb der Plattform. Dabei stützen sich die Untersuchungen auf praktische Beispiele, um die Arbeitsweise von Apache Spark näher aufzuzeigen. Die vorgestellten Themen fallen in die Bereiche der parallelen Datenverarbeitung mit Spark und beschäftigen sich mit den Voraussetzungen für das Erstellen von Anwendungen, die den verteilten Aufbau und die horizontale Skalierbarkeit von Spark ausnutzen. Spark bringt über eigene Bibliotheken auch Funktionalitäten für die Datenverarbeitung in speziellen Aufgabengebieten mit sich. In dieser Arbeit werden ebenfalls die beiden Bibliotheken MLlib, welche im Bereich des maschinellen Lernens Einsatz findet, und Spark Streaming, die Bibliothek für Verarbeitung von Datenflüssen, vorgestellt und deren Funktionsumfang untersucht. Das Kernthema dieser Arbeit bildet die Modellierung von Lösungsmöglichkeiten zur Analyse von Streaming Data. Es wird hierdurch die Funktionsweise von Spark und dessen Streaming Bibliothek anhand von kompletten Applikationen zur Ausreißererkennung in Datenströmen im Detail aufgezeigt.
Die Arbeit zeigt auf, dass Spark durchaus für den Einsatz zur verteilten Datenverarbeitung geeignet ist. Auch der Umgang mit Streaming Data wird durch den Bau der Prototypen nachgewiesen. In dem abschließenden Fazit werden die Erkenntnisse der Arbeit zusammengefasst und die Einsetzbarkeit von Spark diskutiert.
Total Cost of Ownership (TCO) is a key tool to have a complete understanding of the costs associated with an investment, as it allows to analyze not only the initial acquisition costs, but also the long-term costs related to operation, maintenance, depreciation, and other factors. In the context of the cement industry, TCO is especially important due to the complexity of the production processes and the wide variety of components and machinery involved in the process.
For this reason, a TCO analysis for the cement industry has been conducted in this study, with the objective of showing the different components of the cost of production. This analysis will allow the reader to gain knowledge about these costs, in the industrial model will be to make informed decisions on the adoption of technologies and practices that will allow them to reduce costs in the long run and improve their operational efficiency.
In particular, this study pursues to give visibility to technologies and practices that enable the reduction of carbon emissions in cement production, thus contributing to the sustainability of industry and the protection of the environment. By being at the forefront of sustainability issues, the cement industry can contribute to the achievement of environmentally friendly technologies and enable the development of people and industry.
The Oxyfuel technology has been selected as a carbon capture solution for the cement industry due to its practical application, low costs, and practical adaptation to non-capture processes. The adoption of this technology allows for a significant reduction in CO2 emissions, which is a crucial factor in achieving sustainability in the cement manufacturing process.
Carbon capture storage technologies represent a high investment, although these technologies increase the cost of production, the application of Oxyfuel technology is one of the most economically viable as the cheapest technology per capture according to the comparison. However, this price increase is a technical advantage as the carbon capture efficiency of this technology reaches 90%. This level of efficiency leads to a decrease in taxes for the generation of CO2 emissions, making the cement manufacturing process sustainable.
In each company Top Managers have the responsibility to take major decisions that supports the success of their company, Adopting TQM is one of these decisions, the decision to carry out companies’ operations and procedures within TQM frameworks. (ASQ , n.d.). Applying TQM, involves implementing practices that needs putting extra efforts, otherwise there will be no use of the practices and the execution. (Nicca Jirah F Campos1, 2022).
Specifically in service sector, where the key to success and increased profit, comes directly through a satisfied customer. Therefor there is a need for both management and staff to have big tolerance and willingness to achieve the needed satisfaction, in order to attain the results that every company wants. (Charantimath, 2013)
In Germany in terms of customer care practices there is a famous stereotype ‘Customer is not the king’ A reputation That after DW investigated it, DW expressed it as a phenomenon where both expats and Germans tend to believe that service companies in Germany should do a better job of treating their consumers. (DW, 2016)
New concepts of business have emerged in the late century, for example strategy, leadership, marketing, entrepreneurship and others, these concepts spread internationally among most of the companies around the world. Many studies have been done reviewing these new business structures, some of them addressed the cultural differences within countries upon the applying them. But not many studies concentrated on taking into consideration how cultural differences affects the Implementation of TQM. (Lagrosen, 2002). It was concluded in general that although the comprehensive fundamentals of quality management are applicable and similar worldwide in all nations, but when coming to real practice accurate tunning must be made, it must be taken into account aligning different standards, due to different work cultures and traditions in Europe. (Krueger, 1999)
The effects of climate change, including severe storms, heat waves, and melting glaciers, are highlighted as an urgent concern, emphasising the need to decrease carbon emissions to restrict global warming to 1.5°C. To accomplish this goal, it is vital to substitute fossil fuel-based power plants with renewable energy sources like solar, wind, hydro, and biofuels. Despite some progress being made, the proportion of renewables used in generating electricity is still lower than the levels needed for 2030 and 2050. Decarbonising the power grid is also critical in lowering the energy consumption of buildings, which is responsible for a substantial percentage of worldwide electricity usage. Even though there has been substantial expansion in the worldwide renewable energy market in the past 15 years, the transition to renewable energy sources also requires taking into account the importance of energy trading.
Peer-to-peer (P2P) electricity trading is an emerging type of energy exchange that can revolutionise the energy sector by providing a more decentralised and efficient way of trading energy. This research deals about P2P electricity trading in a carbon-neutral scenario. 'Python for Power System Analysis' (PyPSA) was used to develop models through which the P2P effect was tested. Data for the entire state of Baden-Württemberg (BW) was collected. Three scenarios were taken into consideration while developing models: 2019 (base), 2030 (coal phase-out), and 2040(climate neutral). Alongside this, another model with no P2P trading was developed to make a comparison. In addition, the use case of community storage in a P2P trading network is also presented.
The research concludes that P2P has a significant positive effect on a pathway to achieve climate neutrality. The findings show that the share of renewables in electricity generation is increasing compared to conventional sources in BW, which can be traded to meet the demand. From the storage analysis, it can be concluded that community storage can be effectively utilised in P2P trading. While the emissions are reduced, the operating costs are also reduced when the grid has P2P trading available. By highlighting the benefits of P2P trading, this research contributed to the growing body of research on the effectiveness of P2P trading in an electricity network grid.
Der aktuell verbaute Hatz-Dieselmotors des Schluckspecht V soll durch einen leichten und effizienten Ottomotor ersetzt werden. Dieser Ottomotor wird zukünftig mit dem Alkohol Ethanol betrieben. Hierfür müssen, auch hinsichtlich des Wettbewerb-Einsatzes beim Shell Eco-marathon, einige Optimierungen durchgeführt werden.
Die hier vorliegende Master-Thesis behandelt den Aufbau und die Optimierung des Ver-suchsprüfstands, welcher für Testzwecke für den neuen Ottomotor entwickelt wurde. Im speziellen wird auf das Thema Kraftstoffsystem, welches für den Betrieb mit Ethanol aus-gelegt wird, eingegangen. Des Weiteren erfolgt die Konstruktion einer optimierten Ansaugstrecke, welche auf den Verbrennungsmotor appliziert werden soll. Hierfür werden mehrere Varianten strömungstechnisch untersucht und am Objekt getestet. Zudem soll die Verdichtung des Verbrennungsmotors durch einen optimierten Kolben erhöht und die Ventilsteuerzeiten durch eine optimierte Nockenkontur perfektioniert werden. Hierbei besteht die Aufgabe darin diese Bauteile zu besorgen und die Fertigung zu koordinieren. Eine weitere Tätigkeit ist die Aufnahme und Beseitigung von Fehlern des Versuchsprüfstands, welche einen reibungslosen Versuchsalltag verhindern bzw. erschweren. Die letzte Tätigkeit umfasst das Durchführen von experimentellen Untersuchungen des Verbrennungsmotors und das Anlegen von Kennfeldern, welche einen effizienten Motorlauf gewährleisten.
Die Grundlage meiner Masterarbeit ist die Musikvideoproduktion „Honey“ in Zusammenarbeit mit der Band Sebamana. Der vorliegende theoretische Teil der Arbeit ergänzt die Musikvideoproduktion auf wissenschaftlicher Ebene. Er soll die einzelnen Schritte einer Filmproduktion aufzeigen, vom Drehbuch bis zur Verwertung, und auf die Arbeits- und Rollenverteilung im Team eingehen.
Die verschiedenen Rollen innerhalb eines Projektes werden mit ihren jeweiligen Aufgabenbereichen vorgestellt. Dabei machen sich auch Unterschiede zwischen kleinen und großen Produktionen bemerkbar und ihre Vor- und Nachteile werden deutlich. Kommunikation und Transparenz zwischen den Departments ist die Voraussetzung für eine gute Zusammenarbeit im Team.
Hohe Kosten bei der Annotation von Daten führen dazu, dass datensparsamere Wege zum Erstellen von Modellen gesucht werden. In dieser Arbeit wird ein Lösungsansatz untersucht, der ausgehend von fokussierten Repräsentationen, datensparsame Lösungen für verschiedene Aufgaben finden soll. Durch einen Multi-Task-Learning-Ansatz trägt das Finden einer Repräsentation gleichzeitig zum Lösen einer Aufgabe bei. Durch Ersetzung einer der Aufgaben werden Wissentransfers datensparsam auf die neue Aufgabe durchgeführt. In der erarbeiteten und evaluierten Lösung können Hyperparameter automatisch gefunden werden. Bei Vergleichen von verschiedenen Ansätzen und Datenmengen ist über die Leistung der Netzwerke zu erkennen, dass der Ansatz insbesondere mit weniger Daten bessere Ergebnisse erzielt. Die Ergebnisse dieser Arbeit lassen eine Bereitstellung als Module zu. Die Module werden im Rahmen dieser Arbeit beschrieben. Abgeschlossen wird die Arbeit mit einem Ausblick auf Verbesserungen und Potenziale der Ansätze.
In der vorliegenden Arbeit wird Augmented Reality (AR) sowohl in der Theorie als auch in der Praxis ausführlich behandelt. Die Technik, welche in den letzten Jahren stark weiterentwickelt wurde, die Entwicklungsgeschichte, sowie die Projektbegleitung (aus Sicht des Auftraggebers einer AR-Anwendung) stehen im Fokus.
Neben den einleitenden Kapiteln wurde die Ausarbeitung thematisch in zwei große Bereiche unterteilt. Der erste, eher theoretische Bereich (Kapitel 2), bildet den wissenschaftlichen Teil dieser Ausarbeitung. Er beinhaltet eine Einführung in Augmented Reality und analysiert aktuelle Techniken. Auch die Funktionsweise wird aufgezeigt, um zu verstehen, was hinter den Kulissen der Anwendungen steckt. Im zweiten, praxisnahen Bereich (Kapitel 3) wird der Entstehungsprozess der Augmented Reality Applikation (App) von Kaba begleitet. Es wurde der Entstehungsprozess der App für Android und iOS ausführlich dokumentiert. Für Leser, die Probleme mit einigen Wissensbereichen haben, gibt es im Anhang eine ausführliche Literaturliste.
In the past ten years, applications of artificial neural networks have changed dramatically. outperforming earlier predictions in domains like robotics, computer vision, natural language processing, healthcare, and finance. Future research and advancements in CNN architectures, Algorithms and applications are expected to revolutionize various industries and daily life further. Our task is to find current products that resemble the given product image and description. Deep learning-based automatic product identification is a multi-step process that starts with data collection and continues with model training, deployment, and continuous improvement. The caliber and variety of the dataset, the design selected, and ongoing testing and improvement all affect the model's effectiveness. We achieved 81.47% training accuracy and 72.43% validation accuracy for our combined text and image classification model. Additionally, we have discussed the outcomes from the other dataset and numerous methods for creating an appropriate model.
Automation research has become one of the most important tools for future thinking organizations. It includes studying the economic and social aspects to determine how accountants were affected by automating the accounting profession. Moreover, this research studied the social aspect of automation, including the accountants' satisfaction and agreement towards the shift from manual-based accounting to automated accounting. Additionally, the purpose of the research was to comprehend the aspects that affect the variance of the satisfaction and agreement levels before and after automation and whether there is a relationship between those satisfaction and agreement levels and the demographic profile of accountants.
A quantitative method was used to answer the research questions. The findings and results were gathered through an online survey. The respondents in the study represent forty-three accountants who are located and working in Germany. The implications and conclusions of the research were observed from the accountants' perspective.
The research results presented that the automation of accounting significantly impacted the accountants' profession. It indicated that accountants are satisfied with automated accounting and agree with its effects and impacts on their profession. Accountants agreed that automated accounting tasks made the accounting process more effective and valuable. The findings also showed that educational level and length of experience in automated accounting are correlated with the satisfaction of accountants towards automated accounting. It presented that the more experience in automation and higher education accountants have, the more satisfied they are with automated accounting. Due to this phenomenon, higher qualifications and more basic IT knowledge are required in comparison with previous times.