Refine
Year of publication
Document Type
- Master's Thesis (208) (remove)
Has Fulltext
- yes (208)
Is part of the Bibliography
- no (208)
Keywords
- IT-Sicherheit (10)
- E-Learning (7)
- Maschinelles Lernen (7)
- Deep learning (6)
- Internet der Dinge (5)
- Künstliche Intelligenz (5)
- Marketing (5)
- Social Media (5)
- Computersicherheit (4)
- Internet of Things (4)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (57)
- Fakultät Medien (M) (ab 22.04.2021) (55)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (40)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (34)
- Fakultät Wirtschaft (W) (15)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (13)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (5)
- INES - Institut für nachhaltige Energiesysteme (4)
- IDEeP - Institute for Digital Engineering and Production (ab 12.10.2022) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Closed Access (101)
- Closed (75)
- Open Access (32)
- Diamond (6)
Study of impact of change in market economics of Biosimilars due to SPC waiver on EU 469/2009
(2023)
This research was conducted to understand and investigate the impact of SPC waiver EU 933/2019 made as an amendment to EU 469/2019. The research was conducted for analysis and extraction of the data to compile the exact number of biological products impacted with the SPC waiver. The highest sale top-5 products were identified according to the expert’s opinion. The sales revenue opportunity valuable to the top-5 products in the top-5 non-EU markets for early exports is investigated. Additionally, a survey was conducted to assess the readiness of the industry for these changes. The information from this study will be very useful to students of the biopharmaceutical market research and to the stakeholders from the biopharmaceutical industry.
In recent years, the demand for reliable power, driven by sensitive electronic equipment, has surged. Even minor deviations from the nominal supply can lead to malfunctions or failure. Despite technological advancements, power quality issues persist due to various factors like short circuits, overloads, voltage fluctuations, unbalanced loads, and non-linear loads.
This thesis extensively explores power quality anomalies in industrial and commercial sectors, using power system data as the primary analytical resource. It addresses the critical need for power supply reliability in today's evolving power grid industry, affected by non-linear loads, renewable energy integration, and electric vehicles. This field of study is paramount for ensuring power supply reliability and stability in the evolving power grid industry.
The core of this thesis involves a comprehensive investigation of power quality, with a focus on frequency, power, and harmonics in voltage and current signals. The research employs Python programming for advanced data analysis, utilizing techniques such as advanced Fast Fourier Transformation (FFT) analysis. The primary objective is to provide valuable insights aimed at elevating power supply quality and enhancing reliability in both industrial and commercial environments.
Herr Vater & Ich
(2022)
Mein Vater wurde im Jahr 1952 geboren. Über das, was er in den 40 Jahren vor meiner Geburt erlebt hat, hat er mir immer wieder Geschichten erzählt, die mich unterhalten, belustigt oder verwundert haben. Geschichten, die mir immer wieder zeigten, dass ich ihn, abseits von seiner Rolle als Vater, gar nicht wirklich kenne. Dabei hat er mich in vielerlei Hinsicht geprägt. Mit der Musik, die er mit mir gemacht hat, den Bildern, die er mit mir gemalt hat, den Büchern, Platten und Filmen, die er mir geschenkt hat und mit den Geschichten, die er erzählt und vor allem wie er sie erzählt. Aber was für meine Person ist mein Vater eigentlich?
Ich sammle Anekdoten, die einen lebhaften Eindruck über seine Erfahrungen und Erlebnisse geben und erfahre mehr über den historischen Kontext und die gesellschaftliche Situation, die seine persönliche Lebensgeschichte prägten. Ich tauche ein, in ein Leben voll von Kindheitserinnerungen aus der Nachkriegszeit und zufälligen Begegnungen, aus denen sich langjährige Freundschaften ergeben. Ich lerne mehr über den Umgang mit dem Tod, darüber wie man Entscheidungen trifft und lausche Geschichten von jugendlichem Übermut und aufregenden Schiffsfahrten. Mit jeder dieser Geschichten lerne ich meinen Vater neu und besser kennen, sehe mich darin selbst wieder oder bin auch einfach nur überrascht.
Denn die Auseinandersetzung mit meinem Vater ist notwendigerweise eine Auseinandersetzung mit mir selbst. Wo finde ich mich in seinen Geschichten selbst wieder? Wo macht er Fehler, die ich auch gemacht hätte, aber wo trifft er auch Entscheidungen, die ich mir nicht zutrauen würde? Ich erfahre, was wir gemeinsam haben, aber auch wo wir uns unterscheiden. Wir als Person, aber auch wir in unserem historischen Kontext. Wo in ihm ein Seemanns-Lied aus einer Musiktruhe den Wunsch weckte, zur See zu fahren, da höre ich noch immer die Platten, die er mir als Kind vorgespielt hat. Dass er mit seinen Eltern und seinem Bruder in einem Zimmer geschlafen und aufgewachsen ist, scheint für mich heute undenkbar. Und zusammen versuchen wir den Weg seines Vaters, meines Opa, nach Deutschland nachzuvollziehen und ergründen die Wurzeln der Familie.
Bilder, Dokumente und Tape-Aufnahmen eines rumänischen Kirchenchors veranschaulichen Erzählungen, die bis vor den Zweiten Weltkrieg zurückreichen und werden ergänzt und erweitert durch Medien, die erst im Rahmen dieser Arbeit entstanden sind. Es entsteht eine digitale Ausstellung und weit mehr, als ein individuelles Porträt. „Herr Vater & Ich” ist eine Sammlung von Kurzgeschichten, eine Auseinandersetzung mit Geschichte und gesellschaftlicher Veränderung, eine Verständigung zwischen Generationen.
Eine Einladung zum Zuhören & Kennenlernen.
Bei der Produktion von Solarzellen aus multikristallinem Silizium haben Defekte aus der Kristallisationsphase starken Einfluss auf die Materialqualität der Wafer und damit auf den Wirkungsgrad der späteren Solarzelle. Ein Verständnis des Kornwachstums in multikristallinem Silizium während des Kristallisationsprozesses kann zur Optimierung desselben beitragen. In dieser Arbeit werden Methoden untersucht, optische Flüsse zwischen Korngrenzenbildern multikristalliner Si-Wafer mittels neuronaler Netze zu berechnen. Hierfür wird die Architektur eines ausgereiften faltungsbasierten neuronalen Netzes zur optischen Fluss-Berechnung genutzt und durch angepasstes Training auf Waferstrukturen zugeschnitten. Dies umfasst die Synthese eigener, auf Waferbilder basierender Trainingsdaten und das Training mit einer angepassten Fehlerfunktion zur Bewertung der Zuordnungsgenauigkeit von Körnern zwischen Wafern durch den optischen Fluss. Beide Maßnahmen zusammen führen zu einer Reduktion des Zuordnungsfehlers von Körnern zwischen Waferbildern um 45 % gegenüber einem hochoptimierten, auf allgemeine optische Flüsse trainierten Modell basierend auf demselben Netzwerk. Die geschätzte Zuordnungsgenauigkeit des besten Modells beträgt 92,4 % der Pixel der Korngrenzenbilder eines Wafers. Weiteres Verbesserungspotenzial ist vorhanden.
Das Verstehen und Extrahieren von Informationen aus Dokumenten stellt eine Herausforderung dar, welche den Einsatz weiterer Technologien bedarf. Vorliegende
Masterarbeit untersucht die Anwendbarkeit von Methoden des maschinellen Lernens im Bereich der Wissensextraktion auf Basis von Angebotsdokumenten. Hierbei gilt die Frage zu klären, inwiefern sich diese Dokumente eignen, um Strukturen
für die Modellierung mit einem Produktkonfigurator zu lernen. Kern der Arbeit stellen die Datenaufbereitung von PDF-Dokumenten sowie das Modeling multimodal
lernender Algorithmen dar. Abgesehen von Texten werden zusätzlich Layoutinformationen für das Lernen der Strukturen genutzt. Zudem werden die Ergebnisse der
erstellten Modelle evaluiert und die Güte in Anbetracht des vorliegenden Problems
bewertet.
Mit der prototypischen Implementierung einer automatisierten Dokumentengenerierung wird demonstriert, wie das extrahierte Wissen in der Software CAS Configurator Merlin genutzt werden kann.
Das Konzept Nudging bezieht sich auf die gezielte Anwendung von verhaltensökonomischen Prinzipien. Menschen sollen dazu angestoßen werden, Entscheidungen zu treffen, welche ihnen zugutekommen. Dabei werden Reize, sogenannte Nudges, gesetzt. Ein Ziel der vorliegenden Arbeit ist es zu beantworten, ob und wie effektiv das Konzept in der Gesundheitskommunikation genutzt wird. Ein weiteres Ziel ist die Identifikation von Risiken und Chancen des Ansatzes. Dazu wurden zunächst die Grundlagen der Verhaltensökonomik erläutert. So werden zwei kognitive Systeme unterschieden: Das automatische bzw. intuitive System sowie das rationale bzw. reflexive System. Menschen nutzen häufig das automatische System, um aufgrund von Erfahrungen und Emotionen Entscheidungen zu treffen. Dieses System ermöglicht eine schnelle Reaktion, ist aber anfällig für kognitive Verzerrungen und Urteilsheuristiken. Während kognitive Verzerrungen systematische Abweichungen von rationalen Entscheidungen bezeichnen, werden unter Urteilsheuristiken Faustregeln verstanden, welche auf vereinfachten Denkvorgängen beruhen. Nudges werden hinsichtlich dieser Erkenntnisse eingesetzt, indem die Denkmuster gezielt angesprochen werden. Im Bereich der Gesundheitskommunikation spielt die psychologische Reaktanz eine Rolle. Diese bezieht sich auf die menschliche Eigenschaft, die eigene Freiheit und Autonomie zu verteidigen, sobald diese eingeschränkt scheint. Demnach können Gesundheitsbotschaften nicht den gewünschten Effekt erzielen, sobald Menschen sich genötigt oder bevormundet fühlen. Forschungen zur Akzeptanz und Effektivität von Nudge-Instrumenten zeigen, dass die Maßnahmen eine moderate Wirkung haben, von der Zielgruppe akzeptiert werden und somit Vorteile gegenüber anderen Ansätzen wie Verboten und Vorschriften aufweisen. Innerhalb einer qualitativen Inhaltsanalyse von vier Gesundheitskampagnen wurden unterschiedliche Kampagnenbestandteile auf den Einsatz von vorher festgelegten Instrumenten, welche auf der Literatur beruhen, analysiert. Alle Instrumente der Überkategorien Ansprache, Einfachheit sowie Incentivierung konnten identifiziert werden, deren Instrumente somit zu den meist genutzten zählen. Ungenutztes Potenzial lässt sich bei der Anwendung der Instrumente Kurzfristige Vorteile, Verbindlichkeit und Standardoption ausmachen. Ein Risiko bei der Verwendung von Nudges in der Praxis stellt die teilweise ungenaue Definition des Ansatzes in der Forschung und damit eine fehlerhafte Implementierung der Maßnahmen dar. Das Nudging kann bei unsachgemäßer Anwendung den Vorwurf der Manipulation nach sich ziehen oder den gewünschten Effekt verfehlen. Abschließend wurde eine Gesundheitskampagne mit dem Titel Lebensgefühl konzipiert, die sich mit dem Thema Diabetes Typ 2 auseinandersetzt. Anhand dieses praktischen Teils wird die Umsetzung von Nudging in der Gesundheitskommunikation veranschaulicht.
In der vorliegenden Arbeit wird Augmented Reality (AR) sowohl in der Theorie als auch in der Praxis ausführlich behandelt. Die Technik, welche in den letzten Jahren stark weiterentwickelt wurde, die Entwicklungsgeschichte, sowie die Projektbegleitung (aus Sicht des Auftraggebers einer AR-Anwendung) stehen im Fokus.
Neben den einleitenden Kapiteln wurde die Ausarbeitung thematisch in zwei große Bereiche unterteilt. Der erste, eher theoretische Bereich (Kapitel 2), bildet den wissenschaftlichen Teil dieser Ausarbeitung. Er beinhaltet eine Einführung in Augmented Reality und analysiert aktuelle Techniken. Auch die Funktionsweise wird aufgezeigt, um zu verstehen, was hinter den Kulissen der Anwendungen steckt. Im zweiten, praxisnahen Bereich (Kapitel 3) wird der Entstehungsprozess der Augmented Reality Applikation (App) von Kaba begleitet. Es wurde der Entstehungsprozess der App für Android und iOS ausführlich dokumentiert. Für Leser, die Probleme mit einigen Wissensbereichen haben, gibt es im Anhang eine ausführliche Literaturliste.
Die Corona-Pandemie hat nicht nur tiefgreifende Auswirkungen auf das gesellschaftliche Leben, auch in der Wirtschaft sind die Folgen zu spüren. Dabei können diese Folgen in den einzelnen Branchen sehr unterschiedlich sein. Wo der E-Commerce eine steigende Nachfrage verzeichnen konnte, ist die Nachfrage im Kultur- und Freizeitsektor nahezu komplett eingebrochen. Aber nicht in allen Branchen sind die Auswirkungen so eindeutig. Diese Arbeit befasst sich deshalb mit den Auswirkungen der Corona-Pandemie auf die Werbefilmproduktionen in Deutschland. Dabei werden die folgenden beiden Forschungsfragen untersucht:
„Welche Gefahren birgt die wirtschaftliche Krise in Folge der Corona-Pandemie für die Werbefilmproduktionsbranche und wie kann diesen entgegengewirkt werden?“
„Welche Chancen ergeben sich aus der aktuellen Wirtschaftskrise und wie können diese für die Zukunft genutzt werden?“
Um diese Fragen zu beantworten, wurden zunächst die Begrifflichkeiten rund um das Thema genau definiert. Aufbauend auf der Literaturrecherche wurde zudem ein Leitfaden für Interviews mit drei Experten aus der Branche erstellt und diese anschließend durchgeführt. Dabei konnten neben einem detaillierteren Einblick in die Branche die Grundlagen für die ebenfalls durchgeführte quantitative Umfrage, die an eine repräsentative Stichprobe aus Unternehmen der Branche gestellt wurde, geschaffen werden.
Es zeigt sich, dass die Werbefilmproduktionen nach einem im ersten Lockdown nahezu kompletten Stillstand, durch schnelles Handeln, effektive Anpassungen in den Arbeitsabläufen vornehmen und dadurch zügig die Arbeit wieder aufnehmen konnten. Auch wenn die Unternehmen weiterhin Schwierigkeiten im Bereich der Planung und Produktion hatten und haben, konnten viele der Unternehmen durch die Verlagerung von Prozessen in die digitale Welt neue Geschäftsfelder erschließen und einen steigenden Umsatz verzeichnen. Schnelles Handeln und Innovationsbereitschaft zeigen sich dabei als zentrale Eigenschaften für eine positive Geschäftsentwicklung in der Krise.
Weiterführende Forschung kann sich mit dem Themenbereich effizientes Arbeiten im Home-Office beschäftigen. Auch im Bereich der Werbefilmproduktion für Social Media und Unternehmenshomepages und im Speziellen, welche Unternehmen diese in Zukunft vermehrt nachfragen, besteht noch Forschungsbedarf. Wie sich die fehlende praktische Erfahrung auf die Qualität der Lehre auswirkt, ist ebenfalls eine noch offene Fragestellung.
Durch die Fortschritte im Bereich der Quantencomputer rückt der Zeitpunkt näher, dass Quantencomputer die bestehenden mathematischen Probleme lösen können, welche in den aktuellen Public-Key-Verschlüsselungsverfahren verwendet werden. Als Reaktion darauf wurde ein Standardisierungsprozess für quantensichere Public-Key-Verschlüsselungsverfahren gestartet. Diese Arbeit analysiert diese und vergleicht sie untereinander, um Stärken und Schwächen der einzelnen Verfahren aufzuzeigen.
Diese Arbeit befasst sich mit der Konzeption und Implementierung eines Dateiimportfilters für Mess- und Kalibrierwerkzeuge. Dieser ermöglicht das Importieren von INCA-Experimenten nach CANape, indem aus Experiment-Exportdateien Konfigurationsdateien generiert werden. Im Zuge der Umsetzung wurde dazu das aus binären Daten bestehende Exportdateiformat von INCA analysiert. Das Ziel dieser Analyse bestand darin, herauszufinden, wo und wie die Informationen in den Exportdateien gespeichert sind. Die so erlangten Erkenntnisse wurden verwendet, um den Dateiimportfilter zu entwickeln. Dieser liest aus Exportdateien die notwendigen Informationen aus, überführt sie in eine CANape interne Repräsentation und generiert daraus eine entsprechende Konfigurationsdatei. Die korrekte Funktionsweise wurde anhand von selbst erstellten Experimenten sowie mithilfe von Kundenexperimenten validiert.
Das Thema dieser Masterthesis lautet „Camera Stream Solution – Marktübersicht, Lösungsansätze, Prototyp“. Mit dieser Arbeit wird eine Videostreaming-Lösung für die Herrenknecht-Plattform CONNECTED realisiert. Dabei geht es um die Bildschirmaufnahme von Navigations- und Steuerungsbildschirmen auf Tunnelbohrmaschinen und die Übertragung dieser Aufnahmen in die Cloud. Letztlich wird ermöglicht die Aufnahmen in nahezu Echtzeit als Videostream in einem Videoplayer wiederzugeben.
Zu Beginn werden die Grundlagen zur Datenübertragung im Internet sowie zum Streaming erläutert. Im Anschluss wird eine Marktübersicht verschiedener Streaming-Komponenten gegeben sowie einige Lösungsansätze vorgestellt und anhand ausgewählter Kriterien verglichen. Im nächsten Schritt wird die Implementierung eines Prototyps behandelt. Dieser nutzt unter anderem ffmpeg für die Bildschirmaufnahme und die Kodierung sowie die Streaming-Protokolle RTMP (Real Time Messaging Protocol) und HLS (HTTP Live Streaming). Zur Realisierung der Architektur gehört auch die Entwicklung einer REST-API und eines REST-Clients in C#.
Mit dem Projekt wird eine „echte“ Streaming-Lösung für die Kundenplattform CONNECTED entwickelt, die einen Videostream mit 24 Bildern pro Sekunde bietet, um die bisherige Darstellung von Screenshots auf der Plattform zu ersetzen.
Die vorliegende Arbeit beschäftigt sich mit ausgewählten Aspekten der Konzeption, Umsetzung und Implementierung eines E-Learning-Lernangebots für die NGO CartONG. Das E-Learning-Angebot soll abschließend vier Themen beinhalten, die sich unter dem Begriff REDD+ zusammenfassen lassen. „Forest Inventory“ ist eines der vier Themen und wurde von mir bearbeitet. Für die Aufbereitung und Umsetzung der anderen drei Themen erstellte ich Anleitungen und Richtlinien. Die anderen drei Themen werden auf Grundlage dieser Anleitungen in ähnlicher Weise von CartONG-Mitarbeitern aufbereitet. Die Grundlage dieser Arbeit bilden die Lerntheorien sowie die Auswertung des Fragebogens für die potentiellen zukünftigen Lerner, durch die ich meine Konzeption und Umsetzung begründe. Diese beiden Grundlagen behandle ich in den ersten zwei Kapiteln. Darauf folgt die Beschreibung der Entwicklung des Corporate Designs für das gesamte Lernangebot. Es bildet neben der zuvor genannten didaktischen Grundlage nun die visuelle Grundlage für die Konzeption der Inhalte, die sich diesem Kapitel anschließt. Der Konzeption folgt die Aufbereitung der Inhalte. Das abschließende Kapitel beschreibt die anschließende Umsetzung des Lernangebots auf der Lernplattform Moodle.
Strong security measures are required to protect sensitive data and provide ongoing service as a result of the rising reliance on online applications for a range of purposes, including e-commerce, social networking, and commercial activities. This has brought to light the necessity of strengthening security measures. There have been multiple incidents of attackers acquiring access to information, holding providers hostage with distributed denial of service attacks, or accessing the company’s network by compromising the application.
The Bundesamt für Sicherheit in der Informationstechnik (BSI) has published a comprehensive set of information security principles and standards that can be utilized as a solid basis for the development of a web application that is secure.
The purpose of this thesis is to build and construct a secure web application that adheres to the requirements established in the BSI guideline. This will be done in order to answer the growing concerns regarding the security of web applications. We will also evaluate the efficacy of the recommendations by conducting security tests on the prototype application and determining whether or not the vulnerabilities that are connected with a web application that is not secure have been mitigated.
As the Industry 4.0 is evolving, the previously separated Operational Technology (OT) and Information Technology (IT) is converging. Connecting devices in the industrial setting to the Internet exposes these systems to a broader spectrum of cyber-attacks. The reason is that since OT does not have much security measures as much as IT, it is more vulnerable from the attacker's perspective. Another factor contributing to the vulnerability of OT is that, when it comes to cybersecurity, industries have focused on protecting information technology and less prioritizing the control systems. The consequences of a security breach in an OT system can be more adverse as it can lead to physical damage, industrial accidents and physical harm to human beings. Hence, for the OT networks, certificate-based authentication is implemented. This involves stages of managing credentials in their communication endpoints. In the previous works of ivESK, a solution was developed for managing credentials. This involves a CANopen-based physical demonstrator where the certificate management processes were developed. The extended feature set involving certificate management will be based on the existing solution. The thesis aims to significantly improve such a solution by addressing two key areas that is enhancing functionality and optimizing real-time performance. Regarding the first goal, firstly, an analysis of the existing feature set shall be carried out, where the correct functionality shall be guaranteed. The limitations from the previously implemented system will be addressed and to make sure it can be applied to real world scenarios, it will be implemented and tested in the physical demonstrator. This will lay a concrete foundation that these certificate management processes can be used in the industries in large-scale networks. Implementation of features like revocation mechanism for certificates, automated renewal of the credentials and authorization attribute checks for the certificate management will be implemented. Regarding the second goal, the impact of credential management processes on the ongoing CANopen real-time traffic shall be a studied. Since in real life scenarios, mission-critical applications like Industrial control systems, medical devices, and transportation networks rely on real-time communication for reliable operation, delays or disruptions caused by credential management processes can have severe consequences. Optimizing these processes is crucial for maintaining system integrity and safety. The effect to minimize the disturbance of the credential management processes on the normal operation of the CANopen network shall be characterized. This shall comprise testing real-time parameters in the network such as CPU load, network load and average delay. Results obtained from each of these tests will be studied.
Truth is the first causality of war”, is a very often used statement. What rather intrigues the mind is what causes the causality of truth. If one dives deeper, one may also wonder why is this so-called truth the first target in a war. Who all see the truth before it dies. These questions rarely get answered as the media and general public tends to focus more on the human and economic losses in a war or war like situation. What many fail to realize is that these truthful pieces of information are critical to how a situation further develops. One correct information may change the course of the whole war saving millions and one mis-information may do the opposite.
Since its inception, some studies have been conducted to propose and develop new applications for OSINT in various fields. In addition to OSINT, Artificial Intelligence is a worldwide trend that is being used in conjunction witThe question here is, what is this information. Who transmits this and how? What is the source. Although, there has been an extensive use of the information provided by the secret services of any nation, which have come handy to many, another kind of information system is using the one that is publicly available, but in different pieces. This kind of information may come from people posting on social media, some publicly available records and much more. The key part in this publicly available information is that these are just pieces of information available across the globe from various different sources. This could be seen as small pieces of a puzzle that need to be put together to see the bigger picture. This is where OSINT comes in place.
h other areas (AI). AI is the branch of computer science that is in charge of developing intelligent systems. In terms of contribution, this work presents a 9-step systematic literature review as well as consolidated data to support future OSINT studies. It was possible to understand where the greatest concentration of publications was, which countries and continents developed the most research, and the characteristics of these publications using this information. What are the trends for the next OSINT with AI studies? What AI subfields are used with OSINT? What are the most popular keywords, and how do they relate to others over time?A timeline describing the application of OSINT is also provided. It was also clear how OSINT was used in conjunction with AI to solve problems in various areas with varying objectives. Private investigators and journalists are no longer the primary users of open-source intelligence gathering and analysis (OSINT) techniques. Approximately 80-90 percent of data analysed by intelligence agencies is now derived from publicly available sources. Furthermore, the massive expansion of the internet, particularly social media platforms, has made OSINT more accessible to civilians who simply want to trawl the Web for information on a specific individual, organisation, or product. The General Data Protection Regulation (GDPR) of the European Union was implemented in the United Kingdom in May 2018 through the new Data Protection Act, with the goal of protecting personal data from unauthorised collection, storage, and exploitation. This document presents a preliminary review of the literature on GDPR-related work.
The reviewed literature is divided into six sections: ’What is OSINT?’, ’What are the risks?’ and benefits of OSINT?’, ’What is the rationale for data protection legislation?’, ’What are the current legislative frameworks in the UK and Europe?’, ’What is the potential impact of the GDPR on OSINT?’, and ’Have the views of civilian and commercial stakeholders been sought and why is this important?’. Because OSINT tools and techniques are available to anyone, they have the unique ability to be used to hold power accountable. As a result, it is critical that new data protection legislation does not impede civilian OSINT capabilities.
In this paper we see how OSINT has played an important role in the wars across the globe in the past. We also see how OSINT is used in our everyday life. We also gain insights on how OSINT is playing a role in the current war going on between Russia and Ukraine. Furthermore, we look into some of these OSINT tools and how they work. We also consider a use case where OSINT is used as an anti terrorism tool. At the end, we also see how OSINT has evolved over the years, and what we can expect in the future as to what OSINT may look like.
In each company Top Managers have the responsibility to take major decisions that supports the success of their company, Adopting TQM is one of these decisions, the decision to carry out companies’ operations and procedures within TQM frameworks. (ASQ , n.d.). Applying TQM, involves implementing practices that needs putting extra efforts, otherwise there will be no use of the practices and the execution. (Nicca Jirah F Campos1, 2022).
Specifically in service sector, where the key to success and increased profit, comes directly through a satisfied customer. Therefor there is a need for both management and staff to have big tolerance and willingness to achieve the needed satisfaction, in order to attain the results that every company wants. (Charantimath, 2013)
In Germany in terms of customer care practices there is a famous stereotype ‘Customer is not the king’ A reputation That after DW investigated it, DW expressed it as a phenomenon where both expats and Germans tend to believe that service companies in Germany should do a better job of treating their consumers. (DW, 2016)
New concepts of business have emerged in the late century, for example strategy, leadership, marketing, entrepreneurship and others, these concepts spread internationally among most of the companies around the world. Many studies have been done reviewing these new business structures, some of them addressed the cultural differences within countries upon the applying them. But not many studies concentrated on taking into consideration how cultural differences affects the Implementation of TQM. (Lagrosen, 2002). It was concluded in general that although the comprehensive fundamentals of quality management are applicable and similar worldwide in all nations, but when coming to real practice accurate tunning must be made, it must be taken into account aligning different standards, due to different work cultures and traditions in Europe. (Krueger, 1999)
Encryption techniques allow storing and transferring of sensitive information securely by using encryption at rest and encryption in transit, respectively. However, when computation is performed on these sensitive data, the data needs to be decrypted first and encrypted again after performing the computations. During the computations, the sensitive data becomes vulnerable to attackers as it's in decrypted form. Homomorphic encryption, a special type of encryption technique that allows computation on encrypted data can be used to solve the above-mentioned problem. The best way to achieve maximum security with homomorphic encryption is to perform at least the homomorphic encryption and decryption on the client side (browser) of a web application by not trusting the server. At present time there are many libraries with different homomorphic schemes available for homomorphic encryption. However, there are very few to no JavaScript libraries available to perform homomorphic encryption on the client side of any web application. This thesis mainly focuses on the JavaScript implementation of client-side homomorphic encryption. The fully homomorphic encryption scheme BFV is selected for the implementation. After implementing the fully homomorphic encryption scheme based on the “py-fhe” library, tests are also carried out in order to determine the applicability (in terms of time consumption, security and correctness) of this implementation in a web application by comparing the performance and security for different test cases and different settings.
Distributed Flow Control and Intelligent Data Transfer in High Performance Computing Networks
(2015)
This document contains my master thesis report, including problem definition, requirements, problem analysis, review of current state of the art, proposed solution,
designed prototype, discussions and conclusion.
During this work we propose a collaborative solution to run different types of operations in a broker-less network without relying on a central orchestrator.
Based on our requirements, we define and analyze a number of scenarios. Then we design a solution to address those scenarios using a distributed workflow management approach. We explain how we break a complicated operation into simpler parts and how we manage it in a non-blocking and distributed way. Then we show how we asynchronously launch them on the network and how we collect and aggregate results. Later on we introduce our prototype which demonstrates the proposed design.