000 Allgemeines, Informatik, Informationswissenschaft
Refine
Year of publication
Document Type
- Bachelor Thesis (139)
- Master's Thesis (44)
- Conference Proceeding (35)
- Article (reviewed) (17)
- Part of a Book (13)
- Article (unreviewed) (13)
- Book (9)
- Contribution to a Periodical (7)
- Doctoral Thesis (2)
- Periodical Part (2)
Conference Type
- Konferenzartikel (31)
- Konferenzband (2)
- Konferenz-Abstract (1)
- Konferenz-Poster (1)
Keywords
- Künstliche Intelligenz (18)
- Internet der Dinge (11)
- Marketing (11)
- Webentwicklung (11)
- Maschinelles Lernen (10)
- IT-Sicherheit (9)
- Informatik (9)
- Datenqualität (8)
- Gamification (8)
- JavaScript (8)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (108)
- Fakultät Medien (M) (ab 22.04.2021) (69)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (49)
- Fakultät Wirtschaft (W) (22)
- ACI - Affective and Cognitive Institute (20)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (19)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (13)
- IMLA - Institute for Machine Learning and Analytics (9)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (3)
- IfTI - Institute for Trade and Innovation (2)
Open Access
- Closed Access (133)
- Open Access (87)
- Closed (58)
- Diamond (12)
- Bronze (5)
- Hybrid (3)
- Gold (2)
Strong security measures are required to protect sensitive data and provide ongoing service as a result of the rising reliance on online applications for a range of purposes, including e-commerce, social networking, and commercial activities. This has brought to light the necessity of strengthening security measures. There have been multiple incidents of attackers acquiring access to information, holding providers hostage with distributed denial of service attacks, or accessing the company’s network by compromising the application.
The Bundesamt für Sicherheit in der Informationstechnik (BSI) has published a comprehensive set of information security principles and standards that can be utilized as a solid basis for the development of a web application that is secure.
The purpose of this thesis is to build and construct a secure web application that adheres to the requirements established in the BSI guideline. This will be done in order to answer the growing concerns regarding the security of web applications. We will also evaluate the efficacy of the recommendations by conducting security tests on the prototype application and determining whether or not the vulnerabilities that are connected with a web application that is not secure have been mitigated.
Jeder Mensch ist ständig unfreiwillig von einer Flut akustischer Reize umgeben. Diese Situation stellt für Menschen mit Hörverlust eine besondere Herausforderung dar. Menschen mit Hörverlust hören durch Hörgeräte zwar alles verstärkt, jedoch stellt sich die Frage, ob ein Hörgerät lediglich eine einfache Verstärkung von Schallwellen ist oder ob es darüber hinausgehende Funktionen bieten kann.
Die vorliegende Thesis widmet sich der akustischen Szenenanalyse in Hörgeräten, wobei der Schwerpunkt auf der Integration von Machine Learning liegt. Das Ziel besteht darin, eine automatisierte Erkennung und Anpassung an verschiedene akustische Situationen zu ermöglichen. Die Arbeit konzentriert sich insbesondere auf die Analyse grundlegender Szenarien wie: Sprache in Ruhe, absolute Ruhe, Sprache in Störgeräuschen und Störgeräuschen in Audiodaten.
Die Bachelorarbeit mit dem Titel "Chatbots als Kommunikationsinstrument: Ein Leitfaden für kleine und mittelständische Unternehmen zur Optimierung der Kundenkommunikation durch den Einsatz von Chatbots" zielt darauf ab, praxisorientierte Leitlinien für KMU zu entwickeln, die Chatbots zur Verbesserung ihrer Kundenkommunikation einsetzen möchten. Die Arbeit konzentriert sich auf zwei Hauptaspekte: Erstens, wie KMU Chatbots erfolgreich in ihre Marketingstrategien integrieren können, unter Berücksichtigung technischer und unternehmerischer Bedürfnisse und Ziele. Zweitens, wie der Einsatz von Chatbots die Effektivität der Kundenkommunikation in diesen Unternehmen beeinflusst, mit dem Ziel, Kundenansprache und -bindung zu verbessern sowie Prozesse zu optimieren. Durch theoretische Grundlagen und praxisnahe Empfehlungen bietet die Arbeit einen umfassenden Leitfaden, der konkrete Handlungsempfehlungen für die erfolgreiche Implementierung von Chatbots liefert. Diese sollen KMU dabei unterstützen, einen nachhaltigen Mehrwert für ihre Kundenbeziehungen zu schaffen und ihre Wettbewerbsfähigkeit zu stärken.
In dieser Arbeit wird die Identifikation von Trägheitsparametern von Mehrkörpersystemen, am Beispiel eines ein aus vier Segmenten bestehenden Roboterarms untersucht. Es werden verschiedene neuronale Netzarchitekturen zur Identifikation der Trägheitsparameter des Roboterarms exploriert. Als Referenz für das Abschneiden der Ansätze wird ein vorab implementierter numerischer Optimierungsansatz, welcher mittels der Software „Matalb“ umgesetzt wurde, benutzt. Der Ansatz zum Aufstellen der benötigten Bewegungsgleichungen und die Formulierung des Regressionsproblems unterscheidet sich von den in der Literatur verwendeten Ansätzen, und beruht auf einem neu entwickelten Sensorkonzept der Hochschule Offenburg (des Sweaty Labors).
Der numerische Ansatz, insbesondere nach Linearisierung des Problems, erzielte herausragende Ergebnisse und konnte die idealen Parameterwerte präzise identifizieren. Demgegenüber standen die neuronalen Netzwerke, deren Potenzial trotz umfassender Untersuchung verschiedener Architekturen und Ansätze nicht vollends ausgeschöpft werden konnte. Die Resultate zeigen deutlich die Grenzen und Herausforderungen bei der Anwendung maschineller Lernmethoden in der spezifischen Aufgabenstellung der Trägheitsparameteridentifikation auf.
Diese Arbeit leistet einen Beitrag zum Verständnis der Möglichkeiten und Grenzen bei der Anwendung neuer Messtechnologien und Berechnungsverfahren in der Robotik. Die überlegene Leistung des numerischen Solvers gegenüber den neuronalen Netzansätzen unterstreicht die Bedeutung weiterer Forschungen in diesem Bereich.
Socially assistive robots (SARs) are becoming more prevalent in everyday life, emphasizing the need to make them socially acceptable and aligned with users' expectations. Robots' appearance impacts users' behaviors and attitudes towards them. Therefore, product designers choose visual qualities to give the robot a character and to imply its functionality and personality. In this work, we sought to investigate the effect of cultural differences on Israeli and German designers' perceptions of SARs' roles and appearance in four different contexts: a service robot for an assisted living/retirement residence facility, a medical assistant robot for a hospital environment, a COVID-19 officer robot, and a personal assistant robot for domestic use. The key insight is that although Israeli and German designers share similar perceptions of visual qualities for most of the robotics roles, we found differences in the perception of the COVID-19 officer robot's role and, by that, its most suitable visual design. This work indicates that context and culture play a role in users' perceptions and expectations; therefore, they should be taken into account when designing new SARs for diverse contexts.
Der Online-Handel verzeichnet seit Jahren ein stetiges Wachstum. Durch die COVID-19-Pandemie kaufen nun auch Nutzende, die zuvor physische Kanäle bevorzugten, vermehrt online ein. Der Anbietererfolg hängt dabei wesentlich von der Kenntnis über die Kund*innen ab. Allerdings dominieren einige große Anbieter den Markt, während kleinere Online-Shops Schwierigkeiten haben, ihre Angebote zu personalisieren. Eine Lösung bietet der Ansatz selbstbestimmter Identitäten. Dieser ermöglicht Kund*innen, ihre eigenen Shoppingdaten zu kontrollieren und sie selektiv mit Online-Shops zu teilen. Dadurch können individuelle Wünsche und Anforderungen der Kund*innen in Online-Shops berücksichtigt und ein personalisiertes Angebot sowie eine gute Nutzungserfahrung geboten werden. Trotz des großen Potenzials selbstbestimmter Identitäten ist der Ansatz in Deutschland kaum verbreitet. Dieser Beitrag beleuchtet den Einsatz selbstbestimmter Identitäten im Online-Handel. Mithilfe eines menschenzentrierten Gestaltungsprozesses wurden Personas und Ist-Szenarien erstellt, sowie daraus resultierend Anforderungen erhoben und Potenziale identifiziert. Auf Basis dessen konnte ein Daten- und Architekturmodell zur Integration von selbstbestimmten Identitäten im Online-Handel entwickelt werden.
In einer digitalisierten Welt wird das Smartphone zunehmend multifunktional eingesetzt. Auch Anwendungen für eine eindeutige Identifikation wie bei Banking-Apps sind bereits verfügbar, weshalb das Smartphone auch als Ersatz des klassischen Schlüssels genutzt werden kann.
Ziel der Thesis ist es, genau das unter Beweis zu stellen. Im Rahmen der Arbeit soll eine mobile Applikation in Android Studio für ein Google Pixel 7 Pro entwickelt werden, die mit einem Türschloss interagieren und dieses ansteuern kann. Eine Besonderheit dieses Systems besteht in der präzisen Positionsbestimmung mithilfe der Ultra-Wideband Technologie. Diese wird genutzt, um die Position des Smartphones zum Türschloss genau zu bestimmen und festzulegen, ab welcher Position das Schloss auf die Interaktion des Smartphones reagieren soll.
Die im Rahmen der Thesis entwickelte App hat das Ziel erfüllt. Sie fungiert als Demo-App für ein funktionierendes Tür-System, bei dem die Positionsbestimmung mit Ultra-Wideband umgesetzt wurde. Ebenfalls wurde der Datenaustausch mit mehreren Sicherheitsmechanismen wie einem AES-Algorithmus, einem Running Counter oder einem Hash-Wert umgesetzt.
Dennoch muss erwähnt werden, dass das Ziel, den Datenaustausch ebenfalls mit Ultra-Wideband zu implementieren, nicht gelungen ist. Hierfür wird in der bestehenden App Bluetooth Low Energy genutzt.
Im Laufe der Arbeit hat sich gezeigt, dass Ultra-Wideband im Zusammenhang mit dem angedachten Tür-System zur Positionsbestimmung geeignet ist. Es konnte eine hohe Präzision mit einer Aktualisierungsrate von mehreren Ranging-Ergebnissen pro Sekunde erreicht werden.
Allerdings ist ein abgeschlossenes Konzept, das ausschließlich auf Ultra-Wideband basiert, bislang nicht möglich. Ebenfalls erschweren fehlende Standards die Implementierung. Hier mangelt es an einer Vereinheitlichung.
Auch besteht Potenzial zur Entwicklung von Konzepten für die Umsetzung des Datenaustauschs über Ultra-Wideband in mobilen Applikationen. Somit wäre es möglich, Ultra-Wideband als alleinige Technologie für solche Systeme zu nutzen.
Abschließend zeigt diese Arbeit jedoch, dass Positionsbestimmung mit Ultra-Wideband im in der Thesis untersuchten Konzept möglich ist und die Technologie für eine Indoorpositionierung in Kombination mit einem smarten Türschloss genutzt werden kann. Die herausragende Präzision in Echtzeit kann in diesem Prototyp verdeutlicht werden und als ein funktionierendes System als Grundlage für zukünftige Arbeiten genutzt werden.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
Implementation and Evaluation of an Assisting Fuzzer Harness Generation Tool for AUTOSAR Code
(2024)
The digitalization in vehicles tends to add more connectivity such as over-the-air (OTA) updates. To achieve this digitization, each ECU (Electronic Control Unit) becomes smarter and needs to support more and more different externally available protocols such as TLS, which increases the attack surface for attackers. To ensure the security of a vehicle, fuzzing has proven to be an effective method to discover memory-related security vulnerabilities. Fuzzing the software run- ning on a ECU is not an easy task and requires a harness written by a human. The author needs a deep understanding of the specific service and protocol, which is time consuming. To reduce the time needed by a harness author, this thesis aims to develop FuzzAUTO, the first assistant harness generation tool targeting the AUTOSAR (AUTomotive Open System ARchitecture) BSW (Basic Software) to support manual harness generation.
The progress in machine learning has led to advanced deep neural networks. These networks are widely used in computer vision tasks and safety-critical applications. The automotive industry, in particular, has experienced a significant transformation with the integration of deep learning techniques and neural networks. This integration contributes to the realization of autonomous driving systems. Object detection is a crucial element in autonomous driving. It contributes to vehicular safety and operational efficiency. This technology allows vehicles to perceive and identify their surroundings. It detects objects like pedestrians, vehicles, road signs, and obstacles. Object detection has evolved from being a conceptual necessity to an integral part of advanced driver assistance systems (ADAS) and the foundation of autonomous driving technologies. These advancements enable vehicles to make real-time decisions based on their understanding of the environment, improving safety and driving experiences. However, the increasing reliance on deep neural networks for object detection and autonomous driving has brought attention to potential vulnerabilities within these systems. Recent research has highlighted the susceptibility of these systems to adversarial attacks. Adversarial attacks are well-designed inputs that exploit weaknesses in the deep learning models underlying object detection. Successful attacks can cause misclassifications and critical errors, posing a significant threat to the functionality and safety of autonomous vehicles. With the rapid development of object detection systems, the vulnerability to adversarial attacks has become a major concern. These attacks manipulate inputs to deceive the target system, significantly compromising the reliability and safety of autonomous vehicles. In this study, we focus on analyzing adversarial attacks on state-of-the-art object detection models. We create adversarial examples to test the models’ robustness. We also check if the attacks work on a different object detection model meant for similar tasks. Additionally, we extensively evaluate recent defense mechanisms to see how effective they are in protecting deep neural networks (DNNs) from adversarial attacks and provide a comprehensive overview of the most commonly used defense strategies against adversarial attacks, highlighting how they can be implemented practically in real-world situations.
Privacy is the capacity to keep some things private despite their social repercussions. It relates to a person’s capacity to control the amount, time, and circumstances under which they disclose sensitive personal information, such as a person’s physiology, psychology, or intelligence. In the age of data exploitation, privacy has become even more crucial. Our privacy is now more threatened than it was 20 years ago, outside of science and technology, due to the way data and technology highly used. Both the kinds and amounts of information about us and the methods for tracking and identifying us have grown a lot in recent years. It is a known security concern that human and machine systems face privacy threats. There are various disagreements over privacy and security; every person and group has a unique perspective on how the two are related. Even though 79% of the study’s results showed that legal or compliance issues were more important, 53% of the survey team thought that privacy and security were two separate things. Data security and privacy are interconnected, despite their distinctions. Data security and data privacy are linked with each other; both are necessary for the other to exist. Data may be physically kept anywhere, on our computers or in the cloud, but only humans have authority over it. Machine learning has been used to solve the problem for our easy solution. We are linked to our data. Protect against attackers by protecting data, which also protects privacy. Attackers commonly utilize both mechanical systems and social engineering techniques to enter a target network. The vulnerability of this form of attack rests not only in the technology but also in the human users, making it extremely difficult to fight against. The best option to secure privacy is to combine humans and machines in the form of a Human Firewall and a Machine Firewall. A cryptographic route like Tor is a superior choice for discouraging attackers from trying to access our system and protecting the privacy of our data There is a case study of privacy and security issues in this thesis. The problems and different kinds of attacks on people and machines will then be briefly talked about. We will explain how Human Firewalls and machine learning on the Tor network protect our privacy from attacks such as social engineering and attacks on mechanical systems. As a real-world test, we will use genomic data to try out a privacy attack called the Membership Inference Attack (MIA). We’ll show Machine Firewall as a way to protect ourselves, and then we’ll use Differential Privacy (DP), which has already been done. We applied the method of Lasso and convolutional neural networks (CNN), which are both popular machine learning models, as the target models. Our findings demonstrate a logarithmic link between the desired model accuracy and the privacy budget.
KI-gestützte Cyberangriffe
(2023)
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des Deep Learning haben in den letzten Jahren enorme Fortschritte gemacht. Insbesondere Technologien wie Large Language Models (LLMs) machen KI-Technologie innerhalb kurzer Zeit zugänglich für die Allgemeinheit. Die Generierung von Text, Bild und Sprache durch künstliche Intelligenz erzielt innerhalb kurzer Zeit gute Ergebnisse. Parallel zu dieser Entwicklung hat die Cyberkriminalität in den vergangenen Jahren im Bereich der KI zugenommen. Cyberangriffe verursachen im Zuge der Digitalisierung größeren Schaden und Angriffe entwickeln sich kontinuierlich weiter, um bestehende Schutzmaßnahmen zu umgehen.
Diese Arbeit bietet eine Einführung in das Themengebiet KI-gestützte Cyberangriffe. Sie präsentiert aktuelle KI-gestützte Cyberangriffsmodelle und analysiert, inwiefern diese für Anfänger*innen in der Cyberkriminalität zugänglich sind.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.
The increasing diffusion of rapidly developing AI technologies led to the idea of the experiment to combine TRIZ-based automated idea generation with the natural language processing tool ChatGPT, using the chatbot to interpret the automatically generated elementary solution principles. The article explores the opportunities and benefits of a novel AI-enhanced approach to teaching systematic innovation, analyses the learning experience, identifies the factors that affect students' innovation and problem-solving performance, and highlights the main difficulties students face, especially in interdisciplinary problems.
LogIKTram
(2023)
Der Anstieg des urbanen Verkehrs belastet zunehmend die Anwohner, die Nutzer der Infrastruktur sowie die Umwelt. Während für die Personenbeförderung die Straßenbahnen eine Entlastung bieten, existieren für den innerstädtischen Logistikverkehr keine passenden Angebote. Aus diesem Grund verfolgt das Projekt LogIKTram das Ziel, den Logistikverkehr mit einer Gütertram auf die Schiene zu verlagern. Hierfür werden ein Logistikkonzept sowie verschiedene Planungsmodelle entwickelt, die eine vereinfachte Nutzung erlauben.
KINLI
(2023)
Konsumenten haben immer höhere Ansprüche an Lebensmittelsicherheit, -qualität und -nachhaltigkeit. Bei Fleisch erwarten viele Menschen auch eine artgerechte und ethisch vertretbare Aufzucht, Haltung und Schlachtung der Tiere. Im Projekt KINLI sollen eine Datenplattform und Dienste mit künstlicher Intelligenz entwickelt werden, um mögliche Probleme vorherzusagen. Unternehmen in der Lieferkette können damit proaktiv ihre Prozesse anpassen, bevor Probleme tatsächlich eintreten.
Enhancing engineering creativity with automated formulation of elementary solution principles
(2023)
The paper describes a method for the automated formulation of elementary creative stimuli for product or process design at different levels of abstraction and in different engineering domains. The experimental study evaluates the impact of structured automated idea generation on inventive thinking in engineering design and compares it with previous experimental studies in educational and industrial settings. The outlook highlights the benefits of using automated ideation in the context of AI-assisted invention and innovation.
This book constitutes the proceedings of the 23rd International TRIZ Future Conference on Towards AI-Aided Invention and Innovation, TFC 2023, which was held in Offenburg, Germany, during September 12–14, 2023. The event was sponsored by IFIP WG 5.4.
The 43 full papers presented in this book were carefully reviewed and selected from 80 submissions. The papers are divided into the following topical sections: AI and TRIZ; sustainable development; general vision of TRIZ; TRIZ impact in society; and TRIZ case studies.
Eco-innovations in chemical processes should be designed to use raw materials, energy and water as efficiently and economically as possible to avoid the generation of hazardous waste and to conserve raw material reserves. Applying inventive principles identified in natural systems to chemical process design can help avoid secondary problems. However, the selection of nature-inspired principles to improve technological or environmental problems is very time-consuming. In addition, it is necessary to match the strongest principles with the problems to be solved. Therefore, the research paper proposes a classification and assignment of nature-inspired inventive principles to eco-parameters, eco-engineering contradictions and eco-innovation domains, taking into account environmental, technological and economic requirements. This classification will help to identify suitable principles quickly and also to realize rapid innovation. In addition, to validate the proposed classification approach, the study is illustrated with the application of nature-inspired invention principles for the development of a sustainable process design for the extraction of high-purity silicon dioxide from pyrophyllite ores. Finally, the paper defines a future research agenda in the field of nature-inspired eco-engineering in the context of AI-assisted invention and innovation.
The automatic processing of handwritten forms remains a challenging task, wherein detection and subsequent classification of handwritten characters are essential steps. We describe a novel approach, in which both steps - detection and classification - are executed in one task through a deep neural network. Therefore, training data is not annotated by hand, but manufactured artificially from the underlying forms and yet existing datasets. It can be demonstrated that this single-task approach is superior in comparison to the state-of-the-art two task approach. The current study focuses on hand-written Latin letters and employs the EMNIST data set. However, limitations were identified with this data set, necessitating further customization. Finally, an overall recognition rate of 88.28% was attained on real data obtained from a written exam.
In this paper we present the concept of the "KI-Labor Südbaden" to support regional companies in the use of AI technologies. The approach is based on the "Periodic Table of AI" and is extended with both new dimensions for sustainability, and the impact of AI on the working environment. It is illustrated on the basis of three real-world use cases: 1. The detection of humans with lowresolution infrared (IR) images for collaborative robotics; 2. The use of machine data from specifically designed vehicles; 3. State-of-the-art Large Language Models (LLMs) applied to internal company documents. We explain the use cases, thereby demonstrating how to apply the Periodic Table of AI to structure AI applications.
Die Visualisierung von Programmabläufen ist ein zentraler Aspekt für Programmieranfänger, um das Verständnis von Codeabläufen zu erleichtern und den Einstieg in der Softwareentwicklung zu unterstützen. In dieser Masterthesis wird ein speziell auf die Bedürfnisse von Einsteigern zugeschnittenes generisches Framework vorgestellt, wobei der Fokus auf einer einfachen, verständlichen aber auch korrekten Darstellung der Programmausführung liegt. Das Framework integriert das Debugger Adapter Protocol, um den Debugger unterschiedlicher Sprachen ansprechen und verwenden zu können.
In dieser Arbeit werden zunächst die Anforderungen für das generische Framework diskutiert. Anschließend werden bestehende Ansätze zur Visualisierung von Programmabläufen ausführlich untersucht und analysiert. Die Implementierung des Frameworks wird daraufhin detailliert beschrieben, wobei besonderer Wert auf die Erweiterbarkeit unterschiedlicher Sprachen gelegt wird.
Um die Eignung des Frameworks zu evaluieren, werden mehrere Aufgaben aus dem ersten Modul mit der jeweiligen Programmiersprache des Studiengangs Angewandte Informatik der Hochschule Offenburg betrachtet. Die Ergebnisse zeigen, dass das Framework mit den Aufgaben umgehen und diese korrekt und verständlich darstellen kann.
Due to its performance, the field of deep learning has gained a lot of attention, with neural networks succeeding in areas like Computer Vision (CV), Neural Language Processing (NLP), and Reinforcement Learning (RL). However, high accuracy comes at a computational cost as larger networks require longer training time and no longer fit onto a single GPU. To reduce training costs, researchers are looking into the dynamics of different optimizers, in order to find ways to make training more efficient. Resource requirements can be limited by reducing model size during training or designing more efficient models that improve accuracy without increasing network size.
This thesis combines eigenvalue computation and high-dimensional loss surface visualization to study different optimizers and deep neural network models. Eigenvectors of different eigenvalues are computed, and the loss landscape and optimizer trajectory are projected onto the plane spanned by those eigenvectors. A new parallelization method for the stochastic Lanczos method is introduced, resulting in faster computation and thus enabling high-resolution videos of the trajectory and secondorder information during neural network training. Additionally, the thesis presents the loss landscape between two minima along with the eigenvalue density spectrum at intermediate points for the first time.
Secondly, this thesis presents a regularization method for Generative Adversarial Networks (GANs) that uses second-order information. The gradient during training is modified by subtracting the eigenvector direction of the biggest eigenvalue, preventing the network from falling into the steepest minima and avoiding mode collapse. The thesis also shows the full eigenvalue density spectra of GANs during training.
Thirdly, this thesis introduces ProxSGD, a proximal algorithm for neural network training that guarantees convergence to a stationary point and unifies multiple popular optimizers. Proximal gradients are used to find a closed-form solution to the problem of training neural networks with smooth and non-smooth regularizations, resulting in better sparsity and more efficient optimization. Experiments show that ProxSGD can find sparser networks while reaching the same accuracy as popular optimizers.
Lastly, this thesis unifies sparsity and neural architecture search (NAS) through the framework of group sparsity. Group sparsity is achieved through ℓ2,1-regularization during training, allowing for filter and operation pruning to reduce model size with minimal sacrifice in accuracy. By grouping multiple operations together, group sparsity can be used for NAS as well. This approach is shown to be more robust while still achieving competitive accuracies compared to state-of-the-art methods
IT-Governance
(2023)
Die Dynamik der technologischen Entwicklungen übt einen großen Druck auf die Leitungs- und Überwachungsorgane eines Unternehmens aus. Die Hyperkonnektivität impliziert, dass die interne IT und OT Anknüpfungspunkte an den externen Kontext besitzen, wodurch die Komplexität aufgrund eines Nebeneinanders einer Vielzahl von Hard- und Software exponentiell steigt. Die gesetzlichen Notwendigkeiten zusammen mit den geschäftspolitischen Anforderungen sollten zur Überlegung führen, eine IT-Governance im Unternehmen zu etablieren. Das System der Wahl und die Dichte der Regulierung ist den Verantwortlichen unter Berücksichtigung des Unternehmensinteresses überlassen, lautete das Fazit des ersten Teils des Beitrags (ZCG 4/23). Im zweiten Teil werden nun konkret die ISO Standards 38500 et al. als eine Möglichkeit zur Umsetzung näher betrachtet. Dabei geht es um die einzelnen Komponenten in Form der zehn zur Verfügung stehenden Standards und deren integrative Top-Down-Gestaltung. Es zeigt sich, dass Themen wie die Daten-Governance und die KI-Governance ausreichend Berücksichtigung finden.
IT-Governance (Teil 1)
(2023)
Unabhängig von den gelieferten Ergebnissen hat ChatGPT die KI-Anwendungen auf ein neues Level gehoben. Aber auch digitalwirtschaftliche Geschäftsmodelle wie Ökosystem-Plattformen verändern die Art und Weise des Wirtschaftens. Eine Rahmung mittels einer IT-Governance wird dadurch nicht nur erforderlich, sondern bietet eine große Chance, die exponentiellen Entwicklungen strukturiert angehen und begleiten zu können. Ausgehend vom Deutschen Corporate Governance Kodex (DCGK) beleuchtet der erste Teil den Bezug dazu.
Sofern ein Rahmenwerk für den risikoorientierten Umgang mit Ransomware-Angriffen existiert, sollten die Verantwortlichen in Unternehmen darauf zurückgreifen und in die unternehmensweite Systematik einbetten. Das ermöglicht die Steuerung und das Management von Risiken, die zuvor von hoher Unsicherheit geprägt waren und Organisationen unerwartet treffen. Ferner ist zu berücksichtigen, dass das Social Engineering eine bedeutende Rolle bei der Lieferung von schadhafter Software spielt und frühzeitig in den Analyseprozess einzubeziehen ist.
Die moderne Erpressung von Unternehmen nach erfolgreichen Ransomware-Attacken ist sowohl ein monetäres als auch nicht-monetäres Problem. Angreifende erhalten über einen initialen, häufig menschlichen Endpunkt Zugang zur Organisation und können die Schadsoftware platzieren. Die beiden Angriffsvektoren Social Engineering und Ransomware nutzen die organisatorischen und technischen Schwachstellen, um auf diverse Vermögensgegenstände zuzugreifen. In diesem ersten Beitrag der zweiteiligen Serie wird das Verständnis für dieses Vorgehen entwickelt.
Ausreißer in Datenreihen geben einen Hinweis auf mögliche Risiken. Die empirischen Daten bestimmen weitestgehend die anzuwendenden Methoden. Dabei helfen Klassifikationssysteme, um zielorientiert zu einer Auswahl gelangen zu können. Die einfachste Form bilden univariate Datenreihen, deren Ausreißer mittels Häufigkeitsverteilungen, Konfidenzintervalle um den Mittelwert und Boxplots bestimmt werden.
A report from the World Economic Forum (2019) stated loneliness as the third societal stressor in the world, mainly in western countries. Moreover, research shows that loneliness tends to be experienced more severely by young adults than other age groups (Rokach, 2000), which is the case of university students who face profound periods of loneliness when attending university in a new place (Diehl et al., 2018). Digital technology, especially mental health apps (MHapps), have been viewed as promising solutions to address this distress in universities, however, little evidence on this topic reveals uncertainty around how these resources impact individual well-being. Therefore, this research proposed to investigate how the gamified social mobile app Noneliness reduced loneliness rates and other associated mental health issues of students from a German university. As little work has focused on digital apps targeting loneliness, this project also proposed to describe and discuss the app’s design and development processes. A multimethod approach was adopted: literature review on high-efficacy MHapps design, gamification for mental health and loneliness interventions; User Experience Design and Human-centered Computing. Evaluations occurred according to the app’s development iterations, which assessed four versions (from prototype to Beta) through quantitative and qualitative studies with university students. The main results obtained regarding the design aspects were: users' preference for minimalistic interfaces; importance in maintaining privacy and establishing trust among users; students' willingness to use an online support space for emotional and educational support. Most used features were those related to group discussions, private chats and university social events. Preferred gamification elements were those that provided positive reinforcement to motivate social interactions (e.g. Points, Levels and Achievements). Results of a pilot randomized controlled trial with university students (N = 12), showed no statistically significant interactions in reducing loneliness among experimental group members (n = 7, x² = 3.500, p-value = 0.477, Cramer’s V = 0.27) who made continued use of the app for six weeks. On the other hand, the app showed effects of moderate magnitude on loneliness reduction in this group. The app also demonstrated relatively strong magnitude effects on other associated variables, such as depression and stress in the experimental group. In addition to motivating the conduct of further studies with larger samples, the findings point to a potential app effectiveness not only to reduce loneliness, but also other variables that may be associated with the distress.
Digital, virtual environments and the metaverse are rapidly taking shape and will generate disruptive changes in the areas of ethics, privacy, safety, and how the relationships between human beings will be developed. To uncover some of some of the implications that will impact those areas, this study investigates the perceptions of 101 younger people from the generations Y and Z. We present a first exploratory analysis of the findings, focusing on knowledge and self-perception. Results show that these young generations are seriously doubting their knowledge on the metaverse and virtual worlds – regarding both the definition and the usage. It is interesting to see only a medium confidence level, considering that the participants are young and from an academic environment, which should increase their interest in and the affinity towards virtual worlds. Males from both generations perceive themselves as significantly more knowledgeable than females. Regarding a fitting definition, almost 40% agreed on the metaverse as a “universal and immersive virtual world that is made accessible using virtual reality and augmented reality technologies”. Regarding the topic in general, several participants (almost 40%) considered themselves sceptics or “just” users (38%). Interestingly, generation Y participants were more likely than the younger generation Z participants to identify themselves as early adopters or innovators. In result, the considerable amount of “mixed feelings” regarding digital, virtual environments and the metaverse shows that in-depth studies on the perception of the metaverse as well as its ethical and integrity implications are required to create more accessible, inclusive, safe, and inclusive digital, virtual environments.
Für die flächendeckende Einführung von IP-basierter Infrastruktur benötigt der WDR Werkzeuge zur Bewertung von Qualitätskriterien komplexer Mediennetzwerke. Zu diesem Zweck wurde die Web-Applikation "Netztest" entwickelt.
Die Applikation besitzt eine intuitive Benutzeroberfläche und ermöglicht eine Bedienung ohne Netzwerk-technisches Hintergrundwissen. Sie greift über die Programmierschnittstelle auf die Messfunktionen der Software "Fusion" von VIAVI Solutions zu. "Fusion" bietet umfassende Konfigurationsmöglichkeiten und ist für ein Nutzende ohne technisches Hintergrundwissen schwer einsetzbar. Die Applikation "Netztest" vereinfacht die Schnittstelle zum Nutzenden und begrenzt die Funktionsvielfalt auf für den Anwendungsfall passende Testkonfigurationen.
Zu Beginn dieser Arbeit werden mit Hilfe einer Anforderungsanalyse Optimierungsmöglichkeiten der Applikation aufgezeigt. Anschließend wird die Implementierung eines UDP-basierten Teststandards vorgenommen, da "Netztest" bisher nur einen TCP-basierten Test bot. Das verbindungslose Transportprotokoll UDP eignet sich insbesondere für die Übertragung von Audio- und Videodaten. Für den WDR als Produktionsunternehmen solcher Medien ist ein Durchsatztest, der auf UDP basiert daher unabdingbar.
Der Code der Anwendung wird so angepasst, dass beide Tests weitestgehend dieselben Funktionen verwenden und in Zukunft problemlos weitere Tests implementiert werden könnten. Nach dem Durchlaufen eines Tests werden die Ergebnisdaten graphisch dargestellt. Das Piktogramm einer Ampel zeigt dem oder der Nutzenden an, ob die gemessene Verbindung einsatzbereit, ausreichend oder nicht ausreichend ist.
Die Implementierung des Y.1564-Tests und damit das Ziel dieser Arbeit konnte erreicht werden, doch es gibt noch Schwachstellen und Verbesserungsmöglichkeiten, die vor einer Inbetriebnahme der Anwendung "Netztest" beseitigt werden müssten.
Der Bedarf an fortschrittlichen Bildungstechnologien wächst: Learning Experience Plattformen (LXP) erlangen angesichts der rasanten technologischen Entwicklungen und der daraus resultierenden Veränderungen des Lernverhaltens immer größere Relevanz. Diese Masterarbeit befasst sich mit der Konzeption und Konfiguration eines User-Interfaces für eine Learning Experience Plattform, speziell für die Moodle-Plattform der Hochschule Offenburg. Rahmengebend ist das KompiLe-Projekt, das durch das Bund-Länder- Programm Künstliche Intelligenz in der Hochschulbildung gefördert wird.
Als zentrales Ergebnis wurde ein spezifisches User-Interface für eine Learning Experience Plattform entworfen. Hierbei lag der Fokus insbesondere auf den Bereichen Dashboard, Meine Kurse und einen exemplarischen Kurs, die die wesentlichen Eigenschaften einer LXP repräsentieren sollten.
In einer Umfrage äußerten 55 Studierende und Lehrende ihre Vorstellungen und Präferenzen hinsichtlich der Elemente für das User-Interface. Unter Berücksichtigung dieser Erkenntnisse, kombiniert mit vorherigen Recherchen und einem Prototyp, wurde die finale Konfiguration entwickelt.
Im Vergleich zum vorherigen Design, das lediglich eine Zeitleiste zeigte, bietet das aktualisierte Dashboard erweiterte Möglichkeiten: Eine integrierte Kursübersicht ermöglicht es den Lernenden, direkt vom Dashboard aus auf Kurse zuzugreifen. Nutzer*innen haben die Möglichkeit, in der Kursübersicht zu filtern und durch die Auswahl von Favoriten ihre bevorzugten Kurse zu markieren. In einer Umfrage befürworteten fast 90% diese Funktion. Es wurde ein Interessen-Tag auf dem Dashboard hinzugefügt, der später zu dem Profil verlinken soll. Das Dashboard und die Kursseite wurden durch die Einführung einer linken Spalte aufgewertet, was zu einer erhöhten Symmetrie führte. Zudem wurden auf der Kursseite die ersten personalisierten Elemente wie Top bewertete Aktivitäten und Am häufigsten abgeschlossene Objekte hinzugefügt. Gamification- Elemente erfreuten sich großer Beliebtheit mit einer Zustimmung von 80%. Das Einbinden eines neuen modernen Gamification-Elements in Moodle erschien im Vergleich zu bereits verwendeten Elementen recht aufwändig und deshalb wurde sich zunächst dagegen entschieden. Im Kontext des sozialen Austauschs und der Interaktion war es auffällig, dass die Mehrheit der Studierenden es vorzog, ihre Online-Präsenz zu verbergen und das Moodle-Forum gegenüber anderen Interaktionsmöglichkeiten bevorzugte. Weniger signifikante Veränderungen fanden im Bereich Meine Kurse statt.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.
Durch den demografischen Wandel und dem daraus resultierenden Fachkräftemangel brauchen Unternehmen eine Strategie, um in Zukunft genügend Fachkräfte zu gewinnen und die aktuellen Mitarbeitenden halten zu können. Dabei können mit dem Employer Branding Maßnahmen zur Stärkung der Arbeitgebermarke erarbeitet werden.
Ziel dieser Arbeit ist eine vergleichende Analyse von Selbst- und Fremdbild zwei großer Arbeitgebermarken. Dabei sollen zwei Unternehmen aus der Region Offenburg/Ortenau in Hinblick auf ihr Employer Branding und ihre Kommunikation auf der unternehmenseigenen Karriere-Webseite untersucht werden. Dafür wurden die beiden Arbeitgebermarken „Hubert Burda Media“ und „Hansgrohe Group“ ausgewählt. Durch den Einsatz von qualitativen Experteninterviews wird das Selbstbild der Unternehmen ermittelt. Für die externe Beurteilung wurde die Zielgruppe „Studierende der Generation Z“ ausgewählt. Diese können mithilfe eines Fragebogens das Fremdbild beider Unternehmen beschreiben und die Karriere-Webseiten beurteilen.
Das Ergebnis der Forschung war unter anderem die Beschreibung des Arbeitgeber-images. Durch die Annäherung von Fremd- und Selbstbild nach Ansicht der Karriere-Webseite konnte die Kommunikation bewertet werden. Dabei konnten Optimierungs-ansätze für beide Unternehmen identifiziert werden. Die erarbeiteten Erkenntnisse wurden zusammengefasst und es wurden jeweils Handlungsempfehlungen für die Kommunikation und das Employer Branding formuliert.
Durch die Auswertungen der qualitativen Forschungen konnte die Wichtigkeit der Karriere-Webseite für die junge Generation bestätigt werden. Dabei fiel bei beiden Unternehmen auf, dass die Authentizität und die Kommunikation der eigenen Arbeitgebermarke in einigen Punkten optimiert werden sollten.
Um als Unternehmen heutzutage aus der Masse hervorzustechen und sich von der Konkur- renz abzuheben, bedarf es mehr als nur eines guten Produkts oder einer guten Dienstleis- tung. Kunden möchten wissen, welches Unternehmen dahintersteckt und ob sie sich damit identifizieren können. Um diese Werte und ein einheitliches Erscheinungsbild vermitteln zu können, ist eine ganzheitliche Corporate Identity erforderlich, die sowohl innen als auch außen wirkt. Das bietet die Möglichkeit, ein Markenimage aufzubauen, das langfristig Kun- den bindet und Vertrauen schafft.
Die Entwicklung einer neuen Corporate Identity erfordert zunächst eine entschlossene Ent- scheidung der Unternehmensführung. Sie muss sicherstellen, dass das gesamte Unterneh- men für ein solches Vorhaben bereit ist. Erst dann kann mit der Bildung eines CI-Teams begonnen werden, das mit der Entwicklung und Durchführung des Corporate Identity-Pro- zesses beauftragt wird. Dabei wird nach der AMC-Strategie vorgegangen, die mit einer aus- führlichen Ist- und Sollanalyse beginnt. Hierbei wird ermittelt, welche Fähigkeiten das Un- ternehmen besitzt und welches Image bei den unterschiedlichen Interessensgruppen vor- herrscht. Auch die internen und externen Auswirkungen einer CI sollten bedacht werden und dass die Angestellten einen maßgeblich Teil zur externen Wirkung beitragen. Die ge- sammelten Informationen dienen als Grundlage für die einzelnen Bestandteile der Corpo- rate Identity.
Basierend auf dem theoretischen Teil wurde für Dialogpunkt eine neue Corporate Identity entwickelt, wodurch verdeutlicht wurde, wie die theoretischen Grundlagen in die Praxis umgesetzt werden können. Durch eine gründliche Marktanalyse wurde ein neues Leitbild (Corporate Philosophy) für Dialogpunkt erstellt. Dieses Leitbild und die gewonnenen Er- kenntnisse dienten wiederum als Grundlage für die Entwicklung des Corporate Behaviors, der Corporate Communication und des Corporate Designs.
Künstliche Intelligenz (KI) durchdringt unser Leben immer stärker. Studierende werden im Alltag und an Hochschulen zunehmend mit KI-Anwendungen konfrontiert. An der Hochschule Offenburg werden deshalb KI-bezogene Lehrangebote curricular verankert, um Studierende im Erwerb von KI-Kompetenz zu unterstützen.
Der Beitrag stellt ein Konzept für die Entwicklung von Lehrveranstaltungen nach der Idee des pädagogischen Makings zur Förderung von KI-Kompetenz in der Hochschullehre vor. Konkretisiert wird das Konzept anhand eines Moduls zum Thema Chatbots, dessen Lehrinhalte interdisziplinär aus verschiedenen Perspektiven ausgearbeitet werden.
Das Ziel dieser Arbeit ist es, eine Schnittstelle zu erstellen, die es erlaubt, dem vom Unternehmen produzierten modulbasierten ERP-System Module zu integrieren, die
mit der aktuellen Version der Programmiersprache Delphi erstellt wurden.
Die Schwierigkeit hierbei ist, dass die momentane Implementation des Systems auf
einer Jahrzehnte alten Version der Sprache basiert, die in mehreren Bereichen keine
Kompatibilität mit der neuen Version besitzt.
Um dieses Ziel zu erreichen wurden zunächst die konkreten Anforderungen an die
Lösung formuliert und daraufhin verschiedene Lösungsansätze für eine Schnittstelle
konzipiert.
Durch Testen an einer prototypisch vereinfachten Version des ERP-Systems konnte
festgestellt werden, dass eine Lösung über eine auf Datenbanktransaktionen basierende Schnittstelle für das Projekt am ehesten geeignet war.
Nach weiterer Planung des exakten Aufbaus wurden die nötigen Funktionalitäten dann
umgesetzt, wobei zuerst in groben Zügen die essentiellen Aspekte realisiert wurden,
welche dann in weiteren Durchläufen auf die exakten Spezifikationen verfeinert und
auf Fehler geprüft wurden.
Nachdem dieser Lösungsansatz einen ausreichenden Vervollständigungsgrad erreicht
hatte, wurde das Projekt zu Testzwecken in firmeninternem Umfeld in Betrieb genommen.
Durch anschließendes weiteres Beheben von noch ausstehenden Fehlern wurde das
Projekt dann in einen Zustand gebracht, in dem es allgemein in Verwendung genommen werden kann und somit die gewünschten Vorgaben erfüllt.
Much of the research in the field of audio-based machine learning has focused on recreating human speech via feature extraction and imitation, known as deepfakes. The current state of affairs has prompted a look into other areas, such as the recognition of recording devices, and potentially speakers, by only analysing sound files. Segregation and feature extraction are at the core of this approach.
This research focuses on determining whether a recorded sound can reveal the recording device with which it was captured. Each specific microphone manufacturer and model, among other characteristics and imperfections, can have subtle but compounding effects on the results, whether it be differences in noise, or the recording tempo and sensitivity of the microphone while recording. By studying these slight perturbations, it was found to be possible to distinguish between microphones based on the sounds they recorded.
After the recording, pre-processing, and feature extraction phases we completed, the prepared data was fed into several different machine learning algorithms, with results ranging from 70% to 100% accuracy, showing Multi-Layer Perceptron and Logistic Regression to be the most effective for this type of task.
This was further extended to be able to tell the difference between two microphones of the same make and model. Achieving the identification of identical models of a microphone suggests that the small deviations in their manufacturing process are enough of a factor to uniquely distinguish them and potentially target individuals using them. This however does not take into account any form of compression applied to the sound files, as that may alter or degrade some or most of the distinguishing features that are necessary for this experiment.
Building on top of prior research in the area, such as by Das et al. in in which different acoustic features were explored and assessed on their ability to be used to uniquely fingerprint smartphones, more concrete results along with the methodology by which they were achieved are published in this project’s publicly accessible code repository.
Konzeption einer Lösung zur Verwaltung und Nutzung von Schriften am Beispiel des Burda Verlags
(2023)
Der BurdaVerlag ist für sein umfangreiches Angebot an regelmäßig erscheinenden Zeitschriften bekannt. Rund 16.929 Schriften (Stand 31.03.2023) stehen dem Unternehmen hierfür zur Verfügung. Dabei gilt es als große Herausforderung diese zielführend verwalten und nutzen zu können. Zur Unterstützung dieser Aufgabe bieten unterschiedliche Hersteller eine sogenannte Schriftverwaltungssoftware an. Durch einige Funktionen wird es ermöglicht die Arbeitsabläufe zu vereinfachen und effizienter zu gestalten. Als zentraler Bestandteil einer solchen Software gilt das Aktivieren von Schriften, dann wenn sie tatsächlich benötigt werden. Dies ermöglicht ein schnelles Starten der Applikationen, da somit nicht alle Schriften aktiv im System gehalten werden müssen. Weitere Funktionen sind zum Beispiel das Erkennen defekter und doppelter sowie eine Vorschau und der Vergleich der vorhandenen Schriften.
Derzeit ist beim BurdaVerlag die lokale Schriftverwaltungssoftware „FontExplorer X Pro“ von dem Anbieter „Monotype“ im Einsatz. Allerdings wurde der Verkauf aufgrund einer neuen Software des Anbieters zum 30.06.2022 eingestellt. Die Unterstützung beim Support der Anwendung sowie Updates werden ab dem 30.06.2023 nicht mehr angeboten. Daher ist keine Kompatibilität zu zukünftigen Betriebssystemen und weiteren benötigten Anwendungen möglich. Aufgrund dieser Gegebenheiten wird eine neue Lösung benötigt, um alle verfügbaren Schriften weiterhin verwalten und nutzen zu können.
Im ersten Schritt werden die derzeit eingesetzte Software und Arbeitsabläufe der Redaktionen und Administratoren analysiert. Darauf folgt eine Anforderungsbeschreibung. Durch eine Gegenüberstellung der angebotenen Tools mit einer entsprechenden Evaluierungsmethode erfolgt in einigen Schritten die Auswahl einer Software. Auf Basis dieser entsteht ein Konzept und eine prototypische Implementierung. Sollte keine passende Software gefunden werden, da alle angebotenen Tools nicht den Anforderungen entsprechen, wird eine alternative Vorgehensweise erarbeitet, sodass die Schriften auch weiterhin, ohne Software, verwaltet und genutzt werden können.
Go ist eine 2009 veröffentlichte Programmiersprache mit einem statischen Typsystem. Seit Version 1.18 sind auch Generics ein Teil der Sprache. Deren Übersetzung wurde im de facto Standard-Compiler mittels Monomorphisierung umgesetzt. Diese bringt neben einigen Vorteilen auch Nachteile mit sich. Aus diesem Grund beschäftigt sich diese Arbeit mit einer alternativen Übersetzungsstrategie für Generics in Go und implementiert diese in einem neuen Compiler für Featherweight Generic Go, einem Subset von Go. Zum Schluss steht damit ein nahezu funktionierender Compiler, welcher schließlich Racket-Code ausgibt. Eine Evaluierung der Performanz der Übersetzungsstrategie ist allerdings noch ausstehend.
Ziel der vorliegenden Bachelorarbeit ist es, eine automatisierte Bildausschnittkontrolle für die Low Code Plattform Intrexx zu implementieren. Diese soll mit Hilfe eines geeigneten Künstliche Intelligenz Frameworks Gesichter in Bildern erkennen und diese anschließend ausschneiden. Die Benutzer*innen sollen die Ausschnitte außerdem noch manuell anpassen können. Die Implementierung erfolgt mittels Typescript innerhalb einer Webkomponente, um eine Verwendung innerhalb von Intrexx zu ermöglichen. Nach einem Vergleich verschiedener technologischer Ansätze hat sich Tensorflow als geeignetes KI-Framework herausgestellt. Im Rahmen einer Performance-Analyse wurden außerdem verschiedene Tensorflow-Modelle miteinander verglichen.
Die rasante Digitalisierung verändert die Hochschule Offenburg nachhaltig. Jedes Semester entstehen zahlreiche akademische Arbeiten und Prüfungsdaten, die von hoher Bedeutung für die Qualitätssicherung und den Bildungsprozess sind. Bisher fehlte jedoch eine effiziente Lösung zur Archivierung dieser Daten. Meine Masterarbeit präsentiert ein neues Archivierungskonzept, das eine zentrale, digitale Plattform schafft. Diese ermöglicht es Lehrenden und Studierenden, leicht auf ihre Daten zuzugreifen, sei es für Projektarbeiten, Seminarleistungen oder Prüfungen. Ich stelle nicht nur das Konzept vor, sondern auch die Umsetzung eines Prototyps auf Intrexx, einer Low-Code-Entwicklungsplattform. Mein Ziel ist es, ein Handbuch für zukünftige Entwickler zu hinterlassen, um zur digitalen Transformation der Hochschule beizutragen und die Bildungsprozesse zu optimieren.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
Die folgende Arbeit thematisiert ein Konzept zur Automatisierung von Firewall-Audits und die Implementierung eines Tools zur Durchführung. Für das Audit relevante Aspekte von NGFWs werden ausgewählt und näher erläutert. Diese bestehen aus der Objektdatenbank, Firewall-Regelwerken und VPN-Konfigurationen. Die Analyse der Daten basiert auf einerseits eigens erstellten Kriterien, andererseits auf Empfehlungen des BSI und des NIST. Zusätzlich wird auf Basis von NIST Recommended Practices und dem CVSS der „Awareness Score“ eingeführt, der auf Fehlkonfigurationen innerhalb des Firewall-Regelwerks aufmerksam machen soll. Das Konzept für das Tool sieht vor, Firewalls mehrerer Hersteller, darunter Cisco, Checkpoint und Sophos, auditieren zu können. Die Implementierung wurde aus zeitlichen Gründen nur für Firewalls des Herstellers Cisco durchgeführt. Für die Analyse wird ein einheitliches Firewall-Modell erzeugt. So sollen auch Firewalls anderer Hersteller zu dem Tool hinzugefügt werden können. Die Ergebnisse des Audits werden in einem Bericht dargestellt.
Gamification is increasingly successful in the field of education and health. However, beyond call-centers and applications in human resources, its utilization within companies remains limited. In this paper, we examine the acceptance of gamification in a large company (with over 17,000 employees) across three generations, namely X, Y, and Z. Furthermore, we investigate which gamification elements are suited for business contexts, such as the dissemination of company principles and facts, or the organization of work tasks. To this end, we conducted focus group discussions, developed the prototype of a gamified company app, and performed a large-scale evaluation with 367 company employees. The results reveal statistically significant intergenerational disparities in the acceptance of gamification: younger employees, especially those belonging to Generation Z, enjoy gamification more than older employees and are most likely to engage with a gamified app in the workplace. The results further show a nuanced range of preferences regarding gamification elements: avatars are popular among all generations, badges are predominantly appreciated by Generations Z and Y, while leaderboards are solely liked by Generation Z. Drawing upon these insights, we provide recommendations for future gamification projects within business contexts. We hope that the results of our study regarding the preferences of the gamification elements and understanding generational differences in acceptance and usage of gamification will help to create more engaging and effective apps, especially within the corporate landscape.
Das Wachstum der Digitalisierung in der Industrie unterstreicht die Bedeutung der Usability der Systeme. Usability bezieht sich auf das Ausmaß, in dem ein Produkt oder Design von bestimmten Benutzern in einem bestimmten Kontext verwendet werden kann, um ein definiertes Ziel effektiv, effizient und zufriedenstellend zu erreichen.
In dieser Bachelorarbeit wurden die Ergebnisse einer Usability-Evaluierung einer Anwendung vorgestellt, die für tägliche Führungsroutinen im industriellen Bereich entwickelt wurde. Die Studie konzentrierte sich auf die Bewertung der Usability der Anwendung, der Benutzungserfahrung und der Einhaltung von Interaktionsprinzipien unter Berücksichtigung psychologischer Aspekte. Bei der Untersuchung wurde eine umfassende Methodik zur Bewertung der Usability angewandt, einschließlich formaler Usability-Tests und Nachbefragungen mit echten Endbenutzenden, die nur begrenzt mit der Anwendung vertraut waren.
Die Ergebnisse zeigten, dass die Kommunikation, die Hilfestellung und das unklare Design einiger Elemente selbst bei kleinen Aufgaben wie der Konfiguration von Linien Schwierigkeiten bereiten. Außerdem hatten die Testpersonen Probleme mit der komplexen Navigation in manchen Seiten. Die Studie enthält umsetzbare Empfehlungen, darunter die Integration von Feedback-Mechanismen, wie Tooltips und klare Fehlermeldungen und die Verbesserung des visuellen Designs von Schlüsselelementen für eine bessere Usability und eine positive Benutzungserfahrung.
Robotic Process Automation (RPA) is a technology for automating business processes and connecting systems by means of software robots in organizations that is gaining traction and growing out of its infancy. Thus, it is no longer just a question of what is technologically feasible, but rather how this technology can be used most profitably. However, business models for RPA remain underinvestigated in literature. Existing work is highly heterogenous, lacking structure and applicability in practice. To close this gap, we present an approach to sustainably establish RPA as a driver of digitization and automation within a company based on an iterative, holistic view of business models with the Business Model Canvas as analysis tool.
Die vorliegende Bachelorarbeit untersucht die Anwendung der Transformer-Architektur bei der Entwicklung eines Chatbots für die Auskunft von Studieninformationen. Sie bietet eine gründliche Einführung in Chatbots, deren Funktionsweise und Klassifikation sowie in die Grundlagen neuronaler Netzwerke, Deep Learning und Natural Language Processing. Insbesondere die Transformer-Architektur und ihre Hauptkomponenten werden eingehend analysiert. Im Zuge dessen werden auch aktuelle Forschungen im Bereich Large Language Models und Fine-Tuning berücksichtigt.
Im praktischen Teil erfolgt die Darstellung der Konzeption, Implementierung und Evaluierung eines Chatbots für die Studienauskunft. Der erstellte Chatbot nutzt eine semantische Suche in Kombination mit einem Large Language Model, was sich als attraktive Alternative zu herkömmlichen Chatbots erweist. Zwar ist der aktuelle Entwicklungsstand des Chatbots noch nicht für die produktive Nutzung geeignet, dennoch zeigt er Potenzial für vielfältige Einsatzmöglichkeiten bei fortlaufender Entwicklung.
Die Arbeit schließt mit einer Diskussion ethischer Aspekte und zeigt zukünftige Forschungsmöglichkeiten auf. Die erzielten Erkenntnisse könnten für eine Vielzahl von Kontexten relevant sein und einen signifikanten Beitrag zur Entwicklung effizienter und genauer Informationsabfragesysteme leisten.
Ansätze für den Einfluss der Social-Media-Kanäle TikTok und Instagram auf die Kaufentscheidung
(2023)
Social-Media-Nutzer und Nutzerinnen sind online und lernen dadurch neue Produkte kennen. Gerade auf Social-Media-Plattformen wie Instagram und TikTok werden die Nutzer und Nutzerinnen durch verschiedene Mittel häufig auf Produkte aufmerksam gemacht und zum Kaufen motiviert.
Das Ziel der vorliegenden Arbeit ist es, herauszufinden welche Aspekte auf den Plattformen Instagram und TikTok die Nutzenden dazu animiert bei einem Drogerieunternehmen einzukaufen. Dazu wird die folgende Forschungsfrage gestellt: Wie kann ein Drogerieunternehmen die Kaufentscheidung auf Instagram und TikTok beeinflussen?
Aus den resultierenden Ergebnissen einer qualitative Studie mittels 8 Interviews werden Handlungsempfehlungen für die Unternehmen der Drogeriebranche abgeleitet. Die Ergebnisse der Forschung sind Ansätze, welche Drogerien auf den Social-Media-Plattformen nutzen können, um die Kaufentscheidung ihrer Follower und Followerinnen positiv zu beeinflussen.