Refine
Year of publication
Document Type
- Bachelor Thesis (604)
- Master's Thesis (205)
- Conference Proceeding (69)
- Book (15)
- Study Thesis (13)
- Article (reviewed) (8)
- Other (3)
Conference Type
- Konferenzband (64)
- Konferenzartikel (5)
Is part of the Bibliography
- no (917) (remove)
Keywords
- Mikroelektronik (60)
- Marketing (30)
- IT-Sicherheit (23)
- JavaScript (17)
- Biomechanik (15)
- Internet der Dinge (15)
- Künstliche Intelligenz (15)
- Social Media (15)
- Webentwicklung (15)
- COVID-19 (14)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (295)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (172)
- Fakultät Medien (M) (ab 22.04.2021) (163)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (138)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (101)
- Fakultät Wirtschaft (W) (33)
- IfTI - Institute for Trade and Innovation (13)
- INES - Institut für nachhaltige Energiesysteme (6)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (6)
- IUAS - Institute for Unmanned Aerial Systems (3)
Open Access
- Closed Access (463)
- Open Access (229)
- Closed (225)
- Bronze (60)
- Diamond (16)
- Gold (1)
Das Ziel in dieser Arbeit ist die Programmierung von einem Mikroprozessor, der als ein Richtmikrofon verwendet wird, um unterschiedlichen Richtcharakteristiken zu erzeugen.
Dabei stellt sich die Frage: Ist es möglich ein Mikroprozessor so zu programmieren, dass er eine Stereoaufnahme so verarbeiten kann, sodass unterschiedliche Richtcharakteristiken erzeugt werden könnten?
Um die Frage zu beantworten, wurde eine technische Ausarbeitung von einem Mikroprozessor und seine Programmierung benötigt. Diese befasst sich mit der Programmierung in C++ / Arduino IDE des Mikrokontrollers und eigene Erstellung von Tests, um die Ergebnisse darzustellen.
Als weitere Basis wurden nur verbraucherorientierten Mikroprozessoren untersucht und die beste Möglichkeit wurde ausgesucht und weiterentwickelt. Zudem lag der Fokus auf der Reproduzierbarkeit der Ergebnisse.
Jeder Mensch ist ständig unfreiwillig von einer Flut akustischer Reize umgeben. Diese Situation stellt für Menschen mit Hörverlust eine besondere Herausforderung dar. Menschen mit Hörverlust hören durch Hörgeräte zwar alles verstärkt, jedoch stellt sich die Frage, ob ein Hörgerät lediglich eine einfache Verstärkung von Schallwellen ist oder ob es darüber hinausgehende Funktionen bieten kann.
Die vorliegende Thesis widmet sich der akustischen Szenenanalyse in Hörgeräten, wobei der Schwerpunkt auf der Integration von Machine Learning liegt. Das Ziel besteht darin, eine automatisierte Erkennung und Anpassung an verschiedene akustische Situationen zu ermöglichen. Die Arbeit konzentriert sich insbesondere auf die Analyse grundlegender Szenarien wie: Sprache in Ruhe, absolute Ruhe, Sprache in Störgeräuschen und Störgeräuschen in Audiodaten.
Die Bachelorarbeit mit dem Titel "Chatbots als Kommunikationsinstrument: Ein Leitfaden für kleine und mittelständische Unternehmen zur Optimierung der Kundenkommunikation durch den Einsatz von Chatbots" zielt darauf ab, praxisorientierte Leitlinien für KMU zu entwickeln, die Chatbots zur Verbesserung ihrer Kundenkommunikation einsetzen möchten. Die Arbeit konzentriert sich auf zwei Hauptaspekte: Erstens, wie KMU Chatbots erfolgreich in ihre Marketingstrategien integrieren können, unter Berücksichtigung technischer und unternehmerischer Bedürfnisse und Ziele. Zweitens, wie der Einsatz von Chatbots die Effektivität der Kundenkommunikation in diesen Unternehmen beeinflusst, mit dem Ziel, Kundenansprache und -bindung zu verbessern sowie Prozesse zu optimieren. Durch theoretische Grundlagen und praxisnahe Empfehlungen bietet die Arbeit einen umfassenden Leitfaden, der konkrete Handlungsempfehlungen für die erfolgreiche Implementierung von Chatbots liefert. Diese sollen KMU dabei unterstützen, einen nachhaltigen Mehrwert für ihre Kundenbeziehungen zu schaffen und ihre Wettbewerbsfähigkeit zu stärken.
In dieser Arbeit wird die Identifikation von Trägheitsparametern von Mehrkörpersystemen, am Beispiel eines ein aus vier Segmenten bestehenden Roboterarms untersucht. Es werden verschiedene neuronale Netzarchitekturen zur Identifikation der Trägheitsparameter des Roboterarms exploriert. Als Referenz für das Abschneiden der Ansätze wird ein vorab implementierter numerischer Optimierungsansatz, welcher mittels der Software „Matalb“ umgesetzt wurde, benutzt. Der Ansatz zum Aufstellen der benötigten Bewegungsgleichungen und die Formulierung des Regressionsproblems unterscheidet sich von den in der Literatur verwendeten Ansätzen, und beruht auf einem neu entwickelten Sensorkonzept der Hochschule Offenburg (des Sweaty Labors).
Der numerische Ansatz, insbesondere nach Linearisierung des Problems, erzielte herausragende Ergebnisse und konnte die idealen Parameterwerte präzise identifizieren. Demgegenüber standen die neuronalen Netzwerke, deren Potenzial trotz umfassender Untersuchung verschiedener Architekturen und Ansätze nicht vollends ausgeschöpft werden konnte. Die Resultate zeigen deutlich die Grenzen und Herausforderungen bei der Anwendung maschineller Lernmethoden in der spezifischen Aufgabenstellung der Trägheitsparameteridentifikation auf.
Diese Arbeit leistet einen Beitrag zum Verständnis der Möglichkeiten und Grenzen bei der Anwendung neuer Messtechnologien und Berechnungsverfahren in der Robotik. Die überlegene Leistung des numerischen Solvers gegenüber den neuronalen Netzansätzen unterstreicht die Bedeutung weiterer Forschungen in diesem Bereich.
Garbage in, Garbage out: How does ambiguity in data affect state-of-the-art pedestrian detection?
(2024)
This thesis investigates the critical role of data quality in computer vision, particularly in the realm of pedestrian detection. The proliferation of deep learning methods has emphasised the importance of large datasets for model training, while the quality of these datasets is equally crucial. Ambiguity in annotations, arising from factors like mislabelling, inaccurate bounding box geometry and annotator disagreements, poses significant challenges to the reliability and robustness of the pedestrian detection models and their evaluation. This work aims to explore the effects of ambiguous data on model performance with a focus on identifying and separating ambiguous instances, employing an ambiguity measure utilizing annotator estimations of object visibility and identity. Through accurate experimentation and analysis, trade-offs between data cleanliness and representativeness, noise removal and retention of valuable data emerged, elucidating their impact on performance metrics like the log average miss-rate, recall and precision. Furthermore, a strong correlation between ambiguity and occlusion was discovered with higher ambiguity corresponding to greater occlusion prevalence. The EuroCity Persons dataset served as the primary dataset, revealing a significant proportion of ambiguous instances with approximately 8.6% ambiguity in the training dataset and 7.3% in the validation set. Results demonstrated that removing ambiguous data improves the log average miss-rate, particularly by reducing the false positive detections. Augmentation of the training data with samples from neighbouring classes enhanced the recall but diminished precision. Error correction of wrong false positives and false negatives significantly impacts model evaluation results, as evidenced by shifts in the ECP leaderboard rankings. By systematically addressing ambiguity, this thesis lays the foundation for enhancing the reliability of computer vision systems in real-world applications, motivating the prioritisation of developing robust strategies to identify, quantify and address ambiguity.
The interest of scientists to study motion sequences exists in the fields of sports science, clinical analysis and computer animation for quite some time. While in the last decades mainly markerbased motion capture systems have been used to evaluate movements, the interest in markerless systems is growing more and more. Nevertheless, in the field of clinical analysis, markerless methods have not yet proven their value, partly due to a lack of studies evaluating the quality of the obtained data. Therefore, this study aims to validate two markerless motion capture softwares from Simi Reality Motion Systems. The software Simi Shape, which is a mixture of traditional image-based tracking supported by an artificial intelligence net (AI net), and the software Crush, that uses a completely AI-based method. For this purpose, all motion data was recorded with two in-house motion capture systems. One system for recording the movements for a markerbased evaluation as gold standard and one system for markerless tracking. Within a laboratory environment, eight cameras per system were mounted around the area of motion. By placing two cameras in the same position and using the same calibration, deviations in the image data between those for markerbased and markerless tracking were extremely minimal. Based on this data, markerbased tracking was performed using the Simi Motion program, markerless tracking was performed using the Simi Shape software system and the latest software from Simi Reality Motion Systems, Crush. When comparing the markerless data with the markerbased data, an average root mean square error of 0,038 m was calculated for Simi Shape and a deviation of 0,037 m for Crush. In a direct comparison of the two markerless systems, a root mean square error of 0,019 m was scored. Based on these data, conclusions could be drawn about the accuracies of the two markerless systems. The obtained kinematic data of the tracking are in the range of high accuracy, which is limited to a deviation of less than 0,05 m according to the literature.
Immer mehr Unternehmen setzen auf eine Cross-Cloud-Strategie, die es Unternehmen ermöglicht, ihre Anwendungen und Daten über mehrere Cloud-Plattformen hinweg effizient zu verwalten und zu betreiben. Konsistenz und Atomarität zwischen den Cloud-Plattformen zu wahren, stellt eine große Herausforderung dar. Hierzu wird in dieser Arbeit eine Lösung vorgestellt, um Cross-Cloud-Atomarität zu erreichen, welche auf Basis des 2-Phasen-Commit-Protokolls (2PC) beruht. In diesem Zusammenhang wird die Funktionsweise des 2PC-Protokolls erörtert und Erweiterungen sowie Alternativen zum Protokoll kurz angesprochen. Zusätzlich werden alternative Lösungsansätze diskutiert, die für die Erzielung von Cross-Cloud-Atomarität in Betracht gezogen werden können. Dadurch wird ein umfassender Einblick in das Thema sowie mögliche Lösungsansätze für diese Herausforderung gewährt.
Meiner Meinung nach ist Christopher Nolans Meisterwerk „Oppenheimer“ eindeutig der Film des Jahres. Nolan zählt für mich zu einem der bedeutendsten Regisseure der Filmkunst. Im Kino zog mich der Film in den Bann. 3 Stunden vergingen wie im Flug. Doch warum fasziniert mich dieser Film so sehr? Wie hat Nolan hier gearbeitet? Diese wissenschaftliche Arbeit soll dieses Lichtspiel filmästhetisch analysieren. Diese Analyse beschäftigt sich einerseits mit dem Film und andererseits mit der Biografie „J. Robert Oppenheimer“ von Kai Bird und Martin J. Sherwin als Hauptquellen. Es werden die Handlung, die Kameraarbeit, das Szenenbild, die Audiogestaltung, die Filmmusik und die Montage analysiert. Zum Schluss werden Filmkritiken untersucht, um zu analysieren, wie der Film in der breiten Masse ankam.
As the Industry 4.0 is evolving, the previously separated Operational Technology (OT) and Information Technology (IT) is converging. Connecting devices in the industrial setting to the Internet exposes these systems to a broader spectrum of cyber-attacks. The reason is that since OT does not have much security measures as much as IT, it is more vulnerable from the attacker's perspective. Another factor contributing to the vulnerability of OT is that, when it comes to cybersecurity, industries have focused on protecting information technology and less prioritizing the control systems. The consequences of a security breach in an OT system can be more adverse as it can lead to physical damage, industrial accidents and physical harm to human beings. Hence, for the OT networks, certificate-based authentication is implemented. This involves stages of managing credentials in their communication endpoints. In the previous works of ivESK, a solution was developed for managing credentials. This involves a CANopen-based physical demonstrator where the certificate management processes were developed. The extended feature set involving certificate management will be based on the existing solution. The thesis aims to significantly improve such a solution by addressing two key areas that is enhancing functionality and optimizing real-time performance. Regarding the first goal, firstly, an analysis of the existing feature set shall be carried out, where the correct functionality shall be guaranteed. The limitations from the previously implemented system will be addressed and to make sure it can be applied to real world scenarios, it will be implemented and tested in the physical demonstrator. This will lay a concrete foundation that these certificate management processes can be used in the industries in large-scale networks. Implementation of features like revocation mechanism for certificates, automated renewal of the credentials and authorization attribute checks for the certificate management will be implemented. Regarding the second goal, the impact of credential management processes on the ongoing CANopen real-time traffic shall be a studied. Since in real life scenarios, mission-critical applications like Industrial control systems, medical devices, and transportation networks rely on real-time communication for reliable operation, delays or disruptions caused by credential management processes can have severe consequences. Optimizing these processes is crucial for maintaining system integrity and safety. The effect to minimize the disturbance of the credential management processes on the normal operation of the CANopen network shall be characterized. This shall comprise testing real-time parameters in the network such as CPU load, network load and average delay. Results obtained from each of these tests will be studied.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.