Open Access
Refine
Year of publication
Document Type
- Bachelor Thesis (119) (remove)
Has Fulltext
- yes (119)
Is part of the Bibliography
- no (119)
Keywords
- Internet der Dinge (5)
- Marketing (5)
- Internet of Things (4)
- Social Media (4)
- Computersicherheit (3)
- Informatik (3)
- Kommunikation (3)
- Musik (3)
- Anwendungsprotokoll (2)
- Computerspiel (2)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (73)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (16)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (12)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (11)
- Fakultät Medien (M) (ab 22.04.2021) (6)
- IUAS - Institute for Unmanned Aerial Systems (1)
Open Access
- Open Access (119)
- Diamond (10)
Garbage in, Garbage out: How does ambiguity in data affect state-of-the-art pedestrian detection?
(2024)
This thesis investigates the critical role of data quality in computer vision, particularly in the realm of pedestrian detection. The proliferation of deep learning methods has emphasised the importance of large datasets for model training, while the quality of these datasets is equally crucial. Ambiguity in annotations, arising from factors like mislabelling, inaccurate bounding box geometry and annotator disagreements, poses significant challenges to the reliability and robustness of the pedestrian detection models and their evaluation. This work aims to explore the effects of ambiguous data on model performance with a focus on identifying and separating ambiguous instances, employing an ambiguity measure utilizing annotator estimations of object visibility and identity. Through accurate experimentation and analysis, trade-offs between data cleanliness and representativeness, noise removal and retention of valuable data emerged, elucidating their impact on performance metrics like the log average miss-rate, recall and precision. Furthermore, a strong correlation between ambiguity and occlusion was discovered with higher ambiguity corresponding to greater occlusion prevalence. The EuroCity Persons dataset served as the primary dataset, revealing a significant proportion of ambiguous instances with approximately 8.6% ambiguity in the training dataset and 7.3% in the validation set. Results demonstrated that removing ambiguous data improves the log average miss-rate, particularly by reducing the false positive detections. Augmentation of the training data with samples from neighbouring classes enhanced the recall but diminished precision. Error correction of wrong false positives and false negatives significantly impacts model evaluation results, as evidenced by shifts in the ECP leaderboard rankings. By systematically addressing ambiguity, this thesis lays the foundation for enhancing the reliability of computer vision systems in real-world applications, motivating the prioritisation of developing robust strategies to identify, quantify and address ambiguity.
Vorhofflimmern ist die häufigste tachykarde Herzrhythmusstörung weltweit. Dabei verliert das Herz seinen normofrequenten Sinusrhythmus und schlägt nicht mehr regelmäßig, sondern zu schnell und unregelmäßig. Vorhofflimmern ist normalerweise keine lebensbedrohliche Herzrhythmusstörung, aber es kann zu einem Schlaganfall führen. Die Ursache dieser Herzrhythmusstörung sind die Kreisende bzw. die fokalen Erregungen im linken Atrium, die hauptsächliche aus einer oder mehreren Pulmonalvenen kommen. Die übliche Therapieverfahren des Vorhofflimmerns ist die Pulmonalvenenisolation.
Diese Bachelorthesis beschäftigt sich daher mit der Modellierung unterschiedlicher linksatrialer Fokus-Modelle und intrakardialer Elektrodenkatheter für die Diagnostik und Terminierung von Vorhofflimmern mittels Pulmonalvenenisolation im Offenburger Herzrhythmusmodell nach Schalk, Krämer und Benke, welches in CST
Studio Suite realisiert wurde.
Zu Beginn wurden die verschiedenen linksatrialen fokalen Flimmerquellen modelliert und daraufhin simuliert. Hierbei wurde jeweils eine Simulation mit linksatrialen fokalen Flimmerquellen, die aus einzelnen, dualen oder allen vier Pulmonalvenen kommen, durchgeführt. Es wurde ebenfalls eine weitere Simulation mit Biosignalen (aus der Realität) erstellt. Mit diesen Simulationen konnte nun der elektrische Erregungsablauf sichtbar gemacht werden. Daraufhin wurden die Katheter für die Diagnostik und für die Pulmonalvenenisolation modelliert und in das bestehende Offenburger Herzrhythmusmodell integriert. Bei den Diagnostik-Kathetern handelte es sich um 10-polige Lasso® Katheter, zwei Varianten von PentaRay® NAV eco Katheter und 4-polige Diagnostik-Katheter „OSYPKA FINDER pure®“. Ablationskatheter sind zwei Varianten von Pentaspline Basket pose Katheter und HELIOSTAR™ Ablation Ballon. Abschließend wurden verschiedene Varianten von Isolationsverfahren der Pulmonalvenen modelliert und daraufhin die linksatrialen fokalen Flimmerquellen nach der Isolation der Pulmonalvenen simuliert.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
In modernen Industrieautomatisierungssysteme kann die IT-Sicherheit nicht mehr ignoriert werden. Um dem Datenverkehr Schutz zu bieten, sind kryptografische Schutzmaßnahmen notwendig. Eine gängige Schutzmaßnahme ist die Verwendung von digitalen Zertifikaten zur Autorisierung und Authentifizierung. Um Zertifikate sicher und geregelt auf Endgeräte zu bringen, ist jedoch eine Public-Key-Infrastructure notwendig. Solche PKIs sind bisher wenig im Umfeld der Industrieautomatisierung untersucht. Das Institut für verlässliche Embedded-Systems der Hochschule Offenburg bietet hierfür eine mögliche Lösung, welche auf einer zentralen Einheit, genannt Credentialing Entity, basiert. Ein Demonstrator dieses Konzepts wurde bereits in den weit verbreiteten Systemprogrammier-sprachen C und C++ implementiert.
Im Rahmen dieser Arbeit wird die Verwendung der modernen speichersicheren Programmiersprache Rust in der Systemprogrammierung als Alternative zu den Domänenführern C/C++ am Beispiel der Implementierung der Credentialing-Entity untersucht. Hierbei werden Aspekte wie die Vorzüge Rusts, dessen Ökosystem und Interoperabilität mit den Marktführern C/C++ untersucht.
Diese Bachelorthesis befasst sich mit der Testung eines an der TU München entwickelten Biosignalverstärkers zur Registrierung von auditorisch evozierten Potentialen. Ziel dieses Projekts ist die Charakterisierung dieses Verstärkers. Dabei soll geprüft werden, ob der Verstärker AEPs registrieren und um verstellbare Faktoren verstärken kann. Dafür wurde eine MATLAB – Software implementiert, die es erlaubt über eine Soundkarte akustische Signale mittels Kopfhörer auszugeben und zeitgleich die vom Verstärker registrierten Potentiale einzulesen, zu Mitteln und sie grafisch darzustellen.
Erste Versuche wurden mit der Loop Back Box von Interacoustics, einem Schwingkreis, der einen künstlichen Patienten simuliert, durchgeführt. Diese Versuchsreihen zeigten, dass reale Signale gemessen werden. Anschließend konnten Probandenmessungen mit dem Verstärker und Referenzmessungen mit der Eclipse von Interacoustics durchgeführt werden. Bei sämtlichen Messreihen zeigte sich im Vergleich der beiden Systeme hohe Ähnlichkeit der Kurvenverläufe. Insbesondere das zeitliche Auftreten der Jewett V, der größten gemessenen Amplitude, war nahezu identisch. Allerdings stimmen die Amplitudenwerte nicht überein. Während die Amplitude der Jewett V bei Messungen mit der Eclipse um die 1µV erreichte, war die Amplitude beim Verstärker nur ein bis zwei Nanovolt groß. Damit ist die Verstärkung um ein tausendfaches geringer als bei der Eclipse.
Anhand der gewonnenen Erkenntnisse konnten Hardware technische Optimierungen evaluiert und diskutiert werden.
Planung, Bau und Inbetriebnahme einer Anlage zur Entspannungsverdampfung im Technikums-Maßstab
(2023)
Das Ziel dieser Arbeit ist es, eine Anlage im Technikums-Maßstab für den Prozess der kontinuierliche Entspannungsverdampfung zu planen, zu bauen und in Betrieb zu nehmen. Ausgangspunkt der Arbeit ist die Entspannungsverdampfungs-Anlage „EVERDA“ der Hochschule Offenburg, welche in Batch-Fahrweise betrieben wurde.
Zur Erreichung dieses Ziels wurden die folgenden Punkte bearbeitet:
• Aufstellung von thermodynamischen Berechnungsgleichungen.
• Beschreibung der Entspannungsverdampfung in Batch-Fahrweise.
• Bewertung von Anlagenkomponenten der EVERDA in Batch-Fahrweise hinsichtlich ihrer Wiederverwendbarkeit für den kontinuierlichen Betrieb.
• Aufstellung der Rahmenbedingung für den kontinuierlichen Betrieb.
• Erstellung und Beschreibung eines detaillierten Anlagenkonzeptes für den kontinuierlichen Betrieb.
• Durchführung von Prozess-Simulationen mit dem neuen Konzept.
• Auslegung der Komponenten auf Basis der Rahmenbedingung und den Ergebnissen der Simulation.
• Entwurf und Aufbau der elektrischen Verschaltung zur Anlagensteuerung.
• Bau und Inbetriebnahme der Anlage.
Konzeption und Erstellung einer Informationsplattform zur Darstellung von Smart Home Anwendungen
(2022)
Gegenstand dieser Bachelorarbeit ist die Konzeption und Erstellung einer digitalen Informati-onsplattform zur Darstellung von Smart Home Anwendungen und deren Funktionsweise.
Als Grundlage hierfür dient der von der Hahn-Schickard-Gesellschaft für angewandte For-schung errichtete und betriebene „Smarte Caravan (SmaC)“, in welchen zu Demonstrationszwecken einige Sensoren sowie Aktoren aus dem Smart Home Bereich eingebaut wurden.
Für die Erstellung der digitalen Informationsplattform wird daher zunächst eine Analyse sowie ein Vergleich der verschiedenen Möglichkeiten zur interaktiven Darstellung von Informationsinhalten durchgeführt.
Anschließend wird eine Aufstellung von Anwendungen und Szenarien gesammelt, welche in der interaktiven Darstellung integriert werden sollen.
Letztendlich liegt eine interaktive Smart Home Umgebung vor, mit der verschiedene Funktionalitäten des Smart Home erlebbar werden und Informationen darüber gewonnen werden können.
This work addresses the conceptualization, design, and implementation of an Application Programming Interface (API) for the Common Security Advisory Framework (CSAF) 2.0, introducing another method for distributing CSAF documents in addition to two already existing methods. These don't allow the use of flexible queries as well as filtering, which makes it difficult for operators of software and hardware to use CSAF. An API is intended to simplify this process and thus advance the automation goal of CSAF.
First, it is evaluated whether the current standard allows the implementation of an API. Any conflicts are highlighted and suggestions for standard adaptations are made. Based on these results, the API is designed to meet the previously defined requirements. Subsequently, a proof of concept is successfully developed according to the design and extensively tested with specially prepared test data. Finally, the results and the necessary standard adjustments are summarized and justified.
The conceptual design and the implementation were successfully completed. However, during the implementation of the proof of concept, some routes could not be fully implemented.
This thesis evaluates and compares current Full-Stack JavaScript Technologies. Through extensive research on the state of the art of JavaScript and its related frameworks, different aspects of FullStack Development are analysed to judge the popularity of technologies.
The language JavaScript and the idea of Full-Stack Development are presented with the functionality of different frameworks. The JavaScript runtime Node.js was examined and marked as the most influential JavaScript technology, which opened up many opportunities.
As technology stacks MERN, MEAN and MEVN were investigated, featuring the base technologies Node.js, MongoDB and Express.js. It was discovered that front-end frameworks have the most influence on which variant of Full-Stack can be chosen. Comparison criteria between the technology stacks were the learning curve, the maintainability, modularity and media integration. These criteria were extracted from research and a questionnaire conducted with students of the University of Applied Sciences Offenburg.
For the purposes of testing and experiencing a Full-Stack JavaScript application, the game RemArrow, based on the 1979s game Simon, was designed and implemented. The comparison with predefined criteria shows the result that the MERN stack with React.js is the best to learn and promises the most potential. Arising JavaScript technologies and their popularity are very dependent on the industry and skill set of the developer.
In conclusion, it can be established that the concept of Full-Stack Development is currently very interesting and more than just a trend. It has potential of becoming a new kind of web development, and part of the curriculum taught at universities. Expert knowledge is needed but there is a high demand and much potential for Full-Stack JavaScript Developers.
Durch ein wachsendes Bewusstsein für soziale und nachhaltige Konflikte spielt verantwortungsvolles unternehmerisches Handeln eine zunehmend große Rolle für potenzielle Kund*innen. Viele Unternehmen entscheiden sich daher für Corporate-Social-Responsibility-Marketing: Sie greifen wichtige gesellschaftliche Themen in ihren Kampagnen auf. Nicht immer steckt dahinter ein edles Motiv. Wirtschaftliches Interesse steht häufig über ethischem Antrieb. Doch in einigen Fällen durchschauen Kund*innen diese Irreführung.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von unglaubwürdigem Corporate-Social-Responsibility-Marketing auf die Kaufbereitschaft von Studierenden. Die Untersuchung wird anhand des Unternehmens Nike durchgeführt. Hierfür wird den Proband*innen zunächst ein Corporate-Social-Responsibility-Werbespot von Nike gezeigt. Anschließend wird ihnen ein Skandal präsentiert, der eben diesen Werbespot als reine Marketing-Masche enttarnt. Zwischenzeitlich wird die Kaufbereitschaft der Studierenden mit einem Fragebogen gemessen. Zusätzlich werden die Teilnehmer*innen zu ihren Gedanken und Gefühlen befragt, die Kampagne und Skandal hinterlassen.
Aus dem Experiment ging hervor, dass die Teilnehmer*innen nach der Präsentation des Skandals eine signifikant niedrigere Kaufbereitschaft zeigten. Außerdem wurde ein leicht erhöhtes Interesse an Nikes Tätigkeiten als Sponsor ermittelt. Mehr als die Hälfte der Befragten äußerten zudem ihre Enttäuschung und einen veränderten Blick auf das Unternehmen Nike.