The 20 most recently published documents
Krematorium - to be or not to be? Reflexionen zu Umwelt- und Klimaaspekten im Bestattungswesen
(2024)
Elektrochemische Energiespeicher in Form von Batteriezellen nehmen in der nahen Zukunft für die Transformation zu einer nachhaltigen Energiewirtschaft eine entscheidende Rolle ein. Im Rahmen dieser Arbeit soll die effiziente und aussagekräftige Charakterisierung von Batteriezellen zum Thema sein. Dazu wird erläutert, wie für die Batteriearbeitsgruppe der Hochschule Offenburg eine neue Dateninfrastruktur aufgebaut wird. Gleichzeit wird thematisiert, auf welche Weise Batteriezellen charakterisiert werden können um zur Erstellung eines Äquivalentschaltkreismodells verwendet werden können.
Am Ende der Arbeit stehen mit den neuen Methode einige ersten Ergebnisse für die erfolgreiche Umsetzung der Dateninfrastruktur sowie erste Ergebnisse für das neue Testverfahren für die Charakterisierung von Lithiumeisenphosphat-Batteriezellen.
Die vorliegende Arbeit verfolgt das Ziel, eine Methode zur Auftrennung einer komplexen Probe, wie beispielsweise eines Pyrolyseöls, mittels HPTLC zu entwickeln. Zudem soll die Methode zur Ermittlung gentoxischer Substanzen in der genannten Probe eingesetzt werden. Die entwickelte Methode soll mit den an der Hochschule verfügbaren Mitteln durchführbar sein und als Leitfaden für Studierende im Labor dienen.
Diese Bachelorarbeit ist Teil eines Projekts an der INSA Straßburg. Dieses Projekt wird in Partnerschaft mit dem RAID Straßburg durchgeführt und das Ziel des Projekts ist es, einen mobilen Roboter zu bauen, der springen kann. Während des Projekts werden alle Entscheidungen einem betreuenden Lehrer unterbreitet.
Die Wiederherstellung eines alten Sprungsystems und die Realisierung eines neuen Sprungsystems werden in dieser Bachelor-Thesis beschrieben.
Zunächst wird ein erster Teil der Analyse durchgeführt. Diese Analyse wird für das bestehende System und die Dimensionierung des Sprungs durchgeführt.
Im Anschluss an diesen Teil wird der Prototyp des endgültigen Sprungsystems vorgestellt. Die Abmessungen, die Komponenten und die Funktionsweise des Systems werden vorgestellt.
Anschließend folgt ein Abschnitt über die Gestaltung des Federdrucksystems. Zwei verschiedene Kompressionssysteme werden vorgestellt. Am Ende dieses Teils wird eine Auswahl der Lösung getroffen.
Anschließend wird die Realisierung des Sprungprototyps durch eine iterative Methode vorgestellt. Sechs Versionen der Prototypen werden vorgestellt. Zwischen jeder Version wird ein Kompressionstest durchgeführt. Bei diesen Kompressionstests werden die zu lösenden Probleme und die zu verbessernden Teile beobachtet.
Zum Schluss wird eine endgültige Prototypversion vorgestellt. Und es werden Wege zur Verbesserung dieses Prototyps vorgeschlagen.
This thesis explores the development of a predictive model to predict lesions within radiofrequency ablation. The aim is to develop a neural network capable of predicting tissue lesions described by four metrics based on a set of ablation characteristics. This thesis, therefore, describes the development of the predictive model based on the following steps: comparison of different feature configurations, integration of simulation data, and evaluation of applicability. The selection of features resulted in three main configurations named ’Post-Ablation’ (11 features), ’Pre-Ablation’ (3 features) and ’Extended-Pre-Ablation’ (7 features). The result of the first development step, the comparison of configurations, showed that the ’Extended-Pre-Ablation’ configuration is the most promising and outperforms the baseline.
Data from a COMSOL Multiphysics simulation was integrated into the training to develop the model further. For this purpose, a preprocessing step was developed that converts simulated temperature ablation data into tissue damage using an Arrhenius model and calculates the lesion description. Four variants were evaluated for integrating the simulation data: one using only clinical data, one using only simulated data, and two using a combination of both. The evaluation showed that training with only clinical in vitro data leads to the best results. Although the combinations with clinical and simulated data were better on a single test dataset, training with only clinical data showed the most stable results in the context of both datasets. The most stable variant achieved an MAE of 0.79 mm, an RMSE of 1.09 mm and an R2-Score of 0.48 on the first test dataset. These results were close to those of the validation dataset. The model achieved an MAE of 1.18 mm, an RMSE of 1.49 mm, and an R2-Score of 0.12 on the second test dataset. A closer look at the discrepancy between data types showed a good qualitative match, but the unstable results indicate an insufficient quantitative match.
The applicability evaluation examined the model’s ability to reflect trends with artificial inputs correctly. For this purpose, the ablation time, the power target, and the impedance were artificially varied. While a correct trend could be recognized for the ablation time, the model expected a false trend for a power target over 50 W. The impedance also showed limitations due to the available data, so extrapolation into unknown impedance ranges still worked poorly.
The final model uses a feed-forward neural network with seven input nodes, two hidden layers with 128 and four output nodes. Even with this initial prototype, it was possible to demonstrate that the model developed can predict lesions with a certain degree of accuracy with a low computational overhead. A validated simulation for generating data showed good potential.
Gen Z als Mitarbeitende
(2024)
Infolge des Fachkräftemangels haben sich die Machtverhältnisse auf dem deutschen Arbeitsmarkt verschoben. Qualifizierte Arbeitnehmer:innen der Gen Z können aus einer Vielzahl von Angeboten wählen und stellen dementsprechend hohe Ansprüche an Arbeitgeber:innen. Von Unternehmen verlangen sie verantwortungsvolles Handeln. Im Job möchten sie Einfluss nehmen, Wertschätzung erfahren und Entwicklungsmöglichkeiten erhalten. Am Arbeitsplatz und in der öffentlichen Diskussion wird die Gen Z jedoch nicht immer ernst genommen, bisweilen die Arbeitsmoral der ganzen Generation infrage gestellt. Entscheidungsträger:innen in Unternehmen sollten sich davon jedoch nicht beeinflussen lassen, sondern den Antrieb und die Fähigkeiten der jungen Mitarbeitenden für sich nutzen, um Wettbewerbsvorteile zu generieren. Hierfür müssen sie sich mit den Wünschen und Bedürfnissen Gen Z auseinandersetzen und Mut zur Veränderung beweisen.
Ziel dieser Arbeit ist die Herausarbeitung von Erfolgsfaktoren beim Recruiting, dem Onboarding und der Führung von Mitarbeitenden der Gen Z in Deutschland. Ausgehend von einer umfassenden Literaturrecherche wurden im November und Dezember 2023 acht Expert:innen zu ihren praktischen Erfahrungen mit der Gen Z befragt. Die Interviews wurden im Rahmen einer qualitativen Inhaltsanalyse ausgewertet und die Ergebnisse vor dem Hintergrund der Erkenntnisse aus der Literatur diskutiert. Den Abschluss der Arbeit bilden neun konkrete Handlungsempfehlungen, die Unternehmen dabei unterstützen sollen, Kandidat:innen der Gen Z auf sich aufmerksam zu machen, als Mitarbeitende zu gewinnen und langfristig zu halten. Zentrale Faktoren, die hierbei zum Erfolg führen, sind ein überzeugendes Employer Branding, moderne Recruitingprozesse und Offenheit gegenüber angepassten Arbeitsbedingungen.
In dieser Arbeit wird untersucht, welche Auswirkungen die Anwesenheit eines flüssigen Bioabfallmediums auf die Biomassebildung von Trichoderma reesei hat. Bei diesem Bioabfallmedium handelt es sich um eine Flüssigkeit die bei den Aufschlussprozess von festen Bioabfällen durch eine Thermodruckhydrolyse entsteht. Dieses Bioabfallmedium wird auch als Pülpe bezeichnet. Um die Auswirkungen der Pülpe auf Trichoderma reesei RL-P37 zu untersuchen wurde eine Kultivierung mit fünf verschiedenen Versuchsmedien durchgeführt. Dies bestanden aus der Pülpe und einem Komplexmedium, bei dem es sich um das Medium nach Mandel & Weber handelt. Der Gehalt an Komplexmedium, in den Versuchsmedien betrug dabei 100 %, 60 %, 40 %, 20 % und 0 %. Das zu 100 % fehlende Volumen wurde mit Pülpe ergänzt.
Es konnte gezeigt werden, dass die Pülpe, keine signifikante Inhibition der Biomassebildung herbeiführt. Dies ist der Fall, da für kein Versuchsmedium eine Trockensubstanz ermittelt wurde, die unterhalb des Wertes für das reine Komplexmedium lag. Für die Biomasseausbeute konnte dagegen, in dem Versuchsmedium, dass nur Pülpe enthält, eine geringere Biomasseausbeute nachgewiesen werden. Es kann hier jedoch nicht mit Sicherheit gesagt werden, dass eine Inhibition dafür der Grund ist. Dies ist der Fall, das sich bei der Bestimmung der Trockensubstanz und der Biomasseausbeute zeigte, dass T. reesei, in der Pülpe enthaltene, gelöste Partikel, bei der Bildung des Mycels aufnimmt. Um genaue Messungen zu gewährleisten müssen diese aus dem Mycel entfernt werden, da sie anderenfalls die Messergebnisse der Trockensubstanz verfälschen. Zu Beginn der Versuche wurde vermutet, dass die Pülpe aromatische Strukturen und hohe Schwermetallkonzentrationen enthält, die inhibierende auf T. reesei wirken und erst von dem Pilz metabolisiert werden müssen bevor die Biomassebildung stattfinden kann. In Bezug auf die aromatischen Strukturen kann gesagt werden, das diese durch eine Absorptionsmessung bei 254 nm detektiert werden. Allerdings konnte kein eindeutiger inhibierenden Einfluss auf T. reesei nachgewiesen werden. Dies ist daran zu erkennen, dass während der gesamten Kultivierung, die Absorption in dem reinen Pülpe-Medium, nur um 19,6 % abnahm, aber dennoch Biomasse gebildet wurde. Die Schwermetallkonzentration steigt in diesem Zeitraum. Der Grund dafür ist, dass sich deren Löslichkeitsprodukt durch den sinkenden pH-Wert ändert und dadurch mehr Schwermetallionen in Lösung gehen. Da in diesem Zeitraum trotzdem Biomasse gebildet wird kann eine Inhibition durch diese Faktoren ausgeschlossen werden. In Bezug auf die Konzentration der Mikronährstoffe kann gesagt werden, dass diese zu Beginn der Kultivierung in hohen Konzentrationen vorliegen. Aus diesem Grund ist es sehr unwahrscheinlich, dass es während der Kultivierung, zu einer Limitierung dieser Element kommt. Bei der Betrachtung des TOC-Verlaufs hat sich zudem gezeigt, dass die Kurve für das Versuchsmedium mit 60 % Komplexmedium, sehr ähnlich zu der des reinen Komplexmediums verläuft. Aus diesem Grund wird angenommen das es über ähnliche Eigenschaften, während einer Fermentation verfügt wie das reine Komplexmedium. Auch gibt es Anzeichen dafür, dass dieses Versuchsmedium über die höchste Biomasseausbeute verfügt. Dies konnte jedoch nicht eindeutig bestätigt werden.
Die zentrale Frage dieser Arbeit war, ob sich das Residual Shuffle-Exchange Network, das als Alternative zum Transformer auf dem MusicNet-Datensatz für die Automatic Music Transcription (AMT) gute Leistungen erzielte, als PyTorch-Version realisieren und mit mehr Daten, einschließlich synthetischer Daten, skalieren lässt, um eine bessere Generalisierung zu erzielen.
Die Ergebnisse konnten auf Basis eines bestehenden GitHub-Repositories in PyTorch mit leichten Einbußen reproduziert werden. Es wurde eine Codebasis entwickelt, die es ermöglichte, die Architektur in verschiedenen Konfigurationen zu testen und schließlich effizient mit dem MAESTRO-Datensatz sowie mit dem synthetisierten ADLPiano-Datensatz zu trainieren. Dabei entstand ein Modell, das 2 Millionen Parameter größer ist, jedoch durch den Einsatz von bfloat16 den Bedarf an VRAM um 8% reduziert und die Transkriptionsgeschwindigkeit durch eine verringerte Auflösung um 18% erhöht.
Das Modell zeigt verbesserte Fähigkeiten zur Generalisierung auf unbekannten Klavierstücken. In Kombination mit einer verbesserten Nachverarbeitung konnte auf dem MAESTRO Testdatensatz ein Onset-F1-Score von 92% erreicht werden.
As the automotive industry continues to evolve, the integration of automatic components driven by microcontrollers has become increasingly prevalent. In safety-critical systems such as seat belt mechanisms, the reliability and responsiveness of these components are paramount to ensuring the safety of both drivers and pedestrians. Central to this concern is the assessment of the CPU load of real-time operating system (RTOS) microcontrollers, as their ability to execute tasks within specified time constraints directly impacts the system performance and, ultimately, safety outcomes.
This research endeavors to address the need for rigorous evaluation methodologies for CPU load analysis in RTOS microcontrollers within automotive seat belt systems. The study commences by scrutinizing the current methodologies employed for CPU load analysis, with a particular focus on the prevalent pin toggling and Picoscope methods. While these methods have demonstrated efficacy in assessing CPU load, they often entail significant setup time and data extraction procedures, thus presenting a potential bottleneck in the evaluation process.
To address these limitations, a novel methodology is proposed, leveraging the capabilities of the Lauterbach debugger and its Software Trace32 tool. This methodology aims to streamline the CPU load analysis process by enabling precise timing profiling of program functions and variables. By scripting within Trace32, data extraction is automated, reducing the time overhead associated with manual methods and enhancing overall efficiency. The proposed methodology holds promise for improving the accuracy and efficiency of CPU load analysis in RTOS microcontrollers. By providing a comprehensive understanding of the temporal behavior of program execution, it facilitates more nuanced insights into system performance and resource utilization, thereby enabling better-informed decision-making in the development and deployment of automotive safety systems.
Empirical validation of the proposed methodology is conducted through a comparative analysis with existing approaches. Data is collected and analyzed from both the traditional pin toggling and Picoscope methods and the proposed Lauterbach Trace32-based methodology. By assessing the consistency and accuracy of results obtained from each approach, insights are gleaned into the efficacy of the proposed methodology and its potential for time savings.
Through this research, I seek to contribute to the advancement of methodologies for CPU load analysis in RTOS microcontrollers, particularly within the context of automotive safety systems. By offering a more efficient and effective means of evaluating CPU load, my work aims to enhance the reliability and responsiveness of automotive seat belt systems, ultimately contributing to improved safety outcomes on the road.
Ransomware stellt eine erhebliche Bedrohung für die Cybersicherheit dar und betrifft weltweit zahlreiche Unternehmen. Diese Bachelorarbeit untersucht die Sicherheitskonzepte von Backup-Lösungen mit einem besonderen Fokus auf Veeam Backup & Replication. Es werden verschiedene Angriffsvektoren auf Backup-Systeme, darunter Netzwerke, Softwarekomponenten, Datenbanken und Authentifizierungsmethoden analysiert. Darüber hinaus werden Best Practices für die Implementierung von ransomware-resistenten Backup-Lösungen vorgestellt, wie z.B. die 3-2-1-Regel und die 3-2-1-1-0-Strategie, Air-Gap-Backups und unveränderliche Backups.
Die Analyse zeigt, dass Veeam robuste Sicherheitsfunktionen bietet, jedoch auch spezifische Schwach- stellen aufweist, die durch bekannte Sicherheitslücken ausgenutzt werden können. Diese Schwachstellen werden transparent behandelt und durch schnelle Reaktionen des Herstellers gemildert. Die Arbeit bietet eine umfassende Analyse der Resilienz von Veeam gegenüber Ransomware-Angriffen.
Diese Masterarbeit untersucht, wie sich Churn Predictions mit der Business-Intelligence-Software Qlik realisieren lassen. Churn, also die Abwanderung von Kunden, stellt für viele Unternehmen eine erhebliche Herausforderung dar. Durch präzise Vorhersagen dieser Abwanderungen können Unternehmen proaktiv Maßnahmen ergreifen, um Kunden zu halten und ihre Geschäftsziele zu erreichen.
Im ersten Teil der Arbeit wurde untersucht, wie Churn Predictions mittels Machine Learning durchgeführt werden können. Hierbei kam eine binäre Klassifikation zum Einsatz, um die Klassen „Churner“ und „No-Churner“ zu unterscheiden. Reale Daten der Firma Sauber Energie GmbH & Co. KG dienten als Grundlage für die Vorhersagen. Verschiedene Machine-Learning-Modelle wurden trainiert und evaluiert, wobei das LightGBM-Modell mit einem F1-Score von 94% das beste Ergebnis lieferte.
Im zweiten Teil der Arbeit lag der Fokus auf der praktischen Umsetzung und Integration der Churn Predictions in Qlik. Drei verschiedene Methoden wurden evaluiert: Qlik Auto-ML, Qlik Sense Server-Side Extension und die Dateiablage. Jede dieser Methoden ermöglicht es, Churn Predictions in Qlik zu realisieren, wobei die Vor- und Nachteile stark von den technischen Besonderheiten der jeweiligen Methode abhängen. Für die Umsetzung eines Churn Dashboards bei Sauber Energie erwies sich die Dateiablage aufgrund der geringsten Implementierungshürde als am geeignetsten.
Die Ergebnisse dieser Arbeit zeigen, dass die Integration von Churn Predictions in Qlik ein wertvolles Werkzeug für Unternehmen darstellt. Es ermöglicht ihnen, präzise Vorhersagen zu treffen und darauf aufbauend das Churnverhalten zu analysieren.
Artificial intelligence technology has undergone rapid development in recent years and has found its way into almost all industries, especially the media sector. Many companies are faced with the challenge of how and to what extent they should integrate AI into their work processes in order to increase their effectiveness and efficiency.
The aim of this paper is to analyse the current use and the positive and negative effects of AI (artificial intelligence) in the media industry. It also identifies fields of action that support companies in the integration and implementation of AI.
In addition to a comprehensive literature review, expert interviews were conducted with media professionals in May 2024 in order to incorporate their experiences and expertise into the study.
The interviews were then analysed as part of a qualitative content analysis according to Mayring and presented for discussion with the findings from the literature. In the process, fields of action were identified and worked out that should be taken into account by the
companies. Central aspects and areas would be: a well thought-out strategy and objectives, definition of governance and ethics regulations, training and education of employees in the handling and use of AI, development of appropriate data infrastructures and management, continuity management in the event of AI failures, establishment of AI working groups and testing of AI applications.
Die vorliegende Arbeit präsentiert eine Übersicht über die Anwendungsgebiete von Künstlicher Intelligenz (KI) in der Filmbranche und zeigt auf, wie ein Treatment und ein Drehbuch für einen fiktionalen Mittellangfilm mithilfe KI entwickelt werden können. Anhand einer Literaturanalyse wird der Begriff erläutert und der Status quo in der Filmbranche betrachtet. Es folgt ein Überblick über gängige Tools und eine Analyse der Chancen und Risiken unter eingehender Betrachtung rechtlicher und ethischer Aspekte, wobei der Schwerpunkt auf dem Einsab von künstlicher Intelligenz in der Drehbuchentwicklung liegt. Der zweite Teil der Arbeit beschäftigt sich mit der Entwicklung und Konzeptualisierung eines Exposés, eines Treatments und eines Drehbuchs für den Mittellangfilm „Mixed Zone“. Es folgt theoretisches Hintergrundwissen zu den oben genannten Begriffen und zu den Themen Zielgruppenanalyse, Sportberichterstattung, Mixed Zone und der Wintersportart Biathlon. Für die Erstellung des Treatments und des Drehbuchs wurde die Software „DramaQueen“ verwendet. Im Rahmen des Kapitels zur Konzeptualisierung des Mi/ellangfilms erfolgt eine detaillierte Darstellung und Erläuterung der Anwendung sowie der KI-Erweiterung. Ziel dieser Arbeit ist es, einen Überblick über die aktuelle Entwicklung und den Einsab von KI in der Filmbranche zu geben sowie die einzelnen Arbeitsschritte einer Drehbuchentwicklung am Beispiel des Mittellangfilms darzustellen.
Eine detaillierte Analyse des Themenbereichs „Künstliche Intelligenz in der Filmbranche” zeigt, dass die aktuelle technische Entwicklung die Erstellung umfangreicher Texte mit einer zusammenhängenden Handlung durch künstliche Intelligenz nicht ermöglicht. Zudem kommt es häufig zu Wortwiederholungen. Derzeit findet KI-Technologie daher vorwiegend als Recherche-, Ideenfindungs- und Überarbeitungswerkzeug für Textanwendungen.
Instagram ist ein wichtiger Bestandteil des Lebens vieler junger Menschen und bietet eine Bühne zur Selbstinszenierung und sozialen Orientierung. Das Ausprobieren der eigenen Persönlichkeit und der soziale Vergleich sind wesentliche Aspekte der Identitätsarbeit, laut dem Psychoanalytiker Erik H. Erikson. Diese Arbeit untersucht daher, wie Instagram die Identität junger Erwachsener beeinflusst. Eine umfassende Literaturrecherche und Analyse bestehender Studien ergaben, dass eine intensive Instagram-Nutzung häufig psychische Probleme mit sich bringt und sich negativ auf die Entwicklung der Identität auswirkt. Auf Basis dieser Erkenntnisse wurde die Awareness-Kampagne „InstAbility“ entwickelt, die jungen Menschen einen gesunden Umgang mit Instagram ermöglichen soll. Die Kampagne verfolgt das Ziel, mögliche negative Folgen zu identifizieren und Strategien (u. a. Medienkompetenz) für einen reflektierten Umgang mit Medien zu vermitteln. Die Kampagne wird auf Instagram implementiert, um die Zielgruppe direkt zu erreichen und eine positive Identitätsentwicklung zu fördern. Sie soll auch als Grundlage für andere Institutionen dienen, die ähnliche Initiativen unterstützen möchten.
Der Wandel der Mobilität von Fahrzeugen mit Verbrennungsmotoren hin zur Elektromobilität schreitet erfolgreich voran. Neben der Entwicklung der entsprechenden Fahrzeuge bedarf es auch der Schaffung einer Infrastruktur zum Laden dieser Fahrzeuge. Während es für Ladeleistungen bis 500 kW bereits eine Infrastruktur gibt, befindet sich diese für höhere Ladeleistungen noch in der Entwicklung. Diese ist kritisch, um auch elektrifizierte LKWs mit hohen Batteriekapazitäten schnell laden zu können. Im Rahmen dieser Arbeit werden sicherheitsrelevante Komponenten für eine Megawatt-Ladestation entwickelt.
Zu Beginn der Arbeit lag ein elektrotechnisches Konzept für die Ladestation bereits vor und die Entwicklung von elektronischen Komponenten hatte begonnen. Aufbauend darauf ist das Ziel dieser Arbeit zum einen, die Schutzabschaltung, mittels derer die Ladestation sicher gestartet und gestoppt werden kann, über eine logische Verknüpfung aller Bauteile in einer Reihenschaltung zu realisieren. Die Entwicklung einer Wasserkühlung für eine Reihe von leistungselektronischen Wandlern, durch die die Verlustleistung in Form von Wärme abgeführt werden soll, stellt das zweite Ziel dieser Arbeit dar.
Begonnen wurde mit der Auslegung der Bauteile, die für die Sicherheitsschaltung benötigt werden. Daraufhin erfolgte die Entwicklung einer elektronischen Schaltung, die in jede Hauptkomponente integriert wird, um eine Verknüpfung aller Komponenten zu realisieren. Der genaue Funktionsablauf wurde festgelegt, sodass die Projektpartner ihre Steuerplatinen entsprechend auslegen können. Schließlich wurden mittels einer FMEA potenzielle Fehlerursachen detektiert und untersucht.
Für die Wasserkühlung wurden zunächst die thermodynamischen Grundlagen zur Wärmeübertragung erarbeitet. Anhand dieser theoretischen Grundlagen erfolgten die Berechnung und Auswahl der Komponenten. Mit einer abschließenden Messreihe konnten die Berechnungen verifiziert werden.
Durch diese Arbeit konnten die für die sicherheitsrelevanten Funktionen benötigten Komponenten erfolgreich bestimmt werden. Aufbauend auf den Ergebnissen dieser Arbeit können die Bauteile beschafft und zusammengebaut werden.
In the contemporary retail environment, the extraction of price information from promotional brochures is labor-intensive and time-consuming. This thesis addresses this challenge by developing and evaluating an automated system to extract prices, crossed-out prices, and discounts from images. The proposed system aims to enhance the data acquisition process’s efficiency and accuracy, thus enabling timely and precise information retrieval while reducing manual effort. The research begins with a comprehensive review of existing methods for text recognition and extraction, highlighting the strengths and weaknesses of various approaches. Based on these insights, several models, including Parseq, DTrOCR, and CLIP4STR, are compared to identify the most effective solution for the task. The CLIP4STR model, leveraging a dual encoder-decoder architecture that integrates visual and cross-modal branches, is found to be particularly well-suited for recognizing and extracting prices from complex visual contexts in promotional images. Experiments are conducted to evaluate the performance of these models using a dataset comprising promotional images from five different retailers. The CLIP4STR model demonstrates superior performance, achieving high accuracy in extracting price information. Additionally, the system’s robustness is validated through various test scenarios, including handling discounts and crossed-out prices. The results of this thesis underscore the potential of applied artificial intelligence to transform retail data processing. By automating price extraction, businesses can significantly improve their data collection processes, leading to more informed decision-making and resource allocation. Future work will focus on refining the model, expanding the dataset, and integrating the system into real-world operational settings to further enhance its applicability and performance. This research contributes to the field of retail data processing by providing a scalable and efficient solution for price information detection, laying a strong foundation for future advancements in automated data extraction systems.
Ziel dieser Arbeit ist es zu erforschen, welche technologischen Innovationen, die der Europa-Park in den Freizeitpark-Alltag integriert hat, sich bei den Besuchern etabliert haben und welche Produkte noch genauer evaluiert werden sollen. Mit Hilfe einer Online Umfrage wurde untersucht, welche technologischen Innovationen bei den Gästen bekannt sind und welchen Einfluss diese Technologien auf die Gäste haben und ob diese einen Einfluss auf das Besucheraufkommen haben. Mittels Personas und einer Customer Journey werden die Umfrageergebnisse zusammengefasst und spiegeln die Gedanken und Wünsche der Gäste des Europa-Park wider.
Thematisch befasst sich diese Arbeit mit der Implementierung von Building Information Modeling (BIM) in einem TGA-Planungsbüro. Dabei widmet sie sich folgender Forschungsfrage: Mit welchen Maßnahmen kann in einem TGA-Planungsbüro der Grundstein für die erfolgreiche Implementierung der BIM-Methodik gelegt werden?
Zur Beantwortung dieser Frage wurde zunächst eine umfassende Implementierungsstrategie entwickelt, die speziell auf die Anforderungen eines TGA-Planungsbüros zugeschnitten ist. Diese Strategie wurde anschließend im Planungsbüro e-con TGA-Ingenieure GmbH validiert. Im Fokus stand dabei die Planungsvorbereitung sowie die ersten drei Leistungsphasen. Die Implementierungsstrategie umfasste die Einführung neuer Prozessschritte, Dokumente sowie Softwareprodukte, die anhand eines Pilotprojekts mit der Planung einer Energiezentrale in der Praxis angewandt wurden.
Das Ergebnis zeigt, dass die Implementierung der BIM-Methodik erfolgreich druchgeführt wurde. Die Praxisanwendung im Pilotprojekt bestätigte eine optimierte und einheitliche Projektabwicklung mit hoher Qualität, verbesserter Zeiteffizienz, geordneter Dateiverwaltung und optimalem Aufgabenmanagement durch eine digitale Zusammenarbeit.
Die entwickelten Maßnahmen und die Implementierungsstrategie sind nicht nur theoretisch fundiert, sondern auch praktisch anwendbar. Sie legen den Grundstein für eine langfristige Integration der BIM-Methodik in das TGA-Planungsbüro. Die erfolgreiche Implementierung in den ersten drei Leistungsphasen bietet eine solide Basis für zukünftige Projekte und zeigt, dass durch strukturierte Planung und gezielte Maßnahmen eine effiziente und qualitativ hochwertige Projektabwicklung möglich ist.
Finite-Elemente Simulation der Programmierung und Aktivierung von magnetresponsiven Materialien
(2024)
Diese Seminararbeit handelt von der Programmierung und Aktivierung von magnetresponsiven Materialien mithilfe des Finite-Elemente Programms COMSOL Multiphysics® mit dem Modul magnetic fields no currents. Es werden die grundlegenden Gleichungen der magnetischen Feldtheorie aufgebaut, ohne Bezug auf einen Strom I als Ursache für das Magnetfeld zu nehmen. Des Weiteren werden einfache Simulationsmodelle vorgestellt, bei denen die Magnetisierungsmodelle relative Permeabilität, Magnetisierung und Jiles-Atherton verwendet werden. Dabei wird auf ein durch eine Spule induziertes Magnetfeld in dieser Arbeit verzichtet, stattdessen ist die Vorgabe des magnetischen Skalarpotentials Φ gewählt worden, um ein homogenes magnetisches Feld, wie es in einer unendlich langen Spule mit unendlich vielen Windungen vorliegen würde, nachzubilden. Für die entstandenen Simulationsmodelle werden analytische Vergleichsrechnungen durchgeführt, sofern es die Komplexität der Modelle zulässt. Dabei soll eingeordnet werden, ob eine Umsetzung des Verhaltens von 4D-Printing Objekten im Modul magnetic fields no currents, im Hinblick auf die „Programmierung“ also das Magnetisieren, sowie die „Aktivierung“ mit Vorgabe des magnetischen Skalarpotentials in der zweidimensionalen Simulation gelingen kann.
Wireless systems continue to rapidly gain popularity. This is extremely true for data networks in the local and personal area, which are called WLAN and WPAN, respectively. However, most of those systems are working in the license-free industrial scientific medical (ISM) frequency bands, where neither resource planning nor bandwidth allocation can be guaranteed. To date, the most widespread systems in the 2.4 GHz ISM band are IEEE802.11 as stated in IEEE Std. 802-11 (1997) and Bluetooth, with ZigBee based in IEEE Std. 802.15.4 (2003) and IEEE802.15.4 as upcoming standards for short range wireless networks. In this paper we examine the mutual effects of these different communication standards. Measurements are performed with real-life equipment, in order to quantify coexistence issues.