Refine
Year of publication
Document Type
- Bachelor Thesis (596) (remove)
Has Fulltext
- yes (596)
Is part of the Bibliography
- no (596)
Keywords
- Marketing (25)
- Biomechanik (15)
- IT-Sicherheit (14)
- Webentwicklung (14)
- JavaScript (13)
- Social Media (11)
- Internet der Dinge (10)
- Künstliche Intelligenz (10)
- Informatik (9)
- Medizintechnik (9)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (235)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (130)
- Fakultät Medien (M) (ab 22.04.2021) (108)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (59)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (59)
- Fakultät Wirtschaft (W) (5)
- INES - Institut für nachhaltige Energiesysteme (2)
- IUAS - Institute for Unmanned Aerial Systems (2)
- IBMS - Institute for Advanced Biomechanics and Motion Studies (ab 16.11.2022) (1)
- POIM - Peter Osypka Institute of Medical Engineering (1)
Open Access
- Closed Access (349)
- Closed (129)
- Open Access (118)
- Diamond (9)
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
Modellprädiktive Regelung findet zunehmend Anwendung im industriellen Umfeld. Durch schnellere Computer und optimierte Programmierung ist es heute möglich, rechenintensive Regelalgorithmen in Echtzeit auf Mikrocontrollern zu berechnen. Eine besondere Herausforderung besteht jedoch darin, diese Technologie in der Realität einzusetzen. Weil exakte Kenntnisse über das reale System vorliegen müssen, können geringfügige Modellierungsfehler bei der Prädiktion für lange Prädiktionshorizonte schwerwiegende Folgen haben. Das ist insbesondere der Fall, wenn Systeme instabil sind und zu chaotischem Verhalten neigen.
Diese Arbeit behandelt ein breites Spektrum systemtheoretischer Inhalte und zielt darauf ab, ein reales Furuta-Pendel durch modellprädiktive Regelung in der instabilen Ruhelage zu stabilisieren. Hierfür wird ein mathematisches Modell als Prädiktionsmodell hergeleitet, welches durch verschiedene Systemidentifikationsmethoden spezifiziert und validiert wird. Es werden verschiedene Filter-Techniken wie das Kalman-Filter zur Zustandsschätzung oder das Exponential Moving Average (EMA)-Filter zur Filterung von Sensordaten eingesetzt.
Das Furuta-Pendel ist ein komplexes mechatronisches System. Die Aufgaben dieser Arbeit beschränken sich daher nicht nur auf theoretische Aspekte. Neben der Auslegung elektrischer Bauelemente und Schaltungen werden zusätzliche Sensoren zu einem bestehenden System hinzugefügt und mechanische Anpassungen vorgenommen. Darüber hinaus werden Entscheidungen zur Softwarearchitektur getroffen sowie die gesamte Implementierung auf einem Mikrocontroller durchgeführt.
Trotz intensiver Bemühungen konnte kein Modell gefunden werden, welches die gemessenen Ein- und Ausgangsdaten vergleichbar simulieren kann, sodass es den Anforderungen der modellprädiktiven Regelung entspricht. Stattdessen gelang es während der Systemidentifikationsphase einen Linear Quadratic Regulator (LQR) mit unterlagertem Proportional–Integral (PI) Stromregler als Kaskade zu entwerfen, der sowohl simulativ als auch in der Realität das Pendel stabilisieren kann.
Proteine spielen eine entscheidende Rolle im Stoffwechsel aller Lebewesen. Für die Lebensmittelindustrie sind die Grundbausteine der Proteine, besonders interessant, da sie den Geschmack von Lebensmitteln stark beeinflussen können, oder sich in Form von Supplementen als Nahrungsergänzungsmittel für Sportler eignen. Zur Gewinnung dieser Aminosäuren werden unteranderem Aminopeptidasen verwendet. In dieser Arbeit wurden fünf fungale Aminopeptidasen Pep 1 aus Aspergillus turcosus, Pep 4 aus Aspergillus thermomutatus, Pep 6 aus Coccidioides posadasii C735 delta SOWgp, Pep 7 aus Trichophyton interdigitale H6 und Pep 8 aus Onygena corvina in Pichia pastoris rekombinant exprimiert, mittels Ultrafiltration aufkonzentriert und biochemisch charakterisiert. Die Aminopeptidasen aus Aspergillus turcosus (Pep 1), Aspergillus thermomutatus (Pep 4) und Trichophyton interdigitale H6 (Pep 7) hatten ihr pH-Optimum bei pH 9, während die Aminopeptidasen aus Coccidioides posadasii C735 delta SOWgp (Pep 6) und Onygena corvina (Pep 8) bei pH 8,5 die höchste Aktivität aufwiesen. Die Temperaturoptima lagen bei 60 °C (Pep 1 und Pep 6) und 50 °C (Pep 4, Pep 7 und Pep 8) und alle waren zwischen 45 und 55 °C für 15 Minuten temperaturstabil. Die Aminopeptidasen hatten nach der Deglykosilierung ein Molekulargewicht von 57 (Pep 1), 52 (Pep 4 und Pep 7), 54 (Pep 6) und 53 kDA (Pep 8). Mit Leu-pNA als Substrat zeigten die fungalen Aminopeptidasen maximale spezifische Umsatzgeschwindigkeiten von 357 (Pep 1), 238 (Pep 4), 2000 (Pep 6), 56 (Pep 7) und 476 nkat/g (Pep 8). Pep 1 wurde am stärksten positiv von Bivalenten Ionen wie Mg2+, Co2+, Mn2+ und Ca2+ beeinflusst, in Gegenwart von 0,1 mM Mg2+ konnte eine relative Enzymaktivität von 345 % im Vergleich zum Referenzwert gemessen werden. Bei den anderen Aminopeptidasen konnten inhibitorische Effekte festgestellt werden. Bie allen fungalen Aminopeptidasen bei der Hydrolyse von vorhydrolysiertem Gluten die Freisetzung von Aminogruppen festgestellt werden, somit eignen sich die Aminopeptidasen in Kombination mit Endopeptidasen zur Hydrolyse von Proteingemischen. Bei der Hydrolyse konnte zudem die Freisetzung von Glutamin durch das L-Glutamine/Ammonia Assay Kit (Rapid) von Megazyme nachgewiesen werden.
Die Bachelorarbeit wurde im Rahmen einer Äquivalenz mit der Ingenieurschule INSA Straßburg geschrieben. Zum Thema wurde eine Projektarbeit im Auftrag der Kriminalpolizei mit einer Bearbeitungszeit von drei Semestern. Aufgabenstellung war es, einen Überblick eines Tatorts ohne menschlichen Eingriff zu verschaffen. Noch heute müssen die Polizisten den Tatort betreten, um Beweisspuren zu sammeln. Das Problem hierbei ist, dass dadurch Hinweise fast systematisch verloren gehen.
Mit einem ferngesteuerten Luftschiff sollte diese Aufgabenstellung gemeistert werden. Die Arbeit beschäftigt sich spezifisch mit dem Entwurf eines integrierten Kamerasystems und mit der Implementierung der Elektronik im Gesamtsystem für einen ersten Prototypen. Auf die Konzeptionierung der Fortbewegung und des Flugobjekts wird somit nicht in Detail eingegangen. Diese Aspekte werden bei der Erstellung des Lastenhefts geschildert und bei Berührungspunkten mit dem im Fokus stehenden Themengebiet erklärt.
Auf struktureller Ebene wird wie gefolgt vorgegangen: Die technischen Lösungen werden abgewogen, getestet und progressiv zusammengeführt. Zum Ende der Bearbeitungszeit können ferngesteuert Bilder und Panoramen aufgenommen und der Tatort live mit einem Video-Feedback observiert werden. Die Elektronik wurde, nach Erarbeitung der elektronischen Architektur, mithilfe einer gedruckten Leiterplatte kompakt in der Gondel des Luftschiffs integriert. Mit zahlreichen Optimierungsperspektiven wurde der erste Prototyp fertiggestellt und das Ziel dieser Arbeit erreicht.
Diese Arbeit befasst sich mit dem Entwurf und der Herstellung einer Roboterhandprothese, die amputierten Menschen eine gewisse Mobilität und eine teilweise Nutzung der Hand ermöglichen soll.
Das Projekt konzentriert sich insbesondere auf die Erkennung der vom Benutzer ausgeführten Bewegung und wird die Schritte der Erfassung, der Bewegung der Übertragung und die Erkennung detailliert darstellen.
Im Rahmen des Projekts "Myo-Hand" soll ein Prototyp einer myoelektrischen Handprothese entwickelt werden. Diese Prothese soll für handamputierte Menschen nützlich sein, da sie ihren Komfort und ihre Unabhängigkeit im Alltag verbessert und somit zu ihrer Eingliederung in die Gesellschaft beiträgt.
In dieser Abschlussarbeit werden die gesamte Arbeit, Studien und Realisierungen vorgestellt, die in den letzten zwei Semestern (WS2022 und SS2023) der Mechanik der Prothese durchgeführt wurden.
Nach einer kurzen Vorstellung der Arbeit des letzten Jahres wird ein Überblick über die Idee und die allgemeine Funktionsweise der Prothese gegeben, die verschiedene Komponenten umfasst: Elektronik, Machine-Learning, Steuerung, Wiederverwertbarkeit und Carbon Footprint. Das Lastenheft wird ebenfalls vorgestellt.
Die technologischen Entscheidungen werden näher erläutert: das Design der Teile, die Wahl der Verbindungen und die verwendeten Motoren. In einem zweiten Teil werden die Schritte zur Herstellung des ersten und zweiten Prototyps sowie eine Kritik des Ergebnisses vorgestellt. Weiter werden die Verbesserungen und die Ziele bis Januar 2024 besprochen.
Anschließend werden der Lebenszyklus der Prothese und ihr Carbon Footprint analysiert und mithilfe der Software Ecodesign Studio berechnet.
Diese Arbeit befasst sich mit dem Thema der sogenannten „Advanced-Spike-Technology“. Dabei wird ein fortschrittliches Vorfußdämpfungselement betrachtet, dessen Kompressionssteifigkeit variiert wird. Die Technik soll die Sprint-Spikes maßgeblich verbessern. Die Arbeit untersucht, ob die Variation der Kompressionssteifig-keit der Sprint-Spikes einen Einfluss auf die sportliche Leistungsfähigkeit beim Sprinten hat. Es werden drei Prototypen von Adidas getestet, die jeweils unterschiedliche Steifigkeiten im Vorfußbereich aufweisen (hart, mittel und weich). Das Ziel besteht darin, die Auswirkungen der Variation der Kompressionssteifigkeit auf den Start bis 10 Meter und den Sprint auf etwa 50 bis 60 Meter zu untersuchen. Dabei werden die Geschwindigkeit und die Beschleunigung des Körperschwerpunktes in Matlab R2023b berechnet. Anhand der Ergebnisse wird die Fragestellung beantwortet. Zu Beginn werden folgende Hypothesen aufgestellt: Die Variation der Kompressionssteifigkeit hat keinen signifikanten Einfluss auf die sportliche Leistungsfähigkeit. Allerdings können individuelle Präferenzen der Sportler*innen in Bezug auf die Steifigkeit der Spikes berücksichtigt werden.
Die Untersuchung wird am Advanced Motion Lab in Offenburg (AMLO) der Hochschule Offenburg durchgeführt. Die Messung erfolgt auf einer Tartanbahn, wobei Kraftmessplatten im Bodenbelag integriert sind, um die Bodenreaktionskräfte beim Fußaussatz zu messen. Zusätzlich werden acht High-Speed-Videokameras eingesetzt, um die Sprintbewegung mittels markerlosem 3D-Motion-Capturing aufzuzeichnen. Es werden 30 Proband*innen getestet, davon 20 männliche und 10 weibliche Teilnehmer*innen, die eine saisonale persönliche Bestleistung von 12,5 Sekunden beziehungsweise 13,5 Sekunden über 100 Meter besitzen. Außerdem dürfen die Proband*innen in den letzten sechs Monaten keine kardiovaskulären Einschränkungen oder Verletzungen aufgewiesen haben. Nach Unterzeichnung der Einverständniserklärung und einem kurzen individuellen Warm-up wird die Kalibrierung der verwendeten Software beziehungsweise Messgeräte durchgeführt. Anschließend beginnt die eigentliche Messung. Pro Person werden jeweils mindestens zwei gültige Starts und ein gültiger maximaler Sprint pro Schuhbedingung durchgeführt. Die Pausengestaltung zwischen den einzelnen Messungen wird individuell gewählt, um Ermüdung zu vermeiden. Nach der Durchführung erfolgt die Auswertung und Verarbeitung der Daten durch das Programm Theia Markerless.
Zu Beginn wird die Berechnung in Matlab realisiert. Der erste allgemeine Schritt in der Berechnung des Startes und Sprints ist identisch. Die verarbeiteten Daten aus Theia werden unter Einsatz einer Funktion eingelesen. Diese Funktion durchläuft eine Ordnerstruktur, die zuvor manuell erstellt werden muss und die die einzelnen Daten der Proband*innen beinhaltet.
Um den Start berechnen zu können, müssen zunächst die Daten der vertikalen Bodenreaktionskraft umgerechnet werden. Daraufhin folgt eine Filterung der vertikalen Bodenreaktionskraft mit einer Schwelle von -3 Newton, da um die Nulllinie ein Rauschen vorliegen kann. Die Daten unterhalb dieser Schwelle entsprechen denen des Fußaufsatzes der Kraftmessplatte. Im Anschluss werden die Indizes unterhalb der Schwelle identifiziert. Auch die Daten des Körperschwerpunktes müssen gefiltert werden, da ungültige Datenauswertungen in Theia für den Wert des Körperschwerpunktes -999999 annehmen. Um diese Daten zu eliminieren, wird eine Schwelle von -100 eingeführt. Daraufhin folgt die Zuordnung der Indizes der Bodenreaktionskraft zu den Werten des Körperschwerpunktes und die Extraktion der Daten des Körperschwerpunktes. Im nächsten Schritt werden die Geschwindigkeit und die Beschleunigung anhand der internen Funktion „gradient“ berechnet. Weiterführend folgt die Berechnung der minimalen, mittleren und maximalen Werte der Geschwindigkeit und Beschleunigung. Letztendlich werden die Parameter als Excel-Datei exportiert, um eine statistische Auswertung durchzuführen.
Der erste Schritt zur Berechnung des maximalen Sprints besteht darin, den Körperschwerpunkt bei der Startfilterung zu identifizieren. Hierbei wird erneut die Schwelle von -100 verwendet und es werden die lokalen Maxima (Höhepunkte) in der Sagittalebene des Körperschwerpunkts identifiziert. Das Ziel ist es, die Daten zwischen zwei Maxima zu extrahieren, was genau einem Schritt entspricht. Es wird eine Mindestsuchhöhe für die Maxima festgelegt. Der Code unterscheidet zwischen den Fällen, in denen ein, zwei, drei oder vier und mehr Maxima gefunden werden. Des Weiteren werden verschiedene Abfragen und Unterscheidungen durchgeführt, um die beiden besten Maxima zu ermitteln. Danach werden die Indizes im Intervall von Maxima zu Maxima identifiziert und dem Körperschwerpunkt zugeordnet. Im Folgenden werden die Geschwindigkeitsberechnungen mithilfe der Funktion „gradient“ sowie die minimalen, mittleren und maximalen Geschwindigkeiten dargestellt. Abschließend erfolgt der Export der Parameter für die statistische Auswertung.
Nachfolgend wird die Leistungsfähigkeit der erstellten Programme in Matlab manuell überprüft. Beim Start und Sprint ergibt sich eine Genauigkeit von 98,89 und 96,66 %. Dies ermöglicht eine präzise statistische Auswertung, die im Programm „Jasp“ durchgeführt wird. Es wird eine einfaktorielle Varianzanalyse (ANOVA) mit Messwiederholung angewendet, wobei einige Voraussetzungen erfüllt sein müssen. Es lässt sich feststellen, dass die Variation der Kompressionssteifigkeit keinen signifikanten Einfluss auf die Geschwindigkeit oder Beschleunigung hat. Beim maximalen Sprint ist der Einfluss größer als beim Start, jedoch nicht signifikant. Diese Ergebnisse bestätigen die Hypothese.
Das Ziel der vorliegenden Arbeit ist es, Strategien und Ratschläge für die Kosmetikindustrie zu erarbeiten, die es ermöglichen, Influencer Marketing erfolgreich in ihre Marketingkommunikationsstrategie zu integrieren, um die Generation Z effektiv anzusprechen. Dazu werden folgende Leitfragen in dieser Arbeit behandelt:
Was ist Influencer-Marketing und welche Herausforderungen, Chancen und Risiken sind mit Influencer-Marketing verbunden?
Welche Bedeutung hat die Generation Z als Zielgruppe?
Wie gestaltet sich das Kaufverhalten der Generation Z und wie kann es beeinflusst werden?
Welche erfolgreichen Beispiele und erfolgsversprechenden Aspekte gibt es im Influencer-Marketing?
Wie kann Influencer-Marketing in die Marketingkommunikationsstrategie der Kosmetikbranche integriert werden, um die Generation Z erfolgreich anzusprechen?
Basierend auf den Erkenntnissen einer quantitativen Online-Befragung, die an der Medienfakultät der Hochschule Offenburg durchgeführt wurde, lassen sich Implikationen für Unternehmen in der Kosmetikindustrie ableiten. Die Forschungsergebnisse bieten Ansätze dafür, wie die Kosmetikindustrie die Social-Media-Plattformen Instagram und TikTok nutzen kann, um die Generation Z effektiv zu erreichen und ihre Kaufentscheidungen zu beeinflussen.
Die Beschleunigungsleistung ist ein großer limitierender Faktor beim Sprinten. Es stellt sich die Frage, mit welcher Technik diese verbessert werden kann.
Das Ziel der vorliegenden Arbeit ist es, zu klären, ob die Unterschenkelkinematik einen Einfluss auf die Beschleunigungsleistung beim Sprintstart hat. Dafür wurden die Annahmen von Alt et al. (2022) über Schlüsselpositionen des Unterschenkels herangezogen und überprüft. Die gestellte Forschungsfrage lautet: Können die Annahmen von Alt et al. (2022) in die Praxis übertragen und angewendet werden?
Um die Forschungsfrage zu beantworten, wurde jeweils der erste Schritt nach dem Sprintstart aus einem Startblock analysiert. Hierfür wurden ein markerbasiertes 3D Motion Capture System und im Boden integrierte Kraftmessplatten verwendet. Insgesamt 30 Proband:innen haben jeweils sechs Starts ausgeführt. Die Auswertung wurde mit Hilfe von MATLAB Skripten durchgeführt. Mit linearen und quadratischen Regressionsberechnungen wurden die Zusammenhänge zwischen den Schlüsselpositionen des Unterschenkels und der Beschleunigungsleistung analysiert.
Die Ergebnisse zeigen, dass keine allgemeingültigen Aussagen über eine erfolgreiche Unterschenkelkinematik getroffen werden können. Werden die Proband:innen aber individuell betrachtet, ist teilweise zu erkennen, dass die Beschleunigungsleistung mit der Unterschenkelkinematik zusammenhängt.
Weiterführende Forschung in diesem Bereich könnte individueller und auf Trainingsanweisungen mit Technikverbesserung ausgerichtet sein.
Diese Arbeit widmet sich dem Anleger der aktuellen Maschinengeneration der HEIDELBERG Speedmaster XL 106, diese erreicht eine maximale Druckgeschwindigkeit von 21 000 bedruckten Bögen pro Stunde (Bg/h) und stößt bei einer Bedruckstoffdicke von 0,6 mm an ihre technischen Grenzen. Ein vollautomatisierter Auto-Non-Stopp-Wechsel (ANS-Wechsel) zur Gewährleistung einer kontinuierlichen Bedruckstoffzufuhr an der Druckmaschine ist bei maximaler Druckgeschwindigkeit von 21 000 Bg/h oberhalb dieser Bedruckstoffdicke nicht mehr möglich. Es besteht die Forderung nach höheren Bedruckstoffdicken bei unverändert maximaler Druckgeschwindigkeit von 21 000 Bg/h und gleichzeitiger Gewährleistung eines sicheren ANS-Wechselvorgangs.
Im Zuge dieser Arbeit wird durch eine Analyse zahlreicher Kundenmaschinen eine präzise Zielsetzung definiert. Eine eingehende Untersuchung des vollautomatischen ANS-Wechselvorgangs zur kontinuierlichen Bedruckstoffversorgung der Druckmaschine folgt. Dieser Wechselprozess wird im Laufe der Arbeit in seine Einflussfaktoren aufgeschlüsselt, die anschließend schrittweise und methodisch bezüglich der Zielsetzung definiert werden. Dabei wird der technische Grenzbereich des aktuellen Systems identifiziert und erweitert. Als Ergebnis gilt es, die betroffenen Komponenten erneut auf ihre Auslegung zu überprüfen, da sie aufgrund dieses erweiterten Grenzbereichs möglicherweise höheren Belastungen ausgesetzt sind. Die Untersuchung zeigt, dass es Situationen gibt, in denen sicherheitsrelevante Komponenten unzulässig stark beansprucht werden. Daher werden Lösungskonzepte vorgestellt, um die geforderten technischen Grenzen und sicherheitstechnischen Anforderungen zu erfüllen.
Entwicklung eines Ansatzes zur Validierung von Beckenmodellen in Anlehnung an die ASME V&V-40
(2024)
Die Relevanz von In-silico Studien in der Medizin gewinnt für Ingenieure, Mediziner und Wissenschaftler stetig an Wert. In-silico Studien helfen dabei, kostspielige und zeitaufwendige Kadaverstudien sowie langjährige Ergebnisstudien einzugrenzen. Zum Thema Becken herrschen schon einige Berechnungsmodelle vor, jedoch nicht in dieser Ausführung und in Kombination mit einem Abgleich zu einer Kadaverstudie mit den gleichen Randbedingungen. Ein sehr wichtiger weiterer Bestandteil ist die Verifizierung und Validierung eines solchen Rechenmodells. Da kein Versuch im eigentlichen Raum, dem Körper, sondern in einer Simulationsumgebung stattfindet, muss das Modell verifiziert und validiert werden, um auf gewisse Weise die Glaubwürdigkeit des Modells darzulegen. In dieser Arbeit wurden verschiedene Ansätze zur bestmöglichen Abbildung der Kadaverstudie entwickelt. Die beste Übereinstimmung kam mit dem Modellansatz 3 zustande. Der Modellansatz 3 berücksichtigt die Unterteilung von der Spongiosa zur Kortikalis, die Lendenwirbel L3-L5, das Sacrum und die Ilia zuzüglich der Bandscheiben und der Symphysis pubica mit einem hyperelastischen Materialmodell, alle relevanten Ligamente sowie die verschiedenen Materialeigenschaften für jede einzelne Kortikalis, Spongiosa und der Weichteile aus der Kadaverstudie. Definiert wurde der Modellansatz 3 über die kinematisch nähere Beschreibung der Z-Achsen Sperrung, einer veränderten Krafteinleitung sowie einer Feinjustierung der Ligamenten Steifigkeiten. Aus diesem Modellansatz ging vor allem eine physiologische Kinematik wie auch eine überaus gute Konvergenz an den Markern der Anterior superior iliac spine rechts und links, Sacrum und L5 hervor. Die Verifizierung und Validierung des Rechenmodells wurde anhand der ASME V&V-40 geschaffen. Die dafür entscheidende Question of Interest lautet: Liegen die Stabilität, Belastungen und Verformungen von patientenspezifischen Frakturversorgungen unter standardisierten Lasten? Daraus ergaben sich drei Context of Use, von denen der erste (Context of Use 1: Deformation) im Fokus dieser Arbeit lag. Die Entscheidungskonsequenz sowie das Modellrisiko für den Context of Use und das Modell wurde als Low/Medium eingestuft. Mit Hilfe dieser Einstufung konnten die Model Credibility Factor Goals für das Modell definiert werden. Diese gaben schlussendlich den Grad der Validierung für das bestehende Modell vor.
Die Videospielindustrie liefert zahlreiche Spiele, die auf literarischen Werken basieren. Im Vergleich zu anderen Medien werden Videospiele in der Umsetzung von literarischen Werken bisher nur unzureichend erforscht. Daher ist es sinnvoll zu untersuchen, wie Videospiele literarische Vorlagen umsetzen.
Ziel der Arbeit ist es, die verschiedenen Möglichkeiten der Umsetzung literarischer Werke in Videospiele zu ermitteln. Die Forschungsfrage lautet dabei: "Welche verschiedenen Ansätze gibt es, literarische Vorlagen in Videospiele umzusetzen?
Um diese Frage zu beantworten, wurde eine Fallstudie zu vier verschiedenen Videospielen, die auf literarischen Vorlagen basieren, durchgeführt. Dazu wurde eine Kriterienliste mit insgesamt vier Kriterien untersucht, analysiert und bewertet. Die Kriterien beziehen sich hierbei auf das Storytelling, das Worldbuilding, das Character Design und die Game Mechanics in Bezug auf die literarische Vorlage. Aus den einzelnen Ergebnissen der Kriterien wurden anschließend die Ergebnisse des jeweiligen Spiels ermittelt.
Die Ergebnisse der Fallstudie zeigen, dass drei verschiedene Ansätze zur Umsetzung vorliegen. Es handelt sich um Neuinterpretation, um eine Mischform aus Interpretation und Adaption sowie um eine grundlegende Adaption.
Um weitere Erkenntnisse über die verschiedenen Ansätze und mögliche Unterschiede zu erhalten, bedarf es weiterer Forschungen mit anderen auf literarischen Werken basierenden Videospielen.
In einer digitalisierten Welt wird das Smartphone zunehmend multifunktional eingesetzt. Auch Anwendungen für eine eindeutige Identifikation wie bei Banking-Apps sind bereits verfügbar, weshalb das Smartphone auch als Ersatz des klassischen Schlüssels genutzt werden kann.
Ziel der Thesis ist es, genau das unter Beweis zu stellen. Im Rahmen der Arbeit soll eine mobile Applikation in Android Studio für ein Google Pixel 7 Pro entwickelt werden, die mit einem Türschloss interagieren und dieses ansteuern kann. Eine Besonderheit dieses Systems besteht in der präzisen Positionsbestimmung mithilfe der Ultra-Wideband Technologie. Diese wird genutzt, um die Position des Smartphones zum Türschloss genau zu bestimmen und festzulegen, ab welcher Position das Schloss auf die Interaktion des Smartphones reagieren soll.
Die im Rahmen der Thesis entwickelte App hat das Ziel erfüllt. Sie fungiert als Demo-App für ein funktionierendes Tür-System, bei dem die Positionsbestimmung mit Ultra-Wideband umgesetzt wurde. Ebenfalls wurde der Datenaustausch mit mehreren Sicherheitsmechanismen wie einem AES-Algorithmus, einem Running Counter oder einem Hash-Wert umgesetzt.
Dennoch muss erwähnt werden, dass das Ziel, den Datenaustausch ebenfalls mit Ultra-Wideband zu implementieren, nicht gelungen ist. Hierfür wird in der bestehenden App Bluetooth Low Energy genutzt.
Im Laufe der Arbeit hat sich gezeigt, dass Ultra-Wideband im Zusammenhang mit dem angedachten Tür-System zur Positionsbestimmung geeignet ist. Es konnte eine hohe Präzision mit einer Aktualisierungsrate von mehreren Ranging-Ergebnissen pro Sekunde erreicht werden.
Allerdings ist ein abgeschlossenes Konzept, das ausschließlich auf Ultra-Wideband basiert, bislang nicht möglich. Ebenfalls erschweren fehlende Standards die Implementierung. Hier mangelt es an einer Vereinheitlichung.
Auch besteht Potenzial zur Entwicklung von Konzepten für die Umsetzung des Datenaustauschs über Ultra-Wideband in mobilen Applikationen. Somit wäre es möglich, Ultra-Wideband als alleinige Technologie für solche Systeme zu nutzen.
Abschließend zeigt diese Arbeit jedoch, dass Positionsbestimmung mit Ultra-Wideband im in der Thesis untersuchten Konzept möglich ist und die Technologie für eine Indoorpositionierung in Kombination mit einem smarten Türschloss genutzt werden kann. Die herausragende Präzision in Echtzeit kann in diesem Prototyp verdeutlicht werden und als ein funktionierendes System als Grundlage für zukünftige Arbeiten genutzt werden.
Entwicklung eines unabhängigen Systems zur Verstellung schiebergesteuerter Werkzeuge im Prozess
(2024)
Die Aufgabenstellung der Arbeit beinhaltete das Ausarbeiten eines unabhängigen Antriebssystems für Werkzeuge mit verstellbaren Schneiden. Hierbei bestand der Antrieb der Werkzeuge bisher aus einem rein mechanischen Anstriebsflansch. Dieser hat durch eine Drehspindel die rotatorische Bewegung der Maschinenspindel zu einer axialen Bewegung der Zugstange umgewandelt. Da die mechanische Drehspindel nicht in jeder Maschinenspindel vorhanden war, konnten die Werkzeuge von LMT Kieninger nur beschränkt eingesetzt werden. Aus diesem Grund sollte ein Antriebssystem entwickelt werden, welches auf jedem Bearbeitungszentrum unabhängig von der Maschinenspindeltechnologie eingesetzt werden konnte.
Für die Entwicklung des unabhängigen Antriebsflansches wurde zunächst eine Marktanalyse durchgeführt. Diese vergleichte bestehende Lösungsansätze auf dem Markt miteinander und untersuchte, welche davon für ein eigenes Lösungskonzept infrage kam. Hierbei wurde insbesondere der Antrieb, der die Bewegung erzeugen sollte, die Übergabe des Steuersignals und die Energieversorgung betrachtet. Ein vielversprechendes Lösungskonzept, das den vorliegenden Anforderungen entsprach, war eine elektrische Antriebsvariante mit einer Akkueinheit und einer Funksteuerung.
Um die elektronischen Komponenten in den bestehenden Antriebsflansch zu integrieren, mussten die Prozessparameter bestimmt werden. Dafür wurde ein Werkzeug als Referenz verwendet, das zum Ausspindeln der Laufflächen von Zylinderbuchsen verwendet wurde. In diesem Werkzeug befanden sich unterschiedliche Bauteile, welche den Mechanismus der Schneidenverschleißkompensation ermöglichten und die Drehbewegung des Antriebsflansches in den Verstellweg der Schneiden umsetzte. Unter Berücksichtigung der Bauteile sowie der vorhandenen Reibung und Verluste ergab sich ein Drehmoment, welches benötigt wurde, um die Schneiden zu verstellen. Nach der rechnerischen Ermittlung des benötigten Drehmoments konnte ein Kompaktantrieb von Maxon vorgeschlagen werden. Dies erfolgte unter Berücksichtigung der Anforderungen an den verfügbaren Bauraum, die Energieversorgung und die Akkueinheit. Dieser Kompaktantrieb bestand aus einem Motor, einem Planetenradgetriebe, einem Hall-Sensor zur Positionsbestimmung sowie einer Steuereinheit.
Die Konstruktion mit den einzelnen Bauteilen konnte nun erstellt werden. Der Konstruktionsprozess wurde durch die schrittweise und aufbauende Integration der Lösungen für die verschiedenen Funktionen des Bauteils systematisch und methodisch umgesetzt. Dabei erfolgte die Umsetzung in einem Modell, wobei jeder Schritt auf den vorherigen Überlegungen und Entscheidungen basierte. Der erste Schritt bestand darin, den Kompaktantrieb, der die Hauptfunktion darstellt, in den Grundkörper mit der HSK-Aufnahme zu integrieren. Anschließend wurden die Nebenfunktionen wie die axiale Lagerung, die Kühlmitteldurchführung und die Anpassung der Flanschgeometrie zur Aufnahme des Werkzeuges implementiert. Im nächsten Schritt wurden die Steuerung und die Akkueinheit als Blackbox positioniert sowie die Kabelkanäle in den Grundkörper konstruiert.
Abschließend wurden für die eigens entwickelten Bauteile technische Zeichnungen erstellt. Auf ihnen wurden alle relevanten technischen Merkmale hinterlegt, die für die Fertigung der Bauteile benötigt wurden. Hierzu gehörten beispielsweise Angaben zum Werkstoff, Toleranzen, Passungen, Oberflächenangaben sowie Form- und Lagetoleranzen. Zudem wurde eine Baugruppenzeichnung erstellt, die die Anordnung der einzelnen Bauteile mit ihrer Stückzahl und Positionsnummer in einer Stückliste klar und deutlich erkennbar machte.
Damit wurde die Neuentwicklung eines unabhängigen Antriebsflansches abgeschlossen und bot einen Einblick in die mögliche Integration eines mechatronischen Antriebs in den Antriebsflansch.
Diese Bachelorarbeit hat sich ausführlich mit der Erstellung von Sicherheitskonzepten und der damit einhergehenden Erstellung einer Risikobeurteilung beschäftigt.
Dabei wurde festgestellt, dass eine besonders große Gefahr des Werkzeugwechselsystems durch die Gefährdung des herabfallenden Werkzeuges entsteht. Zum einen kann dies durch das Aufkommen eines Energie- bzw. Druckverlust entstehen. Dieses Risko wird durch den Einsatz einer bewährten Feder und einer selbsthemmenden Keilverbindung zwischen Verriegelungskolben und -bolzen vermindert.
Zum anderen kann durch Steuerungs- oder Programmierfehler das Werkzeugwechselsystem an nicht vorgesehener Stelle geöffnet werden und sich Fest- und Losteil trennen. Die dadurch entstehende Gefahr eines Herabfallenden Werkzeuges wird von einer steuerungsabhängigen Schutzmaßnahme verhindert, welche über eine genaue Positionsabfrage vor dem gefahrbringenden Szenario schützen sollen.
Hierbei sind verschiedene Konzepte ausgearbeitet worden, welche das von der Risikobeurteilung geforderte erforderliche PLr d erfüllen. Für die Konzepte wurden verschiedene berührungslose Sensoren und Sicherheitsschalter ausgesucht und ein Ventilschaltplan für die Erfüllung der Sicherheitsfunktion erstellt.
Auch andere Gefährdungen werden mithilfe der Anwendung von Normen, den Einsatz von inhärent sicheren Konstruktionen, technische/ergänzende Schutzmaßnahme oder Benutzerinformationen ausreichend vermindert.
Mithilfe einer weiteren Abschlussarbeit werden diese Sicherheitskonzepte und die damit einhergehende Risikobeurteilung überprüft und validiert. Hierfür wird die Norm DIN EN ISO 13849-2 verwendet.
In der Marketingstrategie von Event- und Club-Veranstaltern ist eine zielgerichtete Ansprache der Kundschaft unerlässlich, um eine nachhaltige Beziehung zur Zielgruppe aufzubauen und so den geschäftlichen Erfolg zu sichern. Während erhebliche Investitionen in herkömmliche Werbekanäle wie soziale Medien fließen, bleiben diese Plattformen oft ohne Garantie, dass die Werbemittel die relevanten Nutzer erreichen. Die White-Label-App beabsichtigt dieses Problem zu beheben, indem es Veranstaltern ermöglicht wird, eine engagierte Community direkt über die mobile Plattform aufzubauen und mit dieser zielgerichtet zu kommunizieren.
Das Kernziel der Bachelorarbeit ist die prototypische Entwicklung dieser Smartphone-App als individualisierbare und modulare White-Label-Lösung, die präzise auf die Bedürfnisse von Veranstaltern und deren Kunden zugeschnitten ist. Hierbei ist die zentrale Forschungsfrage: Wie kann eine modulare und individualisierbare White-Label-App effizient implementiert werden?
Zur Beantwortung dieser Frage werden auf Basis einer Wettbewerbsanalyse und der gründlichen Bewertung aktueller Best Practices im Bereich der App-Entwicklung verschiedene Aspekte untersucht. Hierzu zählen die Identifikation von möglichen Marktlücken und -chancen, die Eignung verschiedener Technologien und Entwurfsmuster, die Überwindung spezifischer Herausforderungen bei der Implementierung einer White-Label-App und die performante Integration der API.
Um einen praxisorientierten Ansatz zu gewährleisten, werden darüber hinaus verschiedene Kernfunktionalitäten der App beispielhaft implementiert. Dazu gehören Features wie eine Eventübersicht mit Informationen zu Veranstaltungen und ein Ticketingsystem mit Reservierungsmöglichkeiten.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
Implementation and Evaluation of an Assisting Fuzzer Harness Generation Tool for AUTOSAR Code
(2024)
The digitalization in vehicles tends to add more connectivity such as over-the-air (OTA) updates. To achieve this digitization, each ECU (Electronic Control Unit) becomes smarter and needs to support more and more different externally available protocols such as TLS, which increases the attack surface for attackers. To ensure the security of a vehicle, fuzzing has proven to be an effective method to discover memory-related security vulnerabilities. Fuzzing the software run- ning on a ECU is not an easy task and requires a harness written by a human. The author needs a deep understanding of the specific service and protocol, which is time consuming. To reduce the time needed by a harness author, this thesis aims to develop FuzzAUTO, the first assistant harness generation tool targeting the AUTOSAR (AUTomotive Open System ARchitecture) BSW (Basic Software) to support manual harness generation.
KI-gestützte Cyberangriffe
(2023)
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des Deep Learning haben in den letzten Jahren enorme Fortschritte gemacht. Insbesondere Technologien wie Large Language Models (LLMs) machen KI-Technologie innerhalb kurzer Zeit zugänglich für die Allgemeinheit. Die Generierung von Text, Bild und Sprache durch künstliche Intelligenz erzielt innerhalb kurzer Zeit gute Ergebnisse. Parallel zu dieser Entwicklung hat die Cyberkriminalität in den vergangenen Jahren im Bereich der KI zugenommen. Cyberangriffe verursachen im Zuge der Digitalisierung größeren Schaden und Angriffe entwickeln sich kontinuierlich weiter, um bestehende Schutzmaßnahmen zu umgehen.
Diese Arbeit bietet eine Einführung in das Themengebiet KI-gestützte Cyberangriffe. Sie präsentiert aktuelle KI-gestützte Cyberangriffsmodelle und analysiert, inwiefern diese für Anfänger*innen in der Cyberkriminalität zugänglich sind.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.
Diese Arbeit befasst sich mit der Entwicklung eines umfassenden Konzepts zur Umsetzung des Lieferkettensorgfaltspflichtengesetzes (LkSG), welches ab dem 01.01.2024 für Unternehmen mit mehr als 1.000 Beschäftigten in Kraft tritt.
Die Bachelorarbeit ist in zwei Teile aufgebaut: zum einen den Theorieteil, der die Lieferkette in einem Verkehrsunternehmen und das Lieferkettensorgfaltspflichtengesetz umfasst, um eine Wissensbasis zu schaffen und zum anderen den Hauptteil, bestehend aus der Konzeptionierung. Da das Gesetz bereits im Jahr 2023 für große Unternehmen mit mehr als 3.000 Beschäftigten in Kraft trat, stehen bereits zahlreiche Systeme zur Unterstützung der Umsetzung zur Verfügung. Im Verlauf der Arbeit wurde eine Marktrecherche durchgeführt, bei der die geeignetste Softwarelösung für SWEG identifiziert wird. Um diese Untersuchung effektiv durchzuführen, wurden zwei Softwareauswahl-Tools entwickelt, die bei der Analyse und Bewertung helfen. Zusätzlich zum Software-Lösungsansatz wurde ein alternativer Lösungsansatz erarbeitet, der die eigenständige Handlung im Unternehmen vorsieht. Diese beiden Lösungsansätze werden zum Schluss verglichen, um die Geschäftsführung bei der Entscheidung, welche Version sie schließlich verwenden möchte, zu unterstützen.
Das erarbeitete Konzept bildet auch die Grundlage für die zukünftige Entwicklung und Umsetzung von Gesetzen und Richtlinien im Bereich Menschenrechte und Umweltaspekte. Für die Zukunft werden weitere Gesetze in Kraft treten, beispielsweise die kommende EU-Richtlinie.
Vorhofflimmern ist die häufigste tachykarde Herzrhythmusstörung weltweit. Dabei verliert das Herz seinen normofrequenten Sinusrhythmus und schlägt nicht mehr regelmäßig, sondern zu schnell und unregelmäßig. Vorhofflimmern ist normalerweise keine lebensbedrohliche Herzrhythmusstörung, aber es kann zu einem Schlaganfall führen. Die Ursache dieser Herzrhythmusstörung sind die Kreisende bzw. die fokalen Erregungen im linken Atrium, die hauptsächliche aus einer oder mehreren Pulmonalvenen kommen. Die übliche Therapieverfahren des Vorhofflimmerns ist die Pulmonalvenenisolation.
Diese Bachelorthesis beschäftigt sich daher mit der Modellierung unterschiedlicher linksatrialer Fokus-Modelle und intrakardialer Elektrodenkatheter für die Diagnostik und Terminierung von Vorhofflimmern mittels Pulmonalvenenisolation im Offenburger Herzrhythmusmodell nach Schalk, Krämer und Benke, welches in CST
Studio Suite realisiert wurde.
Zu Beginn wurden die verschiedenen linksatrialen fokalen Flimmerquellen modelliert und daraufhin simuliert. Hierbei wurde jeweils eine Simulation mit linksatrialen fokalen Flimmerquellen, die aus einzelnen, dualen oder allen vier Pulmonalvenen kommen, durchgeführt. Es wurde ebenfalls eine weitere Simulation mit Biosignalen (aus der Realität) erstellt. Mit diesen Simulationen konnte nun der elektrische Erregungsablauf sichtbar gemacht werden. Daraufhin wurden die Katheter für die Diagnostik und für die Pulmonalvenenisolation modelliert und in das bestehende Offenburger Herzrhythmusmodell integriert. Bei den Diagnostik-Kathetern handelte es sich um 10-polige Lasso® Katheter, zwei Varianten von PentaRay® NAV eco Katheter und 4-polige Diagnostik-Katheter „OSYPKA FINDER pure®“. Ablationskatheter sind zwei Varianten von Pentaspline Basket pose Katheter und HELIOSTAR™ Ablation Ballon. Abschließend wurden verschiedene Varianten von Isolationsverfahren der Pulmonalvenen modelliert und daraufhin die linksatrialen fokalen Flimmerquellen nach der Isolation der Pulmonalvenen simuliert.
Die Bachelorarbeit „Forensic Chain – Verwaltung digitaler Spuren in Deutschland“ untersucht die Anwendung eines Blockchain-basierten Chain of Custody Systems im deutschen rechtlichen und regulatorischen Kontext. Die digitale Forensik, die sich mit der Sicherung und Analyse digitaler Spuren befasst, gewinnt an Bedeutung, da kriminelle Aktivitäten vermehrt im digitalen Raum stattfinden. Die Blockchain-Technologie bietet transparente und unveränderliche Aufzeichnungen, die sich für die Speicherung von Informationen im Zusammenhang mit digitalen Beweismitteln eignen. Das Hautpziel der Arbeit besteht darin, die Umsetzung eines Chain of Custody Prozesses im Forensic Chain System zu untersuchen und die Eignung dieses Systems im deutschen Raum zu bewerten. Hierfür wird ein Prototyp des Forensic Chain Systems entwickelt, um das erstellte Konzept zu testen. Die Ergebnisse tragen zum Verständnis der Wichtigkeit der digitalen Forensik in Deutschland bei und bieten Einblicke in die Einführung von Blockchain-basierten Chain of Custody-Systemen in diesem Bereich. Sie leisten einen Beitrag zur Weiterentwicklung der digitalen Forensik.
Der True-Crime-Podcast erfreut sich in Deutschland einer großen Hörerschaft, die ganz unterschiedliche Nutzungsmotivationen mitbringt. Die Faszination für wahre Kriminalfälle kommt nicht von ungefähr – das Phänomen, welches dieser zugrunde liegt, ist die Morbid Curiosity. Da bislang noch nicht allzu viel Forschung in diesem Gebiet betrieben wurde, gibt diese Arbeit durch einen Vergleich verschiedener Untersuchungen Aufschluss darüber, wo diese Neugier für morbide Ereignisse herkommt. Gleichzeitig soll ein Überblick über das Genre True Crime und das Medium Podcast gegeben werden. Das Ziel ist es, eine Verbindung zwischen dem Phänomen Morbid Curiosity und dem Format True-Crime-Podcast herzustellen. Die Forschungsfrage lautet: Welche Rolle spielt Morbid Curiosity bei der Nutzungsmotivation der Konsumenten von True-Crime-Podcasts? Die Ergebnisse zeigen, dass Frauen andere Nutzungsmotivationen mitbringen als Männer und gleichzeitig die primären Konsumentinnen sind. Die Neugier für morbide Ereignisse spielt dabei durchaus eine Rolle, wenn auch scheinbar eine untergeordnete. Es werden Ansätze für weitere Forschung gegeben.
Die Arbeit beinhaltet die Konzeption und den Aufbau eines Prüfstandes für den Elektromotor sowie den Antriebsstrang des Hocheffizienzfahrzeugs "Schluckspecht S6" der Hochschule Offenburg. Neben Beschreiben des Vorgehens bei dem Entwerfen von benötigten CAD-Modellen wird auch auf die Auswahl und Implementierung elektronischer Komponenten sowie die Programmierung des verwendeten Mikrocontrollers eingegangen. Die Ergebnisse eines ersten Tests des Prüfstandes werden außerdem aufgezeigt und diskutiert.
The aim of this bachelor thesis is to introduce a product data management (PDM) system to reduce the current difficulties in the project team workflow. The main objective is to reduce or prevent problems in the project team's collaboration processes by establishing a centralized, structured data repository.
The process to achieve this goal was to first talk to the project team and monitor professors to find the most effective strategies. Early research on PDM/PLM (Product Lifecycle Management) was conducted through literature reviews, online searches, thesis reviews, and video resources.
In order to gain a comprehensive understanding of PDM systems, the thesis used a combination of group discussions and literature reviews. The emphasis was on the practical application, which included the customization of configurations.
Ziel dieser Arbeit war die Konzeption und Gestaltung einer Unboxing Experience für ein E-Commerce Startup im Bereich der gehobenen Convenience Food Branche unter Berücksichtigung der zu erreichenden Unternehmensziele und der fokussierten Zielgruppe des Unternehmens. Hierfür wurde zunächst der Begriff Unboxing im Kontext von Marketing und Onlinehandel sowie die Bedeutung verwandter Trends wie des Unboxing-Videos erörtert. Anschließend wurden das Unternehmen und die relevante Zielgruppe in Form von Personas vorgestellt. Durch die konkrete Definition der vorgegebenen Unternehmensziele konnte auch die spätere Gestaltung hierauf aufbauen. Schließlich wurden bereits vorhandene Best Practices recherchiert und analysiert, um Ideen und Anhaltspunkte zu schaffen. Die Konzeption ist in die einzelnen Gestaltungsgegenstände und deren schrittweise Ausarbeitung unterteilt. Das Ergebnis soll eine ästhetisch ansprechende und das Unternehmen widerspiegelnde Unboxing Experience sein, bestehend aus einem bedruckten Versandkarton, einer Produktbroschüre und einer Dankes- bzw. Grußkarte in zwei verschiedenen Ausführungen. Jede Komponente erfüllt hierbei einen Zweck im Unternehmenskontext. Insgesamt konnte aus den drei Einzelkomponenten eine in der Gesamtkomposition ansprechende Unboxing Experience geschaffen werden, die die Hochwertigkeit der Produkte unterstreicht und das Auspacken zu einem Erlebnis macht.
Um den Prozess der Direktreduktion von Eisenerz computergestützt zu simulieren, werden mathematische Modelle, zur Beschreibung von Gas-Feststoff-Reaktionen, in Python implementiert. In der vorliegenden Arbeit wird ein einzelnes Pellet aus Eisenerz, welches sich in einem Gasstrom aus reinem Wasserstoff befindet, betrachtet. Es werden mehrere Modellansätze aus der Literatur miteinander verglichen und davon geeignete zur recheneffizienten Implementierung ausgewählt. Die entwickelte Simulationssoftware besitzt eine grafische Oberfläche und bietet die Auswahl aus drei Modellen mit unterschiedlichem Detaillierungsgrad. Diese sind vollständig parametriert und die meisten Parameter werden temperaturabhängig bestimmt oder sind frei wählbar. Die Durchführung von Parameterstudien ist über die lineare Variierung eines beliebigen Parameters möglich. Die Ergebnisse der Simulation können dann in Abhängigkeit der Zeit dargestellt oder im CSV-Format exportiert werden. Die Rechenmodelle sind in einem separaten Python-Modul zusammengefasst und können einfach in eine übergeordnete Modellierung eingebaut werden. Zur Validierung erfolgt ein Abgleich mit experimentellen Literaturdaten. Abschließend werden die Stärken und Schwächen der implementierten Modelle gegenübergestellt und bewertet.
Rückenschmerzen sind ein weit verbreitetes Problem in der deutschen Gesellschaft. In der Mehrzahl der Fälle von Schmerzen im unteren Rücken ist es schwierig, eine spezifische nozizeptive Ursache zu finden. Aus vorherigen Studien ist bekannt, dass manuelles Heben eine Belastung für die Wirbelsäule darstellen kann. Die Geschwindigkeit der Hebebewegung spielt eine Rolle, ebenso wie Gewicht und Stabilität der Gelenke und Gliedmaßen.
Ziel dieser Arbeit ist die Analyse der Veränderungen in der Kinematik der Lendenwirbelsäule, der Hüfte und des Knies beim Heben von Lasten mit unterschiedlichen Geschwindigkeiten und Gewichten. Für diese Arbeit wurden die kinematischen Daten von insgesamt 79 Personen ausgewertet. Die Stichprobe bestand aus 20 asymptomatischen Frauen, 22 asymptomatischen Männern, 19 Frauen mit chronischen Rückenschmerzen und 18 Männern mit chronischen Rückenschmerzen. Die Daten wurden mit einem 3D-Bewegungsanalysesystem in Verbindung mit einem Set passiver Marker aufgenommen.
Es wurde kein signifikanter Effekt auf die mittleren maximalen Gelenkwinkel durch den Vergleich der geschlechtlich gemischten Gruppe mit Rückenschmerzen mit asymptomatischen Personen festgestellt, im Vergleich des Verhältnisses zwischen lumbaler Bewegung zu Beckenbewegungen (L/P-ratio) konnten signifikante Unterschiede ermittelt werden. Der Vergleich der Geschlechter zeigte signifikante Unterschiede für den lumbopelvinen Rhythmus. Für die Parameter Gewicht und Geschwindigkeit wurde kein signifikanter Effekt erfasst.
Das automatisierte Erkennen von Schwachstellen wird immer wichtiger. Gerade bei der Softwareentwicklung werden immer häufiger Schwachstellenscanner eingesetzt. Das Ziel der vorliegenden Arbeit ist es einen Überblick zu erhalten, welche Schwachstellenscanner für Webanwendungen existieren und wie sinnvoll deren Einsatz ist. Um diese Frage zu beantworten, werden vier auf dem Markt verfügbare Schwachstellenscanner getestet. Aus der bisherigen Infrastruktur von M und M Software werden Anforderungen und Selektionskriterien abgeleitet. In zwei Testphasen werden verschiedene Schwachstellenscanner analysiert und bewertet wie gut sie die Kriterien erfüllen. Am Ende wird bewertet, ob der Einsatz eines Schwachstellenscanners in der Infrastruktur sinnvoll ist. Neben dieser Analyse wird außerdem untersucht welche Chancen die AI-Technologie für Schwachstellenscanner bietet.
Für die flächendeckende Einführung von IP-basierter Infrastruktur benötigt der WDR Werkzeuge zur Bewertung von Qualitätskriterien komplexer Mediennetzwerke. Zu diesem Zweck wurde die Web-Applikation "Netztest" entwickelt.
Die Applikation besitzt eine intuitive Benutzeroberfläche und ermöglicht eine Bedienung ohne Netzwerk-technisches Hintergrundwissen. Sie greift über die Programmierschnittstelle auf die Messfunktionen der Software "Fusion" von VIAVI Solutions zu. "Fusion" bietet umfassende Konfigurationsmöglichkeiten und ist für ein Nutzende ohne technisches Hintergrundwissen schwer einsetzbar. Die Applikation "Netztest" vereinfacht die Schnittstelle zum Nutzenden und begrenzt die Funktionsvielfalt auf für den Anwendungsfall passende Testkonfigurationen.
Zu Beginn dieser Arbeit werden mit Hilfe einer Anforderungsanalyse Optimierungsmöglichkeiten der Applikation aufgezeigt. Anschließend wird die Implementierung eines UDP-basierten Teststandards vorgenommen, da "Netztest" bisher nur einen TCP-basierten Test bot. Das verbindungslose Transportprotokoll UDP eignet sich insbesondere für die Übertragung von Audio- und Videodaten. Für den WDR als Produktionsunternehmen solcher Medien ist ein Durchsatztest, der auf UDP basiert daher unabdingbar.
Der Code der Anwendung wird so angepasst, dass beide Tests weitestgehend dieselben Funktionen verwenden und in Zukunft problemlos weitere Tests implementiert werden könnten. Nach dem Durchlaufen eines Tests werden die Ergebnisdaten graphisch dargestellt. Das Piktogramm einer Ampel zeigt dem oder der Nutzenden an, ob die gemessene Verbindung einsatzbereit, ausreichend oder nicht ausreichend ist.
Die Implementierung des Y.1564-Tests und damit das Ziel dieser Arbeit konnte erreicht werden, doch es gibt noch Schwachstellen und Verbesserungsmöglichkeiten, die vor einer Inbetriebnahme der Anwendung "Netztest" beseitigt werden müssten.
Das Ziel der vorliegenden Arbeit ist die Beantwortung der Frage, wie sich eine individuelle Fußbettung auf die Druckverteilung im Fuß und das körperliche Wohlbefinden im Allgemeinen auswirkt. Zu Anfang stehen die Nullhypothesen, dass durch eine solche Einlage keine Veränderungen in der Druckverteilung zu erwarten sind.
Um die Forschungsfrage zu beantworten, wurde eine experimentelle interventionelle Pilotstudie mit einer Kohorte von neun Probanden ohne orthopädische Probleme durchgeführt, die alle eine individuelle Schuheinlage erhielten. Die plantare Druckverteilung im Schuh wurde einmal ohne und einmal mit der Einlage sowohl statisch als auch dynamisch erfasst. Die Ergebnisse wurden anschließend verglichen. Die dynamische Datenerfassung beinhaltete die folgenden Konditionen: geradeaus Gehen, Gehen im Kreis (links- und rechtsherum), Stehen und der Transfer einer Kiste mit sich drehendem Oberkörper. Gleichzeitig wurde das Wohlbefinden der Probanden mit verschiedenen Fragebögen erfasst.
Die Anwendung einer individuellen Einlage zeigte im Bereich des medialen Mittelfußes einen Druckanstieg von über 100%, der Rückfuß wurde während des Stehens und Gehens entlastet. Der Vorfuß wurde während des Stehens teilweise mehr belastet. Diese Veränderungen können unter Umständen auf das Einführen der Längsgewölbestütze in der Einlage zurückgeführt werden. Die Auswertung der Fragebögen zu dieser Studie ergab, dass sich speziell für die Füße das Wohlbefinden leicht zum Schlechteren änderte, andere Bereiche, welche in den Fragebögen eruiert wurden, zeigten keine nennenswerten Veränderungen auf.
Daraus wird geschlossen, dass eine Schuheinlage die Druckverteilung in der Fußsohle stark verändern kann. Weiterführende Studien könnten den Einfluss der Einlage im Allgemeinen und der Wirkungsweise einer Längsgewölbestütze im Besonderen mit kinematischen Daten weiter belegen. Längerfristige Studien könnten die Langzeitwirkung von Einlagen auf das Wohlbefinden genauer erforschen.
Diese Bachelorthesis behandelt die Entwicklung eines Prototyps zur Identifizierung und Verhinderung von Angriffen mithilfe von KI- und ML-Modellen. Untersucht werden die Leistungsfähigkeit verschiedener theoretischer Modelle im Kontext der Intrusion Detection, wobei Machine-Learning-Modelle wie Entscheidungsbäume, Random Forests und Naive Bayes analysiert werden. Die Arbeit betont die Relevanz der Datensatzauswahl, die Vorbereitung der Daten und bietet einen Ausblick auf zukünftige Entwicklungen in der Angriffserkennung.
Durch den demografischen Wandel und dem daraus resultierenden Fachkräftemangel brauchen Unternehmen eine Strategie, um in Zukunft genügend Fachkräfte zu gewinnen und die aktuellen Mitarbeitenden halten zu können. Dabei können mit dem Employer Branding Maßnahmen zur Stärkung der Arbeitgebermarke erarbeitet werden.
Ziel dieser Arbeit ist eine vergleichende Analyse von Selbst- und Fremdbild zwei großer Arbeitgebermarken. Dabei sollen zwei Unternehmen aus der Region Offenburg/Ortenau in Hinblick auf ihr Employer Branding und ihre Kommunikation auf der unternehmenseigenen Karriere-Webseite untersucht werden. Dafür wurden die beiden Arbeitgebermarken „Hubert Burda Media“ und „Hansgrohe Group“ ausgewählt. Durch den Einsatz von qualitativen Experteninterviews wird das Selbstbild der Unternehmen ermittelt. Für die externe Beurteilung wurde die Zielgruppe „Studierende der Generation Z“ ausgewählt. Diese können mithilfe eines Fragebogens das Fremdbild beider Unternehmen beschreiben und die Karriere-Webseiten beurteilen.
Das Ergebnis der Forschung war unter anderem die Beschreibung des Arbeitgeber-images. Durch die Annäherung von Fremd- und Selbstbild nach Ansicht der Karriere-Webseite konnte die Kommunikation bewertet werden. Dabei konnten Optimierungs-ansätze für beide Unternehmen identifiziert werden. Die erarbeiteten Erkenntnisse wurden zusammengefasst und es wurden jeweils Handlungsempfehlungen für die Kommunikation und das Employer Branding formuliert.
Durch die Auswertungen der qualitativen Forschungen konnte die Wichtigkeit der Karriere-Webseite für die junge Generation bestätigt werden. Dabei fiel bei beiden Unternehmen auf, dass die Authentizität und die Kommunikation der eigenen Arbeitgebermarke in einigen Punkten optimiert werden sollten.
Bilder und Filme sind aus dem modernen Leben nicht mehr wegzudenken. Besonders die Präsenz im Internet – die Webseite der Firma, der persönliche Blog oder der Auftritt in sozialen Medien – kommt nicht mehr ohne die richtige Visualisierung aus. Wer entsprechende Fähigkeiten und Ausrüstung besitzt, erstellt sich seine benötigten Inhalte selbst. Wer diese Möglichkeit nicht hat, muss auf Werke anderer zurückgreifen. Einfach aus dem Internet herunterladen und benutzen darf man diese allerdings nicht, denn sie sind in den meisten Fällen urheberrechtlich geschützt. Große Firmen und Personen mit entsprechendem Budget buchen für diese Zwecke deshalb extra Fotografen oder kaufen ihre gewünschten Inhalte auf beliebten Stock-Plattformen wie Shutterstock oder Getty Images. Diese Abschlussarbeit richtet sich an diejenigen, die das nicht können: (Werk-)Studenten im Bereich Medien, Gestaltung oder Onlinemarketing sowie kleinere Firmen und Einzelpersonen, welche Bilder und Filme für private, schulische, redaktionelle oder kommerzielle Zwecke benötigen.
Ziel dieser Arbeit ist das Vorstellen der zahlreichen Möglichkeiten, im Internet Bilder und Filme für die kostenlose und rechtssichere Nutzung zu recherchieren. Dabei werden verschiedene Arten der kommerziellen und nichtkommerziellen Nutzung berücksichtigt, sodass möglichst viele Leser einen Nutzen aus dieser Abschlussarbeit ziehen können. Hierzu wird zunächst die Rechtslage in Deutschland geklärt und anschließend 7 Plattformen sowie 2 Suchmaschinen für Bilder und 7 Plattformen für Filme untersucht und miteinander verglichen. Für jede Plattform werden ihre typischen Features vorgestellt und ihre Bedeutung für die Recherche aufgezeigt. Dies soll als Hilfestellung für einen effizienten Recherche-Arbeitsablauf auf der jeweiligen Plattform dienen. Anschließend wird die jeweilige Bild- und Videoauswahl anhand beispielhafter Suchbegriffe dargestellt.
Chitin ist nach Cellulose, das am zweit häufigsten vorkommende Biopolymer auf der Erde und erlangt durch die positiven Eigenschaften seiner Oligomere immer mehr an Aufmerksamkeit in der Industrie. Derzeit werden Chitin-Oligomere rein chemisch mittels starker Säurebehandlung gewonnen. Alternativ können Endo- und Exochitinasen für eine umweltfreundlichere Hydrolyse eingesetzt werden. In dieser Arbeit wurden drei fungale Endochitinasen aus den Ursprungsorganismen Trichoderma harzianum (Chit33-TH), Trichoderma asperellum (Chit36-TA) und Myceliophthora thermophila (Chit46-MT) in Pichia pastoris rekombinant exprimiert, mittels Ni-NTA-Affinitätschromatographie und Dialyse aufgereinigt und biochemisch charakterisiert. Dabei zeigten die Chitinasen maximale spezifische Umsatzgeschwindigkeiten von 16 (Chit33-TH), 50 (Chit36-TA) und 98 nkat/mg (Chit46-MT). Die Endochitinasen hatten nach der Deglykosylierung ein molekulares Gewicht von 33 (Chit33-TH), 36 (Chit36-TA) und 46 kDa (Chit46-MT). Die pH-Optima und Temperaturmaxima lagen für alle drei Enzyme bei einem pH-Wert von 4,5 und 50 °C, zudem waren sie bei 45 bis 50 °C für 15 Minuten temperaturstabil. Detergenzien und Kationen wie Cu2+, Mn2+, Co2+ und Zn2+ hatten einen inhibierenden Effekt ab 1 mM. Höhere Ca2+-Konzentrationen ab 10 mM reduzierten die Enzymaktivität um bis zu 30 %. Eine Produktinhibition mit N-Acetylglucosamin konnte nicht festgestellt werden. Bei allen rekombinanten Enzymen konnte mittels DNS-Assay die Freisetzung von reduzierenden Zuckerenden und somit geeignete Eigenschaften kolloidales Chitin zu wasserlösliche ChitinOligomere umzuwandeln, nachgewiesen werden. Insbesondere Chit46-MT erreichte nach 24 h einen Hydrolysegrad bis zu 96 % und bewies, dass eine enzymatische Hydrolyse für die industrielle Chitin-Oligomerproduktion nutzbar ist.
In dieser Bachelorthesis werden On-Premise und Cloud Lösungen miteinander verglichen und eine bereits bestehende On-Premise Reklamationsverwaltung, die Teil eines ganzen ERP-Systems ist, wird mithilfe des Reengineerings, als cloudbasierte App neu implementiert.
Im ersten Abschnitt wird der Vergleich durchgeführt. Dabei werden die Hauptmerkmale beider Lösungen und ihre Vor- und Nachteile herausgearbeitet. Zum Schluss wird überprüft, welche der beiden Lösungen besser zu den Anforderungen passen. Da die neue Reklamationsverwaltung als App umgesetzt werden soll, wurde sich für die Cloud Lösung entschieden. Diese ist deutlich flexibler und für kleinere Kunden kostengünstiger.
Im zweiten Abschnitt wird ein Reengineering der alten On-Premise Lösungen als cloudbasierte App durchgeführt. Dabei werden alle Anforderungen und Kriterien an die App aufgezeigt. Danach werden alle Schritte des Reengineerings, wie beispielsweise die Analyse der Datenstruktur und Erstellung von Aktivitätsdiagrammen, genauer beschrieben und für die App angewendet. Mithilfe des Reengineerings konnte die Datenstruktur angepasst werden. Auch wurden viele überflüssige Funktionen aus der alten Lösung entfernt und nur die wichtigsten Funktionen sind geblieben.
Um als Unternehmen heutzutage aus der Masse hervorzustechen und sich von der Konkur- renz abzuheben, bedarf es mehr als nur eines guten Produkts oder einer guten Dienstleis- tung. Kunden möchten wissen, welches Unternehmen dahintersteckt und ob sie sich damit identifizieren können. Um diese Werte und ein einheitliches Erscheinungsbild vermitteln zu können, ist eine ganzheitliche Corporate Identity erforderlich, die sowohl innen als auch außen wirkt. Das bietet die Möglichkeit, ein Markenimage aufzubauen, das langfristig Kun- den bindet und Vertrauen schafft.
Die Entwicklung einer neuen Corporate Identity erfordert zunächst eine entschlossene Ent- scheidung der Unternehmensführung. Sie muss sicherstellen, dass das gesamte Unterneh- men für ein solches Vorhaben bereit ist. Erst dann kann mit der Bildung eines CI-Teams begonnen werden, das mit der Entwicklung und Durchführung des Corporate Identity-Pro- zesses beauftragt wird. Dabei wird nach der AMC-Strategie vorgegangen, die mit einer aus- führlichen Ist- und Sollanalyse beginnt. Hierbei wird ermittelt, welche Fähigkeiten das Un- ternehmen besitzt und welches Image bei den unterschiedlichen Interessensgruppen vor- herrscht. Auch die internen und externen Auswirkungen einer CI sollten bedacht werden und dass die Angestellten einen maßgeblich Teil zur externen Wirkung beitragen. Die ge- sammelten Informationen dienen als Grundlage für die einzelnen Bestandteile der Corpo- rate Identity.
Basierend auf dem theoretischen Teil wurde für Dialogpunkt eine neue Corporate Identity entwickelt, wodurch verdeutlicht wurde, wie die theoretischen Grundlagen in die Praxis umgesetzt werden können. Durch eine gründliche Marktanalyse wurde ein neues Leitbild (Corporate Philosophy) für Dialogpunkt erstellt. Dieses Leitbild und die gewonnenen Er- kenntnisse dienten wiederum als Grundlage für die Entwicklung des Corporate Behaviors, der Corporate Communication und des Corporate Designs.
One of the main problematics of the seals tests is the time and money consuming they are. Up to now, there are few tries to do a digitalisation of a test where the seals behaviour can be known.
This work aims to digitally reproduce a seal test to extract their behaviour when working under different operation conditions to see their impact on the pimp’s efficiency. In this thesis, due to the Lomaking effect, the leakage and the forces applied on the stator will be the base of analysis.
First of all, among all the literature available for very different kind of seals and inner patterns, it has been chosen the most appropriate and precise data. The data chosen is “Test results for liquid Damper Seals using a Round-Hole Roughness Pattern for the Stator” from Fayolle, P. and “Static and Rotordynamic Characteristics of Liquid Annular Seals with Circumferentially/Grooved Stator and Smooth Rotor using three levels of circumferential Inlet-Fluid” from Torres J.M.
From the literature, dimensions of the test rig and the seals will be extracted to model them into a 3D CAD software. With the 3D CAD digitalisation, the fluid volumes for a rotor-centred position, meaning without eccentricity, will be extracted, and used. The following components have been modelled:
- Smooth Annular Liquid Seal (Grooved Rotor)
- Grooved Annular Liquid Seal (Smooth Rotor)
- Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 𝑚𝑚) (Smooth Rotor)
- Straight Honeycomb Annular Liquid Seal (Smooth Rotor)
- Convergent Honeycomb Annular Liquid Seal (Smooth Rotor)
- Smooth Rotor / Smooth Annular Liquid Seal (Smooth Rotor)
As there is just one test rig, all the components have been adapted to the different dimensions of the seals by referencing some measures. This allows to test any seal with the same test rig.
Afterwards a CFD simulation that will be used to obtain leakage and stator forces. The parameters that will be changed are the rotational velocity of the fluid (2000 rpm, 4000 rpm, and 6000 rpm) and the pressure drop (2,068 bar, 4,137 bar, 6,205 bar, and 8,274 bar).
Those results will be compared to the literature ones, and they will determine if digitalisation can be validated or not. Even though the relative error is higher than 5% but the tendency is the same and it is thought that by changing some parameters the test results can be even closer to the literature ones.
To date, many experiments have been performed to study how the internal geometrical shapes of the annular liquid seal can reduce internal leakage and increase pump efficiency. These can be time-consuming and expensive as all rotordynamic coefficients must be determined in each case.
Nowadays, accurate simulation methods to calculate rotordynamic coefficients of annular seals are still rare. Therefore, new numerical methods must be designed and validated for annular seals.
The present study aims to contribute to this labour by providing a summary of the available test rig and seals dimensions and experimental results obtained in the following experiments:
− Kaneko, S et al., Experimental Study on Static and Dynamic Characteristics of Liquid Annular Convergent-Tapered Seals with Honeycomb Roughness Pattern (2003) [1] − J. Alex Moreland, Influence of pre-swirl and eccentricity in smooth stator/grooved rotor liquid annular seals, static and rotordynamic characteristics (2016) [2]
A 3D CAD simulation with Siemens NX Software of the test rig used in J. Alex Moreland’s experiment has been made. The following annular liquid seals have also been 3D modelled, as well as their fluid volume:
− Smooth Annular Liquid Seal (SS/GR) (J. Alex Moreland experiment)
− Grooved Annular Liquid Seal (GS/SR)
− Round-Hole Pattern Annular Liquid Seal (𝐻𝑑=2 mm) (GS/SR)
− Straight Honeycomb Annular Liquid Seal (GS/SR)
− Convergent Honeycomb Annular Liquid Seal (No. 3) (GS/SR)
− Smooth Annular Liquid Seal (SS/SR) (S. Kaneko experiment)
In the case of the seals used in S. Kaneko’s experiments, the test rig has been adapted to each seal, defining interpart expressions which can be easily modified.
Afterwards, it has been done a CFD simulation of the Smooth Annular Liquid Seal using Ansys CFX Software. To do so, the fluid volume geometry has been simplified to do a first approximation. Results have been compared for an eccentricity 𝜀0=0.00 for the following ranges of rotor speeds and differential of pressure:
− Δ𝑃= 2.07, 4.14, 6.21, and 8.27 bar,
− 𝜔= 2, 4, 6 and 8 krpm.
Even results obtained have the same trend as the one proportionated by the literature, they cannot be validated as the error is above 5%. It is also observed that as the pressure drop increases, the relative error decreases considerably.
In dieser Bachelorarbeit wurde eine Studie zum Dehnungsverhalten von Schuhen mit elastischem Obermaterial beim Gehen und Laufen bei verschiedenen Geschwindigkeiten durchgeführt. Aktuell gibt es auf diesem Gebiet keine belastbaren Daten. Hierfür wurde von 33 Probandinnen und Probanden mit vier verschiedenen Schuhgrößen die Dehnung des Schuhobermaterials durch markerbasiertes Motion Capturing aufgenommen. Hierzu wurde eine Markerkette von insgesamt 6 Markern über dem Mittelfußbereich angebracht. Auf einem Laufband wurden im Gehen drei Geschwindigkeiten zwischen 1,0 m/s und 1,5 m/s und im Laufen sieben Geschwindigkeiten zwischen 1,5 m/s und 4,5 m/s aufgenommen. Die Datenauswertung erfolgte zum Großteil mittels von Matlab. Die Ergebnisse zeigen für die maximale Dehnung des Obermaterials im Gehen signifikante Unterschiede von p < 0,001. Auch das Laufen zeigt diese Signifikanz jedoch ausschließlich in den Vergleichen der niedrigen Laufgeschwindigkeiten. Die Dehnungsgeschwindigkeit zeigt im Gehen und in den meisten Bereichen des Laufens eine Signifikanz von p < 0,001. Die Ergebnisse der Dehnungsbeschleunigung weisen ebenfalls eine Signifikanz von p < 0,001 auf. Die Betrachtung der Teilbereiche der Markerkette zeigt in der Dehnung und der Dehnungsgeschwindigkeit Signifikanzen von p < 0,001. Die größte Dehnung entstand im mittleren Markerbereich, wohingegen die Randbereiche signifikant weniger gedehnt wurden. Die Dehnungsgeschwindigkeit zeigt jedoch eine signifikant höhere Geschwindigkeit in den Randbereichen im Vergleich zu dem mittleren Bereich. Im direkten Vergleich zwischen Gehen und Laufen zeigt sich keine Signifikanz. Nicht signifikant sind außerdem die verschiedenen Schuhgrößen im Vergleich zueinander. Die Ergebnisse zeigen, dass die Laufgeschwindigkeit einen Einfluss auf das Dehnungsverhalten bezüglich Dehnung, Dehnungsgeschwindigkeit und Dehnungsbeschleunigung hat.
Hintergrund:
Die Versorgung von Patienten mit Cochleaimplantaten erfordert im Rahmen der Rehabilitation nicht nur Hörtrainings, sondern auch regelmäßige Erfassungen des Hörvermögens. Diese Tests konzentrieren sich hierbei meist auf das Vertehen von Sprache. Hierbei müssen Patienten Wörter oder Zahlen unter Vorhandensein von Störgeräuschen verstehen. Diese Störgeräusche sind in der Regel künstlicher Natur wie Rauschen. Das Ziel dieser Arbeit ist es, diese künstlichen Störgeräusche durch realistischere zu ersetzen und zusätzlich einen Raumklang sowohl für die Störgeräusche als auch für die zu verstehenden Wörter oder Zahlen zu implementieren. Um die Erfassung der multimodalen Sprachwahrnehmung zu verbessern, wird nicht nur eine virtuelle auditive Umgebung geschaffen, sondern auch eine visuelle Komponente integriert, die auf einem Head-Mounted Display (HMD) wiedergegeben werden kann. Das Ziel ist es, eine audiovisuelle virtuelle Realität zu schaffen, die alltagsrelevante Kommunikationssituationen widerspiegelt und somit die Validität und Relevanz von Hörtests erhöht.
Umsetzung:
Für die Umsetzung wurden Werkzeuge zur Simulation von Raumakustik und eine hochwertige visuelle Darstellung auf einem HMD benötigt. An der Technischen Universität München wurde das Tool "real-time Simulated Open Field Environment" (rtSOFE) entwickelt, das durch die Berechnung von Raumimpulsantworten Raumakustik simuliert und die direkte Wiedergabe von Schallquellen in virtuellen Klangfeldern ermöglicht. Für die visuelle Umgebung wurde die Unreal Engine 5 gewählt, die sehr realistische Darstellungen virtueller Räume ermöglicht und hauptsächlich in der Videospielindustrie verwendet wird.
Ergebnisse:
Mit den Tools rtSOFE und Unreal Engine wurden drei realistische Umgebungen geschaffen: Ein Pub, ein Wohnzimmer und eine U-Bahn-Station. Diese Umgebungen enthalten realitätsnahe Störgeräusche, die zur jeweiligen Umgebung passen. Probanden können sich dank des HMD in diesen Umgebungen frei bewegen. Zudem wurde ein Testsetup unter Verwendung von Sätzen aus dem Oldenburger Satztest innerhalb dieser audiovisuellen Umgebung umgesetzt.
Fazit:
Das entwickelte Testsetup in der audiovisuellen Umgebung ermöglicht eine realistischere und alltagsnähere Erfassung des Hörvermögens im Vergleich zu herkömmlichen Hörtests. Die visuelle Komponente trägt zur Steigerung der Realitätsnähe bei. Allerdings fehlt im aktuellen Setup die Synchronisation zwischen der auditiven und visuellen Umgebung, insbesondere in Form von Lippenbewegungen (Lip Syncing), um eine umfassende Erfassung der multimodalen Sprachwahrnehmung zu ermöglichen.
Bildung für nachhaltige Entwicklung (BNE) hat einen festen Platz im deutschen Bildungssystem gefunden. BNE setzt sich die Ziele, Lernende zu informierten und verantwortungsbewussten Konsumenten zu befähigen sowie sie darauf vorzubereiten und das eigene Verhalten sowie das Verhalten anderer kritisch zu reflektieren. Der Nachhaltigkeitsbegriff von BNE orientiert sich hierbei an den drei Perspektiven, Soziales, Ökonomisches und Ökologisches, und an deren Wechselwirkungen untereinander.
Um Lernenden Nachhaltigkeitsthemen nach der Definition von BNE zu vermitteln, bieten sich Photovoltaik-Systeme (PV), vor allem in Off-Grid-Ausführungen, an, da sie aufgrund ihrer Eigenschaften als erneuerbare Energieerzeuger einen rücksichtsvolleren Umgang mit den vorhandenen Ressourcen fordern, Reflexion des eigenen Verhaltens anregen und sich in verschiedenen Situationen unter den drei Perspektiven der Nachhaltigkeit betrachten lassen.
Für eine Projektarbeit an allgemeinbildenden sowie beruflichen Schulen wurde außerhalb dieser Arbeit ein Off-Grid-PV-System entworfen, anhand dessen Lernende Fragestellungen der elektrischen Energieerzeugung aus Sonneneinstrahlung sowie allgemeine Nachhaltigkeitsthemen erforschen. Das didaktische Konzept zur Begleitung des PV-Systems wurde anhand von den Anforderungen der BNE entwickelt und gliedert sich in die Bereiche einleitende Workshops, Lern- und Arbeitsmaterial, weiterführendes Material sowie einen abschließenden Workshop zur Reflexion des erlernten. Die getroffenen Entscheidungen im Bereich der Technik sowie des Lehr-Lern-Materials werden jeweils didaktisch begründet.
Zur ergonomischen Unterstützung von Industriearbeitern werden zunehmend Exoskelette eingesetzt. Studien über die Wirkung und den Einfluss von Exoskeletten auf den Körper sind jedoch rar. Diese Arbeit beschäftigt sich daher mit der Wirkung des Rückenexoskeletts BionicBack des deutschen Exoskelett Herstellers hTRIUS auf die Wirbelsäulenkrümmung bei industriellen Hebearbeiten. Im Speziellen wird die Wirbelsäulenkrümmung beim Umpalettieren aus drei verschiedenen Hebehöhen (91 cm, 59 cm, 15 cm) mit Hilfe eines markerbasierten 3D Motion Capture Systems untersucht. Um den Versuchsaufbau alltagsnah und realistisch zu gestalten, wurde diese Pilotstudie in Kooperation mit der Firma Zehnder am Standort Lahr durchgeführt, die sowohl die Probanden als auch den Versuchsaufbau zur Verfügung stellte. Vier gesunde männliche Probanden mit einem durchschnittlichen Alter von 39,5 Jahren (SD = 6,5), einem durchschnittlichen Körpergewicht von 72,75 kg (SD = 7,1) und einer durchschnittlichen Körpergröße von 175 cm (SD = 2,6) wurden in zwei Schichten eingeteilt. Mit den Probanden wurden vor und nach der Schicht sowie an zwei aufeinander folgenden Tagen Messungen durchgeführt, wobei an einem Tag das BionicBack während der Arbeit und der Messung getragen wurde und am an-deren Tag nicht. Während einer Messung nahmen die Testpersonen ein Paket mit einem Gewicht von 21,1 kg dreimal von jeder Hebehöhe von einer Palette auf und legten es auf einer anderen ab. Anschließend wurde die Krümmung der Wirbelsäule am tiefsten Punkt der Hebebewegung untersucht, wobei die Gesamtkrümmung in dieser Position durch die Addition von drei repräsentativen Segmentwinkeln dargestellt wird. Die Abweichung dieser Gesamtkrümmungen in der tiefsten Beugeposition von der individuellen neutralen Wirbelsäulenstellung der Probanden im Stehen ergeben die Werte, die zwischen den einzelnen Versuchsbedingungen verglichen werden. Die Ergebnisse zeigen, dass das BionicBack den Abstand zur Neutralstellung bzw. die Gesamtkrümmung des Rückens im Vergleich zu ohne BionicBack bis zu -11,5° (Median: -11,5° (SD = 5,2); Mittelwert: -8,4° (SD = 6,4)) entsprechend -30% vor der Schicht und bis zu -5,6° (Median: -5,6° (SD = 3,5); Mittelwert: -4,1° (SD = 5,4)) ent-sprechend -17% nach der Schicht reduzieren kann. Die Betrachtung der einzelnen Segmentwinkel zeigt, dass die Reduzierung des Abstandes von der Neutralstellung hauptsächlich im Lendenwirbelbereich stattfindet. Der Vergleich der Wirbelsäulen-krümmung vor und nach der Schicht ohne BionicBack zeigt, dass die Wirbelsäulen-krümmung nach der Schicht, mit Ausnahme der tiefsten Hebehöhe, eine größere Abweichung von der Neutralstellung aufweist als vor der Schicht. Der Vergleich mit BionicBack zeigt, dass die Wirbelsäulenkrümmung nach der Schicht mit Ausnahme der niedrigsten Hubhöhe nicht bzw. weniger von der Neutralstellung abweicht als vor der Schicht. Aufgrund der Ergebnisse wird vermutet, dass das BionicBack durch die Unterstützung einer neutraleren Rückenhaltung das Verletzungsrisiko reduzieren kann. Des Weiteren wird vermutet, dass die Muskelermüdung während einer Arbeitsschicht einen Einfluss auf die Wirbelsäulenkrümmung beim Heben hat. Es wird angenommen, dass dieser Einfluss durch das BionicBack reduziert werden kann. Allerdings dürfen die Grenzen dieser Pilotstudie nicht außer Acht gelassen werden. Sei es die Anzahl der Versuchspersonen, die keine Aussage über die Allgemeingültigkeit zu-lässt und keine effektive statistische Analyse erlaubt, oder systematische Fehler, die aufgrund der Modellvereinfachung und der Methodik auftreten können. Weitere Untersuchungen sind erforderlich, um die Ergebnisse zu validieren. Diese Arbeit soll die Grundlage für weitere Studien mit einer weiterentwickelten Methodik und einer größeren Anzahl von Probanden bilden.
Das Ziel dieser Arbeit ist es, eine Schnittstelle zu erstellen, die es erlaubt, dem vom Unternehmen produzierten modulbasierten ERP-System Module zu integrieren, die
mit der aktuellen Version der Programmiersprache Delphi erstellt wurden.
Die Schwierigkeit hierbei ist, dass die momentane Implementation des Systems auf
einer Jahrzehnte alten Version der Sprache basiert, die in mehreren Bereichen keine
Kompatibilität mit der neuen Version besitzt.
Um dieses Ziel zu erreichen wurden zunächst die konkreten Anforderungen an die
Lösung formuliert und daraufhin verschiedene Lösungsansätze für eine Schnittstelle
konzipiert.
Durch Testen an einer prototypisch vereinfachten Version des ERP-Systems konnte
festgestellt werden, dass eine Lösung über eine auf Datenbanktransaktionen basierende Schnittstelle für das Projekt am ehesten geeignet war.
Nach weiterer Planung des exakten Aufbaus wurden die nötigen Funktionalitäten dann
umgesetzt, wobei zuerst in groben Zügen die essentiellen Aspekte realisiert wurden,
welche dann in weiteren Durchläufen auf die exakten Spezifikationen verfeinert und
auf Fehler geprüft wurden.
Nachdem dieser Lösungsansatz einen ausreichenden Vervollständigungsgrad erreicht
hatte, wurde das Projekt zu Testzwecken in firmeninternem Umfeld in Betrieb genommen.
Durch anschließendes weiteres Beheben von noch ausstehenden Fehlern wurde das
Projekt dann in einen Zustand gebracht, in dem es allgemein in Verwendung genommen werden kann und somit die gewünschten Vorgaben erfüllt.
In dieser Arbeit wird die Entwicklung einer Methode zur Messung von Bodenreaktionskräften bei menschlicher Lokomotion auf variablen Untergründen behandelt. Das Ziel dieser Arbeit ist es, unter realistischen Bedingungen eine Ganganalyse in einem Biomechaniklabor durchführen zu können.
Bisher ist es nicht möglich in einem Biomechaniklabor verschiedene Untergründe nach einer bestimmten Methode auszutauschen, womit Szenarien im Alltag besser simuliert werden können.
Um dieses Ziel zu erreichen wurde ein geeignetes Konzept für die Fertigung der benötigten Bodenplatten und Bodenbeläge erstellt. Darauffolgend wurden die Komponenten angefertigt oder schon vorhandene modelliert. Die Anwendung der entwickelten Methode wurde unter realen Bedingungen einer Ganganalyse erfolgreich untersucht. Hierbei konnten exemplarisch die durchschnittlichen Bodenreaktionskräfte in z-Richtung für die Untergründe Kunstrasen, Kunststoffbahn (Tartanboden) und Steinboden untersucht werden. Das größte Optimierungspotential bei diesem Funktionstest zeigte sich bei der Anpassung der geeigneten An- und Ablaufstrecken mit den jeweiligen Untergründen.
Mit dieser entwickelten Methode können in einem Biomechaniklabor besser die Bedingungen die alltäglich benötigten Ganganpassungen an verschiedene Untergründe simuliert werden. In Kombination mit weiteren Messmethoden, wie die Messung der Muskelaktivität (EMG) und der Gangkinematik, kann so ein tieferes Verständnis des menschlichen Gangbildes gewonnen werden.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
Vergleich eines iOS-basierten zu einem markerbasierten System zur dreidimensionalen Bewegungsanalyse
(2023)
Die iOS-basierte Methode zur dreidimensionalen Bewegungsanalyse wird mithilfe von OpenCap durchgeführt. OpenCap ist eine Open-Source-Software, die laut Hersteller eine gute Alternative zu herkömmlichen Methoden der Bewegungsanalyse sein soll. Durch eine verständliche Menüführung, geringe Anschaffungskosten und ohne Notwendigkeit von Fachpersonal, soll hiermit eine großflächigere Anwendung von dreidimensionalen Bewegungsanalyse gegeben werden. (Uhlrich et al., 2022) Um diese Hypothese zu belegen wurde im Rahmen dieser Bachelorthesis eine kleine Studie mit 12 Probanden durchgeführt. Diese waren hauptsächlich Freiwillige der Hochschule Offenburg und sowohl männlich (7/12 Probanden) als auch weiblich (5/12 Probanden). Das Alter lag bei 25,76 ±5,08 Jahre, die Größe betrug 1,73 ±0,08 Meter und das Gewicht 69,38 ±7,12 Kilogramm. Die Probanden wurden zum Vergleich mit zwei verschiedenen Methoden zur dreidimensionalen Bewegungsanalyse (OpenCap und markerbasierter) und bei zwei verschiedenen Sprungformen, aufgenommen.
Anschließend wurden die Ergebnisse der Gelenkwinkel für Hüfte und Knie der rechten Körperhälfte der Probanden betrachtet. Dabei fiel auf, dass die gemessenen Werte von OpenCap, für Hüfte und Knie verschieden stark von den markerbasierten Werten abwichen. Die Differenz der Hüftflexionswinkel, zwischen den beiden Messmethoden, war um einiges größer als die ermittelte Differenz der Knieflexionswinkel. Diese lag beim Counter Movement Jump (CMJ) für die Hüfte bei 8,01° ±10,89° und für das Knie bei -0,9° ±3,22°. Beim Drop Jump (DJ) ergaben die Differenzen für die Hüfte 15,91° ±12,35° und für das Knie 3,03° ±2,59°. Außerdem wichen die Ergebnisse auch von der Studie der OpenCap Erfinder ab, die mit einem mittleren absoluten Fehler von 4,5°, die App anpriesen. (Uhlrich et al., 2022)
Der Vergleich zeigte somit das OpenCap eine gute Alternative zur Messung offensichtlicher Körpersegmente oder Bewegungen, wie beispielsweise dem Knie, sein kann. Für Messungen der Hüftpartie eignet es sich derzeitig, aufgrund seiner Ungenauigkeit, weniger.
Konzeption einer Lösung zur Verwaltung und Nutzung von Schriften am Beispiel des Burda Verlags
(2023)
Der BurdaVerlag ist für sein umfangreiches Angebot an regelmäßig erscheinenden Zeitschriften bekannt. Rund 16.929 Schriften (Stand 31.03.2023) stehen dem Unternehmen hierfür zur Verfügung. Dabei gilt es als große Herausforderung diese zielführend verwalten und nutzen zu können. Zur Unterstützung dieser Aufgabe bieten unterschiedliche Hersteller eine sogenannte Schriftverwaltungssoftware an. Durch einige Funktionen wird es ermöglicht die Arbeitsabläufe zu vereinfachen und effizienter zu gestalten. Als zentraler Bestandteil einer solchen Software gilt das Aktivieren von Schriften, dann wenn sie tatsächlich benötigt werden. Dies ermöglicht ein schnelles Starten der Applikationen, da somit nicht alle Schriften aktiv im System gehalten werden müssen. Weitere Funktionen sind zum Beispiel das Erkennen defekter und doppelter sowie eine Vorschau und der Vergleich der vorhandenen Schriften.
Derzeit ist beim BurdaVerlag die lokale Schriftverwaltungssoftware „FontExplorer X Pro“ von dem Anbieter „Monotype“ im Einsatz. Allerdings wurde der Verkauf aufgrund einer neuen Software des Anbieters zum 30.06.2022 eingestellt. Die Unterstützung beim Support der Anwendung sowie Updates werden ab dem 30.06.2023 nicht mehr angeboten. Daher ist keine Kompatibilität zu zukünftigen Betriebssystemen und weiteren benötigten Anwendungen möglich. Aufgrund dieser Gegebenheiten wird eine neue Lösung benötigt, um alle verfügbaren Schriften weiterhin verwalten und nutzen zu können.
Im ersten Schritt werden die derzeit eingesetzte Software und Arbeitsabläufe der Redaktionen und Administratoren analysiert. Darauf folgt eine Anforderungsbeschreibung. Durch eine Gegenüberstellung der angebotenen Tools mit einer entsprechenden Evaluierungsmethode erfolgt in einigen Schritten die Auswahl einer Software. Auf Basis dieser entsteht ein Konzept und eine prototypische Implementierung. Sollte keine passende Software gefunden werden, da alle angebotenen Tools nicht den Anforderungen entsprechen, wird eine alternative Vorgehensweise erarbeitet, sodass die Schriften auch weiterhin, ohne Software, verwaltet und genutzt werden können.
In Zusammenarbeit mit der Klinik für Gynäkologie mit Brustzentrum der Charité - Universitätsmedizin Berlin wurde im Rahmen dieser Bachelorarbeit die grafische Umsetzung eines Handbuchs für Brustkrebspatient*innen erarbeitet. Das Handbuch sollte über die Erkrankung aufklären und Patient*innen auf ihrem individuellen Behandlungsweg begleiten. Ziel dieser Arbeit war es, die von der Charité ausgearbeitete Information grafisch aufzuarbeiten und ein Buch zu gestalten, welches die Patient*innen in gedruckter Form als nutzen können.
In den letzten Jahren ist die Relevanz des Wassersparens und der nachhaltigen Nutzung dieses lebenswichtigen Elements angesichts des Klimawandels und abnehmender Wasserressourcen erheblich gestiegen. In diesem Kontext legt die vorliegende Bachelorarbeit, die in Zusammenarbeit mit der Firma Hansgrohe erstellt wurde, den Fokus auf die Schaffung eines Konzeptes sowie der prototypischen Realisierung eines Serious Games. Das Ziel des Spiels ist es, bei Kindern ein Bewusstsein und Verständnis für die nachhaltige Wassernutzung zu fördern. Im Zuge des Projekts wurde ein iterativer Spiel-Design-Prozess verfolgt, um ein pädagogisch wertvolles und ansprechendes Spielkonzept zu entwickeln. Der nutzerzentrierte Ansatz war maßgeblich, um ein tiefgehendes Verständnis für die Bedürfnisse und Vorlieben der jungen Zielgruppe zu erlangen und somit ein optimal auf die Lernerfahrung abgestimmtes Produkt zu entwerfen. Das Spiel kombiniert Elemente der Exploration, Simulation und des Casual Gamings, um das Verständnis für die nachhaltige Wassernutzung auf spielerische und interaktive Weise zu vermitteln. Die Resultate der prototypischen Umsetzung wurden mittels Nutzertests überprüft, um die Effektivität und Benutzerfreundlichkeit zu sichern. Diese Arbeit unterstreicht nicht nur die Wichtigkeit eines verantwortungsvollen Umgangs von Wasser, sondern illustriert zudem, wie durch innovatives Spiel-Design die Bildung und Sensibilisierung von Kindern in Bezug auf zentrale ökologische Themen erreicht werden können.
Um den Erfolg einer Operation zu beurteilen, werden in klinischen Untersuchungen häufig Fragebögen genutzt. Ziel dieser Arbeit ist es, herauszufinden, ob es einen Zusammenhang zwischen subjektiven Outcome-Scores der Fragebögen und biomechanischen Parametern gibt. Die Forschungsfrage lautet: „Reicht ein Fragebogen zur Beurteilung des Operationserfolges oder sind weitere objektive Untersuchungen von Nutzen.
Um dies zu beantworten, wurde eine Querschnittsstudie mit elf Probanden durchgeführt. Diese mussten vor zwölf Monaten mit einer Hüft-Totalendoprothese versorgt worden sein. Die Probanden mussten verschiedene Fragebögen ausfüllen, anschließend wurde eine Ganganalyse mittels Optogait durchgeführt und die Maximalkraft mit dem Multifunktionalen Diagnostikgerät ermittelt. Die Ergebnisse der Fragebögen wurden mit den biomechanischen Parametern auf eine statistische Korrelation überprüft.
Die Studie hat gezeigt, dass es zwischen einigen Unterkapiteln der Fragebögen und den biomechanischen Parameter moderate bis starke statistisch signifikante Korrelation gibt. Jedoch nicht mit allen Parametern und nicht in der Gesamtbetrachtung der Fragebögen.
Dies zeigt, dass es zwar Zusammenhänge zwischen subjektiven Outcome-Scores und biomechanischen Parametern gibt, diese aber nur einen groben Eindruck des Operationserfolges widerspiegeln. Für eine Beurteilung reicht ein Fragebogen alleine damit nicht aus, und man sollte biomechanische Parameter zusätzlich nutzen.
Diese Bachelorarbeit befasst sich mit der Konstruktion eines Testgerätes zur Untersuchung der Schuh-Fuß und Schuh-Bodeninteraktion beim Speerwurf. Zu Beginn wird eine kurze Einleitung zu den Grundlagen des Speerwurfs gegeben, sowie ein vergleichbares Gerät der technischen Universität Dänemark vorgestellt. Anschließend werden verschiedene Möglichkeiten zum Antrieb der Aktuatoren vorgestellt und diskutiert. Der finale Entwurf besteht aus einer Rahmenkonstruktion aus Aluminiumprofilschienen, einer Boden- und Kraftmessplatte, einer Schuhleiste, welche an mehreren Gelenken gelagert ist und so verschiedene Stellungen des Fußes nachahmen kann, einem Normzylinder, der einen Stoß auf die zu untersuchende Schuhleiste ausführt, und einem Linearantrieb, der die Schuhleiste auf die Kraftmessplatte drückt und so für Halt sorgt.
Ziel der vorliegenden Bachelorarbeit ist es, eine automatisierte Bildausschnittkontrolle für die Low Code Plattform Intrexx zu implementieren. Diese soll mit Hilfe eines geeigneten Künstliche Intelligenz Frameworks Gesichter in Bildern erkennen und diese anschließend ausschneiden. Die Benutzer*innen sollen die Ausschnitte außerdem noch manuell anpassen können. Die Implementierung erfolgt mittels Typescript innerhalb einer Webkomponente, um eine Verwendung innerhalb von Intrexx zu ermöglichen. Nach einem Vergleich verschiedener technologischer Ansätze hat sich Tensorflow als geeignetes KI-Framework herausgestellt. Im Rahmen einer Performance-Analyse wurden außerdem verschiedene Tensorflow-Modelle miteinander verglichen.
In dieser kleinen schriftlichen Ausarbeitung behandele ich das Thema der Symbiose aus Kunst und Wissenschaft auf meine persönliche Einstellung.
Ich habe einen Dokumentarfilm zu diesem spannenden Thema in dem Rahmen erstellt und habe in diesem schriftlichen Teil erzählt, wie ich zu den einzelnen Themen wie auch zur Symbiose stehe. Dabei gehe ich auf die persönlichen Erkenntnisse ein, welche ich über den Zeitraum des Dokumentarfilms erlangt habe. Ein Teil des Filmes waren zwei Workshops, in denen ich die Parteien Kunst und Wissenschaft mit einem Thema in Verbindung gesetzt habe. Auch diese wird hier erläutert.
In dieser Arbeit werden über die ökonomischen Anwendungsfälle des epidemiologischen SIR-Modell nach dem Ansatz von Robert J. Shiller in Narrative Economics reflektiert. Im genaueren werden die Hype-Zyklen, welche von der US-amerikanischen Firma für Marktforschungsanalysen Gartner regulär herausgebracht werden, untersucht.
Im spezifischen unterliegt Gartner Hype-Zyklen ein Modell, welche die aufkommenden Technologien graphisch und statistisch darstellt, um diese in Kategorien von kommerzieller Erfolgsversprechen einordnen zu können. Narrative und generelle Marktbewegungen werden mitunter in Betracht gezogen und in dieser Arbeit wird auf die Narrative, welche um aufkommende Technologien existieren, eingegangen. Hier setzt das SIR-Modell ein, welches dem Fachgebiet der Epidemiologie entnommen wird und für die Ausbreitung von Narrativen zur Erklärung zugezogen werden soll.
In den letzten Jahren haben Recommender Systeme zunehmend an Bedeutung gewonnen. Diese Systeme sind meist für Bereiche des E-Commerce konzipiert und berücksichtigen oftmals nicht den aktuellen Kontext der nutzenden Person. Recommender Systeme können allerdings nicht nur im E-Commerce zum Einsatz kommen, sondern finden ihren Anwendungszweck auch im Gesundheitswesen. Ziel dieser Bachelorarbeit ist es, ein Recommender System zu entwickeln, das den aktuellen Kontext der nutzenden Person (Chatverlauf, demografische Daten) besser berücksichtigen kann. Dazu befasst sich diese Arbeit mit der Konzeption und prototypischen Umsetzung eines kontextsensitiven Recommender Systems für einen bereits existierenden Chatbot aus dem Gesundheitswesen. Das in dieser Arbeit konzipierte und entwickelte Recommender System soll Mitarbeitende aus dem Gesundheits- und Sozialwesen entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen zur Verfügung stellen. Basierend auf festgelegten Anforderungen wurde ein Konzept für das Recommender System entwickelt und zu Teilen als Prototyp umgesetzt. Abschließend wurde der Prototyp im Hinblick auf die Anforderungen evaluiert. Zudem fand eine technische Evaluation und eine Evaluation mithilfe von Anwendenden statt, welche den implementierten Prototypen bereits existierenden Systemen gegenüberstellte. Die von dem Prototyp empfohlenen Textausschnitte erzielten in der Evaluation mit nutzenden Personen eine thematisch signifikant höhere Übereinstimmung mit den Chatdaten.
Die folgende Arbeit thematisiert ein Konzept zur Automatisierung von Firewall-Audits und die Implementierung eines Tools zur Durchführung. Für das Audit relevante Aspekte von NGFWs werden ausgewählt und näher erläutert. Diese bestehen aus der Objektdatenbank, Firewall-Regelwerken und VPN-Konfigurationen. Die Analyse der Daten basiert auf einerseits eigens erstellten Kriterien, andererseits auf Empfehlungen des BSI und des NIST. Zusätzlich wird auf Basis von NIST Recommended Practices und dem CVSS der „Awareness Score“ eingeführt, der auf Fehlkonfigurationen innerhalb des Firewall-Regelwerks aufmerksam machen soll. Das Konzept für das Tool sieht vor, Firewalls mehrerer Hersteller, darunter Cisco, Checkpoint und Sophos, auditieren zu können. Die Implementierung wurde aus zeitlichen Gründen nur für Firewalls des Herstellers Cisco durchgeführt. Für die Analyse wird ein einheitliches Firewall-Modell erzeugt. So sollen auch Firewalls anderer Hersteller zu dem Tool hinzugefügt werden können. Die Ergebnisse des Audits werden in einem Bericht dargestellt.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Rupturen des vorderen Kreuzbandes werden meist mit einer Kreuzbandplastik-Operation wiederhergestellt. Bei einer gängigen OP-Methode wird hierbei Sehnenmaterial am Semitendinosus-Muskel entnommen, und mit diesem gewonnenen Sehnenmaterial das Kreuzband rekonstruiert. Dies hat zur Folge, dass es zu neuromuskulären Defiziten und dem Verhalten der Co-Kontraktion von Quadrizeps und Hamstrings kommen kann. Weitere Folgen sind Muskelschwäche und ein weniger flektiertes Verhalten in der Stützphase beim Gehen am operierten Bein. Das Auftreten von Co-Kontraktion beim Laufen ist im Zusammenhang mit einer expliziten Co-Kontraktionsberechnung noch nicht ausreichend untersucht worden. Auch ist unklar, welchen Einfluss die Kraftfähigkeiten auf Co-Kontraktion und Gelenkwinkel haben. In dieser Studie soll untersucht werden, inwieweit diese Effekte auch bei der Bewegung des Laufens auftreten. Mögliche Zusammenhänge zwischen Kraft/Co-Kontraktion und Kraft/Kniegelenkswinkel werden ebenfalls untersucht. Die Ergebnisse sollen einen Beitrag zum Verständnis der Mechanismen und damit auch zur Verbesserung der Rehabilitationsprozesse leisten. Im Rahmen von „Return to Sport“ Messungen wurden im IFD Colgone über einen Zeitraum von zwei Jahren „Return to Sport“ Messungen durchgeführt und relevante biomechanische Parameter erfasst. Die Untersuchungen fanden im Durchschnitt sieben Monate nach der Kreuzbandoperation statt. Innerhalb der Studie wurden 26 Patientendaten ausgewertet. Die Co-Kontraktion wurde durch Auswertung der EMG-Daten mit Hilfe einer Formel bestimmt. Die Patienten zeigten unabhängig vom Geschlecht signifikant erhöhte Co-Kontraktionswerte, reduzierte Kniegelenkswinkel und reduzierte Kraftfähigkeiten am operierten Bein. Dabei konnten die erhöhten Co- Kontraktionswerte als auch weniger flektierte Kniewinkel nicht bei allen Patienten der Stichprobe auf deren schlechte Kraftfähigkeit zurückgeführt werden. Hier gab es leichte Zusammenhänge aber keine signifikanten Ergebnisse. Da Co-Kontraktion als auch reduzierte Kniegelenkswinkel mit unterschiedlichsten Problemen in Verbindung gebracht werden können, sollte daran mit Hilfe von angepassten Reha- Maßnahmen gearbeitet werden. Rehabilitationsprozesse sollten verschiedene Kraft- und Koordinationsfähigkeiten fördern, mit dem Ziel, das neuromuskuläre Zusammenspiel zu verbessern.
Ziel dieser Studie war es, Zusammenhänge zwischen Kinematik und Kraftanforderungen an den Ringen im Gerätturnen zu ermitteln. Zu diesem Zweck wurde das Schwung- und Krafthalteelement Stemme rückwärts zum Kreuzhang gewählt und analysiert.
Die Datenerhebung erfolgte im Rahmen der Europameisterschaften 2022 in München. Für die Analyse der Kraftanforderungen wurde die vertikale Kraft in den Aufhängungen der Ringe mit eindimensionalen Kraftsensoren gemessen und für die Analyse der Kinematik ein markerloses Bewegungserfassungssystem eingesetzt.
Insgesamt wurden die Ausführungen von 17 professionellen Turnern untersucht. Für die Analyse der Kinematik wurden vier Ausführungsparameter bestimmt und deren Einfluss auf den Kraftbedarf statistisch analysiert, wobei die Kraftdaten auf das jeweilige Körpergewicht normiert wurden und das relative Kraftmaximum als Bezugspunkt für den Kraftbedarf gewählt wurde. Bei den vier Ausführungsparametern handelte es sich um die maximale Körpervorneigung während des Rückschwungs vor der Stemmbewegung des Elementes, den minimalen Arm-Rumpf-Winkel (ARW) während des Elementverlaufs, die höchste Position des Körperschwerpunktes (KSP) während des Elementverlaufs und die Distanz, um die der KSP von der höchsten Position in den Kreuzhang absinkt.
Es zeigte sich eine signifikante Korrelation zwischen der höchsten KSP-Position und dem Kraftmaximum. Für die anderen Ausführungsparameter konnten Tendenzen ermittelt werden. Darüber hinaus konnten die Korrelationen der Parameter untereinander zu zwei Ausführungsvarianten zusammengefasst werden. Dabei führt eine Ausführungsvariante zu einem größeren relativen Kraftmaximum und zu größeren Abzügen als die anderen. Die biomechanische Betrachtung dieser Ausführungsvarianten ergab jedoch, dass die Ausführungsvariante mit dem größeren mittleren Kraftmaximum dennoch leichter auszuführen ist, während die andere Ausführungsvariante in der Durchführung anspruchsvoller ist und besser bewertet wird.
Im Laufe der Zeit haben sich die Anforderungen an die Zeitung verändert. Als eine der von der Digitalisierung am meisten betroffenen Industrien musste die Zeitungsbranche einen Wandel durchgehen. Dieser ist schon seit einiger Zeit im Gange, aber noch längst nicht abgeschlossen. Wie drei führende Zeitungsunternehmen diese Herausforderungen meistern, soll in dieser Arbeit untersucht werden.
Ziel dieser Arbeit ist es, sich mittels einer Marktanalyse zunächst einen Überblick über den Zeitungsmarkt in Deutschland und den USA zu verschaffen. Anschließend werden mit einer SWOT-Analyse die Stärken und Schwächen der gewählten Zeitungen F.A.Z., DIE WELT und New York Times herausgearbeitet. Darüber hinaus werden die jeweiligen Chancen und Risiken, die sich für die Zeitungen ergeben, näher beleuchtet. Im letzten Schritt wird die SWOT-Analyse der drei Zeitungen als Grundlage genommen, um Handlungsempfehlungen zu geben. Hierbei wird der Fokus auf die vier Strategien Ausbauen, Absichern, Aufholen und Vermeiden gelegt.
Aus der Arbeit ging hervor, dass die zunehmende Bedeutung von KI eine wichtige Rolle in der Zeitungsbranche spielen wird. Die Personalisierung wird in diesem Zusammenhang die wichtige Basis für zukünftige Produkte der Zeitungen werden. Auch die Öffnung der Unternehmenskultur wird entscheidend sein, um dem zunehmenden Fachkräftemangel entgegenzuwirken. Des Weiteren wird die Diversifizierung der Geschäftsfelder für die Zeitungen wichtig sein, um die Folgen der sinkenden Erlöse aus dem Printbereich abzuschwächen.
Der Onlinehandel ist ein kontinuierlich wachsender Markt, der sich stetig im Wandel befindet. Um als Unternehmen mit der großen Konkurrenz mithalten zu können und den immer wieder neu aufkommenden Trends gerecht zu werden, ist eine beständige Analyse und Adaption dieser nötig.
Das Ziel der vorliegenden Arbeit ist die Konzeption und die gestalterische Umsetzung einer B2C-E-Commerce Plattform auf Basis einer Konkurrenzanalyse. Dazu wird die folgende Forschungsfrage gestellt: Wie können UX-Design-Prinzipien und die Ergebnisse der Konkurrenzanalyse genutzt werden, um spezifische Design-Entscheidungen in Bezug auf Layout, Navigation, Inhaltsstruktur und visuelle Gestaltung zu treffen ?
Um die Forschungsfrage zu beantworten, wurde über die Untersuchung aktueller E-Commerce-Trends und UX-Design-Prinzipien hinaus eine Konkurrenzanalyse durchgeführt, die sich an relevanten Wettbewerbern im Branchenbereich orientiert. Mittels einer detaillierten Konkurrenzanalyse wurden verschiedene Aspekte wie Website-Funktionalität, Benutzerführung und visuelle Ästhetik bewertet, um mögliche Erfolgsfaktoren zu identifizieren. Die Konzeption erfolgte auf Grundlage der gewonnenen Erkenntnisse. Dabei werden Informationsstrukturen und Design-Elemente gezielt gestaltet, um den gegebenen Anforderungen gerecht zu werden.
Diese Bachelorarbeit bietet somit einen ganzheitlichen Ansatz, der die Zusammenwirkung zwischen Konkurrenzanalyse und UX-Design aufzeigt und wie diese Erkenntnisse gemeinsam in der Umsetzung einer B2C-E-Commerce Website genutzt werden können.
This thesis deals with the FEV centrifugal compressor teststand at Offenburg University of Applied Sciences. The teststand has two electrically operated compressorunits from the Rotrex company, on which students can gain practical experience. The range of application of the teststand is to be extended, so that different impeller geometries can be tested with otherwise unchanged construction. To realise this, knowledge about the operating behaviour of the volute and possible design solutions for the interface between the impeller and the gearbox are required. Using numerical methods for flow analysis, the operating range of the volute was determined by narrowing down the inlet conditions. Furthermore, research was carried out on common couplings, three different coupling concepts were worked out and compared with each other. This work does the preliminary work and thus lays the foundation for the implementation of the upcoming series of tests on the operating behaviour of different impeller geometries.
Das Ziel dieser Arbeit war es zu prüfen, ob bei der Verwendung von Perturbationen in einem Laufschuhvergleich eine Adaptations-Phase im Voraus durchgeführt werden sollte, um den Einfluss potenzieller Adaptationseffekte zu reduzieren. Dafür absolvierten die acht Probanden insgesamt 15 Perturbationen auf einem Laufband, welche sich durch die kurzzeitige Beschleunigung des Laufbands von 2,5 𝑚/𝑠 auf 3,5 𝑚/𝑠 kennzeichneten. Anschließend wurden aus den normalisierten Daten die initialen Gelenkswinkel bei Bodenkontakt im Knie und Sprunggelenk, die minimale bzw. maximale Bodenreaktionskraft in x- bzw. z-Richtung und die Bodenkontaktzeit bestimmt. Um sowohl potenzielle Vorwärtssteuerungen als auch Feedbackbezogene lokomotorische Anpassung zu berücksichtigen, wurden die zwei Schritte vor der Perturbation, der perturbierte Schritt und die drei Schritte nach der Perturbation analysiert. Neben deskriptiver Statistik wurden die einzelnen Schritte mittels Varianzanalyse und paarweisen t-Tests aufeinanderfolgender Trials untersucht. Der initiale Sprunggelenkswinkel zeigt zwar einen Einfluss der Perturbationen im zweiten und dritten Schritt nach der Perturbation, aber es lässt sich keine Anpassung im Verlauf der Messung feststellen. Auch bei der Bodenkontaktzeit lassen sich Unterschiede in den Messwerten und zwischen den Schritten finden, diese können allerdings ebenfalls nicht der Adaptation zugeordnet werden. Die Entwicklung der Mittelwerte und signifikante Ergebnisse in ANOVA und t-Tests deuten beim initialen Kniewinkel für den zweiten und dritten Schritt nach der Perturbation auf eine sukzessive Anpassung des Parameters an den Einfluss der Störung hin, welche nach acht Perturbationen abgeschlossen ist. Für die minimale Bodenreaktionskraft in x-Richtung (Bremskraft) befinden sich die Daten dagegen bereits nach einem Trial auf einem stabilen Niveau, wobei die Abweichungen hier ebenfalls im zweiten Schritt nach der Beschleunigung des Laufbands auftreten. Die maximale vertikale Bodenreaktionskraft (z-Richtung) zeigt Tendenzen zu einer fortschreitenden Anpassung im ersten und zweiten Schritt nach der Perturbation. Hier lassen sich aufgrund des Verlaufs der Mittelwerte und signifikanter Unterschiede beim ersten Schritt sechs Trials als Mindestanzahl für eine Adaptations-Phase ausmachen. Somit konnten in drei von fünf analysierten Parameter Merkmale von Adaptationseffekten gefunden werden, die sich alle in den Schritten nach der Perturbation zeigten und somit Feedbackbezogener Anpassung zuzuordnen sind. Sofern alle Parameter in der anschließenden Messung verwendet werden, sollten in der Adaptations-Phase mindestens acht Perturbationen durchgeführt werden, damit der Einfluss von Anpassungseffekten im Vergleich vernachlässigbar ist.
Das Ziel der vorliegenden Arbeit war es, den Kopplungskoeffizienten (KK) zwischen der Calcaneus Inversion/Eversion und der Tibia Innen-/Außenrotation zu ermitteln. Dabei wurde die Bewegung beim Barfußlaufen ohne Tape, mit frischem Tape und gebrauchtem Tape verglichen.
Die Durchführung erfolgte mit Hilfe eines markerbasierten Kamerasystems von Qualisys (Qualisys AB, Göteborg, Schweden). Diese Studie wurde mit 10 Probanden (Männer: 5; Frauen: 5, Alter: 24,3 ± 1,49 Jahre) durchgeführt. Zu Beginn wurde die Sprunggelenksstabilität der Probanden getestet, da Probanden mit einer Instabilität nicht miteingeschlossen werden sollten. Die Aufgabe bestand darin, barfuß unter drei Bedingungen (ohne Tape, mit frischem Tape, mit gebrauchtem Tape) mit einer Geschwindigkeit von 4,5 m/s zu laufen. Jede Bedingung hatte drei Durchgänge.
Die Auswertung wurde mit Hilfe von Matlab und statistischer Analyse durchgeführt. Matlab führte die Berechnung des KK zwischen Calcaneus Inversion/Eversion und der Tibiarotation aus. Die statistische Analyse beschrieb die Signifikanz der Werte.
Die Ergebnisse zeigten, dass der KK einen signifikanten Anstieg vom Barfußlaufen ohne Tape zum Laufen mit frischem und gebrauchtem Tape aufwies. Der KK ohne Tape lag bei 0,98 ± 0,38, bei frischem Tape von 1,28 ± 0,42 und bei gebrauchtem Tape bei 1,3 ± 0,42.
Zusammenfassend kann gesagt werden, dass eine signifikante Veränderung des KK bei getaptem Sprunggelenk besteht. Dadurch kann es zu einer verstärkten Rotation der Tibia kommen, was zu einer Überlastung der Strukturen des Kniegelenks und damit zu Knieverletzungen führen kann.
Hintergrund der Studie ist die Annahme, dass das Tragen von Barfußschuhen einen positiven Effekt auf die Gleichgewichtsfähigkeit eines Menschen hat und somit präventiv das Sturzrisiko vermindern kann. Ziel der Studie ist daher, einen Zusammenhang zwischen der Zehenfreiheit und der Gangsicherheit festzustellen. Zu diesem Zweck werden anhand einer Ganganalyse mit dem GRAIL-System, der Firma Motek Medical, das Laufverhalten von 23 Probanden in drei verschiedenen Schuhkonditionen (schmale Barfußschuhe, breite Barfußschuhe und getapte Zehen in Barfußschuhen) untersucht. Pro Perturbationsdurchgang werden jeweils fünf Gangzyklen vor und nach der Perturbation aufgenommen. Betrachtet werden die Kokontraktionswerte ausgewählter antagonistischer Muskelpaare des Ober- und Unterschenkels. Diese werden während der fünf Gangzyklen vor den einzelnen Perturbationen mittels EMG (Elektromyographie )-Sensoren gemessen. Die Ergebnisse zeigen, dass das einmalige Tragen von Barfußschuhen und somit die kurzfristige Veränderung der Zehenfreiheit keinen signifikanten Einfluss auf die Kokontraktionswerte und somit auf die Gleichgewichtsfähigkeit hat. Lediglich beim langfristigen Tragen von Barfußschuhen wiesen die Ergebnisse leichte Tendenzen in Richtung einer Erhöhung der Gleichgewichtsfähigkeit auf. Daraus lässt sich ein Trainingseffekt der Barfußschuhe auf den menschlichen Körper ableiten, der langfristig zu einer Verbesserung der Gangsicherheit führt. Da diese Ergebnisse jedoch nicht signifikant sind, muss diese Annahme erst durch weitere Studien geprüft werden. Einen tatsächlich signifikanten Einfluss hatte hingegen der Lerneffekt, der sich während des Versuchsablaufs bei den Testpersonen einstellte, auf die Kokontraktionswerte. Hierbei zeichnet sich eine annähernd exponentiell fallende Kurve im Verlauf der Messungen ab. Interessant ist dabei, dass dies auch für die Baseline zutraf, also auf die Referenzmessung ohne Perturbationen. Dies deutet darauf hin, dass die Probanden nicht primär wegen der Perturbationen in einer angespannten bzw. vorbereiteten Haltung waren, sondern aufgrund des ihnen unbekannten Untergrunds, dem perturbationsfähigen Laufband. Bei zukünftigen Studien sollte daher für aussagekräftige Ergebnisse eine stärkere Eliminierung des Lerneffekts geachtet werden.
Die vorliegende Pilotstudie untersucht die Anwendbarkeit von Mixed Reality zur Applikation eines externen Fokus während spezifischen Bewegungsaufgaben mit dem Ziel der Verbesserung des Return to Sport Testings. In einem ersten Schritt nahmen daher 9 gesunde FußballerInnen an der Studie teil.
Es wurden Sprünge mittels der speziell entwickelten Mixed Reality Anwendung MotumXR, in drei verschiedenen Bedingungen verglichen. Die erste Bedingung entspricht einem standardisierten vertikalen Sprung ohne spielspezifischen externen Fokus, während die zweite und dritte Bedingung einen Sprung mit spielspezifischem externem Fokus, im Sinne eines simulierten Kopfballs, darstellt. Bedingung zwei und drei unterscheiden sich in der Position der einwerfenden Person, welche den virtuellen Ball leicht versetzt von links oder rechts einwirft. Als Sprungform wurde der Counter Movement Jump gewählt. Es wurden kinetische und kinematische Parameter ermittelt, die es ermöglichen, die Auswirkungen des externen Fokus auf die Sprungbewegung zu erfassen.
Die Ergebnisse zeigen signifikante Unterschiede zwischen den Bedingungen in folgenden biomechanischen Parametern: Absprungzeit, vertikale maximale Bodenreaktionskraft, maximale Kraftanstiegsrate, maximaler Knieflexionswinkel und maximales Knieflexionsmoment. Die Kopfballsituation mit externem spielspezifischem Fokus weißen höhere maximale vertikale Bodenreaktionskräfte und gesteigerte maximale Knieflexionsmomente auf im Vergleich zu der Bedingung des maximalen Sprungs. Diese Befunde deuten darauf hin, dass die Sprungstrategie entsprechend der Aufgabenstellung angepasst wurde und die Kopfballsituation in der Mixed Reality Umgebung eine realitätsnähere Testung ermöglichen könnte. Die Position des Einwerfers zeigt keinen Einfluss auf die Beinsymmetrie. Das deutet darauf hin, dass die Anwendung MotumXR vielversprechende Möglichkeiten für die Weiterentwicklung von RTS-Testungen bietet. Weiterführende Untersuchung, die Personen mit Kreuzbandverletzungen mit einbeziehen, sind nötig, um die Ergebnisse dieser Pilotstudie kritisch zu überprüfen.
Einfluss der Zehenfreiheit auf die dynamische Stabilität bei medio-lateralen Laufbandperturbationen
(2023)
Das Tragen von Barfußschuhen, so die These, führt zu einem natürlichen und damit gesunden Gangbild. Ein Merkmal des Barfußschuhs ist die breite Zehenbox, die eine maximale Zehenfreiheit gewährleistet. In dieser Studie wurde der Faktor Schuhweite hinsichtlich seines Einflusses auf die Gangstabilität untersucht. Mit dem GRAIL-System wurden 28 Probanden in jeweils vier Schuhkonditionen (Wash out = eigene Schuhe, schmal, breit, Tape) und 3 Trials (Baseline, Perturbations, Simulated Inebriation) mittels Motion Tracking erfasst. Die Gangstabilität wurde anhand von 𝑀𝑜𝑆 (𝑀𝑎𝑟𝑔𝑖𝑛 𝑜𝑓 𝑆𝑡𝑎𝑏𝑖𝑙𝑖𝑡𝑦), 𝑃𝑜𝐼 (𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡𝑦 𝑜𝑓 𝐼𝑛𝑠𝑡𝑎𝑏𝑖𝑙𝑖𝑡𝑦), Schrittbreite und Schrittdauer beurteilt.
Es konnte kein signifikanter Einfluss der Schuhweite auf die Gangstabilität festgestellt werden. Dagegen ist das Alter ein signifikanter Einflussfaktor (ältere Probanden gehen weniger sicher) sowie die Art des Trials (simulated Inebriation ist am unsichersten). Zusätzlich wurden die Probanden in eine BX (Barefoot Experienced) und eine BUX (Barefoot Unexperienced) Gruppe eingeteilt, um zu untersuchen, ob es einen Unterschied macht, ob ein Proband in der Vergangenheit bereits Barfußschuhe getragen hat. Im Vergleich zur BUX-Gruppe war das Gangbild der BX-Gruppe durch folgende Merkmale gekennzeichnet: kürzere Schrittdauer, breitere Schritte und niedrigere 𝑃𝑜𝐼-Werte (in den Barfußschuhen).
Es kann vermutet werden, dass Personen mit Barfußschuherfahrung in einer neuen Schuhkondition sicherer gehen, weil sie unabhängiger vom Schuh sind. Dies könnte darauf zurückzuführen sein, dass die BX-Personen durch das Barfußlaufen stärkere Fußstrukturen entwickelt haben, die sich unabhängig vom Schuh positiv auf das Gangbild auswirken. Somit wirken sich Barfußschuhe erst langfristig positiv auf den Gang aus.
Das Ziel dieser Arbeit ist es, herauszufinden inwiefern der Exopulse Mollii Suit® Auswirkungen auf Menschen mit dem Krankheitsbild Multiple Sklerose hat. Genauer soll ermittelt werden, wie die Symptome Spastik und Schmerz beeinflusst werden und wie sich dies auf die Mobilität und Lebensqualität auswirkt.
Im Rahmen der Studie wurde von jedem Probanden eine qualitative Untersuchung mittels eines Fragebogens durchgeführt, um eine subjektive Einschätzung der Beeinträchtigung zu erhalten. Zusätzlich wurde eine quantitative Untersuchung mit vier Assessments durchgeführt, bei denen die Mobilität und Feinmotorik getestet wurden. Der Mollii Suit® wurde daraufhin einmalig angewendet und im Verlauf von 48 Stunden wurden die Untersuchungen wiederholt durchgeführt, um einen möglichen Verlauf und die maximalen Veränderungen zu ermitteln.
Die qualitativen Ergebnisse der Studie ergeben, dass sich bei 22,2 % der Probanden keine Veränderungen zeigten. Bei 77,8 % hingegen zeigten sich positive Auswirkungen in einer großen Variationsbreite. Am häufigsten verbesserte sich die Spastik, gefolgt von der Mobilität. Ebenso berichteten die Probanden, dass sich ihre Beweglichkeit und der Bewegungsablauf verbesserten.
Quantitativ zeigte sich eine durchschnittliche Verbesserung von 21,6 % und einer Range zwischen -1,3 % und 53,4 %.
Aufgrund dieser großen Variationsbreite bei beiden Untersuchungen kann keine genaue Aussage über das Ausmaß der Wirkung und Verbesserung getroffen werden. Es zeigt sich aber das mögliche Potential des Mollii Suit®.
Die bisherige Forschung steht noch an ihrem Anfang und benötigt, um zuverlässige Aussagen treffen zu können, größer angelegte aber auch spezifischere Studien, die die einzelnen Symptome und Wirkweisen genauer untersuchen. Die vorliegende Studie stellt einen Grundstein dar, auf dem zukünftige Studien aufbauen können.
Evaluierung der effektiven Pedalkräfte bei der von dem Smartfit System empfohlenen Sattelhöhe
(2023)
Das Smartfit System unterstützt Bikefitter der Radlabor GmbH bei den grundlegenden Einstellungen am Fahrrad. Unter anderem gibt es eine Empfehlung für die Sattelhöhe an. In dieser Arbeit wird untersucht, ob eine Abweichung von dieser Empfehlung um ± 5° des Kniewinkels in der 90° Kurbelstellung Auswirkungen auf die effektive Pedalkraft hat. Untersucht werden zehn Probanden. Drei 2-minütige Radfahrtests werden bei 90 % der maximalen Leistung gefahren, bei denen alle drei Sattelhöhen getestet werden. Die maximale Leistung wird zuvor in einem Laktat-Stufentest auf dem Ergometer ermittelt. Die effektive Pedalkraft der linken und rechten Seite wird addiert und über den Kurbelverlauf gemittelt. Die gemittelten effektiven Kräfte der drei Sattelhöhen werden anschließend miteinander verglichen. Es gibt keine signifikanten Unterschiede der effektiven Pedalkraft zwischen allen drei Sattelhöhen (p = 0,319). Die effektive Pedalkraft der tiefen Sattelhöhe (- 5° Kniewinkel) ist im Schnitt 1,6 % kleiner als die der Smartfithöhe und die effektive Kraft der hohen Sattelhöhe (+ 5° Kniewinkel) ist im Schnitt 0,16 % größer. Die Empfehlung des Smartfit Systems bietet dem Bikefitter somit Spielraum, um auf individuelle Bedürfnisse des Kunden eingehen zu können.
Das Wachstum der Digitalisierung in der Industrie unterstreicht die Bedeutung der Usability der Systeme. Usability bezieht sich auf das Ausmaß, in dem ein Produkt oder Design von bestimmten Benutzern in einem bestimmten Kontext verwendet werden kann, um ein definiertes Ziel effektiv, effizient und zufriedenstellend zu erreichen.
In dieser Bachelorarbeit wurden die Ergebnisse einer Usability-Evaluierung einer Anwendung vorgestellt, die für tägliche Führungsroutinen im industriellen Bereich entwickelt wurde. Die Studie konzentrierte sich auf die Bewertung der Usability der Anwendung, der Benutzungserfahrung und der Einhaltung von Interaktionsprinzipien unter Berücksichtigung psychologischer Aspekte. Bei der Untersuchung wurde eine umfassende Methodik zur Bewertung der Usability angewandt, einschließlich formaler Usability-Tests und Nachbefragungen mit echten Endbenutzenden, die nur begrenzt mit der Anwendung vertraut waren.
Die Ergebnisse zeigten, dass die Kommunikation, die Hilfestellung und das unklare Design einiger Elemente selbst bei kleinen Aufgaben wie der Konfiguration von Linien Schwierigkeiten bereiten. Außerdem hatten die Testpersonen Probleme mit der komplexen Navigation in manchen Seiten. Die Studie enthält umsetzbare Empfehlungen, darunter die Integration von Feedback-Mechanismen, wie Tooltips und klare Fehlermeldungen und die Verbesserung des visuellen Designs von Schlüsselelementen für eine bessere Usability und eine positive Benutzungserfahrung.
Als Bachelorarbeit wurde ein Drehbuch ausgearbeitet. Hierbei handelt es sich um die Pilotfolge einer selbst konzipierten Serie.
Kurzzusammenfassung:
Anna, Tess, Felix und Vincent sind in ihren Zwanzigern und treten alle zur gleichen Zeit in einem Unternehmen ihre erste Stelle an. Neben den Unsicherheiten und Problemen, die mit einer neuen Stelle auftreten, müssen sich die vier auch mit ihren privaten Konflikten auseinandersetzen.
Um erfolgreich mit einer Marketing- oder Werbemaßnahme zu sein, ist es entscheidend, die Bedürfnisse und Wünsche der Zielgruppe zu verstehen. In der heutigen digitalen Welt hat sich die Generation Z, auch bekannt als ‚Digital Natives‘, zu einer der einflussreichsten Zielgruppen entwickelt. Geboren zwischen den späten 1990er Jahren und den frühen 2010er Jahren, sind sie mit der rasanten Entwicklung von Technologie und dem Aufstieg sozialer Medien aufgewachsen und haben diese fest in ihren Alltag integriert. Gegenwärtig umfasst die Generation Z mehr als elf Prozent der deutschen Bevölkerung und wird weltweit in den nächsten zehn Jahren voraussichtlich über ein Drittel aller Konsumenten ausmachen. Diese Altersgruppe ist eine wichtige Zielgruppe, deren Wertvorstellungen und Verhaltensmuster sich von denen früherer Generationen unterscheiden, und die es zu verstehen gilt, um das Potential voll auszuschöpfen. Das bedeutet, dass Unternehmen innovative digitale Marketingstrategien entwickeln und die Kanäle nutzen müssen, die für die Gen Z relevant sind. In den letzten Jahren hat eine Plattform besonders die Aufmerksamkeit der Generation Z auf sich gezogen - TikTok. Die Social-Media-Plattform hat sich innerhalb kurzer Zeit zu einer globalen Sensation und einem bedeutenden sozialen Netzwerk mit über einer Milliarde aktiven Nutzern weltweit entwickelt. Diese Bachelorarbeit widmet sich daher den Fragen, inwiefern Unternehmen mithilfe von TikTok als Marketingplattform die Generation Z erreichen und ansprechen können sowie der Rolle, die die spezifischen Merkmale und Charakteristika dieser Generation dabei spielen. Um fundierte Schlussfolgerungen ziehen zu können, wurde sowohl nationale als auch internationale Fachliteratur sowie Studien herangezogen. Durch die Berücksichtigung einer breiten Palette von Quellen wurde ein umfassendes Bild der Generation Z als Zielgruppe für die Marketingkommunikation erstellt. Für die Untersuchung von TikTok als Marketingkanal wurden verschiedene Quellen verwendet, darunter offizielle Quellen wie die TikTok-Website und das TikTok Business-Portal. Es wurden auch branchenspezifische Publikationen, Blogs, Studien und Analysen zu TikTok und seiner Bedeutung im Marketing herangezogen. Marktforschungsberichte wurden genutzt, um Informationen über die Nutzungsgewohnheiten und Präferenzen der Zielgruppe auf TikTok zu erhalten. Durch die sorgfältige Untersuchung dieser vielfältigen Quellen konnte ein umfassendes Verständnis von TikTok als Marketingkanal für die Erreichung der Generation Z entwickelt werden. Im Rahmen dieser Arbeit konnte festgestellt werden, dass die Generation Z die Zielgruppe der Zukunft darstellt. Um die Mitglieder der Generation Z als Zielgruppe anzusprechen, ist eine Marketingkommunikation erforderlich, die hauptsächlich online und idealerweise über Social-Media-Plattformen stattfindet. Insbesondere TikTok hat sich als vielversprechende Marketingplattform erwiesen, um die Generation Z zu erreichen und mit individuellen und relevanten Inhalten anzusprechen.
Die Analytik von Pflanzenkohle ist besonders im Hinblick auf einen möglichen Einsatz in der Landwirtschaft als Düngemittel Ersatz wichtig, da bei der Herstellung krebserregende polyzyklische aromatische Kohlenwasserstoffe (PAK) entstehen. Die PAK-Analytik bietet die Möglichkeit zu überprüfen und zu kontrollieren, wie viel belastetes Material auf diese Weise in die Umwelt eingeführt wird. In dieser Arbeit werden mögliche Methoden zur Extraktion und Analyse im Hinblick auf einen Schnelltest mit der bestehenden Methode bestehend aus Soxhlet-Extraktion und GC-MS Analyse verglichen. Untersucht werden die 16 EPA-PAK. Ein Schnelltest würde den Herstellern von Pflanzenkohle eine günstigere und engmaschigere Überwachung ihrer Produkte bieten.
Für die Extraktion wurden Ultraschallbad, Schüttler und Mikrowelle getestet, sowie verschiedene grüne Lösemittel als mögliche Alternativen zum momentan verwendeten Toluol. Die Extraktion mit 6 h Ultraschallbad hat mit 64% im Verhältnis zur Soxhlet am besten abgeschnitten. Bei dem Vergleich zweier Ultraschallbad-Extrakte mit den Soxhlet-Referenzen wurden jedoch 43 % und 93 % für die Summe der 16 EPA PAK gemessen. Die Methode bedarf also weiterer Untersuchungen.
Für die Analyse wurde HPTLC mit RP-18 Platten und einem Acetonitril-Wasser-Gemisch als mobile Phase getestet. Es wurden drei mögliche Methoden für die Gestaltung eines Schnelltestes getestet, ein Summenpeak mit allen 16 EPA-PAK und Naphthalin oder Benzo[a]pyren als Indikatorsubstanz. Aus diesen Versuchen geht das Standard-Additionsverfahren mit Benzo[a]pyren erfolgreich hervor, da die Ergebnisse durch die GC-MS-Analyse der gleichen Extrakte bestätigt werden konnten. Die Bestimmung von LOD und LOQ bestätigt, dass die Methode empfindlich genug ist, um den nötigen Messbereich erfassen zu können. Es wurden auch Versuche mit Coffein imprägnierten Platten durchgeführt. Diese Methode ist jedoch wegen der notwendigen Zweifachentwicklung deutlich aufwendiger und wurde daher nicht für die quantitativen Versuche gewählt.
5000er-Aluminiumlegierungen neigen bei der Umformung zur Bildung von Fließfiguren durch den PLC-Effekt. Dadurch sind die Anwendungsmöglichkeiten stark eingeschränkt, weil hohe Ansprüche an die Oberflächenqualität nicht erfüllt werden können. Der PLC-Effekt kann jedoch unter bestimmten Bedingungen unterdrückt werden, so dass das Umformpotential stark vergrößert werden kann. In dieser Arbeit wurden die Einflüsse der Dehnrate und des Dehnungszustandes auf das Auftreten des PLC-Effektes an der Legierung EN AW-5182 experimentell untersucht. Dazu wurden Versuche mit verschiedenen Dehnraten und an unterschiedlichen Probengeometrien durchgeführt. Bei den Flachzugversuchen nahm die kritische Dehnung, die Dehnung ab welcher der PLC-Effekt auftritt, im untersuchten Dehnratenbereich mit zunehmender Dehnrate zu. Ab einer nominellen Dehnrate von 5,2/s, bzw. einer von-Mises-Dehnrate von 3,4/s wurde kein PLC-Effekt mehr beobachtet. Die auftretenden PLC-Band-Typen, deren Form und Bewegung entsprach den Beobachtungen von älteren Untersuchungen ([AHZ02]) an der gleichen Aluminiumlegierung. Nur wurde damals bereits ab einer Dehnrate von 0,1/s kein PLC-Effekt mehr nachgewiesen. Als Hauptursache für diesen Unterschied wird eine andere Messtechnik oder Auswertemethode der älteren Untersuchungen vermutet. An den geprüften Proben mit PLC-Effekt waren mit bloßem Auge keine Fließfiguren zu erkennen. Zu Versuchen am ebenen Dehnungszustand mit Kerbzubproben sind keine Literaturwerte bekannt. Die Versuche zeigen, dass der PLC-Effekt dort auch auftritt und die kritische Dehnung mit zunehmender Dehnrate linear ansteigt. Ab einer von Mises-Dehnrate von 1,7/s wurde kein PLC-Effekt mehr beobachtet. Die auftretenden PLC-Bänder waren feldlinienförmig. Auch an den Scherzugproben trat der PLC-Effekt auf. Die kritische Dehnung nahm überwiegend linear mit zunehmender Dehnrate zu. Doch aufgrund nur kleiner Stufen im Dehnungs-Zeitverlauf war eine präzise Auswertung der kritischen Dehnung nicht möglich. Die PLC-Bänder waren parallel zur Hauptschubrichtung orientiert und bewegten sich nur geringfügig. Die an den Nakajima-Proben beobachteten PLC-Bänder zeigten ein deutlich anderes Verhalten als die der Zugversuche. Es traten immer mehrere PLC-Bänder gleichzeitig auf und ihrer Bewegungen waren geringer als an den Zugversuchen ähnlicher Dehnrate. Dadurch waren an den Nakajima-Proben mit PLC-Effekt mit bloßem Auge merkliche Fließfiguren zu sehen. Als Ursache für das andere Verhalten der PLC-Bänder wird der Reibkontakt zum Ziehstempel vermutet. Der PLC-Effekt nahm mit zunehmender Spannungsmehrachsigkeit stetig ab und war bei Erreichen des äquibiaxialen Spannungszustandes nicht mehr zu beobachten. In der Gesamtauswertung wurde gezeigt, dass das Umformpotential durch den PLC-Effekt stark eingeschränkt wird. Mit zunehmender Dehnrate kann das Umformpotential jedoch vergrößert werden und ab einer von-Mises-Dehnrate von etwa 3/s kann der komplette Umformbereich von EN AW 5182 ausgeschöpft werden. Die Versuchsergebnisse müssen nun noch validiert werden. Durch die anderen Bedingungen in industriellen Umformprozessen, können sich Abweichungen zu den Laborversuchen ergeben. Vor allem die Unterschiede zwischen den Zugversuchen und den Nakajima-Versuchen lassen solche Abweichungen als nicht unwahrscheinlich erscheinen.
Die vorliegende Bachelor-Arbeit entstand bei der Robert Bosch GmbH und befasst sich mit der Untersuchung elektrischer Antriebe, dessen Leistungsverhalten mithilfe des Rotormagnetfeldes bestimmt werden. Sie ist Bestandteil des Projektes „MagCam - Examination“ und beinhaltet als Hauptaufgabe die Rastmoment (engl. cogging torque) -Messung an elektrischen Antrieben mithilfe des intelligenten Messsystems „MagCam“. Anhand der Messung des Rotormagnetfeldes wurde das Rastmoment des elektrischen Motors quantifiziert und dessen Ursachen auf der Bauteilebene identifiziert.
Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung kleiner Elektromotoren
(2023)
Die vorliegende Arbeit beschäftigt sich mit der Erstellung eines Zuverlässigkeitskonzepts für die Welle-Nabe-Verbindung mit gekerbten Wellen, die innerhalb kleiner Elektromotoren für unterschiedliche Anwendungen mit spezifischen Anforderungen eingesetzt werden. Die Arbeit kann in vier Schritte unterteilt werden.
Im ersten Schritt werden die relevanten Schädigungsmechanismen bestimmt, die während der Betriebszeit der Verbindung für ein Ausfall der Baugruppe sorgen können.
Anschließend wurde aus der Baukastenannahme des Geschäftsbereichs Electrical Drives der Robert Bosch GmbH die Anforderungen an die jeweilige Ausführung abgeleitet und aufgeführt.
Um zu überprüfen, ob die eingesetzten Welle-Nabe-Verbindung die entstehenden Belastungen übersteht, wurde anschließend ein Berechnungskonzept durch Anpassungen an die spezielle eingesetzte Welle-Nabe-Verbindung erstellt, wodurch der Anwender die Möglichkeit hat, die zu erwartenden Fügekräfte bei der Herstellung der Verbindung, sowie das jeweilige übertragbare Drehmoment.
Im letzten Schritt werden die gesammelten berechneten Ergebnisse mit bereits vorhandenen Versuchsdaten der Ausführungen mit Einsatz einer 8 mm Welle aus C60 +C und einer Kerbanzahl von 8 symmetrisch angeordneten Kerben und einer Paketlänge von 18 mm , sowie einer Ausführung mit 8 mm Wellen aus C45 +AC, die lokal induktiv vergütet wurden, mit einer Kerbanzahl von 4 symmetrischen Kerben mit einer Paketlänge von 23 mm verglichen und evaluiert.
Eine schlechte Erreichbarkeit junger Zielgruppen und hohe Preise, sind Gründe für die schwindende Beliebtheit des Werbeformats TV-Werbung. Unternehmen greifen zunehmend auf Online-Werbung zurück, um ihre Produkte kostengünstig und gezielt zu vermarkten. Eine neue, digitale Form der TV-Werbung, Addressable TV, verspricht nun neue Chancen für eine Rückkehr der Werbung über den "Big Screen".
Ziel der vorliegenden Arbeit ist es Handlungsempfehlungen für Werbetreibende in Bezug auf Addressable TV abzuleiten. Es soll geklärt werden unter welchen Umständen und für welche Art von Unternehmen eine Nutzung erfolgversprechend sein kann.
Die vorliegende Bachelorarbeit untersucht die Anwendung der Transformer-Architektur bei der Entwicklung eines Chatbots für die Auskunft von Studieninformationen. Sie bietet eine gründliche Einführung in Chatbots, deren Funktionsweise und Klassifikation sowie in die Grundlagen neuronaler Netzwerke, Deep Learning und Natural Language Processing. Insbesondere die Transformer-Architektur und ihre Hauptkomponenten werden eingehend analysiert. Im Zuge dessen werden auch aktuelle Forschungen im Bereich Large Language Models und Fine-Tuning berücksichtigt.
Im praktischen Teil erfolgt die Darstellung der Konzeption, Implementierung und Evaluierung eines Chatbots für die Studienauskunft. Der erstellte Chatbot nutzt eine semantische Suche in Kombination mit einem Large Language Model, was sich als attraktive Alternative zu herkömmlichen Chatbots erweist. Zwar ist der aktuelle Entwicklungsstand des Chatbots noch nicht für die produktive Nutzung geeignet, dennoch zeigt er Potenzial für vielfältige Einsatzmöglichkeiten bei fortlaufender Entwicklung.
Die Arbeit schließt mit einer Diskussion ethischer Aspekte und zeigt zukünftige Forschungsmöglichkeiten auf. Die erzielten Erkenntnisse könnten für eine Vielzahl von Kontexten relevant sein und einen signifikanten Beitrag zur Entwicklung effizienter und genauer Informationsabfragesysteme leisten.
Ansätze für den Einfluss der Social-Media-Kanäle TikTok und Instagram auf die Kaufentscheidung
(2023)
Social-Media-Nutzer und Nutzerinnen sind online und lernen dadurch neue Produkte kennen. Gerade auf Social-Media-Plattformen wie Instagram und TikTok werden die Nutzer und Nutzerinnen durch verschiedene Mittel häufig auf Produkte aufmerksam gemacht und zum Kaufen motiviert.
Das Ziel der vorliegenden Arbeit ist es, herauszufinden welche Aspekte auf den Plattformen Instagram und TikTok die Nutzenden dazu animiert bei einem Drogerieunternehmen einzukaufen. Dazu wird die folgende Forschungsfrage gestellt: Wie kann ein Drogerieunternehmen die Kaufentscheidung auf Instagram und TikTok beeinflussen?
Aus den resultierenden Ergebnissen einer qualitative Studie mittels 8 Interviews werden Handlungsempfehlungen für die Unternehmen der Drogeriebranche abgeleitet. Die Ergebnisse der Forschung sind Ansätze, welche Drogerien auf den Social-Media-Plattformen nutzen können, um die Kaufentscheidung ihrer Follower und Followerinnen positiv zu beeinflussen.
Diese Thesis entstand innerhalb der Entwicklung einer technischen Lösung für immersive Beschallung, des Kollektivs ZYKON (siehe Vorwort) Audio aus Offenburg. Gegenstand der hier vorgestellten Arbeit ist eine „immersive Audio Installation“ für Festivals und Veranstaltungen. Genauer, eine technische Ausarbeitung eines Prototyps, innerhalb geltender Richtlinien für Veranstaltungs-technik, mit dem Titel „Konzept & Entwicklung einer immersive Audioinstallation“.
Die Arbeit enthält folgende Punkte:
- was ist 3D- oder Immersive Audio?
- welche Möglichkeiten und Grenzen gibt es?
- Welche Variante der technischen Umsetzung ist für ZYKON die Richtige und
warum?
- Die technische Entwicklung von der Idee des Konzepts bis hin zur finalen
Version der Installation inkl. Modellen, Pläne, technischer Dokumentation.
Im Rahmen dieser Abschlussarbeit wurde ein automatisertes Test-Framework für eine Datenanalyse-Software namens MARS entwickelt. Der Zweck der Entwicklung dieses Frameworks ist es, die von der Software, zurückgegebenen Ergebnisse zu testen und zu vergleichen. In Zukunft soll dieses Framework verwendet werden, um den Start von Tests bei jeder neuen Version von MARS zu automatisieren.
Darüber hinaus ist dieses Framework in zwei Versionen erhältlich. Die erste ist eine grafische Version, um bestimmte Tests gezielt auszuführen und zu evaluieren. Die zweite Version ist eine Kommandozeilenversion, die es ermöglicht, schnell mehrere Tests zu generieren. Diese Version kann bspw. von einem Jenkins-Server aus gestartet werden.
Das Test-Framework wurde mit der Programmiersprache Python erstellt und mit dem Qt-Framework grafisch unterstützt. Die Vielzahl an Modulen und die große Anzahl an Nutzern machen Python zu einer beliebten Sprache für diese Art von Anwendungen. Die hohe Modularität von Qt für Python und die einfache Handhabung machen es zu einem reichhaltigen Werkzeug für die Erstellung von grafischen Benutzeroberflächen.
Das Ziel dieser Arbeit ist die technische Konstruktion eines Prototyps für einen Kopf-und Rumpfsimulator aus dem 3D-Druck mit integriertem Zwei-Kanal-System zur Freifeldmessung akustischer Signale. Die akustischen Eigenschaften sind abhängig von der anatomischen Geometrie eines menschlichen Schädels und des Gehörs, somit soll die Konstruktion des Prototyps möglichst realitätsgetreu nachgeahmt werden. Der Prototyp soll technische Anforderungen wie den Ein- und Ausbau von unterschiedlichen Mikrofonen und Pinna-Modellen gewährleisten.
In dieser Arbeit wird der Bildbearbeitungsprozess von Dokumenten mithilfe von einem schlicht gehaltenem Neuronalen Netzwerk und Bearbeitungsoperationen optimiert. Ziel ist es, abfotografierte Dokumente zum Drucken aufzubereiten, sodass die Schrift gut lesbar, gerade und nicht verzerrt ist und Störfaktoren herausgefiltert werden. Als API zur Verfügung gestellt, können Bilder von Dokumenten beliebiger Größe und Schriftgröße bearbeitet werden. Während ein unter schlechten Bedingungen schräg aufgenommenes Bild nach Tesseract keine Buchstaben enthält, wird mit dem bearbeiteten Bild davon eine Buchstabenfehlerrate von 0,9% erreicht.
Die Komplexität von Softwareprojekten hat in den letzten Jahren stetig zugenommen. Um den gleichzeitig steigenden Anforderungen an die Codequalität gerecht zu werden, setzen auch ursprünglich dynamisch typisierte Programmiersprachen zuhnemend auf statische Typisierung. Dies kann in Form von externen Werkzeugen geschehen, die zusätzlich zum eigentlichen Compiler den Code auf Typsicherheit überprüfen, oder alternativ durch Erweiterung der Compiler selbst, um die Unterstützung für statische Typisierung direkt in der Sprache zu verankern. Ziel des etylizer-Projekts ist es, für die Programmiersprache Erlang zunächst ein solches externes Tool bereitzustellen und langfristig Teil der Compiler-Toolchain zu werden.In dieser Arbeit wird der Typchecker um die Fähigkeit erweitert, Erlang-Projekte vollständig zu verifizieren. Dafür wird zunächst die interne Symboltabelle erweitert, die etylizer nutzt, um Verweise auf Funktionen und Typen aus anderen Modulen aufzulösen. Die Implementierung der Symboltabelle wird so angepasst,dass sie zur Laufzeit um alle für das aktuell geprüfte Modul benötigten Symbole erweitert wird. Um die Laufzeit im Rahmen zu halten, wird ein Algorithmus entwickelt, der die Abhängigkeiten zwischen den Source-Code Dateien des Erlang-Projekts erkennt und anhand dieser entscheidet, welche Dateien sich seit dem letzten Durchlauf geändert haben und deshalb erneut überprüft werden müssen.
Um die Ausmaße des Klimawandels und die Emission von Treibhausgasen zu verringern, wird ein Umschwung auf erneuerbare Energien angestrebt. Dazu zählt unter anderem der Wandel von Öl und Gasheizungen, hin zu Wärmepumpen. Aufgrund seiner guten Beurteilung hinsichtlich Nachhaltigkeit und Umweltbeeinflussung, findet Propan als Betriebsstoff jüngst eine zunehmende Beachtung. Da dieses ein brennbares Kältemittel ist, müssen solche Wärmepumpen aus Sicherheitsgründen genauer untersucht werden. Ziel der vorliegenden Arbeit ist es deshalb, den Fall von Propan-Leckagen in den Heizkreislauf einer Propan-Wärmepumpe unter verschiedenen Versuchsbedinungen zu untersuchen. Des weiteren wird untersucht, wie gut das Propan im Leckagefall von einem Gasabscheider abgeschieden werden kann, um das Risiko für den Endanwender zu minimieren.
Um die Auswirkungen einer Propanleckage in den Heizkreis untersuchen zu können, werden unterschiedliche Messungen bei veränderbaren Parametern durchgeführt. Es wird untersucht, wie sich das Propan bei unterschiedlichen Leckagemassenströme Propan, unterschiedlichen Strömungsgeschwindigkeiten des Wassers und unterschiedlichen Temperaturen im Heizkreis verhält. Außerdem wird der Gasabscheider evaluiert, um zu untersuchen, unter welchen Bedienungen das meiste Propan abgeschieden werden kann.
Die Auswertung der Messungen zeigen, dass lediglich der Leckagemassenstrom an Propan einen Einfluss auf die Menge des abgeschiedenen Propans und die dafür benötigte Zeit hat. Umso größer die Propanleckage in dem Fall ist, umso mehr Propan wird dementsprechend in kürzerer Zeit abgeschieden. Durch die Variation des Volumenstrom des Wassers verändert sich der Druck im Heizkreis und steigt bei zunehmendem Volumenstrom an. Ab einem bestimmten Druck kann nun auch Propan über ein eingebautes Sicherheitsventil und nicht nur über den Gasabscheider entweichen. Die Temperatur des Heizkreises hat keinen Einfluss auf die Messungen. Des weiteren zeigen die Messungen, dass der Gasabscheider einen Großteil des Propans abscheidet. Die Messungen zeigen außerdem, dass durch eine niedrigere Strömungsgeschwindigkeit des Wassers mehr Propan über den Gasabscheider abgeschieden werden kann.
Sicherheitstechnisch ist bei einer Propan-Wärmepumpe zu Empfehlen, dass im Fall einer Propan-Leckage das abgeschiedene Propan nach dem Gasabscheider direkt nach draußen zu leiten. Eine weitere Möglichkeit wäre es, den Gasabscheider draußen aufzustellen und das Heizwasser erst nach dem Abscheider in das Gebäude zu leiten.
In dieser Forschungsarbeit wird die Datensicherheit von Microsoft Azure analysiert und bewertet. Die Bewertung findet dabei aus der Sicht von Unternehmen statt. Im ersten Abschnitt wird zunächst der grundlegende Aufbau und die unterschiedlichen Formen des Cloud Computing beschrieben. Im zweiten Teil wird ein Vergleich der drei größten Cloud Anbieter vollzogen. Der letzte Teil besteht aus der Evaluation der Datensicherheit von Azure, wobei auf Aspekte wie Datenschutz, Bedrohungen und Schutzmaßnahmen eingegangen wird. Abschließend wird eine Empfehlung für das Unternehmen Bechtle GmbH Offenburg IT-Systemhaus abgegeben.
Im Verlauf der Arbeit stellt sich heraus, dass Azure eine ausreichende Datensicherheit bieten kann. Allerdings wird deutlich, dass durch die Kombination von mehreren Nebenfaktoren wie das Patch-Verhalten oder die Antwortzeit auf Sicherheitsschwachstellen seitens Microsofts, eine große Gefahr für die Daten von Unternehmen entstehen kann. Demnach ist Microsoft als Anbieter ein größeres Problem für die Sicherheit von Daten in Azure als der Cloud-Dienst selbst.
Ziel dieser Arbeit ist es darzulegen, was der Dunning-Kruger-Effekt genau ist, und den aktuellen Wissensstand zu diesem Effekt zu erfassen und wiederzugeben. Wo möglich, findet eine Einordnung und Bewertung statt. Dies ist insofern von Interesse, da dieser Effekt unter anderem gerne in der Populärwissenschaft thematisiert wird, seit Erstellung der begriffsprägenden Studie hierzu aber bereits mehr als 20 Jahre vergangen sind. Diese Thesis geht zudem darauf ein, in welchen Lebensbereichen der DKE eine Rolle spielen kann, welche best practices man als Gegenmaßnahmen ergreifen kann, ob dieser kulturell unabhängig beobachtbar ist und in welchen Bereichen noch offene Fragen für die zukünftige Forschung bestehen. Für die Erstellung dieser Thesis wurden überwiegend Paper aus verschiedenen Quellen gesammelt, die sich mit dem Dunning-Kruger-Effekt direkt oder indirekt beschäftigen oder naheliegende Stichwörter beinhalten.
Der Heel-Rise Test (HRT) wird in der Klinik und der Therapie benutzt, um die Funktionsfähigkeit der Wadenmuskulatur einzuschätzen. Eine Orientierung am Normwert von 25 Wiederholungen hilft dabei, die Muskulatur als normal oder anormal einzustufen. Dieser Wert beruht jedoch auf eine älteren und nicht mehr zeitgemäßen Studie. Auch ist fraglich, ob der absolut erreichte Wert eines HRTs eine direkte Aussage über die Funktionsfähigkeit der Plantarflexoren geben kann.
Das Ziel dieser Arbeit ist somit den HRT mit einer Maximalkraftmessung auf dem Isokineten zu vergleichen und diese auf einen möglichen Zusammenhang zu prüfen. Dazu kann folgende Forschungsfrage aufgestellt werden: „Können die Messergebnisse des HRT eine positive Korrelation mit einer Maximalkraftmessung am Isokineten eingehen?“
Für die Beantwortung der Forschungsfrage ist eine quantitative Untersuchung der beidseitigen Wadenkraft von 20 jungen und gesunden Teilnehmer*innen durchgeführt worden. Dabei wurde das Bein, mit dem die Kraftuntersuchung beginnt, randomisiert. Da ein linearer Zusammenhang zwischen den HRT-Messwerten und einer Maximalkraftmessung auf dem Isokineten vermutet wird, wird dieser durch eine Korrelationsanalyse nach Bravais-Pearson geprüft.
Der Vergleich der Kraftmessungen zeigt, dass die HRT-Ergebnisse eine moderate bis hohe positive Korrelation mit den Maximalkraftwerten auf dem Isokineten eingehen. Dabei hat die Beindominanz sowie die Testreihenfolge der Beine keinen großen Einfluss auf die Ergebnisse. Untersucht man Männer und Frauen getrennt, hebt sich jedoch die positive Korrelation auf und es kann ein geringer, bis kein Zusammenhang zwischen dem HRT und der Maximalkraft auf dem Isokineten festgestellt werden. Zudem ist zu erkennen, dass Männer in allen Kraftuntersuchungen höhere Kraftergebnisse erzielt haben. Da die Stichprobe nur junge, gesunde und aktive Menschen umfasst, sind Aussagen über erkrankte Personen, ältere Menschen oder den Einfluss der Leistungsfähigkeit nicht möglich.
Durch die positive Korrelation des HRT mit dem Goldstandard der Kraftdiagnostik, der Isokinetitk, scheint die Kritik am HRT entkräftet zu werden. Jedoch sind die Ergebnisse mit Vorsicht zu betrachten, da sich bei Betrachtung des Geschlechts die positive Korrelation aufhebt. Das Ergebnis der Arbeit soll, im Anbetracht der Limitation, trotzdem ermutigen, den HRT weiterhin für die Kraftdiagnostik der Wadenmuskulatur zu nutzen. Die eingeschränkte Stichprobengröße, eine fehlende Standardisierung der HRT-Durchführung, sowie die vielen Auswahlwahlmöglichkeiten in der Isokinetik machen es kompliziert die Ergebnisse dieser Arbeit auf andere Personengruppen oder Messmethoden zu übertragen. Dennoch gibt die Untersuchung einen ersten Einblick und ermöglicht die Aussagekraft des HRT zu stützen und somit seine Bedeutung und Qualität für die Kraftdiagnostik zu verbessern.
In dieser Arbeit sollte eine mögliche Lösung für die Stimulation im Rahmen der auditiven Hirnstammmessung geprüft werden. Mit einer Sequenz, die rechts, links und binaural periodisch stimuliert, wird überprüft, ob somit eine verkürzte Messzeit erzielt werden kann. In Kapitel 3 ist das Vorgehen diesbezüglich genauer beschrieben. Dieses Vorgehen zieht die Generierung einer Stimuli-Sequenz, sowie die beiden verwendeten Messgeräte mit ein. Zum einen wurden Messungen mit der Eclipse und zum anderen mit dem Sentiero durchgeführt. Die MATLAB-Skripte zur Ansteuerung und die Auswertung der evozierten Potenziale sind im darauffolgenden Kapitel 4 zu finden. Die Datenanalyse in Kapitel 5 beinhaltet einerseits die Messergebnisse der Eclipse. Dabei konnte mit der Sequenz erfolgreich eine ABR-Messung durchgeführt werden. Allerdings entstanden bei der Umsetzung in eine Live-Aufzeichnung der BIC Schwierigkeiten, die ebenfalls beschrieben wurden. Des Weiteren werden in Kapitel 5 die beiden Stimulus-Arten(Toneburst und Click) verglichen. Dabei konnten Messergebnisse gesammelt werden, welche die Aussage bestätigen, dass mit dem Click-Reiz höhere Amplituden der FAEP erzielt werden können. Dafür wurde von fünf Probanden die Einzelstimulation gegenübergestellt. Zudem wurde in der Analyse mit Hilfe einer Kreuzkorrelation geprüft, ob eine Verschiebung der Amplituden der rechten und linken Stimulation eine stärkere Ausprägung der DN1 zur Folge hat. Die Ergebnisse zeigten dabei jedoch keine bedeutenden Unterschiede der Amplituden, wobei auf eine Verschiebung verzichtet werden konnte. Ein weiterer Vergleich, der gezogen werden konnte, ist die Gegenüberstellung der Einzelstimulation mit der Sequenz. Für den Vergleich wurden zwei Probanden ausgewählt, die jeweils sowohl eine hohe Reproduzierbarkeit, als auch ähnliche Wellenkomplexe aufzeigten. Der Vergleich beinhaltete das zeitliche Eintreffen der evozierten Potenziale sowie die Ausprägungen der Amplituden. Die Betrachtung beschränkte sich durchweg auf die Amplituden der Welle lll und der Welle V. Bei den Ergebnissen entstand eine Befürwortung für die Verwendung der Einzelstimulationen, da diese eine verkürzte Latenzzeit der Potenziale und höhere Amplitudenausschläge zur Folge hatten. Allerdings konnte unter der Verwendung der Sequenz-Stimulation dennoch bei manchen Probanden eine deutlichere Ausprägung des DN1-Potenzials gezeigt werden.
Ob durch Stimulation mit einer Sequenz eine zeiteffizientere ABR-Messung durchgeführt werden kann, konnte während der Arbeit nicht validiert werden. Um diesbezüglich eine genauere Aussage treffen zu können, werden weitere Messdaten benötigt.
The new input method was developed for research acoustic localization, including real and virtual sound sources. For these types of research, the input method plays an important role in the investigation of the auditory localization of sound sources in the collection of valid and meaningful data. The input method using LED array is based on the localization test, which is already used in the acoustics laboratory of the Peter-Osypka-Institute. The current input method via tablet with continuous input surface generates a high inaccuracy and error variance compared to the usual discontinuous input. To minimize this type of error for future measurements, an alternative method will be implemented as part of this bachelor thesis. The methodology of the alternative input method is based on the use of a controllable LED array with rotary encoder and push button. For this, an angular range from -90° to 90° with a 1° angular resolution shall be realized. The LED-array enables a visual representation while localizing sound sources.
Die Thesis beschäftigt sich mit dem Kommunikationsprotokoll Lightweight Machine to Machine, welches für das Internet of Things entwickelt wurde. Es soll untersucht werden, wie das Protokoll funktioniert und wie es eingesetzt werden kann. Ebenfalls soll die Thesis zeigen, wie und ob Lightweight Machine to Machine über Long Term Evolution for Machines für Anwendungen mit begrenzten Ressourcen geeignet ist. Um diese Fragestellung zu beantworten, wurde das Protokoll auf Grund seiner Spezifikation und seinen Softwareimplementationen untersucht. Daraufhin wurde ein Versuchssystem entworfen und dieses anschließend auf sein Laufzeitverhalten und auf sein Energieverbrauch getestet. Die Evaluation des Protokolls ergab, dass es viele sinnvolle Funktionen zugeschnitten auf Geräte im Internet of Things besitzt und diese Funktionen kompakt und verständlich umsetzt. Da das Protokoll noch relativ jung ist, stellt es an verschiedenen Punkten eine Herausforderung dar. Die Tests des Versuchssystems ergaben, dass Lightweight Machine to Machine sich unter bestimmten Bedingungen für ressourcenbegrenzte Anwendungen eignet.
Mit zunehmender Komplexität von Softwaresystemen wird es immer schwieriger Performance Auswirkungen durch Änderungen an der Software zu erkennen. Meist werden Performance-Probleme zu spät erkannt und die Ursachensuche stellt dann eine große Hearusforderung dar, da es viele Einflussfaktoren gibt und oft nicht bekannt ist, wie lange das Problem schon besteht. Hier setzt das kontinuierliche Performance Monitoring an, denn damit wird die Performance fortlaufend zu jeder Softwareversion gemessen und der Verlauf der Performance über die Zeit erfasst.
In dieser Arbeit wird ein Konzept zu diesem Monitoring entwickelt. Konkret wird dabei die Performance eines 2D Laserscanners untersucht, der mit der Zynq Ultrascale+ MPSoc Plattform realisiert wurde. Eine wichtige Komponente des Systems stellt das verwendetete Embedded Realtime Linux dar. Deshalb wird dessen Performance, anhand definierter Parameter aus der Literatur, gemessen. Dafür werden vorhandene Tools zum Auslesen dieser Parameter untersucht und schließlich eingesetzt, um diese auf dem System zu erfassen. Eine weitere wichtige Performancekenngröße stellen die Durchlaufzeiten von Daten durch das System dar. Diese Laufzeiten werden an bestimmten Punkten im C++ Programmcode gemessen und anschließend mit einer Python Anwendung ausgewertet.
Für jede neue Softwareversion wird automatisch eine Messung der Linux Performance, sowie der Durchlaufzeiten durchgeführt. Die dabei gewonnenen Daten werden mit einem Datei basierten Ansatz in Artifactory abgelegt, aus welchen schlussendlich Auswertungen, in Form von HTML Dateien, erstellt werden. Diese enthalten verschiedene Visualisierungen der Messergebnisse einer Messung, sowie den Verlauf der Durchschnittswerte je Softwareversion. Das Ausführen der Messungen auf dem Gerät, sowie die Auswertung der Messergebnisse führt ein dafür entwickeltes Python Programm aus.
When a patient with hearing aids needs to partake in audiometry procedures they need to visit a specialist which costs both time and money. Ideally, the patient should be able to conduct these tests alone, during their own time, and without additional costs. With this idea comes the question of if whether this is possible or not, and, if it is, how.
This thesis explores the throughput of Bluetooth Low Energy and if it is configurable to have a high enough data rate to send high quality audio data with a lossless audio codec while communicating with a low end device. Additionally, this thesis will show that using Rust to develop embedded software is possible and how using it can make the process of doing so easier.
Im Leistungssport können Verletzungen den weiteren Karriereverlauf einer Athletin stark beeinflussen. Eine umso größere Rolle spielt daher der Rehabilitationsprozess. Diese Arbeit befasst sich mit den Kraftfähigkeiten des M. triceps surae nach einer Achillessehnenrekonstruktion im Bereich des Leistungsturnens. Die Quantifizierung der Kraftfähigkeiten erfolgt mit Hilfe von isokinetischen Krafttests. Dazu werden auf beiden Seiten einmal wöchentlich 2 x 3 Wiederholungen bei einer Testgeschwindigkeit von 30 deg/s durchgeführt. Die Messungen überspannen einen Zeitraum von 10 Wochen und beginnen 6 Monate postoperativ. Die Datenauswertung erfolgt mit MATLAB. Auf der unverletzten Seite werden keine oder nur geringfügige Änderungen in den Kraftfähigkeiten erwartet. Auf der verletzten Seite hingegen wird ein deutlicher Anstieg in den Kraftfähigkeiten erwartet. Die Kraftfähigkeiten werden über das maximale Drehmoment, den Drehmomentkraftstoß und die Kraftanstiegsrate (rate of force development = RFD) festgestellt. Werden die Messwerte aus der ersten und der letzten Messung verglichen, zeigen die Ergebnisse ein anderes Bild auf. Die Messwerte für die unbetroffenen Seite steigen um 17,1 % für das Drehmoment, um 17,2 % für den Drehmomentkraftstoß und um 20,4 % für die RFD. Auf der betroffenen Seite steigen die Werte respektive um 19,1 %, 15,2 % und 59,3 %. Es liegt also lediglich für die RFD ein deutlicher Anstieg im Vergleich zur unbetroffenen Seite vor. Ein anderes Ergebnis zeigt sich, wenn die Messwerte der ersten und der vorletzten Messung verglichen werden. Die Werte der unverletzten Seite steigen um 19,2 %, 19,6 % und 35,4 %. Auf der verletzten Seite hingegen, ist eine Steigerung von 32,6 %, 31,7 % und 102,2 % zu sehen. Somit liegt ein deutlicher Anstieg in dem Kraftfähigkeiten der verletzten Seite, auch in Bezug unverletzte Seite, vor. Ob es sich bei der letzten Messung um einen Ausreißer auf der betroffenen Seite handelt, lässt sich durch fehlende Folgemessungen nicht bestimmen.
Für eine fundiertere Aussage sollte ein längerer Zeitraum betrachtet werden. Aufgrund der zeitlichen Begrenzung für die Erstellung dieser Arbeit ist das leider nicht möglich.