Refine
Year of publication
Document Type
- Bachelor Thesis (569)
- Article (unreviewed) (439)
- Part of a Book (393)
- Conference Proceeding (317)
- Contribution to a Periodical (229)
- Book (209)
- Master's Thesis (142)
- Other (140)
- Article (reviewed) (128)
- Working Paper (86)
Conference Type
- Konferenzartikel (215)
- Konferenzband (65)
- Konferenz-Abstract (22)
- Konferenz-Poster (10)
- Sonstiges (7)
Language
- German (2858) (remove)
Keywords
- Mikroelektronik (62)
- Marketing (45)
- Digitalisierung (43)
- Social Media (36)
- E-Learning (28)
- Künstliche Intelligenz (27)
- Arbeitszeugnis (22)
- Social Media Marketing (20)
- Management (19)
- Biomechanik (18)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (946)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (527)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (411)
- Fakultät Wirtschaft (W) (366)
- Fakultät Medien (M) (ab 22.04.2021) (297)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (185)
- INES - Institut für nachhaltige Energiesysteme (78)
- Zentrale Einrichtungen (65)
- POIM - Peter Osypka Institute of Medical Engineering (32)
- Rektorat/Verwaltung (32)
Open Access
- Closed Access (1036)
- Open Access (856)
- Closed (455)
- Bronze (207)
- Diamond (25)
- Hybrid (5)
- Grün (4)
- Gold (2)
Globale Ereignisse politischen, wirtschaftlichen oder kulturellen Ursprungs führen dazu, dass Unternehmen sich gezwungen sehen zu handeln, um wettbewerbsfähig zu bleiben. In vielen Fällen wird dabei so vorgegangen, dass versteckte Preiserhöhungen vollzogen werden. Auch Unternehmen, die mit ihrem Angebot einen gesellschaftlichen Zusatznutzen erbringen, erhöhen die Preise, da nur so der verfolgte ökologische oder soziale Purpose erhalten werden kann, kommunizieren dies jedoch offen und erhöhen dadurch ihre Kundenloyalität. Dieses Vorgehen ist bislang jedoch überwiegend in den USA zu beobachten. Da das Thema Purpose auch in Deutschland immer höhere Relevanz erfährt, stellt sich die Frage der Übertragbarkeit. Die Forschungsfrage lautet deshalb: Inwiefern beeinflusst die Kommunikation von purpose-getriebenen Preissteigerungen das Markenimage von B2C-Unternehmen in Deutschland? Um der Forschungsfrage nachzugehen, wurde ein empirischer Forschungsansatz gewählt, der in Form einer quantitativen Studie umgesetzt wurde, die die Meinung der Studierendenschaft der Gen Z und Y der Hochschule Offenburg abbildet. Die Ergebnisse der Umfrage zeigten, dass die Glaubwürdigkeit und Akzeptanz von purpose-getriebenen Preiserhöhungen vom gegenwärtigen Markenimage bzw. dem übergeordneten Image einer Branche abhängen. Purpose wird eine hohe Bedeutung zugesprochen, die sich jedoch aufgrund der Preissensibilität der Zielgruppe nicht immer in der Markenwahl widerspiegelt. Dies verdeutlicht, dass Purpose das Potenzial besitzt, das Markenimage nachhaltig zu beeinflussen und zu prägen und die Zielgruppe der Gen Z und Y zukünftig an sich zu binden. Ferner wurde deutlich, dass bei der Umsetzung von Purpose bestimmte Kriterien verfolgt werden sollten, die bei der Kommunikation zu berücksichtigen sind, um eine authentische Wirkung zu erzielen.
In der Marketingstrategie von Event- und Club-Veranstaltern ist eine zielgerichtete Ansprache der Kundschaft unerlässlich, um eine nachhaltige Beziehung zur Zielgruppe aufzubauen und so den geschäftlichen Erfolg zu sichern. Während erhebliche Investitionen in herkömmliche Werbekanäle wie soziale Medien fließen, bleiben diese Plattformen oft ohne Garantie, dass die Werbemittel die relevanten Nutzer erreichen. Die White-Label-App beabsichtigt dieses Problem zu beheben, indem es Veranstaltern ermöglicht wird, eine engagierte Community direkt über die mobile Plattform aufzubauen und mit dieser zielgerichtet zu kommunizieren.
Das Kernziel der Bachelorarbeit ist die prototypische Entwicklung dieser Smartphone-App als individualisierbare und modulare White-Label-Lösung, die präzise auf die Bedürfnisse von Veranstaltern und deren Kunden zugeschnitten ist. Hierbei ist die zentrale Forschungsfrage: Wie kann eine modulare und individualisierbare White-Label-App effizient implementiert werden?
Zur Beantwortung dieser Frage werden auf Basis einer Wettbewerbsanalyse und der gründlichen Bewertung aktueller Best Practices im Bereich der App-Entwicklung verschiedene Aspekte untersucht. Hierzu zählen die Identifikation von möglichen Marktlücken und -chancen, die Eignung verschiedener Technologien und Entwurfsmuster, die Überwindung spezifischer Herausforderungen bei der Implementierung einer White-Label-App und die performante Integration der API.
Um einen praxisorientierten Ansatz zu gewährleisten, werden darüber hinaus verschiedene Kernfunktionalitäten der App beispielhaft implementiert. Dazu gehören Features wie eine Eventübersicht mit Informationen zu Veranstaltungen und ein Ticketingsystem mit Reservierungsmöglichkeiten.
Verfahren zum Betrieb eines batterieelektrischen Fahrzeugs mit einer elektrischen Maschine zum Antrieb des Fahrzeugs und einem Inverter (1) zum Ansteuern der elektrischen Maschine, wobei der Inverter (1) eine dreiphasige Brückenschaltung mit einer Anzahl von als Halbleiter ausgebildeten Schaltern (3) umfasst, wobei im Inverter (1) entstehende Verluste zum Heizen eines Innenraums des Fahrzeugs und/oder zum Temperieren einer Batterie und/oder zum Temperieren von Getriebeöl verwendet werden, wobei der Inverter (1) mittels Raumzeigermodulation gesteuert wird, wobei ein nicht-optimales Schaltverhalten des Inverters (1) herbeigeführt wird, indem nicht optimale Spannungs-Raumzeiger (e, eu, ev, ew, e1, e2, -e1, -e2) eingestellt werden, wobei eine Skalierung der Spannungs-Raumzeiger (e, e1, e2) über die Schaltung von Nullspannungsvektoren, die je nach zeitlichem Anteil die Spannung reduzieren, oder durch Zuhilfenahme eines jeweils gegenüberliegenden Spannungs-Raumzeigers (-e1, -e2) erfolgt, so dass eine Schaltfolge mit einer maximalen Anzahl von Schaltzyklen realisiert wird, dadurch gekennzeichnet, dass in der Mitte einer Schaltperiode (Tp) keine Symmetrie erzeugt wird.
Hintergrund
In diesem Artikel wird ein Überblick und Vergleich der am häufigsten verwendeten zementierten Hüftschäfte, gruppiert in die verschiedenen Schafttypen und Zementmanteldicken, gegeben, um zu sehen, welche Kombination gut abschneidet.
Methodik
Aus dem Endoprothesenregister Deutschland wurden die Revisionsraten zementierter Schaftarten kategorisiert und die Revisionsraten von 3 und 5 Jahren erfasst und analysiert. Für die Recherche lag die Konzentration auf den Schäften Exeter, C‑Stem, MS-30, Excia, Bicontact, Charnley, Müller Geradschaft, Twinsys, Corail, Avenir, Quadra und dem Lubinus SP II. Ein wichtiger Aspekt lag darin, welcher Schaft favorisiert implantiert wird und welche Zementiertechnik in Hinblick auf die geplante Zementmanteldicke angewendet wird. Um einen Trend in der zementierten Hüftendoprothetik herauszufinden, wurden zusätzlich die Daten des dänischen, schwedischen, norwegischen, schweizerischen, neuseeländischen, englischen und australischen Endoprothesenregister verglichen.
Ergebnisse und Schlussfolgerung
Die meisten Länder nutzen zementierte Prothesen nach dem Kraftschlussprinzip (Exeter, MS30, C‑Stem etc.) oder dem Formschlussprinzip (Charnley, Excia, Bicontact), welche mit einer Zementmanteldicke von 2–4 mm implantiert werden. Jedoch hat sich in Deutschland und der Schweiz ein Trend zur Line-to-Line-Technik, mit einer geplanten Zementmanteldicke von 1 mm (Twinsys, Corail, Avenir, Quadra) aufgezeigt, dem Prinzip der Müller-Geradschaft-Prothese und der Kerboul-Charnley-Prothese folgend, auch wenn diese an sich als „french paradoxon“ postuliert werden. In den EPRD-5-Jahres-Ergebnissen scheinen die neueren Line-to-Line-Prothesen etwas schlechter abzuschneiden. Die besten Ergebnisse erzielt der „MS 30“ in Deutschland und der „Exeter“ in England. Hierbei handelt es sich um polierte Geradschäfte mit Zentraliser und Subsidence-Raum an der Spitze mit einem 2–4 mm Zementmantel in guter Zementiertechnik.
Entwicklung eines unabhängigen Systems zur Verstellung schiebergesteuerter Werkzeuge im Prozess
(2024)
Die Aufgabenstellung der Arbeit beinhaltete das Ausarbeiten eines unabhängigen Antriebssystems für Werkzeuge mit verstellbaren Schneiden. Hierbei bestand der Antrieb der Werkzeuge bisher aus einem rein mechanischen Anstriebsflansch. Dieser hat durch eine Drehspindel die rotatorische Bewegung der Maschinenspindel zu einer axialen Bewegung der Zugstange umgewandelt. Da die mechanische Drehspindel nicht in jeder Maschinenspindel vorhanden war, konnten die Werkzeuge von LMT Kieninger nur beschränkt eingesetzt werden. Aus diesem Grund sollte ein Antriebssystem entwickelt werden, welches auf jedem Bearbeitungszentrum unabhängig von der Maschinenspindeltechnologie eingesetzt werden konnte.
Für die Entwicklung des unabhängigen Antriebsflansches wurde zunächst eine Marktanalyse durchgeführt. Diese vergleichte bestehende Lösungsansätze auf dem Markt miteinander und untersuchte, welche davon für ein eigenes Lösungskonzept infrage kam. Hierbei wurde insbesondere der Antrieb, der die Bewegung erzeugen sollte, die Übergabe des Steuersignals und die Energieversorgung betrachtet. Ein vielversprechendes Lösungskonzept, das den vorliegenden Anforderungen entsprach, war eine elektrische Antriebsvariante mit einer Akkueinheit und einer Funksteuerung.
Um die elektronischen Komponenten in den bestehenden Antriebsflansch zu integrieren, mussten die Prozessparameter bestimmt werden. Dafür wurde ein Werkzeug als Referenz verwendet, das zum Ausspindeln der Laufflächen von Zylinderbuchsen verwendet wurde. In diesem Werkzeug befanden sich unterschiedliche Bauteile, welche den Mechanismus der Schneidenverschleißkompensation ermöglichten und die Drehbewegung des Antriebsflansches in den Verstellweg der Schneiden umsetzte. Unter Berücksichtigung der Bauteile sowie der vorhandenen Reibung und Verluste ergab sich ein Drehmoment, welches benötigt wurde, um die Schneiden zu verstellen. Nach der rechnerischen Ermittlung des benötigten Drehmoments konnte ein Kompaktantrieb von Maxon vorgeschlagen werden. Dies erfolgte unter Berücksichtigung der Anforderungen an den verfügbaren Bauraum, die Energieversorgung und die Akkueinheit. Dieser Kompaktantrieb bestand aus einem Motor, einem Planetenradgetriebe, einem Hall-Sensor zur Positionsbestimmung sowie einer Steuereinheit.
Die Konstruktion mit den einzelnen Bauteilen konnte nun erstellt werden. Der Konstruktionsprozess wurde durch die schrittweise und aufbauende Integration der Lösungen für die verschiedenen Funktionen des Bauteils systematisch und methodisch umgesetzt. Dabei erfolgte die Umsetzung in einem Modell, wobei jeder Schritt auf den vorherigen Überlegungen und Entscheidungen basierte. Der erste Schritt bestand darin, den Kompaktantrieb, der die Hauptfunktion darstellt, in den Grundkörper mit der HSK-Aufnahme zu integrieren. Anschließend wurden die Nebenfunktionen wie die axiale Lagerung, die Kühlmitteldurchführung und die Anpassung der Flanschgeometrie zur Aufnahme des Werkzeuges implementiert. Im nächsten Schritt wurden die Steuerung und die Akkueinheit als Blackbox positioniert sowie die Kabelkanäle in den Grundkörper konstruiert.
Abschließend wurden für die eigens entwickelten Bauteile technische Zeichnungen erstellt. Auf ihnen wurden alle relevanten technischen Merkmale hinterlegt, die für die Fertigung der Bauteile benötigt wurden. Hierzu gehörten beispielsweise Angaben zum Werkstoff, Toleranzen, Passungen, Oberflächenangaben sowie Form- und Lagetoleranzen. Zudem wurde eine Baugruppenzeichnung erstellt, die die Anordnung der einzelnen Bauteile mit ihrer Stückzahl und Positionsnummer in einer Stückliste klar und deutlich erkennbar machte.
Damit wurde die Neuentwicklung eines unabhängigen Antriebsflansches abgeschlossen und bot einen Einblick in die mögliche Integration eines mechatronischen Antriebs in den Antriebsflansch.
Diese Arbeit befasst sich mit dem Thema der sogenannten „Advanced-Spike-Technology“. Dabei wird ein fortschrittliches Vorfußdämpfungselement betrachtet, dessen Kompressionssteifigkeit variiert wird. Die Technik soll die Sprint-Spikes maßgeblich verbessern. Die Arbeit untersucht, ob die Variation der Kompressionssteifig-keit der Sprint-Spikes einen Einfluss auf die sportliche Leistungsfähigkeit beim Sprinten hat. Es werden drei Prototypen von Adidas getestet, die jeweils unterschiedliche Steifigkeiten im Vorfußbereich aufweisen (hart, mittel und weich). Das Ziel besteht darin, die Auswirkungen der Variation der Kompressionssteifigkeit auf den Start bis 10 Meter und den Sprint auf etwa 50 bis 60 Meter zu untersuchen. Dabei werden die Geschwindigkeit und die Beschleunigung des Körperschwerpunktes in Matlab R2023b berechnet. Anhand der Ergebnisse wird die Fragestellung beantwortet. Zu Beginn werden folgende Hypothesen aufgestellt: Die Variation der Kompressionssteifigkeit hat keinen signifikanten Einfluss auf die sportliche Leistungsfähigkeit. Allerdings können individuelle Präferenzen der Sportler*innen in Bezug auf die Steifigkeit der Spikes berücksichtigt werden.
Die Untersuchung wird am Advanced Motion Lab in Offenburg (AMLO) der Hochschule Offenburg durchgeführt. Die Messung erfolgt auf einer Tartanbahn, wobei Kraftmessplatten im Bodenbelag integriert sind, um die Bodenreaktionskräfte beim Fußaussatz zu messen. Zusätzlich werden acht High-Speed-Videokameras eingesetzt, um die Sprintbewegung mittels markerlosem 3D-Motion-Capturing aufzuzeichnen. Es werden 30 Proband*innen getestet, davon 20 männliche und 10 weibliche Teilnehmer*innen, die eine saisonale persönliche Bestleistung von 12,5 Sekunden beziehungsweise 13,5 Sekunden über 100 Meter besitzen. Außerdem dürfen die Proband*innen in den letzten sechs Monaten keine kardiovaskulären Einschränkungen oder Verletzungen aufgewiesen haben. Nach Unterzeichnung der Einverständniserklärung und einem kurzen individuellen Warm-up wird die Kalibrierung der verwendeten Software beziehungsweise Messgeräte durchgeführt. Anschließend beginnt die eigentliche Messung. Pro Person werden jeweils mindestens zwei gültige Starts und ein gültiger maximaler Sprint pro Schuhbedingung durchgeführt. Die Pausengestaltung zwischen den einzelnen Messungen wird individuell gewählt, um Ermüdung zu vermeiden. Nach der Durchführung erfolgt die Auswertung und Verarbeitung der Daten durch das Programm Theia Markerless.
Zu Beginn wird die Berechnung in Matlab realisiert. Der erste allgemeine Schritt in der Berechnung des Startes und Sprints ist identisch. Die verarbeiteten Daten aus Theia werden unter Einsatz einer Funktion eingelesen. Diese Funktion durchläuft eine Ordnerstruktur, die zuvor manuell erstellt werden muss und die die einzelnen Daten der Proband*innen beinhaltet.
Um den Start berechnen zu können, müssen zunächst die Daten der vertikalen Bodenreaktionskraft umgerechnet werden. Daraufhin folgt eine Filterung der vertikalen Bodenreaktionskraft mit einer Schwelle von -3 Newton, da um die Nulllinie ein Rauschen vorliegen kann. Die Daten unterhalb dieser Schwelle entsprechen denen des Fußaufsatzes der Kraftmessplatte. Im Anschluss werden die Indizes unterhalb der Schwelle identifiziert. Auch die Daten des Körperschwerpunktes müssen gefiltert werden, da ungültige Datenauswertungen in Theia für den Wert des Körperschwerpunktes -999999 annehmen. Um diese Daten zu eliminieren, wird eine Schwelle von -100 eingeführt. Daraufhin folgt die Zuordnung der Indizes der Bodenreaktionskraft zu den Werten des Körperschwerpunktes und die Extraktion der Daten des Körperschwerpunktes. Im nächsten Schritt werden die Geschwindigkeit und die Beschleunigung anhand der internen Funktion „gradient“ berechnet. Weiterführend folgt die Berechnung der minimalen, mittleren und maximalen Werte der Geschwindigkeit und Beschleunigung. Letztendlich werden die Parameter als Excel-Datei exportiert, um eine statistische Auswertung durchzuführen.
Der erste Schritt zur Berechnung des maximalen Sprints besteht darin, den Körperschwerpunkt bei der Startfilterung zu identifizieren. Hierbei wird erneut die Schwelle von -100 verwendet und es werden die lokalen Maxima (Höhepunkte) in der Sagittalebene des Körperschwerpunkts identifiziert. Das Ziel ist es, die Daten zwischen zwei Maxima zu extrahieren, was genau einem Schritt entspricht. Es wird eine Mindestsuchhöhe für die Maxima festgelegt. Der Code unterscheidet zwischen den Fällen, in denen ein, zwei, drei oder vier und mehr Maxima gefunden werden. Des Weiteren werden verschiedene Abfragen und Unterscheidungen durchgeführt, um die beiden besten Maxima zu ermitteln. Danach werden die Indizes im Intervall von Maxima zu Maxima identifiziert und dem Körperschwerpunkt zugeordnet. Im Folgenden werden die Geschwindigkeitsberechnungen mithilfe der Funktion „gradient“ sowie die minimalen, mittleren und maximalen Geschwindigkeiten dargestellt. Abschließend erfolgt der Export der Parameter für die statistische Auswertung.
Nachfolgend wird die Leistungsfähigkeit der erstellten Programme in Matlab manuell überprüft. Beim Start und Sprint ergibt sich eine Genauigkeit von 98,89 und 96,66 %. Dies ermöglicht eine präzise statistische Auswertung, die im Programm „Jasp“ durchgeführt wird. Es wird eine einfaktorielle Varianzanalyse (ANOVA) mit Messwiederholung angewendet, wobei einige Voraussetzungen erfüllt sein müssen. Es lässt sich feststellen, dass die Variation der Kompressionssteifigkeit keinen signifikanten Einfluss auf die Geschwindigkeit oder Beschleunigung hat. Beim maximalen Sprint ist der Einfluss größer als beim Start, jedoch nicht signifikant. Diese Ergebnisse bestätigen die Hypothese.
Der Online-Handel verzeichnet seit Jahren ein stetiges Wachstum. Durch die COVID-19-Pandemie kaufen nun auch Nutzende, die zuvor physische Kanäle bevorzugten, vermehrt online ein. Der Anbietererfolg hängt dabei wesentlich von der Kenntnis über die Kund*innen ab. Allerdings dominieren einige große Anbieter den Markt, während kleinere Online-Shops Schwierigkeiten haben, ihre Angebote zu personalisieren. Eine Lösung bietet der Ansatz selbstbestimmter Identitäten. Dieser ermöglicht Kund*innen, ihre eigenen Shoppingdaten zu kontrollieren und sie selektiv mit Online-Shops zu teilen. Dadurch können individuelle Wünsche und Anforderungen der Kund*innen in Online-Shops berücksichtigt und ein personalisiertes Angebot sowie eine gute Nutzungserfahrung geboten werden. Trotz des großen Potenzials selbstbestimmter Identitäten ist der Ansatz in Deutschland kaum verbreitet. Dieser Beitrag beleuchtet den Einsatz selbstbestimmter Identitäten im Online-Handel. Mithilfe eines menschenzentrierten Gestaltungsprozesses wurden Personas und Ist-Szenarien erstellt, sowie daraus resultierend Anforderungen erhoben und Potenziale identifiziert. Auf Basis dessen konnte ein Daten- und Architekturmodell zur Integration von selbstbestimmten Identitäten im Online-Handel entwickelt werden.
Diese Arbeit widmet sich dem Anleger der aktuellen Maschinengeneration der HEIDELBERG Speedmaster XL 106, diese erreicht eine maximale Druckgeschwindigkeit von 21 000 bedruckten Bögen pro Stunde (Bg/h) und stößt bei einer Bedruckstoffdicke von 0,6 mm an ihre technischen Grenzen. Ein vollautomatisierter Auto-Non-Stopp-Wechsel (ANS-Wechsel) zur Gewährleistung einer kontinuierlichen Bedruckstoffzufuhr an der Druckmaschine ist bei maximaler Druckgeschwindigkeit von 21 000 Bg/h oberhalb dieser Bedruckstoffdicke nicht mehr möglich. Es besteht die Forderung nach höheren Bedruckstoffdicken bei unverändert maximaler Druckgeschwindigkeit von 21 000 Bg/h und gleichzeitiger Gewährleistung eines sicheren ANS-Wechselvorgangs.
Im Zuge dieser Arbeit wird durch eine Analyse zahlreicher Kundenmaschinen eine präzise Zielsetzung definiert. Eine eingehende Untersuchung des vollautomatischen ANS-Wechselvorgangs zur kontinuierlichen Bedruckstoffversorgung der Druckmaschine folgt. Dieser Wechselprozess wird im Laufe der Arbeit in seine Einflussfaktoren aufgeschlüsselt, die anschließend schrittweise und methodisch bezüglich der Zielsetzung definiert werden. Dabei wird der technische Grenzbereich des aktuellen Systems identifiziert und erweitert. Als Ergebnis gilt es, die betroffenen Komponenten erneut auf ihre Auslegung zu überprüfen, da sie aufgrund dieses erweiterten Grenzbereichs möglicherweise höheren Belastungen ausgesetzt sind. Die Untersuchung zeigt, dass es Situationen gibt, in denen sicherheitsrelevante Komponenten unzulässig stark beansprucht werden. Daher werden Lösungskonzepte vorgestellt, um die geforderten technischen Grenzen und sicherheitstechnischen Anforderungen zu erfüllen.
In einer digitalisierten Welt wird das Smartphone zunehmend multifunktional eingesetzt. Auch Anwendungen für eine eindeutige Identifikation wie bei Banking-Apps sind bereits verfügbar, weshalb das Smartphone auch als Ersatz des klassischen Schlüssels genutzt werden kann.
Ziel der Thesis ist es, genau das unter Beweis zu stellen. Im Rahmen der Arbeit soll eine mobile Applikation in Android Studio für ein Google Pixel 7 Pro entwickelt werden, die mit einem Türschloss interagieren und dieses ansteuern kann. Eine Besonderheit dieses Systems besteht in der präzisen Positionsbestimmung mithilfe der Ultra-Wideband Technologie. Diese wird genutzt, um die Position des Smartphones zum Türschloss genau zu bestimmen und festzulegen, ab welcher Position das Schloss auf die Interaktion des Smartphones reagieren soll.
Die im Rahmen der Thesis entwickelte App hat das Ziel erfüllt. Sie fungiert als Demo-App für ein funktionierendes Tür-System, bei dem die Positionsbestimmung mit Ultra-Wideband umgesetzt wurde. Ebenfalls wurde der Datenaustausch mit mehreren Sicherheitsmechanismen wie einem AES-Algorithmus, einem Running Counter oder einem Hash-Wert umgesetzt.
Dennoch muss erwähnt werden, dass das Ziel, den Datenaustausch ebenfalls mit Ultra-Wideband zu implementieren, nicht gelungen ist. Hierfür wird in der bestehenden App Bluetooth Low Energy genutzt.
Im Laufe der Arbeit hat sich gezeigt, dass Ultra-Wideband im Zusammenhang mit dem angedachten Tür-System zur Positionsbestimmung geeignet ist. Es konnte eine hohe Präzision mit einer Aktualisierungsrate von mehreren Ranging-Ergebnissen pro Sekunde erreicht werden.
Allerdings ist ein abgeschlossenes Konzept, das ausschließlich auf Ultra-Wideband basiert, bislang nicht möglich. Ebenfalls erschweren fehlende Standards die Implementierung. Hier mangelt es an einer Vereinheitlichung.
Auch besteht Potenzial zur Entwicklung von Konzepten für die Umsetzung des Datenaustauschs über Ultra-Wideband in mobilen Applikationen. Somit wäre es möglich, Ultra-Wideband als alleinige Technologie für solche Systeme zu nutzen.
Abschließend zeigt diese Arbeit jedoch, dass Positionsbestimmung mit Ultra-Wideband im in der Thesis untersuchten Konzept möglich ist und die Technologie für eine Indoorpositionierung in Kombination mit einem smarten Türschloss genutzt werden kann. Die herausragende Präzision in Echtzeit kann in diesem Prototyp verdeutlicht werden und als ein funktionierendes System als Grundlage für zukünftige Arbeiten genutzt werden.
Die Beschleunigungsleistung ist ein großer limitierender Faktor beim Sprinten. Es stellt sich die Frage, mit welcher Technik diese verbessert werden kann.
Das Ziel der vorliegenden Arbeit ist es, zu klären, ob die Unterschenkelkinematik einen Einfluss auf die Beschleunigungsleistung beim Sprintstart hat. Dafür wurden die Annahmen von Alt et al. (2022) über Schlüsselpositionen des Unterschenkels herangezogen und überprüft. Die gestellte Forschungsfrage lautet: Können die Annahmen von Alt et al. (2022) in die Praxis übertragen und angewendet werden?
Um die Forschungsfrage zu beantworten, wurde jeweils der erste Schritt nach dem Sprintstart aus einem Startblock analysiert. Hierfür wurden ein markerbasiertes 3D Motion Capture System und im Boden integrierte Kraftmessplatten verwendet. Insgesamt 30 Proband:innen haben jeweils sechs Starts ausgeführt. Die Auswertung wurde mit Hilfe von MATLAB Skripten durchgeführt. Mit linearen und quadratischen Regressionsberechnungen wurden die Zusammenhänge zwischen den Schlüsselpositionen des Unterschenkels und der Beschleunigungsleistung analysiert.
Die Ergebnisse zeigen, dass keine allgemeingültigen Aussagen über eine erfolgreiche Unterschenkelkinematik getroffen werden können. Werden die Proband:innen aber individuell betrachtet, ist teilweise zu erkennen, dass die Beschleunigungsleistung mit der Unterschenkelkinematik zusammenhängt.
Weiterführende Forschung in diesem Bereich könnte individueller und auf Trainingsanweisungen mit Technikverbesserung ausgerichtet sein.
Entwicklung eines Ansatzes zur Validierung von Beckenmodellen in Anlehnung an die ASME V&V-40
(2024)
Die Relevanz von In-silico Studien in der Medizin gewinnt für Ingenieure, Mediziner und Wissenschaftler stetig an Wert. In-silico Studien helfen dabei, kostspielige und zeitaufwendige Kadaverstudien sowie langjährige Ergebnisstudien einzugrenzen. Zum Thema Becken herrschen schon einige Berechnungsmodelle vor, jedoch nicht in dieser Ausführung und in Kombination mit einem Abgleich zu einer Kadaverstudie mit den gleichen Randbedingungen. Ein sehr wichtiger weiterer Bestandteil ist die Verifizierung und Validierung eines solchen Rechenmodells. Da kein Versuch im eigentlichen Raum, dem Körper, sondern in einer Simulationsumgebung stattfindet, muss das Modell verifiziert und validiert werden, um auf gewisse Weise die Glaubwürdigkeit des Modells darzulegen. In dieser Arbeit wurden verschiedene Ansätze zur bestmöglichen Abbildung der Kadaverstudie entwickelt. Die beste Übereinstimmung kam mit dem Modellansatz 3 zustande. Der Modellansatz 3 berücksichtigt die Unterteilung von der Spongiosa zur Kortikalis, die Lendenwirbel L3-L5, das Sacrum und die Ilia zuzüglich der Bandscheiben und der Symphysis pubica mit einem hyperelastischen Materialmodell, alle relevanten Ligamente sowie die verschiedenen Materialeigenschaften für jede einzelne Kortikalis, Spongiosa und der Weichteile aus der Kadaverstudie. Definiert wurde der Modellansatz 3 über die kinematisch nähere Beschreibung der Z-Achsen Sperrung, einer veränderten Krafteinleitung sowie einer Feinjustierung der Ligamenten Steifigkeiten. Aus diesem Modellansatz ging vor allem eine physiologische Kinematik wie auch eine überaus gute Konvergenz an den Markern der Anterior superior iliac spine rechts und links, Sacrum und L5 hervor. Die Verifizierung und Validierung des Rechenmodells wurde anhand der ASME V&V-40 geschaffen. Die dafür entscheidende Question of Interest lautet: Liegen die Stabilität, Belastungen und Verformungen von patientenspezifischen Frakturversorgungen unter standardisierten Lasten? Daraus ergaben sich drei Context of Use, von denen der erste (Context of Use 1: Deformation) im Fokus dieser Arbeit lag. Die Entscheidungskonsequenz sowie das Modellrisiko für den Context of Use und das Modell wurde als Low/Medium eingestuft. Mit Hilfe dieser Einstufung konnten die Model Credibility Factor Goals für das Modell definiert werden. Diese gaben schlussendlich den Grad der Validierung für das bestehende Modell vor.
Das Ziel der vorliegenden Arbeit ist es, Strategien und Ratschläge für die Kosmetikindustrie zu erarbeiten, die es ermöglichen, Influencer Marketing erfolgreich in ihre Marketingkommunikationsstrategie zu integrieren, um die Generation Z effektiv anzusprechen. Dazu werden folgende Leitfragen in dieser Arbeit behandelt:
Was ist Influencer-Marketing und welche Herausforderungen, Chancen und Risiken sind mit Influencer-Marketing verbunden?
Welche Bedeutung hat die Generation Z als Zielgruppe?
Wie gestaltet sich das Kaufverhalten der Generation Z und wie kann es beeinflusst werden?
Welche erfolgreichen Beispiele und erfolgsversprechenden Aspekte gibt es im Influencer-Marketing?
Wie kann Influencer-Marketing in die Marketingkommunikationsstrategie der Kosmetikbranche integriert werden, um die Generation Z erfolgreich anzusprechen?
Basierend auf den Erkenntnissen einer quantitativen Online-Befragung, die an der Medienfakultät der Hochschule Offenburg durchgeführt wurde, lassen sich Implikationen für Unternehmen in der Kosmetikindustrie ableiten. Die Forschungsergebnisse bieten Ansätze dafür, wie die Kosmetikindustrie die Social-Media-Plattformen Instagram und TikTok nutzen kann, um die Generation Z effektiv zu erreichen und ihre Kaufentscheidungen zu beeinflussen.
Die Videospielindustrie liefert zahlreiche Spiele, die auf literarischen Werken basieren. Im Vergleich zu anderen Medien werden Videospiele in der Umsetzung von literarischen Werken bisher nur unzureichend erforscht. Daher ist es sinnvoll zu untersuchen, wie Videospiele literarische Vorlagen umsetzen.
Ziel der Arbeit ist es, die verschiedenen Möglichkeiten der Umsetzung literarischer Werke in Videospiele zu ermitteln. Die Forschungsfrage lautet dabei: "Welche verschiedenen Ansätze gibt es, literarische Vorlagen in Videospiele umzusetzen?
Um diese Frage zu beantworten, wurde eine Fallstudie zu vier verschiedenen Videospielen, die auf literarischen Vorlagen basieren, durchgeführt. Dazu wurde eine Kriterienliste mit insgesamt vier Kriterien untersucht, analysiert und bewertet. Die Kriterien beziehen sich hierbei auf das Storytelling, das Worldbuilding, das Character Design und die Game Mechanics in Bezug auf die literarische Vorlage. Aus den einzelnen Ergebnissen der Kriterien wurden anschließend die Ergebnisse des jeweiligen Spiels ermittelt.
Die Ergebnisse der Fallstudie zeigen, dass drei verschiedene Ansätze zur Umsetzung vorliegen. Es handelt sich um Neuinterpretation, um eine Mischform aus Interpretation und Adaption sowie um eine grundlegende Adaption.
Um weitere Erkenntnisse über die verschiedenen Ansätze und mögliche Unterschiede zu erhalten, bedarf es weiterer Forschungen mit anderen auf literarischen Werken basierenden Videospielen.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
Änderungen gegenüber der Fassung 2021:
- Abschnitt 1: Der Anwendungsbereich umfasst nun auch Primärenergiefaktoren,
- Redaktionelle Änderungen und Fehlerkorrekturen,
- 7.2.3.1: Neue Formel (15) für Allokationsfaktoren für mehrere Wärmeflüsse mit unterschiedlichen,
- Temperaturen aus derselben KWK-Anlage,
- 7.2.3.2: Neue Anmerkung zur Klarstellung, dass Formel (14) auch für die Arbeitswertmethode gilt,
- Neuer Unterabschnitt 7.2.6 mit der Vereinfachung, dass KWK-Wärme unter 100 °C Vorlauftemperatur,
- mit der pauschalen Aufwandszahl 0,5 bewertet werden darf,
- Anhang A wurde neu gefasst, damit zusätzliche Anwendungsbereiche wie Gesetze oder Förderprogramme,
- die eigenen Festlegungen zu Gewichtungsfaktoren machen, dieses Dokument widerspruchsfrei,
- in Bezug nehmen können,
- Anhang B.4 mit einem Berechnungsbeispiel zur Kälteversorgung wurde gestrichen.
Modellprädiktive Regelung findet zunehmend Anwendung im industriellen Umfeld. Durch schnellere Computer und optimierte Programmierung ist es heute möglich, rechenintensive Regelalgorithmen in Echtzeit auf Mikrocontrollern zu berechnen. Eine besondere Herausforderung besteht jedoch darin, diese Technologie in der Realität einzusetzen. Weil exakte Kenntnisse über das reale System vorliegen müssen, können geringfügige Modellierungsfehler bei der Prädiktion für lange Prädiktionshorizonte schwerwiegende Folgen haben. Das ist insbesondere der Fall, wenn Systeme instabil sind und zu chaotischem Verhalten neigen.
Diese Arbeit behandelt ein breites Spektrum systemtheoretischer Inhalte und zielt darauf ab, ein reales Furuta-Pendel durch modellprädiktive Regelung in der instabilen Ruhelage zu stabilisieren. Hierfür wird ein mathematisches Modell als Prädiktionsmodell hergeleitet, welches durch verschiedene Systemidentifikationsmethoden spezifiziert und validiert wird. Es werden verschiedene Filter-Techniken wie das Kalman-Filter zur Zustandsschätzung oder das Exponential Moving Average (EMA)-Filter zur Filterung von Sensordaten eingesetzt.
Das Furuta-Pendel ist ein komplexes mechatronisches System. Die Aufgaben dieser Arbeit beschränken sich daher nicht nur auf theoretische Aspekte. Neben der Auslegung elektrischer Bauelemente und Schaltungen werden zusätzliche Sensoren zu einem bestehenden System hinzugefügt und mechanische Anpassungen vorgenommen. Darüber hinaus werden Entscheidungen zur Softwarearchitektur getroffen sowie die gesamte Implementierung auf einem Mikrocontroller durchgeführt.
Trotz intensiver Bemühungen konnte kein Modell gefunden werden, welches die gemessenen Ein- und Ausgangsdaten vergleichbar simulieren kann, sodass es den Anforderungen der modellprädiktiven Regelung entspricht. Stattdessen gelang es während der Systemidentifikationsphase einen Linear Quadratic Regulator (LQR) mit unterlagertem Proportional–Integral (PI) Stromregler als Kaskade zu entwerfen, der sowohl simulativ als auch in der Realität das Pendel stabilisieren kann.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
In der Dokumentation dieser Masterthesis wird die Produktion eines zweidimensionalen Platformer-Spiels beschrieben, in dem mit mehreren Fähigkeiten und dem Lösen von diversen Rätseln verschiedene Level durchquert werden können. Zudem wird in dieser Dokumentation anhand einer Tabelle alle möglichen Eingaben zur Tastatur- und Controller-Steuerung gezeigt. Des weiteren wird das gestalterische Konzept dargestellt. Dazu gehört die Beschreibung der Synopsis der in dem Spiel erzählten Geschichte, das Darstellen des Designs der vorkommenden Charaktere und das Beschreiben des Aufbaus und der gestalterischen Intention der verschiedenen Level. Der Fokus in dieser Dokumentation liegt im detaillierten Beschreiben der in dem Spiel vorkommenden Elemente und wie diese in der gewählten Spiele-Engine Godot implementiert wurden. Dazu zählen wie der Spieler-Charakter aufgebaut ist und wie dieser mit den einzelnen Objekten oder anderen Charakteren im Spiel interagieren kann. Zudem wird die Implementierung eines umfangreichen Dialog-Systems mit seinen Bausteinen beschrieben. Des weiteren werden alle weiteren wichtigen Elemente, die das Spiel spielbar machen, erklärt.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
In Deutschland wird zur Bewertung von KWK-Anlagen die Stromgutschriftmethode angewendet. Dies ist die Standardmethode dieses Arbeitsblattes und der DIN V 18599-1. Die vorliegende Fassung der FW 309-1 ist wie seine früheren Fassungen als Anwendungs- und Auslegungshilfe zu den geltenden Normen und Gesetzen konzipiert, da diese Dokumente Regelungslücken aufweisen. Das Bilanzierungsprinzip, die meisten Primärenergiefaktoren und die KWK-Bewertungsmethode wurden beibehalten.
Änderung gegenüber der Fassung 2021:
Anhang A, Tabelle A.3: In der Neufassung des Gebäudeenergiegesetzes ab dem 1.1.2023 wird ein neuer Primärenergiefaktor für netzbezogenen Strom von 1,2 für Großwärmepumpen festgelegt. Diese Festlegung wird in dieses Dokument übernommen.
Diese Arbeit befasst sich mit der Entwicklung eines umfassenden Konzepts zur Umsetzung des Lieferkettensorgfaltspflichtengesetzes (LkSG), welches ab dem 01.01.2024 für Unternehmen mit mehr als 1.000 Beschäftigten in Kraft tritt.
Die Bachelorarbeit ist in zwei Teile aufgebaut: zum einen den Theorieteil, der die Lieferkette in einem Verkehrsunternehmen und das Lieferkettensorgfaltspflichtengesetz umfasst, um eine Wissensbasis zu schaffen und zum anderen den Hauptteil, bestehend aus der Konzeptionierung. Da das Gesetz bereits im Jahr 2023 für große Unternehmen mit mehr als 3.000 Beschäftigten in Kraft trat, stehen bereits zahlreiche Systeme zur Unterstützung der Umsetzung zur Verfügung. Im Verlauf der Arbeit wurde eine Marktrecherche durchgeführt, bei der die geeignetste Softwarelösung für SWEG identifiziert wird. Um diese Untersuchung effektiv durchzuführen, wurden zwei Softwareauswahl-Tools entwickelt, die bei der Analyse und Bewertung helfen. Zusätzlich zum Software-Lösungsansatz wurde ein alternativer Lösungsansatz erarbeitet, der die eigenständige Handlung im Unternehmen vorsieht. Diese beiden Lösungsansätze werden zum Schluss verglichen, um die Geschäftsführung bei der Entscheidung, welche Version sie schließlich verwenden möchte, zu unterstützen.
Das erarbeitete Konzept bildet auch die Grundlage für die zukünftige Entwicklung und Umsetzung von Gesetzen und Richtlinien im Bereich Menschenrechte und Umweltaspekte. Für die Zukunft werden weitere Gesetze in Kraft treten, beispielsweise die kommende EU-Richtlinie.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.
Die Bachelorarbeit „Forensic Chain – Verwaltung digitaler Spuren in Deutschland“ untersucht die Anwendung eines Blockchain-basierten Chain of Custody Systems im deutschen rechtlichen und regulatorischen Kontext. Die digitale Forensik, die sich mit der Sicherung und Analyse digitaler Spuren befasst, gewinnt an Bedeutung, da kriminelle Aktivitäten vermehrt im digitalen Raum stattfinden. Die Blockchain-Technologie bietet transparente und unveränderliche Aufzeichnungen, die sich für die Speicherung von Informationen im Zusammenhang mit digitalen Beweismitteln eignen. Das Hautpziel der Arbeit besteht darin, die Umsetzung eines Chain of Custody Prozesses im Forensic Chain System zu untersuchen und die Eignung dieses Systems im deutschen Raum zu bewerten. Hierfür wird ein Prototyp des Forensic Chain Systems entwickelt, um das erstellte Konzept zu testen. Die Ergebnisse tragen zum Verständnis der Wichtigkeit der digitalen Forensik in Deutschland bei und bieten Einblicke in die Einführung von Blockchain-basierten Chain of Custody-Systemen in diesem Bereich. Sie leisten einen Beitrag zur Weiterentwicklung der digitalen Forensik.
KI-gestützte Cyberangriffe
(2023)
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des Deep Learning haben in den letzten Jahren enorme Fortschritte gemacht. Insbesondere Technologien wie Large Language Models (LLMs) machen KI-Technologie innerhalb kurzer Zeit zugänglich für die Allgemeinheit. Die Generierung von Text, Bild und Sprache durch künstliche Intelligenz erzielt innerhalb kurzer Zeit gute Ergebnisse. Parallel zu dieser Entwicklung hat die Cyberkriminalität in den vergangenen Jahren im Bereich der KI zugenommen. Cyberangriffe verursachen im Zuge der Digitalisierung größeren Schaden und Angriffe entwickeln sich kontinuierlich weiter, um bestehende Schutzmaßnahmen zu umgehen.
Diese Arbeit bietet eine Einführung in das Themengebiet KI-gestützte Cyberangriffe. Sie präsentiert aktuelle KI-gestützte Cyberangriffsmodelle und analysiert, inwiefern diese für Anfänger*innen in der Cyberkriminalität zugänglich sind.
Die Arbeit beinhaltet die Konzeption und den Aufbau eines Prüfstandes für den Elektromotor sowie den Antriebsstrang des Hocheffizienzfahrzeugs "Schluckspecht S6" der Hochschule Offenburg. Neben Beschreiben des Vorgehens bei dem Entwerfen von benötigten CAD-Modellen wird auch auf die Auswahl und Implementierung elektronischer Komponenten sowie die Programmierung des verwendeten Mikrocontrollers eingegangen. Die Ergebnisse eines ersten Tests des Prüfstandes werden außerdem aufgezeigt und diskutiert.
Der True-Crime-Podcast erfreut sich in Deutschland einer großen Hörerschaft, die ganz unterschiedliche Nutzungsmotivationen mitbringt. Die Faszination für wahre Kriminalfälle kommt nicht von ungefähr – das Phänomen, welches dieser zugrunde liegt, ist die Morbid Curiosity. Da bislang noch nicht allzu viel Forschung in diesem Gebiet betrieben wurde, gibt diese Arbeit durch einen Vergleich verschiedener Untersuchungen Aufschluss darüber, wo diese Neugier für morbide Ereignisse herkommt. Gleichzeitig soll ein Überblick über das Genre True Crime und das Medium Podcast gegeben werden. Das Ziel ist es, eine Verbindung zwischen dem Phänomen Morbid Curiosity und dem Format True-Crime-Podcast herzustellen. Die Forschungsfrage lautet: Welche Rolle spielt Morbid Curiosity bei der Nutzungsmotivation der Konsumenten von True-Crime-Podcasts? Die Ergebnisse zeigen, dass Frauen andere Nutzungsmotivationen mitbringen als Männer und gleichzeitig die primären Konsumentinnen sind. Die Neugier für morbide Ereignisse spielt dabei durchaus eine Rolle, wenn auch scheinbar eine untergeordnete. Es werden Ansätze für weitere Forschung gegeben.
Ziel dieser Studie war es, Zusammenhänge zwischen Kinematik und Kraftanforderungen an den Ringen im Gerätturnen zu ermitteln. Zu diesem Zweck wurde das Schwung- und Krafthalteelement Stemme rückwärts zum Kreuzhang gewählt und analysiert.
Die Datenerhebung erfolgte im Rahmen der Europameisterschaften 2022 in München. Für die Analyse der Kraftanforderungen wurde die vertikale Kraft in den Aufhängungen der Ringe mit eindimensionalen Kraftsensoren gemessen und für die Analyse der Kinematik ein markerloses Bewegungserfassungssystem eingesetzt.
Insgesamt wurden die Ausführungen von 17 professionellen Turnern untersucht. Für die Analyse der Kinematik wurden vier Ausführungsparameter bestimmt und deren Einfluss auf den Kraftbedarf statistisch analysiert, wobei die Kraftdaten auf das jeweilige Körpergewicht normiert wurden und das relative Kraftmaximum als Bezugspunkt für den Kraftbedarf gewählt wurde. Bei den vier Ausführungsparametern handelte es sich um die maximale Körpervorneigung während des Rückschwungs vor der Stemmbewegung des Elementes, den minimalen Arm-Rumpf-Winkel (ARW) während des Elementverlaufs, die höchste Position des Körperschwerpunktes (KSP) während des Elementverlaufs und die Distanz, um die der KSP von der höchsten Position in den Kreuzhang absinkt.
Es zeigte sich eine signifikante Korrelation zwischen der höchsten KSP-Position und dem Kraftmaximum. Für die anderen Ausführungsparameter konnten Tendenzen ermittelt werden. Darüber hinaus konnten die Korrelationen der Parameter untereinander zu zwei Ausführungsvarianten zusammengefasst werden. Dabei führt eine Ausführungsvariante zu einem größeren relativen Kraftmaximum und zu größeren Abzügen als die anderen. Die biomechanische Betrachtung dieser Ausführungsvarianten ergab jedoch, dass die Ausführungsvariante mit dem größeren mittleren Kraftmaximum dennoch leichter auszuführen ist, während die andere Ausführungsvariante in der Durchführung anspruchsvoller ist und besser bewertet wird.
Künstliche Intelligenzen, Deep Learning und Machine-Learning-Algorithmen sind im digitalen Zeitalter zu einem Punkt gekommen, in dem es schwer ist zu unterscheiden, welche Informationen und Quellen echt sind und welche nicht. Der Begriff „Deepfakes“ wurde erstmals 2017 genutzt und hat bereits 2018 mit einer App bewiesen, wie einfach es ist, diese Technologie zu verwenden um mit Videos, Bildern oder Ton Desinformationen zu verbreiten, politische Staatsoberhäupter nachzuahmen oder unschuldige Personen zu deformieren. In der Zwischenzeit haben sich Deepfakes bedeutend weiterentwickelt und stellen somit eine große Gefahr dar.
Diese Arbeit bietet eine Einführung in das Themengebiet Deepfakes. Zudem behandelt sie die Erstellung, Verwendung und Erkennung von Deepfakes, sowie mögliche Abwehrmaßnahmen und Auswirkungen, welche Deepfakes mit sich bringen.
Ziel dieser Studie ist es, den Markt von FinTech Unternehmen in Deutschland unter Berücksichtigung der beteiligten Marktkräfte darzustellen. Hierfür sollen die theoretischen Grundlagen einer Marktanalyse dargelegt und darauf aufbauend eine Marktanalyse durchgeführt werden. Betrachtet werden sollen in diesem Zusammenhang auch die rechtlichen Rahmenbedingungen, die für FinTech Unternehmen in Deutschland einschlägig sind, da auch diese Einfluss auf das Marktgeschehen haben. Ziel ist es, bestehende Rechtsgrundlagen sowie Entwürfe von künftigen Rechtsvorschriften mittels Recherche zu identifizieren und zu analysieren. Betrachtet werden sollen dabei das deutsche Recht sowie das für Deutschland als Mitgliedstaat der EU geltende EU-Recht.
Im Rahmen dieser Studie sollen Struktur und der Ablauf internationaler Carve-Out-Transaktionen dargestellt werden. Der Fokus liegt hierbei auf den rechtlichen Aspekten solcher Transaktionen. Nichtsdestotrotz, da internationale Carve-Out-Transaktionen gerade eine sehr enge und komplexe Verflechtung rechtlicher, organisatorischer und strategischer Aspekte ausmacht, soll die internationale Carve-Out-Transaktion als Ganzes beleuchtet werden.
Projektmanagement und mit ihm die PM-Prozesse, Methoden und Werkzeuge entwickeln sich stetig weiter, in kleinen, kaum spürbaren Schritten oder in großen unübersehbaren Veränderungen. In den letzten Jahren war der Diskurs über das Pro & Contra agiler Vorgehensweisen so allgegenwärtig, dass andere Aspekte nicht immer die notwendige Aufmerksamkeit bekamen. Erkannte Notwendigkeiten der PM-Entwicklung konnten noch nicht in spürbare Fortschritte umgewandelt werden. Einflüsse der Globalisierung und der IT, aber auch die aus der zunehmenden Forderung nach Nachhaltigkeit resultierenden Veränderungen in der Projektarbeit sollen daher genauer betrachtet werden. Ist erst einmal die Sensibilität für relevante Trends beim Projektpersonal geschaffen, rücken ein aktualisiertes Kompetenzprofil und ein erweiterter Methodenkanon in greifbare Nähe.
Der Onlinehandel ist ein kontinuierlich wachsender Markt, der sich stetig im Wandel befindet. Um als Unternehmen mit der großen Konkurrenz mithalten zu können und den immer wieder neu aufkommenden Trends gerecht zu werden, ist eine beständige Analyse und Adaption dieser nötig.
Das Ziel der vorliegenden Arbeit ist die Konzeption und die gestalterische Umsetzung einer B2C-E-Commerce Plattform auf Basis einer Konkurrenzanalyse. Dazu wird die folgende Forschungsfrage gestellt: Wie können UX-Design-Prinzipien und die Ergebnisse der Konkurrenzanalyse genutzt werden, um spezifische Design-Entscheidungen in Bezug auf Layout, Navigation, Inhaltsstruktur und visuelle Gestaltung zu treffen ?
Um die Forschungsfrage zu beantworten, wurde über die Untersuchung aktueller E-Commerce-Trends und UX-Design-Prinzipien hinaus eine Konkurrenzanalyse durchgeführt, die sich an relevanten Wettbewerbern im Branchenbereich orientiert. Mittels einer detaillierten Konkurrenzanalyse wurden verschiedene Aspekte wie Website-Funktionalität, Benutzerführung und visuelle Ästhetik bewertet, um mögliche Erfolgsfaktoren zu identifizieren. Die Konzeption erfolgte auf Grundlage der gewonnenen Erkenntnisse. Dabei werden Informationsstrukturen und Design-Elemente gezielt gestaltet, um den gegebenen Anforderungen gerecht zu werden.
Diese Bachelorarbeit bietet somit einen ganzheitlichen Ansatz, der die Zusammenwirkung zwischen Konkurrenzanalyse und UX-Design aufzeigt und wie diese Erkenntnisse gemeinsam in der Umsetzung einer B2C-E-Commerce Website genutzt werden können.
Die fortschreitende Digitalisierung der Schulen macht es möglich, die Lerndaten der Schülerinnen und Schüler in einer zentralen Cloud zu speichern. Die Befürworter versprechen sich davon eine bessere individuelle Förderung und fordern eine bundesweite Lösung, um möglichst viele Daten auswerten zu können. Die Gegner befürchten eine automatisierte Steuerung des Lernens.
In den letzten Jahren ist die Relevanz des Wassersparens und der nachhaltigen Nutzung dieses lebenswichtigen Elements angesichts des Klimawandels und abnehmender Wasserressourcen erheblich gestiegen. In diesem Kontext legt die vorliegende Bachelorarbeit, die in Zusammenarbeit mit der Firma Hansgrohe erstellt wurde, den Fokus auf die Schaffung eines Konzeptes sowie der prototypischen Realisierung eines Serious Games. Das Ziel des Spiels ist es, bei Kindern ein Bewusstsein und Verständnis für die nachhaltige Wassernutzung zu fördern. Im Zuge des Projekts wurde ein iterativer Spiel-Design-Prozess verfolgt, um ein pädagogisch wertvolles und ansprechendes Spielkonzept zu entwickeln. Der nutzerzentrierte Ansatz war maßgeblich, um ein tiefgehendes Verständnis für die Bedürfnisse und Vorlieben der jungen Zielgruppe zu erlangen und somit ein optimal auf die Lernerfahrung abgestimmtes Produkt zu entwerfen. Das Spiel kombiniert Elemente der Exploration, Simulation und des Casual Gamings, um das Verständnis für die nachhaltige Wassernutzung auf spielerische und interaktive Weise zu vermitteln. Die Resultate der prototypischen Umsetzung wurden mittels Nutzertests überprüft, um die Effektivität und Benutzerfreundlichkeit zu sichern. Diese Arbeit unterstreicht nicht nur die Wichtigkeit eines verantwortungsvollen Umgangs von Wasser, sondern illustriert zudem, wie durch innovatives Spiel-Design die Bildung und Sensibilisierung von Kindern in Bezug auf zentrale ökologische Themen erreicht werden können.
Die Visualisierung von Programmabläufen ist ein zentraler Aspekt für Programmieranfänger, um das Verständnis von Codeabläufen zu erleichtern und den Einstieg in der Softwareentwicklung zu unterstützen. In dieser Masterthesis wird ein speziell auf die Bedürfnisse von Einsteigern zugeschnittenes generisches Framework vorgestellt, wobei der Fokus auf einer einfachen, verständlichen aber auch korrekten Darstellung der Programmausführung liegt. Das Framework integriert das Debugger Adapter Protocol, um den Debugger unterschiedlicher Sprachen ansprechen und verwenden zu können.
In dieser Arbeit werden zunächst die Anforderungen für das generische Framework diskutiert. Anschließend werden bestehende Ansätze zur Visualisierung von Programmabläufen ausführlich untersucht und analysiert. Die Implementierung des Frameworks wird daraufhin detailliert beschrieben, wobei besonderer Wert auf die Erweiterbarkeit unterschiedlicher Sprachen gelegt wird.
Um die Eignung des Frameworks zu evaluieren, werden mehrere Aufgaben aus dem ersten Modul mit der jeweiligen Programmiersprache des Studiengangs Angewandte Informatik der Hochschule Offenburg betrachtet. Die Ergebnisse zeigen, dass das Framework mit den Aufgaben umgehen und diese korrekt und verständlich darstellen kann.
Das Ziel dieser Arbeit ist es, zwei unterschiedliche Bewegungserfassungssysteme zu vergleichen. Dabei wird die neue Technologie der markerlosen Bewegungserfassung mit der gängigen markerbasierten Methode verglichen. Es sollen Aspekte wie Aufbau, Vorbereitung, Durchführung, Nachbearbeitung und Messergebnisse analysiert und gegenübergestellt werden.
Im Rahmen einer Querschnittsstudie wurden insgesamt 27 Probanden bei Richtungswechsel mit unterschiedlichen Winkeln in drei verschiedenen Geschwindigkeiten gemessen. Dabei nahmen beide Systeme gleichzeitig in Verbindung mit zwei Kraftmessplatten die Bewegung auf. Von jeder Geschwindigkeit wurden drei gültige Durchläufe aufgezeichnet und anschließend das Knieabduktionsmoment betrachtet. Über das maximale und minimale Knieabduktionsmoment hat für jeden Winkel und Geschwindigkeit ein Vergleich der beiden Systeme stattgefunden.
Aufbau, Vorbereitung und Durchführung des markerlosen Systems erwiesen sich als deutlich einfacher und reibungsloser. Bei dem markerbasierten System ging viel Zeit für die Systemkalibrierung, das Aufkleben von Markern oder das Wiederholen der Messung durch abfallende Marker verloren. Auch die Datennachbearbeitung ist bei dem markerbasierten System deutlich zeitaufwendiger. Die markerlosen Daten werden allerdings fix ausgegeben und können bei auftretenden Fehlern nicht bearbeitet werden.
Die beiden Systeme wurden zum Schluss anhand des gemessenen Maximums und Minimums des Knieabduktionsmoments verglichen. Insgesamt messen die beiden Systeme durchschnittlich ein unterschiedliches Maximum von 0,2 +- 0,33, bei dem Minimum lag die gesamte durchschnittliche Differenz der beiden Systeme bei -0,34 +- 0,65. Das markerlose System zeigte durchschnittlich höhere Maxima und niedrigere Minima als das markerbasierte System auf. Durch die teilweise starken Messunterschiede und auftretenden Messfehler des markerlosen Systems, sollten die Messergebnisse des Knieabduktionsmoments zur Beurteilung von Rupturen des vorderen Kreuzbandes kritisch hinterfragt werden.
Die Erfindung betrifft eine Vorrichtung zur biologischen Methanisierung von CO und/oder CO2 mittels methanogener Mikroorganismen durch Umsetzung von H2 und CO und/oder CO2, die eine Begasungskolonne und eine Entgasungskolonne, jeweils mit
einer Bodenseite und einer der Bodenseite gegenüberliegenden oberen Seite, ein in der Begasungskolonne und der Entgasungskolonne bereitgestelltes Medium mit methanogenen Mikroorganismen, eine Zuführeinrichtung zum Zuführen eines H2 enthaltenden Gases in das Medium der Begasungskolonne, wobei die Zuführeinrichtung im Bereich der Bodenseite der Begasungskolonne angeordnet ist, eine Abführeinrichtung zum Abführen eines CH4 enthaltenden Gases aus der Entgasungskolonne, eine Verbindungsleitung zwischen Begasungskolonne und Entgasungskolonne im Bereich der Bodenseiten, eine Pumpe zum Überführen von Medium über die Verbindungsleitung von der Begasungskolonne in die Entgasungskolonne, und eine Rückführleitung zwischen der Begasungskolonne und der Entgasungskolonne im Bereich der oberen Seiten zum Rückführen von Medium
aus der Entgasungskolonne in die Begasungskolonne aufweist. Die Erfindung betrifft auch ein Verfahren zur biologischen Methanisierung von CO und/oder CO2 in einer Vorrichtung mittels methanogener Mikroorganismen als Teil eines in der Vorrichtung bereitgestellten Mediums, wobei das Medium in einem Kreislauf über eine Begasungskolonne und eine Entgasungskolonne geführt wird, wobei die Kolonnen jeweils über eine Verbindungsleitung im Bereich ihrer Bodenseiten und über eine Rückführleitung im Bereich der den Bodenseiten gegenüberliegenden oberen Seiten miteinander verbunden sind, worin das Medium sich in der Begasungskolonne absteigend und in der Entgasungskolonne aufsteigend bewegt, worin dem Medium im Bereich der Bodenseite der Begasungskolonne ein H2 enthaltendes Gas zugeführt wird.
Die Erfindung betrifft eine Vorrichtung zur biologischen Methanisierung von CO und/oder CO2mittels methanogener Mikroorganismen durch Umsetzung von H2und CO und/oder CO2, die eine Begasungskolonne und eine Entgasungskolonne, jeweils mit einer Bodenseite und einer der Bodenseite gegenüberliegenden oberen Seite, ein in der Begasungskolonne und der Entgasungskolonne bereitgestelltes Medium mit methanogenen Mikroorganismen, eine Zuführeinrichtung zum Zuführen eines H2enthaltenden Gases in das Medium der Begasungskolonne, eine Abführeinrichtung zum Abführen eines CH4enthaltenden Gases aus der Entgasungskolonne, eine Verbindungsleitung zwischen Begasungskolonne und Entgasungskolonne im Bereich der Bodenseiten, eine Pumpe zum Überführen von Medium über die Verbindungsleitung von der Begasungskolonne in die Entgasungskolonne, und eine Rückführleitung zwischen der Begasungskolonne und der Entgasungskolonne im Bereich der oberen Seiten zum Rückführen von Medium aus der Entgasungskolonne in die Begasungskolonne aufweist. Die Erfindung betrifft auch ein Verfahren zur biologischen Methanisierung von CO und/oder CO2in einer Vorrichtung mittels methanogener Mikroorganismen als Teil eines in der Vorrichtung bereitgestellten Mediums, wobei das Medium in einem Kreislauf über eine Begasungskolonne und eine Entgasungskolonne geführt wird, wobei die Kolonnen jeweils über eine Verbindungsleitung im Bereich ihrer Bodenseiten und über eine Rückführleitung im Bereich der den Bodenseiten gegenüberliegenden oberen Seiten miteinander verbunden sind, worin das Medium sich in der Begasungskolonne absteigend und in der Entgasungskolonne aufsteigend bewegt, worin dem Medium in der Begasungskolonne ein H2enthaltendes Gas zugeführt wird.
Selbsttests in Lernmanagementsystemen (LMS) ermöglichen es Studierenden, den eigenen Lernfortschritt einzuschätzen. Im Gegensatz zur Einreichung und Korrektur vollständig ausformulierter Aufgabenlösungen nutzen LMS überwiegend die Eingabe der Lösung im Antwort-Auswahl-Verfahren (Single-Choice). Nach didaktischen Ansatz „Physik durch Informatik“ geben die Lernenden stattdessen ihre Aufgabenlösungen in einer Programmiersprache ins LMS ein, was eine automatisierte Rückmeldung erleichtert und das Erreichen einer höheren Kompetenzstufe fördert. Es wurden zehn LMS-Selbsttests erstellt, bei denen die Lösungen zu einer Lehrbuch-Aufgabenstellung jeweils durch Eingabe in einer Programmiersprache und von einer Kontrollgruppe im Antwort-Auswahl-Verfahren abgefragt wurden. Ergebnisse aus dem ersten Einsatz dieser Selbsttests für die Lehrveranstaltung Physik im Studiengang Biotechnologie werden vorgestellt.
Scheinselbständigkeit
(2023)
Im Rahmen dieser Untersuchung sollen Maßnahmen zur Reduzierung des Risikos von Scheinselbständigkeit für Unternehmen identifiziert und analysiert werden. Der Schwerpunkt liegt dabei auf der Erstellung einer zweiteiligen Checkliste für Unternehmen, die als Hilfsmittel bei der Beauftragung externer Drittdienstleister herangezogen werden kann.
Rückenschmerzen sind ein weit verbreitetes Problem in der deutschen Gesellschaft. In der Mehrzahl der Fälle von Schmerzen im unteren Rücken ist es schwierig, eine spezifische nozizeptive Ursache zu finden. Aus vorherigen Studien ist bekannt, dass manuelles Heben eine Belastung für die Wirbelsäule darstellen kann. Die Geschwindigkeit der Hebebewegung spielt eine Rolle, ebenso wie Gewicht und Stabilität der Gelenke und Gliedmaßen.
Ziel dieser Arbeit ist die Analyse der Veränderungen in der Kinematik der Lendenwirbelsäule, der Hüfte und des Knies beim Heben von Lasten mit unterschiedlichen Geschwindigkeiten und Gewichten. Für diese Arbeit wurden die kinematischen Daten von insgesamt 79 Personen ausgewertet. Die Stichprobe bestand aus 20 asymptomatischen Frauen, 22 asymptomatischen Männern, 19 Frauen mit chronischen Rückenschmerzen und 18 Männern mit chronischen Rückenschmerzen. Die Daten wurden mit einem 3D-Bewegungsanalysesystem in Verbindung mit einem Set passiver Marker aufgenommen.
Es wurde kein signifikanter Effekt auf die mittleren maximalen Gelenkwinkel durch den Vergleich der geschlechtlich gemischten Gruppe mit Rückenschmerzen mit asymptomatischen Personen festgestellt, im Vergleich des Verhältnisses zwischen lumbaler Bewegung zu Beckenbewegungen (L/P-ratio) konnten signifikante Unterschiede ermittelt werden. Der Vergleich der Geschlechter zeigte signifikante Unterschiede für den lumbopelvinen Rhythmus. Für die Parameter Gewicht und Geschwindigkeit wurde kein signifikanter Effekt erfasst.
Um den Prozess der Direktreduktion von Eisenerz computergestützt zu simulieren, werden mathematische Modelle, zur Beschreibung von Gas-Feststoff-Reaktionen, in Python implementiert. In der vorliegenden Arbeit wird ein einzelnes Pellet aus Eisenerz, welches sich in einem Gasstrom aus reinem Wasserstoff befindet, betrachtet. Es werden mehrere Modellansätze aus der Literatur miteinander verglichen und davon geeignete zur recheneffizienten Implementierung ausgewählt. Die entwickelte Simulationssoftware besitzt eine grafische Oberfläche und bietet die Auswahl aus drei Modellen mit unterschiedlichem Detaillierungsgrad. Diese sind vollständig parametriert und die meisten Parameter werden temperaturabhängig bestimmt oder sind frei wählbar. Die Durchführung von Parameterstudien ist über die lineare Variierung eines beliebigen Parameters möglich. Die Ergebnisse der Simulation können dann in Abhängigkeit der Zeit dargestellt oder im CSV-Format exportiert werden. Die Rechenmodelle sind in einem separaten Python-Modul zusammengefasst und können einfach in eine übergeordnete Modellierung eingebaut werden. Zur Validierung erfolgt ein Abgleich mit experimentellen Literaturdaten. Abschließend werden die Stärken und Schwächen der implementierten Modelle gegenübergestellt und bewertet.