Refine
Year of publication
Document Type
- Bachelor Thesis (572)
- Master's Thesis (142)
- Contribution to a Periodical (119)
- Conference Proceeding (104)
- Working Paper (82)
- Periodical Part (50)
- Book (17)
- Report (14)
- Article (reviewed) (12)
- Article (unreviewed) (7)
Conference Type
- Konferenzband (60)
- Konferenzartikel (42)
- Sonstiges (2)
- Konferenz-Poster (1)
Language
- German (1130) (remove)
Has Fulltext
- yes (1130) (remove)
Keywords
- Mikroelektronik (62)
- Marketing (37)
- Social Media (24)
- E-Learning (19)
- IT-Sicherheit (16)
- Biomechanik (15)
- Künstliche Intelligenz (15)
- JavaScript (14)
- Internet der Dinge (13)
- Webentwicklung (13)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (363)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (187)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (181)
- Fakultät Medien (M) (ab 22.04.2021) (163)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (96)
- Zentrale Einrichtungen (52)
- Fakultät Wirtschaft (W) (37)
- Rektorat/Verwaltung (26)
- CRT - Campus Research & Transfer (21)
- INES - Institut für nachhaltige Energiesysteme (15)
Open Access
- Open Access (533)
- Closed Access (422)
- Closed (173)
- Bronze (132)
- Diamond (15)
- Hybrid (4)
- Grün (2)
In dieser Arbeit wird die Identifikation von Trägheitsparametern von Mehrkörpersystemen, am Beispiel eines ein aus vier Segmenten bestehenden Roboterarms untersucht. Es werden verschiedene neuronale Netzarchitekturen zur Identifikation der Trägheitsparameter des Roboterarms exploriert. Als Referenz für das Abschneiden der Ansätze wird ein vorab implementierter numerischer Optimierungsansatz, welcher mittels der Software „Matalb“ umgesetzt wurde, benutzt. Der Ansatz zum Aufstellen der benötigten Bewegungsgleichungen und die Formulierung des Regressionsproblems unterscheidet sich von den in der Literatur verwendeten Ansätzen, und beruht auf einem neu entwickelten Sensorkonzept der Hochschule Offenburg (des Sweaty Labors).
Der numerische Ansatz, insbesondere nach Linearisierung des Problems, erzielte herausragende Ergebnisse und konnte die idealen Parameterwerte präzise identifizieren. Demgegenüber standen die neuronalen Netzwerke, deren Potenzial trotz umfassender Untersuchung verschiedener Architekturen und Ansätze nicht vollends ausgeschöpft werden konnte. Die Resultate zeigen deutlich die Grenzen und Herausforderungen bei der Anwendung maschineller Lernmethoden in der spezifischen Aufgabenstellung der Trägheitsparameteridentifikation auf.
Diese Arbeit leistet einen Beitrag zum Verständnis der Möglichkeiten und Grenzen bei der Anwendung neuer Messtechnologien und Berechnungsverfahren in der Robotik. Die überlegene Leistung des numerischen Solvers gegenüber den neuronalen Netzansätzen unterstreicht die Bedeutung weiterer Forschungen in diesem Bereich.
Immer mehr Unternehmen setzen auf eine Cross-Cloud-Strategie, die es Unternehmen ermöglicht, ihre Anwendungen und Daten über mehrere Cloud-Plattformen hinweg effizient zu verwalten und zu betreiben. Konsistenz und Atomarität zwischen den Cloud-Plattformen zu wahren, stellt eine große Herausforderung dar. Hierzu wird in dieser Arbeit eine Lösung vorgestellt, um Cross-Cloud-Atomarität zu erreichen, welche auf Basis des 2-Phasen-Commit-Protokolls (2PC) beruht. In diesem Zusammenhang wird die Funktionsweise des 2PC-Protokolls erörtert und Erweiterungen sowie Alternativen zum Protokoll kurz angesprochen. Zusätzlich werden alternative Lösungsansätze diskutiert, die für die Erzielung von Cross-Cloud-Atomarität in Betracht gezogen werden können. Dadurch wird ein umfassender Einblick in das Thema sowie mögliche Lösungsansätze für diese Herausforderung gewährt.
Meiner Meinung nach ist Christopher Nolans Meisterwerk „Oppenheimer“ eindeutig der Film des Jahres. Nolan zählt für mich zu einem der bedeutendsten Regisseure der Filmkunst. Im Kino zog mich der Film in den Bann. 3 Stunden vergingen wie im Flug. Doch warum fasziniert mich dieser Film so sehr? Wie hat Nolan hier gearbeitet? Diese wissenschaftliche Arbeit soll dieses Lichtspiel filmästhetisch analysieren. Diese Analyse beschäftigt sich einerseits mit dem Film und andererseits mit der Biografie „J. Robert Oppenheimer“ von Kai Bird und Martin J. Sherwin als Hauptquellen. Es werden die Handlung, die Kameraarbeit, das Szenenbild, die Audiogestaltung, die Filmmusik und die Montage analysiert. Zum Schluss werden Filmkritiken untersucht, um zu analysieren, wie der Film in der breiten Masse ankam.
Die vorliegende Arbeit beschäftigt sich mit der Nutzung von Reinforcement Learning in der Informationsbeschaffungs-Phase eines Penetration Tests. Es werden Kernprobleme in den bisherigen Ansätzen anderer das Thema betreffender wissenschaftlicher Arbeiten analysiert und praktische Lösungsansätze für diese bisherigen Hindernisse vorgestellt und implementiert. Die Arbeit zeigt damit eine beispielhafte Implementierung eines Reinforcement Learning Agenten zur Automatisierung der Informationsbeschaffungs-Phase eines Penetration Tests und stellt Lösungen für existierende Probleme in diesem Bereich dar.
Eingebettet wird diese wissenschaftliche Arbeit in die Anforderungen der Herrenknecht AG hinsichtlich der Absicherung des Tunnelbohrmaschinen-Netzwerks. Dabei werden praktische Ergebnisse des eigen entwickelten Reinforcement Learning Modells im Tunnelbohrmaschinen-Test-Netzwerk der Herrenknecht AG vorgestellt.
Endress+Hauser Liquid Analysis ist ein erfolgreiches Entwicklungsunternehmen im Bereich der Flüssigkeitsanalyse für Prozesse und Labore. Mit voranschreitender Digitalisierung soll auch das Produktportfolio weiter digitalisiert werden. Ziel dieser Arbeit ist es den Entwicklungsprozess von Endress+Hauser Liquid Analysis auf die Eignung zur Entwicklung digitaler Produkte zu untersuchen. Zur Beantwortung der Fragestellung werden sowohl Literatur als auch mehrere Experten aus dem Fachgebiet zur Rate gezogen. In der Auswertung wird der aktuelle Prozess bewertet und ein geeignetes Prozessmodell für das Unternehmen dargestellt. Das empfohlene Modell wird exemplarisch anhand eines Beispielprojekts aufgezeigt. In einem abschließenden Fazit werden Ergebnisse und Erkenntnisse zusammengetragen.
In der Dokumentation dieser Masterthesis wird die Produktion eines zweidimensionalen Platformer-Spiels beschrieben, in dem mit mehreren Fähigkeiten und dem Lösen von diversen Rätseln verschiedene Level durchquert werden können. Zudem wird in dieser Dokumentation anhand einer Tabelle alle möglichen Eingaben zur Tastatur- und Controller-Steuerung gezeigt. Des weiteren wird das gestalterische Konzept dargestellt. Dazu gehört die Beschreibung der Synopsis der in dem Spiel erzählten Geschichte, das Darstellen des Designs der vorkommenden Charaktere und das Beschreiben des Aufbaus und der gestalterischen Intention der verschiedenen Level. Der Fokus in dieser Dokumentation liegt im detaillierten Beschreiben der in dem Spiel vorkommenden Elemente und wie diese in der gewählten Spiele-Engine Godot implementiert wurden. Dazu zählen wie der Spieler-Charakter aufgebaut ist und wie dieser mit den einzelnen Objekten oder anderen Charakteren im Spiel interagieren kann. Zudem wird die Implementierung eines umfangreichen Dialog-Systems mit seinen Bausteinen beschrieben. Des weiteren werden alle weiteren wichtigen Elemente, die das Spiel spielbar machen, erklärt.
JavaScript-Frameworks (JSF) sind im Bereich der Webentwicklung seit längerem prominent. Jährlich werden neue JSF entwickelt, um spezifische Probleme zu lösen. In den letzten Jahren hat sich der Trend entwickelt, bei der Wahl des JSF verstärkt auch auf die Performanz der entwickelten Webseite zu achten. Dabei wird versucht, den Anteil an JavaScript auf der Webseite zu reduzieren oder ganz zu eliminieren. Besonders neu ist der Ansatz der "Island Architecture", die erstmals 2019 vorgeschlagen wurde. In dieser Thesis soll die Performanz der meistbenutzten und des performantesten JSF mit dem JSF "Astro" verglichen werden, welches die "Island Architecture" von sich aus unterstützt. Der Schwerpunkt liegt beim Vergleichen der Webseitenperformanz, jedoch werden auch Effizienz und Einfachheit während der Entwicklung untersucht. Das Ziel dieser Arbeit ist es, potenzielle Frameworks zu untersuchen, die die Effizienz und Produktivität für den Nutzer und während der Entwicklung steigern können.
Modellprädiktive Regelung findet zunehmend Anwendung im industriellen Umfeld. Durch schnellere Computer und optimierte Programmierung ist es heute möglich, rechenintensive Regelalgorithmen in Echtzeit auf Mikrocontrollern zu berechnen. Eine besondere Herausforderung besteht jedoch darin, diese Technologie in der Realität einzusetzen. Weil exakte Kenntnisse über das reale System vorliegen müssen, können geringfügige Modellierungsfehler bei der Prädiktion für lange Prädiktionshorizonte schwerwiegende Folgen haben. Das ist insbesondere der Fall, wenn Systeme instabil sind und zu chaotischem Verhalten neigen.
Diese Arbeit behandelt ein breites Spektrum systemtheoretischer Inhalte und zielt darauf ab, ein reales Furuta-Pendel durch modellprädiktive Regelung in der instabilen Ruhelage zu stabilisieren. Hierfür wird ein mathematisches Modell als Prädiktionsmodell hergeleitet, welches durch verschiedene Systemidentifikationsmethoden spezifiziert und validiert wird. Es werden verschiedene Filter-Techniken wie das Kalman-Filter zur Zustandsschätzung oder das Exponential Moving Average (EMA)-Filter zur Filterung von Sensordaten eingesetzt.
Das Furuta-Pendel ist ein komplexes mechatronisches System. Die Aufgaben dieser Arbeit beschränken sich daher nicht nur auf theoretische Aspekte. Neben der Auslegung elektrischer Bauelemente und Schaltungen werden zusätzliche Sensoren zu einem bestehenden System hinzugefügt und mechanische Anpassungen vorgenommen. Darüber hinaus werden Entscheidungen zur Softwarearchitektur getroffen sowie die gesamte Implementierung auf einem Mikrocontroller durchgeführt.
Trotz intensiver Bemühungen konnte kein Modell gefunden werden, welches die gemessenen Ein- und Ausgangsdaten vergleichbar simulieren kann, sodass es den Anforderungen der modellprädiktiven Regelung entspricht. Stattdessen gelang es während der Systemidentifikationsphase einen Linear Quadratic Regulator (LQR) mit unterlagertem Proportional–Integral (PI) Stromregler als Kaskade zu entwerfen, der sowohl simulativ als auch in der Realität das Pendel stabilisieren kann.
Proteine spielen eine entscheidende Rolle im Stoffwechsel aller Lebewesen. Für die Lebensmittelindustrie sind die Grundbausteine der Proteine, besonders interessant, da sie den Geschmack von Lebensmitteln stark beeinflussen können, oder sich in Form von Supplementen als Nahrungsergänzungsmittel für Sportler eignen. Zur Gewinnung dieser Aminosäuren werden unteranderem Aminopeptidasen verwendet. In dieser Arbeit wurden fünf fungale Aminopeptidasen Pep 1 aus Aspergillus turcosus, Pep 4 aus Aspergillus thermomutatus, Pep 6 aus Coccidioides posadasii C735 delta SOWgp, Pep 7 aus Trichophyton interdigitale H6 und Pep 8 aus Onygena corvina in Pichia pastoris rekombinant exprimiert, mittels Ultrafiltration aufkonzentriert und biochemisch charakterisiert. Die Aminopeptidasen aus Aspergillus turcosus (Pep 1), Aspergillus thermomutatus (Pep 4) und Trichophyton interdigitale H6 (Pep 7) hatten ihr pH-Optimum bei pH 9, während die Aminopeptidasen aus Coccidioides posadasii C735 delta SOWgp (Pep 6) und Onygena corvina (Pep 8) bei pH 8,5 die höchste Aktivität aufwiesen. Die Temperaturoptima lagen bei 60 °C (Pep 1 und Pep 6) und 50 °C (Pep 4, Pep 7 und Pep 8) und alle waren zwischen 45 und 55 °C für 15 Minuten temperaturstabil. Die Aminopeptidasen hatten nach der Deglykosilierung ein Molekulargewicht von 57 (Pep 1), 52 (Pep 4 und Pep 7), 54 (Pep 6) und 53 kDA (Pep 8). Mit Leu-pNA als Substrat zeigten die fungalen Aminopeptidasen maximale spezifische Umsatzgeschwindigkeiten von 357 (Pep 1), 238 (Pep 4), 2000 (Pep 6), 56 (Pep 7) und 476 nkat/g (Pep 8). Pep 1 wurde am stärksten positiv von Bivalenten Ionen wie Mg2+, Co2+, Mn2+ und Ca2+ beeinflusst, in Gegenwart von 0,1 mM Mg2+ konnte eine relative Enzymaktivität von 345 % im Vergleich zum Referenzwert gemessen werden. Bei den anderen Aminopeptidasen konnten inhibitorische Effekte festgestellt werden. Bie allen fungalen Aminopeptidasen bei der Hydrolyse von vorhydrolysiertem Gluten die Freisetzung von Aminogruppen festgestellt werden, somit eignen sich die Aminopeptidasen in Kombination mit Endopeptidasen zur Hydrolyse von Proteingemischen. Bei der Hydrolyse konnte zudem die Freisetzung von Glutamin durch das L-Glutamine/Ammonia Assay Kit (Rapid) von Megazyme nachgewiesen werden.
Die Bachelorarbeit wurde im Rahmen einer Äquivalenz mit der Ingenieurschule INSA Straßburg geschrieben. Zum Thema wurde eine Projektarbeit im Auftrag der Kriminalpolizei mit einer Bearbeitungszeit von drei Semestern. Aufgabenstellung war es, einen Überblick eines Tatorts ohne menschlichen Eingriff zu verschaffen. Noch heute müssen die Polizisten den Tatort betreten, um Beweisspuren zu sammeln. Das Problem hierbei ist, dass dadurch Hinweise fast systematisch verloren gehen.
Mit einem ferngesteuerten Luftschiff sollte diese Aufgabenstellung gemeistert werden. Die Arbeit beschäftigt sich spezifisch mit dem Entwurf eines integrierten Kamerasystems und mit der Implementierung der Elektronik im Gesamtsystem für einen ersten Prototypen. Auf die Konzeptionierung der Fortbewegung und des Flugobjekts wird somit nicht in Detail eingegangen. Diese Aspekte werden bei der Erstellung des Lastenhefts geschildert und bei Berührungspunkten mit dem im Fokus stehenden Themengebiet erklärt.
Auf struktureller Ebene wird wie gefolgt vorgegangen: Die technischen Lösungen werden abgewogen, getestet und progressiv zusammengeführt. Zum Ende der Bearbeitungszeit können ferngesteuert Bilder und Panoramen aufgenommen und der Tatort live mit einem Video-Feedback observiert werden. Die Elektronik wurde, nach Erarbeitung der elektronischen Architektur, mithilfe einer gedruckten Leiterplatte kompakt in der Gondel des Luftschiffs integriert. Mit zahlreichen Optimierungsperspektiven wurde der erste Prototyp fertiggestellt und das Ziel dieser Arbeit erreicht.
Diese Arbeit befasst sich mit dem Entwurf und der Herstellung einer Roboterhandprothese, die amputierten Menschen eine gewisse Mobilität und eine teilweise Nutzung der Hand ermöglichen soll.
Das Projekt konzentriert sich insbesondere auf die Erkennung der vom Benutzer ausgeführten Bewegung und wird die Schritte der Erfassung, der Bewegung der Übertragung und die Erkennung detailliert darstellen.
Im Rahmen des Projekts "Myo-Hand" soll ein Prototyp einer myoelektrischen Handprothese entwickelt werden. Diese Prothese soll für handamputierte Menschen nützlich sein, da sie ihren Komfort und ihre Unabhängigkeit im Alltag verbessert und somit zu ihrer Eingliederung in die Gesellschaft beiträgt.
In dieser Abschlussarbeit werden die gesamte Arbeit, Studien und Realisierungen vorgestellt, die in den letzten zwei Semestern (WS2022 und SS2023) der Mechanik der Prothese durchgeführt wurden.
Nach einer kurzen Vorstellung der Arbeit des letzten Jahres wird ein Überblick über die Idee und die allgemeine Funktionsweise der Prothese gegeben, die verschiedene Komponenten umfasst: Elektronik, Machine-Learning, Steuerung, Wiederverwertbarkeit und Carbon Footprint. Das Lastenheft wird ebenfalls vorgestellt.
Die technologischen Entscheidungen werden näher erläutert: das Design der Teile, die Wahl der Verbindungen und die verwendeten Motoren. In einem zweiten Teil werden die Schritte zur Herstellung des ersten und zweiten Prototyps sowie eine Kritik des Ergebnisses vorgestellt. Weiter werden die Verbesserungen und die Ziele bis Januar 2024 besprochen.
Anschließend werden der Lebenszyklus der Prothese und ihr Carbon Footprint analysiert und mithilfe der Software Ecodesign Studio berechnet.
Änderungen gegenüber der Fassung 2021:
- Abschnitt 1: Der Anwendungsbereich umfasst nun auch Primärenergiefaktoren,
- Redaktionelle Änderungen und Fehlerkorrekturen,
- 7.2.3.1: Neue Formel (15) für Allokationsfaktoren für mehrere Wärmeflüsse mit unterschiedlichen,
- Temperaturen aus derselben KWK-Anlage,
- 7.2.3.2: Neue Anmerkung zur Klarstellung, dass Formel (14) auch für die Arbeitswertmethode gilt,
- Neuer Unterabschnitt 7.2.6 mit der Vereinfachung, dass KWK-Wärme unter 100 °C Vorlauftemperatur,
- mit der pauschalen Aufwandszahl 0,5 bewertet werden darf,
- Anhang A wurde neu gefasst, damit zusätzliche Anwendungsbereiche wie Gesetze oder Förderprogramme,
- die eigenen Festlegungen zu Gewichtungsfaktoren machen, dieses Dokument widerspruchsfrei,
- in Bezug nehmen können,
- Anhang B.4 mit einem Berechnungsbeispiel zur Kälteversorgung wurde gestrichen.
Der Online-Handel verzeichnet seit Jahren ein stetiges Wachstum. Durch die COVID-19-Pandemie kaufen nun auch Nutzende, die zuvor physische Kanäle bevorzugten, vermehrt online ein. Der Anbietererfolg hängt dabei wesentlich von der Kenntnis über die Kund*innen ab. Allerdings dominieren einige große Anbieter den Markt, während kleinere Online-Shops Schwierigkeiten haben, ihre Angebote zu personalisieren. Eine Lösung bietet der Ansatz selbstbestimmter Identitäten. Dieser ermöglicht Kund*innen, ihre eigenen Shoppingdaten zu kontrollieren und sie selektiv mit Online-Shops zu teilen. Dadurch können individuelle Wünsche und Anforderungen der Kund*innen in Online-Shops berücksichtigt und ein personalisiertes Angebot sowie eine gute Nutzungserfahrung geboten werden. Trotz des großen Potenzials selbstbestimmter Identitäten ist der Ansatz in Deutschland kaum verbreitet. Dieser Beitrag beleuchtet den Einsatz selbstbestimmter Identitäten im Online-Handel. Mithilfe eines menschenzentrierten Gestaltungsprozesses wurden Personas und Ist-Szenarien erstellt, sowie daraus resultierend Anforderungen erhoben und Potenziale identifiziert. Auf Basis dessen konnte ein Daten- und Architekturmodell zur Integration von selbstbestimmten Identitäten im Online-Handel entwickelt werden.
Diese Arbeit befasst sich mit dem Thema der sogenannten „Advanced-Spike-Technology“. Dabei wird ein fortschrittliches Vorfußdämpfungselement betrachtet, dessen Kompressionssteifigkeit variiert wird. Die Technik soll die Sprint-Spikes maßgeblich verbessern. Die Arbeit untersucht, ob die Variation der Kompressionssteifig-keit der Sprint-Spikes einen Einfluss auf die sportliche Leistungsfähigkeit beim Sprinten hat. Es werden drei Prototypen von Adidas getestet, die jeweils unterschiedliche Steifigkeiten im Vorfußbereich aufweisen (hart, mittel und weich). Das Ziel besteht darin, die Auswirkungen der Variation der Kompressionssteifigkeit auf den Start bis 10 Meter und den Sprint auf etwa 50 bis 60 Meter zu untersuchen. Dabei werden die Geschwindigkeit und die Beschleunigung des Körperschwerpunktes in Matlab R2023b berechnet. Anhand der Ergebnisse wird die Fragestellung beantwortet. Zu Beginn werden folgende Hypothesen aufgestellt: Die Variation der Kompressionssteifigkeit hat keinen signifikanten Einfluss auf die sportliche Leistungsfähigkeit. Allerdings können individuelle Präferenzen der Sportler*innen in Bezug auf die Steifigkeit der Spikes berücksichtigt werden.
Die Untersuchung wird am Advanced Motion Lab in Offenburg (AMLO) der Hochschule Offenburg durchgeführt. Die Messung erfolgt auf einer Tartanbahn, wobei Kraftmessplatten im Bodenbelag integriert sind, um die Bodenreaktionskräfte beim Fußaussatz zu messen. Zusätzlich werden acht High-Speed-Videokameras eingesetzt, um die Sprintbewegung mittels markerlosem 3D-Motion-Capturing aufzuzeichnen. Es werden 30 Proband*innen getestet, davon 20 männliche und 10 weibliche Teilnehmer*innen, die eine saisonale persönliche Bestleistung von 12,5 Sekunden beziehungsweise 13,5 Sekunden über 100 Meter besitzen. Außerdem dürfen die Proband*innen in den letzten sechs Monaten keine kardiovaskulären Einschränkungen oder Verletzungen aufgewiesen haben. Nach Unterzeichnung der Einverständniserklärung und einem kurzen individuellen Warm-up wird die Kalibrierung der verwendeten Software beziehungsweise Messgeräte durchgeführt. Anschließend beginnt die eigentliche Messung. Pro Person werden jeweils mindestens zwei gültige Starts und ein gültiger maximaler Sprint pro Schuhbedingung durchgeführt. Die Pausengestaltung zwischen den einzelnen Messungen wird individuell gewählt, um Ermüdung zu vermeiden. Nach der Durchführung erfolgt die Auswertung und Verarbeitung der Daten durch das Programm Theia Markerless.
Zu Beginn wird die Berechnung in Matlab realisiert. Der erste allgemeine Schritt in der Berechnung des Startes und Sprints ist identisch. Die verarbeiteten Daten aus Theia werden unter Einsatz einer Funktion eingelesen. Diese Funktion durchläuft eine Ordnerstruktur, die zuvor manuell erstellt werden muss und die die einzelnen Daten der Proband*innen beinhaltet.
Um den Start berechnen zu können, müssen zunächst die Daten der vertikalen Bodenreaktionskraft umgerechnet werden. Daraufhin folgt eine Filterung der vertikalen Bodenreaktionskraft mit einer Schwelle von -3 Newton, da um die Nulllinie ein Rauschen vorliegen kann. Die Daten unterhalb dieser Schwelle entsprechen denen des Fußaufsatzes der Kraftmessplatte. Im Anschluss werden die Indizes unterhalb der Schwelle identifiziert. Auch die Daten des Körperschwerpunktes müssen gefiltert werden, da ungültige Datenauswertungen in Theia für den Wert des Körperschwerpunktes -999999 annehmen. Um diese Daten zu eliminieren, wird eine Schwelle von -100 eingeführt. Daraufhin folgt die Zuordnung der Indizes der Bodenreaktionskraft zu den Werten des Körperschwerpunktes und die Extraktion der Daten des Körperschwerpunktes. Im nächsten Schritt werden die Geschwindigkeit und die Beschleunigung anhand der internen Funktion „gradient“ berechnet. Weiterführend folgt die Berechnung der minimalen, mittleren und maximalen Werte der Geschwindigkeit und Beschleunigung. Letztendlich werden die Parameter als Excel-Datei exportiert, um eine statistische Auswertung durchzuführen.
Der erste Schritt zur Berechnung des maximalen Sprints besteht darin, den Körperschwerpunkt bei der Startfilterung zu identifizieren. Hierbei wird erneut die Schwelle von -100 verwendet und es werden die lokalen Maxima (Höhepunkte) in der Sagittalebene des Körperschwerpunkts identifiziert. Das Ziel ist es, die Daten zwischen zwei Maxima zu extrahieren, was genau einem Schritt entspricht. Es wird eine Mindestsuchhöhe für die Maxima festgelegt. Der Code unterscheidet zwischen den Fällen, in denen ein, zwei, drei oder vier und mehr Maxima gefunden werden. Des Weiteren werden verschiedene Abfragen und Unterscheidungen durchgeführt, um die beiden besten Maxima zu ermitteln. Danach werden die Indizes im Intervall von Maxima zu Maxima identifiziert und dem Körperschwerpunkt zugeordnet. Im Folgenden werden die Geschwindigkeitsberechnungen mithilfe der Funktion „gradient“ sowie die minimalen, mittleren und maximalen Geschwindigkeiten dargestellt. Abschließend erfolgt der Export der Parameter für die statistische Auswertung.
Nachfolgend wird die Leistungsfähigkeit der erstellten Programme in Matlab manuell überprüft. Beim Start und Sprint ergibt sich eine Genauigkeit von 98,89 und 96,66 %. Dies ermöglicht eine präzise statistische Auswertung, die im Programm „Jasp“ durchgeführt wird. Es wird eine einfaktorielle Varianzanalyse (ANOVA) mit Messwiederholung angewendet, wobei einige Voraussetzungen erfüllt sein müssen. Es lässt sich feststellen, dass die Variation der Kompressionssteifigkeit keinen signifikanten Einfluss auf die Geschwindigkeit oder Beschleunigung hat. Beim maximalen Sprint ist der Einfluss größer als beim Start, jedoch nicht signifikant. Diese Ergebnisse bestätigen die Hypothese.
Das Ziel der vorliegenden Arbeit ist es, Strategien und Ratschläge für die Kosmetikindustrie zu erarbeiten, die es ermöglichen, Influencer Marketing erfolgreich in ihre Marketingkommunikationsstrategie zu integrieren, um die Generation Z effektiv anzusprechen. Dazu werden folgende Leitfragen in dieser Arbeit behandelt:
Was ist Influencer-Marketing und welche Herausforderungen, Chancen und Risiken sind mit Influencer-Marketing verbunden?
Welche Bedeutung hat die Generation Z als Zielgruppe?
Wie gestaltet sich das Kaufverhalten der Generation Z und wie kann es beeinflusst werden?
Welche erfolgreichen Beispiele und erfolgsversprechenden Aspekte gibt es im Influencer-Marketing?
Wie kann Influencer-Marketing in die Marketingkommunikationsstrategie der Kosmetikbranche integriert werden, um die Generation Z erfolgreich anzusprechen?
Basierend auf den Erkenntnissen einer quantitativen Online-Befragung, die an der Medienfakultät der Hochschule Offenburg durchgeführt wurde, lassen sich Implikationen für Unternehmen in der Kosmetikindustrie ableiten. Die Forschungsergebnisse bieten Ansätze dafür, wie die Kosmetikindustrie die Social-Media-Plattformen Instagram und TikTok nutzen kann, um die Generation Z effektiv zu erreichen und ihre Kaufentscheidungen zu beeinflussen.
Die Beschleunigungsleistung ist ein großer limitierender Faktor beim Sprinten. Es stellt sich die Frage, mit welcher Technik diese verbessert werden kann.
Das Ziel der vorliegenden Arbeit ist es, zu klären, ob die Unterschenkelkinematik einen Einfluss auf die Beschleunigungsleistung beim Sprintstart hat. Dafür wurden die Annahmen von Alt et al. (2022) über Schlüsselpositionen des Unterschenkels herangezogen und überprüft. Die gestellte Forschungsfrage lautet: Können die Annahmen von Alt et al. (2022) in die Praxis übertragen und angewendet werden?
Um die Forschungsfrage zu beantworten, wurde jeweils der erste Schritt nach dem Sprintstart aus einem Startblock analysiert. Hierfür wurden ein markerbasiertes 3D Motion Capture System und im Boden integrierte Kraftmessplatten verwendet. Insgesamt 30 Proband:innen haben jeweils sechs Starts ausgeführt. Die Auswertung wurde mit Hilfe von MATLAB Skripten durchgeführt. Mit linearen und quadratischen Regressionsberechnungen wurden die Zusammenhänge zwischen den Schlüsselpositionen des Unterschenkels und der Beschleunigungsleistung analysiert.
Die Ergebnisse zeigen, dass keine allgemeingültigen Aussagen über eine erfolgreiche Unterschenkelkinematik getroffen werden können. Werden die Proband:innen aber individuell betrachtet, ist teilweise zu erkennen, dass die Beschleunigungsleistung mit der Unterschenkelkinematik zusammenhängt.
Weiterführende Forschung in diesem Bereich könnte individueller und auf Trainingsanweisungen mit Technikverbesserung ausgerichtet sein.
Diese Arbeit widmet sich dem Anleger der aktuellen Maschinengeneration der HEIDELBERG Speedmaster XL 106, diese erreicht eine maximale Druckgeschwindigkeit von 21 000 bedruckten Bögen pro Stunde (Bg/h) und stößt bei einer Bedruckstoffdicke von 0,6 mm an ihre technischen Grenzen. Ein vollautomatisierter Auto-Non-Stopp-Wechsel (ANS-Wechsel) zur Gewährleistung einer kontinuierlichen Bedruckstoffzufuhr an der Druckmaschine ist bei maximaler Druckgeschwindigkeit von 21 000 Bg/h oberhalb dieser Bedruckstoffdicke nicht mehr möglich. Es besteht die Forderung nach höheren Bedruckstoffdicken bei unverändert maximaler Druckgeschwindigkeit von 21 000 Bg/h und gleichzeitiger Gewährleistung eines sicheren ANS-Wechselvorgangs.
Im Zuge dieser Arbeit wird durch eine Analyse zahlreicher Kundenmaschinen eine präzise Zielsetzung definiert. Eine eingehende Untersuchung des vollautomatischen ANS-Wechselvorgangs zur kontinuierlichen Bedruckstoffversorgung der Druckmaschine folgt. Dieser Wechselprozess wird im Laufe der Arbeit in seine Einflussfaktoren aufgeschlüsselt, die anschließend schrittweise und methodisch bezüglich der Zielsetzung definiert werden. Dabei wird der technische Grenzbereich des aktuellen Systems identifiziert und erweitert. Als Ergebnis gilt es, die betroffenen Komponenten erneut auf ihre Auslegung zu überprüfen, da sie aufgrund dieses erweiterten Grenzbereichs möglicherweise höheren Belastungen ausgesetzt sind. Die Untersuchung zeigt, dass es Situationen gibt, in denen sicherheitsrelevante Komponenten unzulässig stark beansprucht werden. Daher werden Lösungskonzepte vorgestellt, um die geforderten technischen Grenzen und sicherheitstechnischen Anforderungen zu erfüllen.
Entwicklung eines Ansatzes zur Validierung von Beckenmodellen in Anlehnung an die ASME V&V-40
(2024)
Die Relevanz von In-silico Studien in der Medizin gewinnt für Ingenieure, Mediziner und Wissenschaftler stetig an Wert. In-silico Studien helfen dabei, kostspielige und zeitaufwendige Kadaverstudien sowie langjährige Ergebnisstudien einzugrenzen. Zum Thema Becken herrschen schon einige Berechnungsmodelle vor, jedoch nicht in dieser Ausführung und in Kombination mit einem Abgleich zu einer Kadaverstudie mit den gleichen Randbedingungen. Ein sehr wichtiger weiterer Bestandteil ist die Verifizierung und Validierung eines solchen Rechenmodells. Da kein Versuch im eigentlichen Raum, dem Körper, sondern in einer Simulationsumgebung stattfindet, muss das Modell verifiziert und validiert werden, um auf gewisse Weise die Glaubwürdigkeit des Modells darzulegen. In dieser Arbeit wurden verschiedene Ansätze zur bestmöglichen Abbildung der Kadaverstudie entwickelt. Die beste Übereinstimmung kam mit dem Modellansatz 3 zustande. Der Modellansatz 3 berücksichtigt die Unterteilung von der Spongiosa zur Kortikalis, die Lendenwirbel L3-L5, das Sacrum und die Ilia zuzüglich der Bandscheiben und der Symphysis pubica mit einem hyperelastischen Materialmodell, alle relevanten Ligamente sowie die verschiedenen Materialeigenschaften für jede einzelne Kortikalis, Spongiosa und der Weichteile aus der Kadaverstudie. Definiert wurde der Modellansatz 3 über die kinematisch nähere Beschreibung der Z-Achsen Sperrung, einer veränderten Krafteinleitung sowie einer Feinjustierung der Ligamenten Steifigkeiten. Aus diesem Modellansatz ging vor allem eine physiologische Kinematik wie auch eine überaus gute Konvergenz an den Markern der Anterior superior iliac spine rechts und links, Sacrum und L5 hervor. Die Verifizierung und Validierung des Rechenmodells wurde anhand der ASME V&V-40 geschaffen. Die dafür entscheidende Question of Interest lautet: Liegen die Stabilität, Belastungen und Verformungen von patientenspezifischen Frakturversorgungen unter standardisierten Lasten? Daraus ergaben sich drei Context of Use, von denen der erste (Context of Use 1: Deformation) im Fokus dieser Arbeit lag. Die Entscheidungskonsequenz sowie das Modellrisiko für den Context of Use und das Modell wurde als Low/Medium eingestuft. Mit Hilfe dieser Einstufung konnten die Model Credibility Factor Goals für das Modell definiert werden. Diese gaben schlussendlich den Grad der Validierung für das bestehende Modell vor.
Die Videospielindustrie liefert zahlreiche Spiele, die auf literarischen Werken basieren. Im Vergleich zu anderen Medien werden Videospiele in der Umsetzung von literarischen Werken bisher nur unzureichend erforscht. Daher ist es sinnvoll zu untersuchen, wie Videospiele literarische Vorlagen umsetzen.
Ziel der Arbeit ist es, die verschiedenen Möglichkeiten der Umsetzung literarischer Werke in Videospiele zu ermitteln. Die Forschungsfrage lautet dabei: "Welche verschiedenen Ansätze gibt es, literarische Vorlagen in Videospiele umzusetzen?
Um diese Frage zu beantworten, wurde eine Fallstudie zu vier verschiedenen Videospielen, die auf literarischen Vorlagen basieren, durchgeführt. Dazu wurde eine Kriterienliste mit insgesamt vier Kriterien untersucht, analysiert und bewertet. Die Kriterien beziehen sich hierbei auf das Storytelling, das Worldbuilding, das Character Design und die Game Mechanics in Bezug auf die literarische Vorlage. Aus den einzelnen Ergebnissen der Kriterien wurden anschließend die Ergebnisse des jeweiligen Spiels ermittelt.
Die Ergebnisse der Fallstudie zeigen, dass drei verschiedene Ansätze zur Umsetzung vorliegen. Es handelt sich um Neuinterpretation, um eine Mischform aus Interpretation und Adaption sowie um eine grundlegende Adaption.
Um weitere Erkenntnisse über die verschiedenen Ansätze und mögliche Unterschiede zu erhalten, bedarf es weiterer Forschungen mit anderen auf literarischen Werken basierenden Videospielen.
In einer digitalisierten Welt wird das Smartphone zunehmend multifunktional eingesetzt. Auch Anwendungen für eine eindeutige Identifikation wie bei Banking-Apps sind bereits verfügbar, weshalb das Smartphone auch als Ersatz des klassischen Schlüssels genutzt werden kann.
Ziel der Thesis ist es, genau das unter Beweis zu stellen. Im Rahmen der Arbeit soll eine mobile Applikation in Android Studio für ein Google Pixel 7 Pro entwickelt werden, die mit einem Türschloss interagieren und dieses ansteuern kann. Eine Besonderheit dieses Systems besteht in der präzisen Positionsbestimmung mithilfe der Ultra-Wideband Technologie. Diese wird genutzt, um die Position des Smartphones zum Türschloss genau zu bestimmen und festzulegen, ab welcher Position das Schloss auf die Interaktion des Smartphones reagieren soll.
Die im Rahmen der Thesis entwickelte App hat das Ziel erfüllt. Sie fungiert als Demo-App für ein funktionierendes Tür-System, bei dem die Positionsbestimmung mit Ultra-Wideband umgesetzt wurde. Ebenfalls wurde der Datenaustausch mit mehreren Sicherheitsmechanismen wie einem AES-Algorithmus, einem Running Counter oder einem Hash-Wert umgesetzt.
Dennoch muss erwähnt werden, dass das Ziel, den Datenaustausch ebenfalls mit Ultra-Wideband zu implementieren, nicht gelungen ist. Hierfür wird in der bestehenden App Bluetooth Low Energy genutzt.
Im Laufe der Arbeit hat sich gezeigt, dass Ultra-Wideband im Zusammenhang mit dem angedachten Tür-System zur Positionsbestimmung geeignet ist. Es konnte eine hohe Präzision mit einer Aktualisierungsrate von mehreren Ranging-Ergebnissen pro Sekunde erreicht werden.
Allerdings ist ein abgeschlossenes Konzept, das ausschließlich auf Ultra-Wideband basiert, bislang nicht möglich. Ebenfalls erschweren fehlende Standards die Implementierung. Hier mangelt es an einer Vereinheitlichung.
Auch besteht Potenzial zur Entwicklung von Konzepten für die Umsetzung des Datenaustauschs über Ultra-Wideband in mobilen Applikationen. Somit wäre es möglich, Ultra-Wideband als alleinige Technologie für solche Systeme zu nutzen.
Abschließend zeigt diese Arbeit jedoch, dass Positionsbestimmung mit Ultra-Wideband im in der Thesis untersuchten Konzept möglich ist und die Technologie für eine Indoorpositionierung in Kombination mit einem smarten Türschloss genutzt werden kann. Die herausragende Präzision in Echtzeit kann in diesem Prototyp verdeutlicht werden und als ein funktionierendes System als Grundlage für zukünftige Arbeiten genutzt werden.
Entwicklung eines unabhängigen Systems zur Verstellung schiebergesteuerter Werkzeuge im Prozess
(2024)
Die Aufgabenstellung der Arbeit beinhaltete das Ausarbeiten eines unabhängigen Antriebssystems für Werkzeuge mit verstellbaren Schneiden. Hierbei bestand der Antrieb der Werkzeuge bisher aus einem rein mechanischen Anstriebsflansch. Dieser hat durch eine Drehspindel die rotatorische Bewegung der Maschinenspindel zu einer axialen Bewegung der Zugstange umgewandelt. Da die mechanische Drehspindel nicht in jeder Maschinenspindel vorhanden war, konnten die Werkzeuge von LMT Kieninger nur beschränkt eingesetzt werden. Aus diesem Grund sollte ein Antriebssystem entwickelt werden, welches auf jedem Bearbeitungszentrum unabhängig von der Maschinenspindeltechnologie eingesetzt werden konnte.
Für die Entwicklung des unabhängigen Antriebsflansches wurde zunächst eine Marktanalyse durchgeführt. Diese vergleichte bestehende Lösungsansätze auf dem Markt miteinander und untersuchte, welche davon für ein eigenes Lösungskonzept infrage kam. Hierbei wurde insbesondere der Antrieb, der die Bewegung erzeugen sollte, die Übergabe des Steuersignals und die Energieversorgung betrachtet. Ein vielversprechendes Lösungskonzept, das den vorliegenden Anforderungen entsprach, war eine elektrische Antriebsvariante mit einer Akkueinheit und einer Funksteuerung.
Um die elektronischen Komponenten in den bestehenden Antriebsflansch zu integrieren, mussten die Prozessparameter bestimmt werden. Dafür wurde ein Werkzeug als Referenz verwendet, das zum Ausspindeln der Laufflächen von Zylinderbuchsen verwendet wurde. In diesem Werkzeug befanden sich unterschiedliche Bauteile, welche den Mechanismus der Schneidenverschleißkompensation ermöglichten und die Drehbewegung des Antriebsflansches in den Verstellweg der Schneiden umsetzte. Unter Berücksichtigung der Bauteile sowie der vorhandenen Reibung und Verluste ergab sich ein Drehmoment, welches benötigt wurde, um die Schneiden zu verstellen. Nach der rechnerischen Ermittlung des benötigten Drehmoments konnte ein Kompaktantrieb von Maxon vorgeschlagen werden. Dies erfolgte unter Berücksichtigung der Anforderungen an den verfügbaren Bauraum, die Energieversorgung und die Akkueinheit. Dieser Kompaktantrieb bestand aus einem Motor, einem Planetenradgetriebe, einem Hall-Sensor zur Positionsbestimmung sowie einer Steuereinheit.
Die Konstruktion mit den einzelnen Bauteilen konnte nun erstellt werden. Der Konstruktionsprozess wurde durch die schrittweise und aufbauende Integration der Lösungen für die verschiedenen Funktionen des Bauteils systematisch und methodisch umgesetzt. Dabei erfolgte die Umsetzung in einem Modell, wobei jeder Schritt auf den vorherigen Überlegungen und Entscheidungen basierte. Der erste Schritt bestand darin, den Kompaktantrieb, der die Hauptfunktion darstellt, in den Grundkörper mit der HSK-Aufnahme zu integrieren. Anschließend wurden die Nebenfunktionen wie die axiale Lagerung, die Kühlmitteldurchführung und die Anpassung der Flanschgeometrie zur Aufnahme des Werkzeuges implementiert. Im nächsten Schritt wurden die Steuerung und die Akkueinheit als Blackbox positioniert sowie die Kabelkanäle in den Grundkörper konstruiert.
Abschließend wurden für die eigens entwickelten Bauteile technische Zeichnungen erstellt. Auf ihnen wurden alle relevanten technischen Merkmale hinterlegt, die für die Fertigung der Bauteile benötigt wurden. Hierzu gehörten beispielsweise Angaben zum Werkstoff, Toleranzen, Passungen, Oberflächenangaben sowie Form- und Lagetoleranzen. Zudem wurde eine Baugruppenzeichnung erstellt, die die Anordnung der einzelnen Bauteile mit ihrer Stückzahl und Positionsnummer in einer Stückliste klar und deutlich erkennbar machte.
Damit wurde die Neuentwicklung eines unabhängigen Antriebsflansches abgeschlossen und bot einen Einblick in die mögliche Integration eines mechatronischen Antriebs in den Antriebsflansch.
Diese Bachelorarbeit hat sich ausführlich mit der Erstellung von Sicherheitskonzepten und der damit einhergehenden Erstellung einer Risikobeurteilung beschäftigt.
Dabei wurde festgestellt, dass eine besonders große Gefahr des Werkzeugwechselsystems durch die Gefährdung des herabfallenden Werkzeuges entsteht. Zum einen kann dies durch das Aufkommen eines Energie- bzw. Druckverlust entstehen. Dieses Risko wird durch den Einsatz einer bewährten Feder und einer selbsthemmenden Keilverbindung zwischen Verriegelungskolben und -bolzen vermindert.
Zum anderen kann durch Steuerungs- oder Programmierfehler das Werkzeugwechselsystem an nicht vorgesehener Stelle geöffnet werden und sich Fest- und Losteil trennen. Die dadurch entstehende Gefahr eines Herabfallenden Werkzeuges wird von einer steuerungsabhängigen Schutzmaßnahme verhindert, welche über eine genaue Positionsabfrage vor dem gefahrbringenden Szenario schützen sollen.
Hierbei sind verschiedene Konzepte ausgearbeitet worden, welche das von der Risikobeurteilung geforderte erforderliche PLr d erfüllen. Für die Konzepte wurden verschiedene berührungslose Sensoren und Sicherheitsschalter ausgesucht und ein Ventilschaltplan für die Erfüllung der Sicherheitsfunktion erstellt.
Auch andere Gefährdungen werden mithilfe der Anwendung von Normen, den Einsatz von inhärent sicheren Konstruktionen, technische/ergänzende Schutzmaßnahme oder Benutzerinformationen ausreichend vermindert.
Mithilfe einer weiteren Abschlussarbeit werden diese Sicherheitskonzepte und die damit einhergehende Risikobeurteilung überprüft und validiert. Hierfür wird die Norm DIN EN ISO 13849-2 verwendet.
In der Marketingstrategie von Event- und Club-Veranstaltern ist eine zielgerichtete Ansprache der Kundschaft unerlässlich, um eine nachhaltige Beziehung zur Zielgruppe aufzubauen und so den geschäftlichen Erfolg zu sichern. Während erhebliche Investitionen in herkömmliche Werbekanäle wie soziale Medien fließen, bleiben diese Plattformen oft ohne Garantie, dass die Werbemittel die relevanten Nutzer erreichen. Die White-Label-App beabsichtigt dieses Problem zu beheben, indem es Veranstaltern ermöglicht wird, eine engagierte Community direkt über die mobile Plattform aufzubauen und mit dieser zielgerichtet zu kommunizieren.
Das Kernziel der Bachelorarbeit ist die prototypische Entwicklung dieser Smartphone-App als individualisierbare und modulare White-Label-Lösung, die präzise auf die Bedürfnisse von Veranstaltern und deren Kunden zugeschnitten ist. Hierbei ist die zentrale Forschungsfrage: Wie kann eine modulare und individualisierbare White-Label-App effizient implementiert werden?
Zur Beantwortung dieser Frage werden auf Basis einer Wettbewerbsanalyse und der gründlichen Bewertung aktueller Best Practices im Bereich der App-Entwicklung verschiedene Aspekte untersucht. Hierzu zählen die Identifikation von möglichen Marktlücken und -chancen, die Eignung verschiedener Technologien und Entwurfsmuster, die Überwindung spezifischer Herausforderungen bei der Implementierung einer White-Label-App und die performante Integration der API.
Um einen praxisorientierten Ansatz zu gewährleisten, werden darüber hinaus verschiedene Kernfunktionalitäten der App beispielhaft implementiert. Dazu gehören Features wie eine Eventübersicht mit Informationen zu Veranstaltungen und ein Ticketingsystem mit Reservierungsmöglichkeiten.
Globale Ereignisse politischen, wirtschaftlichen oder kulturellen Ursprungs führen dazu, dass Unternehmen sich gezwungen sehen zu handeln, um wettbewerbsfähig zu bleiben. In vielen Fällen wird dabei so vorgegangen, dass versteckte Preiserhöhungen vollzogen werden. Auch Unternehmen, die mit ihrem Angebot einen gesellschaftlichen Zusatznutzen erbringen, erhöhen die Preise, da nur so der verfolgte ökologische oder soziale Purpose erhalten werden kann, kommunizieren dies jedoch offen und erhöhen dadurch ihre Kundenloyalität. Dieses Vorgehen ist bislang jedoch überwiegend in den USA zu beobachten. Da das Thema Purpose auch in Deutschland immer höhere Relevanz erfährt, stellt sich die Frage der Übertragbarkeit. Die Forschungsfrage lautet deshalb: Inwiefern beeinflusst die Kommunikation von purpose-getriebenen Preissteigerungen das Markenimage von B2C-Unternehmen in Deutschland? Um der Forschungsfrage nachzugehen, wurde ein empirischer Forschungsansatz gewählt, der in Form einer quantitativen Studie umgesetzt wurde, die die Meinung der Studierendenschaft der Gen Z und Y der Hochschule Offenburg abbildet. Die Ergebnisse der Umfrage zeigten, dass die Glaubwürdigkeit und Akzeptanz von purpose-getriebenen Preiserhöhungen vom gegenwärtigen Markenimage bzw. dem übergeordneten Image einer Branche abhängen. Purpose wird eine hohe Bedeutung zugesprochen, die sich jedoch aufgrund der Preissensibilität der Zielgruppe nicht immer in der Markenwahl widerspiegelt. Dies verdeutlicht, dass Purpose das Potenzial besitzt, das Markenimage nachhaltig zu beeinflussen und zu prägen und die Zielgruppe der Gen Z und Y zukünftig an sich zu binden. Ferner wurde deutlich, dass bei der Umsetzung von Purpose bestimmte Kriterien verfolgt werden sollten, die bei der Kommunikation zu berücksichtigen sind, um eine authentische Wirkung zu erzielen.
Die wachsende Verbreitung von KI-gesteuerten Empfehlungssystemen und personalisiertem Lernen in LXPs wirft grundlegende ethische Fragen für Anwender auf, insbesondere hinsichtlich der Transparenz und Nachvollziehbarkeit dieser Systeme. Diese Bachelorarbeit behandelt die Schnittstelle zwischen KI, Ethik und Bildung, wobei der Schwerpunkt auf der Erklärbarkeit von KI-basierten Systemen liegt. Das Beispiel, das für die Untersuchung herangezogen wird, ist Moodle LXP an der Hochschule Offenburg. Die Motivation dieser Arbeit entspringt der dringenden Notwendigkeit, die Akzeptanz und Vertrauenswürdigkeit von KI-Systemen in Bildungsumgebungen zu fördern, indem Erklärbarkeit als integraler Bestandteil integriert wird.
Im Rahmen des Projekts KompiLe wird Moodle zu einer sogenannten Learning Experience Platform (LXP) ausgebaut, die Studierenden personalisiertes, selbstbestimmtes Lernen ermöglicht. Zentrale Elemente der LXP sind Bewertungen interner und externer Lernressourcen sowie individualisierte, auf KI basierende Lernempfehlungen für Studierende. Diese Empfehlungen beruhen auf der Analyse persönlicher Daten der Studierenden, was eine grundlegende Voraussetzung für das Funktionieren des Systems darstellt. Damit Studierende solchen KI-basierten Lernempfehlungen vertrauen, müssen angemessene Erklärungen die gesamte Prozesskette begleiten. Dies beinhaltet die freiwillige Freigabe persönlicher Daten, die Erstellung von Bewertungen sowie die Präsentation persönlicher Lernempfehlungen.
Das Ziel dieser Bachelorarbeit ist es, eine benutzerfreundliche Integration von Erklärungen für die genannten Prozesse in Moodle LXP zu entwickeln. Dies soll dazu beitragen, die Vertrauenswürdigkeit und Akzeptanz des durch KI unterstützten Lernens zu stärken. Die Arbeit konzentriert sich auf die Konzeption verständlicher Erklärungen für verschiedene Arten von Bewertungen und Lernempfehlungen sowie deren Integration und Darstellung in Moodle LXP. Die entwickelte Benutzeroberfläche zielt darauf ab, Studierende zu entlasten und ihnen hilfreiche sowie thematisch sinnvolle Informationen für die KI-basierten Empfehlungen bereitzustellen. Es wurde ein Konzept für die Erklärbarkeit erstellt und als Mockup umgesetzt. Abschließend wurde die grobe Voransicht des fertigen Designs in ausgewählten Gruppen von Studierenden evaluiert, und die Auswirkungen auf die Vertrauenswürdigkeit und Akzeptanz der Empfehlungen auf die Lernenden wurden untersucht.
In Deutschland wird zur Bewertung von KWK-Anlagen die Stromgutschriftmethode angewendet. Dies ist die Standardmethode dieses Arbeitsblattes und der DIN V 18599-1. Die vorliegende Fassung der FW 309-1 ist wie seine früheren Fassungen als Anwendungs- und Auslegungshilfe zu den geltenden Normen und Gesetzen konzipiert, da diese Dokumente Regelungslücken aufweisen. Das Bilanzierungsprinzip, die meisten Primärenergiefaktoren und die KWK-Bewertungsmethode wurden beibehalten.
Änderung gegenüber der Fassung 2021:
Anhang A, Tabelle A.3: In der Neufassung des Gebäudeenergiegesetzes ab dem 1.1.2023 wird ein neuer Primärenergiefaktor für netzbezogenen Strom von 1,2 für Großwärmepumpen festgelegt. Diese Festlegung wird in dieses Dokument übernommen.
KI-gestützte Cyberangriffe
(2023)
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des Deep Learning haben in den letzten Jahren enorme Fortschritte gemacht. Insbesondere Technologien wie Large Language Models (LLMs) machen KI-Technologie innerhalb kurzer Zeit zugänglich für die Allgemeinheit. Die Generierung von Text, Bild und Sprache durch künstliche Intelligenz erzielt innerhalb kurzer Zeit gute Ergebnisse. Parallel zu dieser Entwicklung hat die Cyberkriminalität in den vergangenen Jahren im Bereich der KI zugenommen. Cyberangriffe verursachen im Zuge der Digitalisierung größeren Schaden und Angriffe entwickeln sich kontinuierlich weiter, um bestehende Schutzmaßnahmen zu umgehen.
Diese Arbeit bietet eine Einführung in das Themengebiet KI-gestützte Cyberangriffe. Sie präsentiert aktuelle KI-gestützte Cyberangriffsmodelle und analysiert, inwiefern diese für Anfänger*innen in der Cyberkriminalität zugänglich sind.
Das Softwareunternehmen HRworks implementiert eine Personalverwaltungssoftware unter Verwendung der Programmiersprache Smalltalk und des Model-View-Controller (MVC) Musters. Innerhalb des Unternehmens erfordert jede Model-Klasse des Patterns das Vorhandensein einer korrespondierenden Controllerklasse. Controller verfügen über ein wiederkehrendes Grundgerüst, das bei jeder neuen Implementierung umgesetzt werden muss. Die Unterscheidungen innerhalb dieses Grundgerüsts ergeben sich lediglich aus dem Namen und der spezifischen Struktur der korrespondierenden Model-Klasse. Die vorliegende Arbeit adressiert die Herausforderung der automatischen Generierung dieses Controllergrundgerüsts, wobei die Besonderheiten jeder Model-Klasse berücksichtigt wird. Dies wird durch den gezielten Einsatz von Metaprogrammierung in der Programmiersprache Smalltalk realisiert und durch eine Benutzeroberfläche in der Entwicklungsumgebung unterstützt. Zusätzlich wird der Controller um eine Datentypprüfung erweitert, wofür ein spezialisierter Parser implementiert wurde. Dieser extrahiert aus einem definierten Getter der Model-Klasse den entsprechenden Datentyp des Attributes. Im Ergebnis liefert die Arbeit eine Methodik zur automatisierten Generierung und Anpassung von Controllergrundgerüsten sowie dazugehörigen Teststrukturen basierend auf der jeweiligen Model-Klasse. Zusätzlich wird die Funktionalität der Controller durch eine integrierte Datentypprüfung erweitert.
Diese Arbeit befasst sich mit der Entwicklung eines umfassenden Konzepts zur Umsetzung des Lieferkettensorgfaltspflichtengesetzes (LkSG), welches ab dem 01.01.2024 für Unternehmen mit mehr als 1.000 Beschäftigten in Kraft tritt.
Die Bachelorarbeit ist in zwei Teile aufgebaut: zum einen den Theorieteil, der die Lieferkette in einem Verkehrsunternehmen und das Lieferkettensorgfaltspflichtengesetz umfasst, um eine Wissensbasis zu schaffen und zum anderen den Hauptteil, bestehend aus der Konzeptionierung. Da das Gesetz bereits im Jahr 2023 für große Unternehmen mit mehr als 3.000 Beschäftigten in Kraft trat, stehen bereits zahlreiche Systeme zur Unterstützung der Umsetzung zur Verfügung. Im Verlauf der Arbeit wurde eine Marktrecherche durchgeführt, bei der die geeignetste Softwarelösung für SWEG identifiziert wird. Um diese Untersuchung effektiv durchzuführen, wurden zwei Softwareauswahl-Tools entwickelt, die bei der Analyse und Bewertung helfen. Zusätzlich zum Software-Lösungsansatz wurde ein alternativer Lösungsansatz erarbeitet, der die eigenständige Handlung im Unternehmen vorsieht. Diese beiden Lösungsansätze werden zum Schluss verglichen, um die Geschäftsführung bei der Entscheidung, welche Version sie schließlich verwenden möchte, zu unterstützen.
Das erarbeitete Konzept bildet auch die Grundlage für die zukünftige Entwicklung und Umsetzung von Gesetzen und Richtlinien im Bereich Menschenrechte und Umweltaspekte. Für die Zukunft werden weitere Gesetze in Kraft treten, beispielsweise die kommende EU-Richtlinie.
Vorhofflimmern ist die häufigste tachykarde Herzrhythmusstörung weltweit. Dabei verliert das Herz seinen normofrequenten Sinusrhythmus und schlägt nicht mehr regelmäßig, sondern zu schnell und unregelmäßig. Vorhofflimmern ist normalerweise keine lebensbedrohliche Herzrhythmusstörung, aber es kann zu einem Schlaganfall führen. Die Ursache dieser Herzrhythmusstörung sind die Kreisende bzw. die fokalen Erregungen im linken Atrium, die hauptsächliche aus einer oder mehreren Pulmonalvenen kommen. Die übliche Therapieverfahren des Vorhofflimmerns ist die Pulmonalvenenisolation.
Diese Bachelorthesis beschäftigt sich daher mit der Modellierung unterschiedlicher linksatrialer Fokus-Modelle und intrakardialer Elektrodenkatheter für die Diagnostik und Terminierung von Vorhofflimmern mittels Pulmonalvenenisolation im Offenburger Herzrhythmusmodell nach Schalk, Krämer und Benke, welches in CST
Studio Suite realisiert wurde.
Zu Beginn wurden die verschiedenen linksatrialen fokalen Flimmerquellen modelliert und daraufhin simuliert. Hierbei wurde jeweils eine Simulation mit linksatrialen fokalen Flimmerquellen, die aus einzelnen, dualen oder allen vier Pulmonalvenen kommen, durchgeführt. Es wurde ebenfalls eine weitere Simulation mit Biosignalen (aus der Realität) erstellt. Mit diesen Simulationen konnte nun der elektrische Erregungsablauf sichtbar gemacht werden. Daraufhin wurden die Katheter für die Diagnostik und für die Pulmonalvenenisolation modelliert und in das bestehende Offenburger Herzrhythmusmodell integriert. Bei den Diagnostik-Kathetern handelte es sich um 10-polige Lasso® Katheter, zwei Varianten von PentaRay® NAV eco Katheter und 4-polige Diagnostik-Katheter „OSYPKA FINDER pure®“. Ablationskatheter sind zwei Varianten von Pentaspline Basket pose Katheter und HELIOSTAR™ Ablation Ballon. Abschließend wurden verschiedene Varianten von Isolationsverfahren der Pulmonalvenen modelliert und daraufhin die linksatrialen fokalen Flimmerquellen nach der Isolation der Pulmonalvenen simuliert.
Die Bachelorarbeit „Forensic Chain – Verwaltung digitaler Spuren in Deutschland“ untersucht die Anwendung eines Blockchain-basierten Chain of Custody Systems im deutschen rechtlichen und regulatorischen Kontext. Die digitale Forensik, die sich mit der Sicherung und Analyse digitaler Spuren befasst, gewinnt an Bedeutung, da kriminelle Aktivitäten vermehrt im digitalen Raum stattfinden. Die Blockchain-Technologie bietet transparente und unveränderliche Aufzeichnungen, die sich für die Speicherung von Informationen im Zusammenhang mit digitalen Beweismitteln eignen. Das Hautpziel der Arbeit besteht darin, die Umsetzung eines Chain of Custody Prozesses im Forensic Chain System zu untersuchen und die Eignung dieses Systems im deutschen Raum zu bewerten. Hierfür wird ein Prototyp des Forensic Chain Systems entwickelt, um das erstellte Konzept zu testen. Die Ergebnisse tragen zum Verständnis der Wichtigkeit der digitalen Forensik in Deutschland bei und bieten Einblicke in die Einführung von Blockchain-basierten Chain of Custody-Systemen in diesem Bereich. Sie leisten einen Beitrag zur Weiterentwicklung der digitalen Forensik.
Der True-Crime-Podcast erfreut sich in Deutschland einer großen Hörerschaft, die ganz unterschiedliche Nutzungsmotivationen mitbringt. Die Faszination für wahre Kriminalfälle kommt nicht von ungefähr – das Phänomen, welches dieser zugrunde liegt, ist die Morbid Curiosity. Da bislang noch nicht allzu viel Forschung in diesem Gebiet betrieben wurde, gibt diese Arbeit durch einen Vergleich verschiedener Untersuchungen Aufschluss darüber, wo diese Neugier für morbide Ereignisse herkommt. Gleichzeitig soll ein Überblick über das Genre True Crime und das Medium Podcast gegeben werden. Das Ziel ist es, eine Verbindung zwischen dem Phänomen Morbid Curiosity und dem Format True-Crime-Podcast herzustellen. Die Forschungsfrage lautet: Welche Rolle spielt Morbid Curiosity bei der Nutzungsmotivation der Konsumenten von True-Crime-Podcasts? Die Ergebnisse zeigen, dass Frauen andere Nutzungsmotivationen mitbringen als Männer und gleichzeitig die primären Konsumentinnen sind. Die Neugier für morbide Ereignisse spielt dabei durchaus eine Rolle, wenn auch scheinbar eine untergeordnete. Es werden Ansätze für weitere Forschung gegeben.
LogIKTram
(2023)
Der Anstieg des urbanen Verkehrs belastet zunehmend die Anwohner, die Nutzer der Infrastruktur sowie die Umwelt. Während für die Personenbeförderung die Straßenbahnen eine Entlastung bieten, existieren für den innerstädtischen Logistikverkehr keine passenden Angebote. Aus diesem Grund verfolgt das Projekt LogIKTram das Ziel, den Logistikverkehr mit einer Gütertram auf die Schiene zu verlagern. Hierfür werden ein Logistikkonzept sowie verschiedene Planungsmodelle entwickelt, die eine vereinfachte Nutzung erlauben.
KINLI
(2023)
Konsumenten haben immer höhere Ansprüche an Lebensmittelsicherheit, -qualität und -nachhaltigkeit. Bei Fleisch erwarten viele Menschen auch eine artgerechte und ethisch vertretbare Aufzucht, Haltung und Schlachtung der Tiere. Im Projekt KINLI sollen eine Datenplattform und Dienste mit künstlicher Intelligenz entwickelt werden, um mögliche Probleme vorherzusagen. Unternehmen in der Lieferkette können damit proaktiv ihre Prozesse anpassen, bevor Probleme tatsächlich eintreten.
Im Zuge der Machbarkeitsstudie „BubbleMeth“ (FKZ BWFE310091) wurde die Machbarkeit der biologischen Methanisierung in einem neukonzipierten innovativen Pilot-Reaktor, basierend auf einer Gegenstromblasensäule mit separatem Entgasungs-Reaktor, sowohl für den Betrieb in der biologischen in-situ als auch der ex-situ Methanisierung demonstriert.
Die Pilot-Anlage besteht aus einer Gegenstromblasensäule und einem separaten Entgasungs-Reaktor und wurde an der Hochschule Offenburg geplant und gebaut. Die beiden Reaktor-Säulen haben jeweils eine Höhe von 10 m, einen Säulendurchmesser von 0,3 m und ein Gesamtreaktionsvolumen von etwa 1,1 m3. Der Gaseintrag erfolgt über Sinterplatten am Boden der Gegenstromblasensäule. In dieser Begasungssäule strömt die Flüssigkeit in entgegengesetzter Richtung zu den aufsteigenden Gasblasen und reichert sich durch den am Säulenfuß vorliegenden hydraulischen Druck zunehmend mit gelöstem Gas an. Die Säule, in die das Eduktgas am Säulenboden eingetragen wird, ist in Abbildung 1 auf der rechten Seite dargestellt und befindet sich auf der Saugseite einer Pumpe. Bei einer etwa 9,5 m hohen Wassersäule erhöht sich der Absolutdruck am Säulenboden auf etwa 1,95 bar, womit sich die Löslichkeit einer beliebigen Gaskomponente im Vergleich zum Atmosphärendruck bei konstanter Temperatur im Gleichgewicht gemäß dem Henry’schen Gesetz näherungsweise verdoppelt. Dieser Effekt wird genutzt, um die Verfügbarkeit von gelöstem Wasserstoff für die bei der biologischen Methanisierung katalytisch wirkenden hydrogenothrophen Archaeen zu erhöhen. Durch die Zirkulation der Flüssigkeit und den damit erreichten Druckwechsel wird auf der Seite des Entgasungs-Reaktors ein Ausgasen der relativ zum Atmosphärendruck übersättigten Gaskomponente ermöglicht. Durch die Zirkulation der Flüssigkeit über zwei Säulen wird außerdem die räumliche Trennung des Eduktgaseintrages und der Produktgasabtrennung erreicht.
Die in-situ Methanisierung wurde in der Machbarkeitsstudie bis zu einer organischen Beladungsrate von 0,94 kg m-3 d-1 realisiert. Die erwartete Biogasbildungsrate (BGBR) bei vollständiger Umsetzung des Glucose/Fructose-Substrates zu Methan und CO2 lag bei ca. 0,686 m3 m-3 d-1. Die gemessene BGBR erreichte 0,61 ± 0,03 m3 m-3 d-1. Die geringe Abweichung kann auf eine zusätzliche Nutzung des Substrates für den Erhaltungsstoffwechsel des gesamten biologischen Systems zurückgeführt werden. Der maximale volumetrische H2-Eintrag betrug während der in-situ Methanisierung 0,785 m3 m-3 d-1 und ist dabei bezogen auf das gesamte Reaktionsvolumen von ca. 1,1 m3 in beiden Reaktorkolonnen. Das eingesetzte H2:CO2-Verhältnis lag bei 2,3, um einen vollständigen CO2-Umsatz und eine damit verbundene Verschiebung des pH-Wertes in den alkalischen Bereich bei der in-situ Methanisierung zu vermeiden. Die Produktgaszusammensetzung lag stabil bei ca. 80 Vol.% CH4, 18 Vol.% CO2 und geringen Mengen an Stickstoff, die im Wesentlichen aus der manuellen Entnahme der Gasproben resultieren, und entsprach der erwarteten Zusammensetzung bei dem vorgegebenen H2:CO2-Verhältnis.
Im Anschluss an die Untersuchungsphase der in-situ Methanisierung wurde der Prozess auf die ex-situ Methanisierung umgestellt. Dazu wurde die OLR schrittweise reduziert und gleichzeitig der Eintrag von CO2 aus einer Druckgasflasche erhöht. Die ex-situ Methanisierung wurde im Rahmen der Machbarkeitsstudie bis zu einem volumenspezifischen CO2-Eintrag bezogen auf das Gesamtreaktionsvolumen von 1,1 m3 von 0,563 m3 CO2 m-3 d-1 durchgeführt.
Der maximale volumetrische H2-Eintrag betrug während der ex-situ Methanisierung 2,168 m3 m-3 d-1. Das eingesetzte H2:CO2-Verhältnis lag bei 3,6 bis 3,9. Die Produktgaszusammensetzung lag stabil bei ca. 91 Vol.% CH4, 8 Vol.% CO2 und geringen Mengen an Stickstoff, und entsprach der erwarteten Zusammensetzung bei dem vorgegebenen H2:CO2-Verhältnis.
Besonders bemerkenswert war, dass sowohl bei der in-situ als auch der ex-situ Methanisierung und den jeweils in der Machbarkeitsstudie eingesetzten maximalen volumetrischen H2-Einträge weder im austretenden Produktgas am Entgasungsreaktor noch im rezirkulierten Gas am Kopf des Begasungsreaktors Wasserstoff nachzuweisen war. Damit besteht großes Potenzial für eine weitere Steigerung der Methanbildungsrate. Aus diesem Grund sollen die Arbeiten zur biologischen Methanisierung in einem Innovationsprojekt fortgeführt werden. Die Anlage soll hinsichtlich ihrer Eignung in einer relevanten Einsatzumgebung zur Methanisierung von in Biogas enthaltenem CO2-bewertet werden. Dazu soll die Anlage außerdem mit einem preiswerten alkalischen Elektrolyseur kombiniert werden, um das Verfahren so kostengünstig wie möglich zu gestalten. Dieser Elektrolyseur soll in Anlehnung an die fluktuierende Energiebereitstellung Erneuerbarer Energien zyklisch betrieben werden und dabei vor allem zu Zeiten günstiger Spotmarktpreise in Betrieb sein.
In dieser Arbeit werden Untersuchungen an einem neuartigen Sensorkonzept zur Erfassung von Winkelbeschleunigungen durchgeführt. Ziel dieser Arbeit war es, die Möglichkeit, eine Miniaturisierung des Prototyps zu untersuchen. Hierfür wurde eine analytische und experimentelle Untersuchung durchgeführt. Für die analytische Betrachtung erfolgte eine Fehlerfortpflanzung nach Gauß, welche die Fertigungstoleranzen, Dimensionsfehler des Accelerometers, Rauschen und Messabweichungen von Accelerometer und Gyroskop berücksichtigt. Die Ergebnisse zeigen, dass bei Verwendung der hochwertigen Inertial Measurment Units (IMUs) eine theoretische Verkleinerung bis auf 21mm eine höhere Genauigkeit bietet als die numerischen Differentiationen der Winkelgeschwindigkeit.
Für die Verifizierung unter realen Bedingungen wurden verschiedene Prüfkonzepte verglichen.
Dabei erwies sich ein Pendelprüfstand als vielversprechender Ansatz. Durch die Verwendung von Kugellagern kann ein breites Spektrum an Winkelbeschleunigungen abgebildet werden. Die kontinuierliche Erfassung reflektierender Marker auf der Pendelstange ermöglicht die Ermittlung der Winkel, die als Grundlage für ein Modell dienen, wodurch sich reale Winkelbeschleunigungen mit den Messdaten des Sensors vergleichen lassen. Dabei stellt die Modellierung der Verlustterme eine zukünftige Herausforderung dar.
Die Ergebnisse zeigen, dass eine Miniaturisierung des Sensorprototyps möglich ist und das der Pendelprüfstand eine Methode zur Verifizierung darstellt. Dies trägt dazu bei, die Anwendungsmöglichkeiten des Sensorkonzepts in der Praxis zu erweitern.
Die vorliegende Erfindung betrifft ein Verfahren zum Herstellen dreidimensionaler Bauteile, bei dem aus einem pulverförmigen Ausgangswerkstoff (1), der mit mindestens zwei Komponenten gebildet ist, wobei die Komponenten einen unterschiedlichen Dampfdruck bei gleicher Temperatur aufweisen, durch ein additives Strahlfertigungsverfahren ein Bauteil hergestellt wird. Mindestens ein Prozessparameter zum Betrieb mindestens eines zweidimensional auslenkbaren Energiestrahls wird derart eingestellt, dass sich der Dampfdruck mindestens einer der Komponenten ändert, so dass der Anteil dieses chemischen Elements oder dieser Legierung im Bauteilvolumen lokal definiert im Bauteil variiert wird.
Bei der Vorrichtung zum Verdampfen einer Flüssigkeit ist eine offenporöse Struktur (1) in einem Gehäuse (8) angeordnet, die zumindest bereichsweise als eine Heizvorrichtung ausgebildet oder mittels einer externen Heizvorrichtung oder Bereiche der offenporösen Struktur (1) auf eine Temperatur, die mindestens der Siedetemperatur der jeweiligen Flüssigkeit entspricht, erwärmbar ist. Die Flüssigkeit ist in einem außerhalb des Gehäuses (8) angeordneten Reservoir (4), mit einer Menge aufgenommen, die während des Betriebs eine kontinuierliche Verdampfung von Flüssigkeit ermöglicht. Das Reservoir ist über mindestens eine Leitung (3) für Flüssigkeit mit dem Gehäuse (8) verbunden und in der mindestens einen Leitung (3) ist/sind ein Ventil und/oder eine Pumpe oder ein Verdichter (5) angeordnet. Die Leitung (3) mündet in mindestens eine Öffnung mindestens einer Düse (2) oder mindestens eine Austrittsöffnung und die Düse (2), deren Öffnung(en) und/oder die mindestens eine Austrittsöffnung der Leitung (3) ist/sind so angeordnet, dass Flüssigkeit auf Oberflächenbereiche der offenporösen Struktur (1) auftrifft und/oder in Poren der offenporösen Struktur (1) eintritt, wenn Flüssigkeit durch die eine Leitung (3) strömt.
The article investigates the development of a manufacturing route for highly porous titanium foams suitable for craniofacial surgery applications, particularly in cranioplasties. The study focuses on the polyurethane replication method for foam production and emphasizes reducing residual gas content, as it significantly affects the mechanical properties and suitability for approval of the foams. Various factors such as starting materials, solvent debinding, heating schedules, and hydrogen atmosphere are analyzed for their impact on residual gas content. It is shown that significant reductions in residual gas content can only be achieved by reworking each step of the process. A combination of initial solvent debinding of the PU template with dimethyl sulphoxide, reduction of suspension additives, use of coarser Gd. 1 powders, and an integrated debinding and sintering process under partial hydrogen atmosphere achieves a significant reduction in residual gas content. This way, the potential for producing titanium foams that comply with relevant standards for craniofacial implants is demonstrated.
In der Geschichte »Die Schule« (Originaltitel: ,,The fun they had“) von 1954 beschreibt der russisch-amerikanische Wissenschaftler und Science fiction Autor Isaac Asimov, wie die Schule der Zukunft im Jahr 2157 aussieht – oder genauer: dass es gar keine Schulen mehr gibt. Jedes Kind hat neben seinem Kinderzimmer im Elternhaus einen kleinen Schulraum, in dem es von einem mechanischen Lehrer (einer Maschine mit Bildschirm und einem Schlitz zum Einwerfen der Hausaufgaben) unterrichtet wird. Diese Lehrmaschine ist perfekt auf die Fähigkeiten des einzelnen Kindes eingestellt und kann es optimal beschulen. Nur: Maschinen können kaputt gehen. Die elfjährige Margie wird von ihrem mechanischen Lehrer wieder und wieder in Geographie abgefragt, aber jedes Mal schlechter benotet. Das sieht die Mutter und ruft den Schulinspektor, um den mechanischen Lehrer zu reparieren.
Die Arbeit beinhaltet die Konzeption und den Aufbau eines Prüfstandes für den Elektromotor sowie den Antriebsstrang des Hocheffizienzfahrzeugs "Schluckspecht S6" der Hochschule Offenburg. Neben Beschreiben des Vorgehens bei dem Entwerfen von benötigten CAD-Modellen wird auch auf die Auswahl und Implementierung elektronischer Komponenten sowie die Programmierung des verwendeten Mikrocontrollers eingegangen. Die Ergebnisse eines ersten Tests des Prüfstandes werden außerdem aufgezeigt und diskutiert.
Im Rahmen dieser Arbeit wurde das elektrisch / elektronische System des Hocheffizienzfahrzeugs „Schluckspecht 6“ hinsichtlich seiner Übersichtlichkeit und Modularität optimiert. Essenziell war die Vernetzung der durch verschiedene Projektgruppen erstellten Teilsysteme mittels des neu integrierten CAN-Bus. Im Zuge der Überarbeitung des E/E-Systems wurde auch ein neuer Gesamtfahrzeugschaltplan angefertigt.
Im Rahmen der Optimierung des E-Antriebsstrangs wurde eine neue Motorsteuerung entwickelt, die aufgrund des verbauten Vierquadrantenstellers neben einem zuverlässigen Antrieb des Schluckspecht 6 zukünftig auch die Steuerung und Regelung von Lastmaschinen in – für den Schluckspecht 6 neu entwickelten – Testständen erlaubt. Für die Messdatenerfassung, während Test- und Rennläufen sowie in den Testständen, wurden diverse Messsysteme realisiert. Dazu gehören die Messung des Motorstroms, der Zwischenkreisspannung und der Motordrehzahl. Basierend auf der Motorstrommessung und Zwischenkreisspannungsmessung wurde eine Stromregelung implementiert, um die Bedienfreundlichkeit und Effizienz des S6 im Rennbetrieb zu erhöhen.
Die Visualisierung von Programmabläufen ist ein zentraler Aspekt für Programmieranfänger, um das Verständnis von Codeabläufen zu erleichtern und den Einstieg in der Softwareentwicklung zu unterstützen. In dieser Masterthesis wird ein speziell auf die Bedürfnisse von Einsteigern zugeschnittenes generisches Framework vorgestellt, wobei der Fokus auf einer einfachen, verständlichen aber auch korrekten Darstellung der Programmausführung liegt. Das Framework integriert das Debugger Adapter Protocol, um den Debugger unterschiedlicher Sprachen ansprechen und verwenden zu können.
In dieser Arbeit werden zunächst die Anforderungen für das generische Framework diskutiert. Anschließend werden bestehende Ansätze zur Visualisierung von Programmabläufen ausführlich untersucht und analysiert. Die Implementierung des Frameworks wird daraufhin detailliert beschrieben, wobei besonderer Wert auf die Erweiterbarkeit unterschiedlicher Sprachen gelegt wird.
Um die Eignung des Frameworks zu evaluieren, werden mehrere Aufgaben aus dem ersten Modul mit der jeweiligen Programmiersprache des Studiengangs Angewandte Informatik der Hochschule Offenburg betrachtet. Die Ergebnisse zeigen, dass das Framework mit den Aufgaben umgehen und diese korrekt und verständlich darstellen kann.
The aim of this bachelor thesis is to introduce a product data management (PDM) system to reduce the current difficulties in the project team workflow. The main objective is to reduce or prevent problems in the project team's collaboration processes by establishing a centralized, structured data repository.
The process to achieve this goal was to first talk to the project team and monitor professors to find the most effective strategies. Early research on PDM/PLM (Product Lifecycle Management) was conducted through literature reviews, online searches, thesis reviews, and video resources.
In order to gain a comprehensive understanding of PDM systems, the thesis used a combination of group discussions and literature reviews. The emphasis was on the practical application, which included the customization of configurations.
In Zeiten großer Veränderungen haben genossenschaftlich organisierte KMU die Möglichkeit, auf komplexe Herausforderungen mit kooperativen Lösungsansätzen zu reagieren, vor allem wenn dabei die Kraft und Kreativität der Gemeinschaft genutzt wird. Getreu dem Motto „Was einer alleine nicht schafft, das schaffen viele“ des Genossenschaftsvorreiters Friedrich Wilhelm Raiffeisen ist gemeinschaftliches unternehmerisches Handeln identitätsstiftend und motivierend, woraus wiederum eine sich selbst verstärkende Eigendynamik entstehen kann. Wie Mittelstand, Politik und Gesellschaft davon profitieren, stellen Prof. Dr. Tobias Popovic und Prof. Dr. Thomas Baumgärtler in diesem Beitrag dar.