Refine
Year of publication
Document Type
- Bachelor Thesis (350)
- Master's Thesis (101)
- Book (11)
- Study Thesis (1)
Has Fulltext
- yes (463)
Is part of the Bibliography
- no (463) (remove)
Keywords
- Marketing (16)
- IT-Sicherheit (12)
- JavaScript (11)
- Webentwicklung (8)
- Künstliche Intelligenz (7)
- Schluckspecht (7)
- Robotik (6)
- App <Programm> (5)
- Biomechanik (5)
- E-Learning (5)
Institute
- Fakultät Medien und Informationswesen (M+I) (bis 21.04.2021) (201)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (85)
- Fakultät Medien (M) (ab 22.04.2021) (65)
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (53)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (45)
- Fakultät Wirtschaft (W) (6)
- INES - Institut für nachhaltige Energiesysteme (3)
- ivESK - Institut für verlässliche Embedded Systems und Kommunikationselektronik (2)
- IUAS - Institute for Unmanned Aerial Systems (1)
- IfTI - Institute for Trade and Innovation (1)
Open Access
- Closed Access (463) (remove)
Diese Bachelorarbeit befasst sich mit den Entwicklungen des Webdesigns in den letzten zehn Jahren und den daraus resultierenden Anforderungen an eine erfolgreiche Webseite. Außerdem werden Grundlagen des Webdesign und die aktuellsten Webtrends betrachtet, um ein umfassendes Bild des Erfolges einer Webseite zu erhalten.
Im Rahmen der Thesis wurde außerdem ein interner StyleGuide für die Webseite des Softwareunternehmens „sevDesk“ aus Offenburg erstellt. Dieser bietet eine Übersicht der vorhandenen Komponenten in allen deren Varianten, sowie den allgemeingültigen StylingRichtlinien, welche das Design der kompletten Webseite definieren.
Gesetzliche Auflagen, Kundenanforderungen sowie das Risiko von finanziellen Folgen und Imageschäden durch Rückrufaktionen zwingen die Automobilhersteller und ihre Lieferanten eine lückenlose Rückverfolgbarkeit der Produkte zu gewährleisten.
Darüber hinaus ist es nicht möglich, die Qualität von Klebverbindungen zu überprüfen, ohne dabei die Bauteile zu zerstören. Daher ist es bei Klebverbindungen mit hohen Sicherheitsanforderungen umso wichtiger, eine lückenlose Nachweisführung und Rückverfolgbarkeit zu gewährleisten. Ziel dieser Masterthesis ist es, ein Konzept zu erstellen, welches die Rückverfolgbarkeit von Klebverbindungen mit hohen Sicherheitsanforderungen sicherstellt. Dieses Konzept berücksichtigt die Norm DIN 2304-1, in welcher Qualitätsanforderungen an Klebprozesse definiert sind.
Die Ausarbeitung des Rückverfolgbarkeitskonzepts basiert neben den Anforderungen der DIN 2304-1 auf den gesetzlichen Vorgaben und den Kundenanforderungen. Darüber hinaus werden zunächst die Methodik und die technischen Lösungen des Unternehmens dargestellt.
Das im Rahmen dieser Masterthesis entwickelte Konzept beinhaltet sowohl eine Beschreibung zur technischen Umsetzung der Anforderungen als auch die Definition der für die Nachweisführung relevanten Daten.
Die Arbeit beschäftigt sich mit dem Thema der Progressive Web App, dabei wird auf die Entwicklung und das Wirtschaftliche Potential eingegangen. Die Arbeit kann als Hilfestellung bei der Entscheidung, ob eine Progressive Web App in einem Unternehmen eingesetzt werden soll, dienen.
Das Ziel dieser Bachelorarbeit ist es zu ermitteln, ob die ERP-Software-Lösung Odoo und die Verwendung deren kostenlosen Community Edition sich für die Umsetzung einer Internetpräsenz für eine Full-Service-Marketing-Agentur eignet und soll für die triiidot GmbH konzeptioniert und realisiert werden.
Dazu werden folgende Forschungsfragen gestellt:
1. Wie lassen sich die Anforderungen an eine Internetpräsenz der triiidot GmbH als Full-Service-Marketing-Agentur mit der kostenlosen Community Edition der ERP-Software-Lösung Odoo umsetzen?
2. Wie kann sich die triiidot GmbH von jeweils drei beispielhaften (Full-Service)-Marketing-Agenturen aus Fürstentum Liechtenstein, München und Offenburg abheben und auf dem Markt erfolgreich positionieren?
Um die erste Forschungsfrage zu beantworten, wird auf das Odoo Unternehmen und dessen System eingegangen und die Bedienung erklärt. Für das Erfüllen der Anforderungen der triiidot GmbH werden die von der Odoo Software zu der Verfügung stehenden Funktionen und Anwendungen eingesetzt. Die Umsetzung der Internetpräsenz mit der kostenlosen Odoo Community Edition wird erreicht und beschrieben. Die Grenzen dieser Edition werden in einer Vergleichstabelle mit der lizensierten Odoo Enterprise Edition aufgezeigt.
Um die zweite Forschungsfrage zu beantworten, ist eine Mitbewerberanalyse durchzuführen, die die Bereiche Leistungen, Referenzen und Funktionalität der Internetpräsenzen der Konkurrenz überprüft. Die Analyse der Ergebnisse zeigt, dass bei der Konzeption der Internetpräsenz die Struktur der Leistungen und Referenzen, sowie angebotene Funktionalitäten einen großen Einfluss auf die Benutzerfreundlichkeit und Bedienfreundlichkeit ausüben. Diese entscheidet über die Aktionen der Besuchenden auf einer Internetpräsenz. Aus diesem Grund wählt die triiidot GmbH ein klassisches, minimalistisches Design mit nützlichen Funktionen. Die Entwicklung der Struktur der Internetpräsenz wird in einer Mindmap zusammengehalten. Auf dieser Grundlage ist es möglich eine Internetpräsenz mit der Odoo Community Edition umzusetzen. Eine neue Full-Service-Marketing-Agentur kann die Defizite dieser Branche aufgreifen, um sich erfolgreich auf dem Markt zu positionieren.
Kurzfassung
Hintergrund: Eine Methode, mit der Richtungswechsel (COD) im Sport erkannt und quantifiziert werden können, kann eine weitere wichtige Variable bei der Überwachung von Belastungen sein und so Einfluss auf die Belastungssteuerung nehmen.
Zielsetzung: Die Überprüfung der Genauigkeit und Übereinstimmung einer GNSS-Trackingeinheit (Catapult OptimEye S5) bei vorgegebenen CODs im Bereich zwischen 45° und 180° nach links und rechts im Vergleich zu einem Bewegungserfassungssystem.
Stichprobe: 20 junge und zum Zeitpunkt der Messung gesunde Fußballer (10 Männer/10 Frauen; Alter: 25.3 ± 3.5 Jahre; Größe: 173 ± 8.5 cm; Gewicht: 66 ± 9.3 kg)
Methodik: Gleichzeitige Aufnahme von Positionsdaten (Catapult OptimEye S5) und Bewegungserfassungsdaten (Theia3D Markerless Motion-Capture) während je drei aufeinanderfolgenden Läufen pro vorgegebenen Winkel (180°, 135°, 90°, 45°) in beide Richtungen.
Ergebnisse: Eine gute Genauigkeit ist für 180°-CODs in beide Richtungen ermittelt worden. Deutlich unterschätzt sind die 45°-CODs in beide Richtungen und der 90°-COD nach links, weniger unterschätzt ist der 90°-COD nach rechts. Der 135°-COD ist für beide Richtungen deutlich nach oben verzerrt. Die Übereinstimmung ist für beide 180° Winkel und die 135°- und 45° Winkel nach links zufriedenstellend. Alle Ergebnisse werden über den Mittelwert ± Standardabweichung und der Bland-Altman 95%-Grenzen dargestellt.
Schlussfolgerung: Die Ergebnisse zeigen, dass die GNSS-Technologie bei CODs an ihre Grenzen stößt. Dennoch können mit einem Kompromiss in Bezug auf die Genauigkeit, unterschiedliche Winkel bei CODs bestimmt werden.
Die Hohlprobentechnik soll als Alternative zur Autoklavtechnik eingesetzt werden,
um Werkstoffe unter Druckwasserstoffeinfluss charakterisieren zu können. Daher
wird in dieser Arbeit die Hohlprobengeometrie unter LCF-Belastung mit Hilfe
der Finite-Elemente-Methode untersucht. Dabei wird besonders auf den Einfluss
des Innendrucks, der Belastung und der Temperatur eingegangen. Die Ergebnisse
werden mit der Vollprobengeometrie verglichen, um die Eignung der Hohlprobe als
Alternative zur Vollprobe zu untersuchen. Ohne Innendruck ist kein Unterschied
im Verformungsverhalten zwischen Voll- und Hohlprobe zu erkennen. Bei hohen
Innendrücken kann die Hohlprobe ihre Formstabilität verlieren. Daher können in
Experimenten nicht alle Kombinationen aus Temperatur und Innendruck untersucht
werden.
Im zweiten Teil der Arbeit wird die belastungsabhängige Wasserstoffdiffusion an einer
angerissenen Hohlprobe numerisch untersucht. Durch die Spannungsgradienten an der
Rissspitze wird die Wasserstoffkonzentration beeinflusst. Um einen Zusammenhang
zwischen der Plastizität und der Diffusion zu untersuchen, wird eine plastische und
eine Diffusionszone ausgewertet. Hier zeigt sich, dass die Diffusionszone hauptsächlich
von der Risslänge und weniger von der Belastung abhängt.
Es werden die aktuellen Studien über Fußformen auf signifikante Unterschiede zwischen Männer und Frauen, Einflussfaktoren wie das Alter, die Körpergröße, das Gewicht und den BMI untersucht. Weiter werden die Unterschiede zwischen verschiedenen Ethnien, Belastungen und dem Aufwachsen mit oder ohne Schuhe analysiert. Die Studien werden über PubMed und ConnectedPapers gesucht und die Daten mit Excel ausgewertet und graphisch dargestellt. Folgendes hat sich ergeben: das Alter hat im Wachstum des Fußes einen Einfluss auf die Fußlänge und die Fußbreite. Außerhalb des Wachstums hat das Alter Einfluss auf die fibulare Bogenlänge und die Bogenhöhe. Die Körpergröße hat Einfluss auf die Fußlänge, die fibulare Bogenhöhe, die distale Knöchelhöhe und den Ballenumfang. Das Gewicht hat im Fußwachstum einen Einfluss auf die Fußlänge. Außerhalb des Wachstums hat das Gewicht einen Einfluss auf die fibulare Bogenhöhe, die Höhe des distalen Knöchels, die Zehenhöhe und den Ballenumfang. Der BMI hat einen Einfluss auf die fibulare Bogenlänge, die mediale und distale Knöchelhöhe und die Zehenhöhe. Für die Fersenbreite und die Risthöhe wurden keine Einflussfaktoren gefunden.
Aufgrund der verstärkten Bedeutung von Datenschutz in der modernen Gesellschaft und der verstärkten Nutzung von markerlosen Systemen wird es zunehmend interessant, ob ein solches System zuverlässige Werte auch bei noch unpopuläreren Bewegungen, wie der Kopfbewegung, liefert. Diese treten, bei der heute vorwiegend sitzenden Gesellschaft und im Zeitalter von Nackenverspannungen und der daraus resultierenden Bewegungseinschränkungen, mehr in den Fokus. Auch unter dem Gesichtspunkt des Datenschutzes ist es wichtig, nicht nur die Namen der Probanden, sondern auch deren
Gesichter in den Aufzeichnungen zu anonymisieren.
In der vorliegenden Arbeit wird daher evaluiert, ob das markerlose Bewegungsanaylsesystem Theia mit anonymisierten Dateien ähnliche Ergebnisse erzeugt, wie mit den originalen Dateien. Für diese Studie wurden sechs verschiedene Bewegungen bis zu ihrem Maximalausschlag des jeweiligen Probanden aufgezeichnet. Die Bewegungen hierbei sind Flexion und Extension des Kopfes, Lateralflexion sowie Rotation zu beiden Seiten. Zusätzlich wurde noch ein Durchgang Kopfkreisen aufgezeichnet. Dieser bestand aus dreimaligem Kopfkreisen, welches eine Kombination aus den vorherigen Bewegungen ist.
Die anonymisierten Daten wurden mittels eines Algorithmus bearbeitet, welcher das Gesicht der Probanden unkenntlich macht. Dies geschah durch das Schwärzen des Gesichtes oder einem Verschwimmen des Gesichts. Danach wurden die drei Datensätze in Theia verarbeitet und in EXCEL ausgewertet. Dabei kam es vor allem bei der geschwärzten Version bei Flexion und Extension zu großen systematischen und zufälligen Fehlern. Der Mittelwert des systematischen Fehlers ist die Abweichung von 13,62 Grad zu den Originalwerten. Der zufällige Fehler ist im Mittel mit 170,57 Grad stärker abweichend. Im Vergleich dazu liegt der Mittelwert des systematischen Fehlers bei der geblurrten Versionen im Vergleich zu den Originalwerten bei 5,17 Grad. Die geblurrte Version weist zudem seltener signifikante Unterschiede und einen mittleren zufälligen Fehler von 23,43 Grad auf, weshalb diese Version unter geringem Vorbehalt verwendbar ist, die geschwärzte Version jedoch nicht.
Die Bachelorarbeit umfasst die Entwicklung einer Pendelhubstichsäge für die Verwendung in CNC-Bearbeitungszentren. Der Entwicklungsprozess durch läuft alle vier Phasen: Planung, Konzeption, Konstruktion, Ausarbeitung. Endergebnis der Bachelorarbeit ist ein vollständiges 3D-Modell mit allen fertigungsrelevanten Dokumenten.
Diese Arbeit befasst sich mit der Redigitalisierung von ausgedruckten Architektur-zeichnungen mit möglichst einfachen Mitteln. So sollen Fotos von herkömmlichen Smartphones die Grundlage für die Extraktion von Maßstab und Raumgeometrien sein.
Der erste der drei Schritte, die das Foto dabei durchläuft, ist die Beseitigung von perspektivischen Verzerrungen (Rektifizierung). Die hierfür benötigten Punkte werden durch ein, in dieser Arbeit trainiertes, Convolutional Neural Network (CNN) detektiert. Die so ermittelten Positionen stellen im zweiten Schritt, der Ermittlung eines Maßstabes, die Grundlage für das Auslesen der Maßzahlen mittels optical character recognition (OCR) dar. Da Räume nicht als solche in Bauzeichnungen eingezeichnet sind, werden im letzten Schritt, zuerst Wände, Türen und Fenster, durch mehrere mathematische Faltungen (convolutions) lokalisiert und innerhalb dieser Elemente, mittels wachsender Regionen, nach Räumen und Fluren gesucht.
Nach dem ein Foto diese Schritte durchlaufen hat, werden die ermittelten Geometrien sowie der Maßstab in einer Liste abgespeichert und im rektifizierten Bild, zusammen mit den berechneten Flächeninhalten, visualisiert. So kann ein Anwender schnell und einfach den Erfolg des Programmoutputs beurteilen.
Eine Versuchsreihe mit einigen Fotos ergab, dass ein Schattenwurf auf dem Papierplan bei Aufnahme des Lichtbildes zu vermeiden ist, da dieser sowohl bei der Auswertung durch das CNN, als auch innerhalb des OCR-Vorgangs zu Problemen führt, die in einigen Fällen eine Rektifizierung oder Maßstabsermittlung verhinderten.
Bei den übrigen fünf Fotos wurden durchschnittlich 31,8 von 32 Räumen detektiert, dabei wurde zwischen zwei und zwölf mal fälschlicherweise die Fensterbank als Fußboden detektiert. Die Standardabweichung der Flächeninhalte aller Räume betrug dabei 0,66 m², werden nur die Räume betrachtet, bei denen die Fensterbank korrekt erkannt wurde, beträgt die Standardabweichung lediglich 0,25 m².
Insgesamt werden die in dieser Arbeit erzielten Ergebnisse als „gut“ eingestuft, es bleiben jedoch auch einige Optimierungsmöglichkeiten an verschiedenen Stellen, besonders bei der Suche nach Räumen, bestehen.
Für die Prognose von Zeitreihen sind bezüglich der Qualität der Vorhersagen heutzutage neuronale Netze und Deep Learning das Mittel der Wahl. LSTM-Netzwerke etablierten sich dazu als eine gut funktionierende Herangehensweise. 2017 wurde der auf Attention basierende Transformer für die Übersetzung von Sprache vorgestellt. Aufgrund seiner Fähigkeit mit sequenziellen Daten zu arbeiten, ist er auch für Zeitreihenprobleme interessant. Diese wissenschaftliche Arbeit befasst sich mit der Vorhersage von Zeitreihen mit einem Transformer. Es wird analysiert, inwiefern sich ein Transformer für Zeitreihenvorhersagen von einem Transformer für Sprachübersetzungen unterscheidet und wie gut die Vorhersagen im Vergleich zu denen eines LSTM-Netzwerkes abschneiden. Dazu werden ein LSTM- und ein Transformer-Netzwerk auf Luftqualitäts- und Wetterdaten in Berlin trainiert, um den Feinstaubgehalt (PM25) in der Luft vorherzusagen. Die Ergebnisse werden mit einem Benchmark-Modell anhand von Evaluationsmetriken verglichen. Anschließend wird evaluiert, wie die Fehler des Transformers reduziert werden können und wie gut der Transformer generalisiert.
Die Verletzung des Sprunggelenks ist eine der häufigsten Verletzungen bei vielen Sportarten. Um diese Verletzungen zu verringern und zu verhindern, werden immer neuere Gelenkschutzarten oder Schuhe entwickelt. Dafür sind vor allem Dehnungen am Schuhobermaterial interessant, für die es noch keine Studie gegeben hat.
Das Ziel dieser Arbeit ist es, eine Studie im Motion Capture Labor der Hochschule Offenburg durchzuführen und die maximale Dehnungen bzw. Längenänderungen im Vor- und Mittelfußbereich bei einem Schuh mit elastischem Obermaterial zu bestimmen. Dabei sollen auch die vertikale Kraft und die Zeitpunkte der maximalen Längenänderung gemessen werden.
Die Studie wurde mit 22 Probanden durchgeführt und es wurden eine statische Aufnahme und acht Bewegungen aufgenommen. Die relevanten Bewegungen für diese Arbeit sind Laufen, Gehen, Abstoppen aus schnellem Laufen und Abstoppen aus Gehen. Dabei wurde ein Motion Capture System und eine Kraftmessplatte genutzt, bei der die Probanden mit dem linken Fuß auftreten mussten. Der Vorfußbereich war mit fünf Markern und der Mittelfußbereich mit sieben Markern besetzt, die jeweils eine Querlinie über den Fuß bildeten. Die Kameras des Motion Capture Systems haben das reflektierende Infrarotlicht der Marker aufgenommen und das System die 3D-Daten gespeichert. Mit diesen Daten wurden alle Ergebnisse berechnet.
Es wurden hohe maximale Längenänderungen und vertikale Kräfte beim Abstoppen aus schnellem Laufen gefunden. Außerdem weisen Laufen und Gehen eine sehr niedrige vertikale Kraft beim Mittelfußbereich auf. Die Zeitpunkte der maximalen Längenänderungen sind für den Vor- und Mittelfußbereich bei jeder Bewegung sehr ähnlich. Der Vorfußbereich dehnt maximal am Anfang jeder Bewegung bzw. am Anfang des Auftretens des Fußes, während der Mittelfußbereich am Ende jeder Bewegung maximal dehnt.
Mit der wachsenden Bedeutung von Nachhaltigkeit im Alltag von Konsument*innen, werden ökologische Aspekte zunehmend zum Kaufentscheidungsfaktor. Damit steigt auch das Angebot nachhaltiger Produkte am Markt. Immer mehr Unternehmen neh-men ökologische Alternativen mit in ihr Sortiment auf. Wie nachhaltig einzelne Güter tatsächlich sind, kann für Verbraucher*innen nur schwer ersichtlich sein.
Ziel dieser wissenschaftlichen Arbeit ist die Analyse der Auswirkungen von Green-washing auf das Konsumverhalten deutscher Verbraucher*innen am Markt für nach-haltige Lebensmittel. Innerhalb eines Fragebogens wird zunächst der Lebensmittel-konsum eines Probandenkreises erfasst. Dabei wird zudem erfasst, welche Bedeutung Gütezeichen als Beurteilungshilfe hinsichtlich der Nachhaltigkeit eines Produkts in der Lebensmittelbranche innehalten. Dazu werden zunächst einige Öko-Siegel bzgl. ihrer Seriosität bewertet. In einem weiteren Schritt werden die Ergebnisse dieser Bewertung mittels empirische Forschung der Einschätzung des Probandenkreises gegenüberge-stellt.
Aus der Befragung ist hervorgegangen, dass Greenwashing eines Unternehmens durchaus Veränderungen in der Kaufbereitschaft der betroffenen Produkte sowie – zu einem geringeren Ausmaß – Produkte innerhalb der gleichen Kategorie betrifft. Wei-terhin wurde identifiziert, dass die Einschätzungen des Probandenkreises hinsichtlich der Seriosität und der Vertrauenswürdigkeit maßgeblich von der – innerhalb dieser wissenschaftlichen Arbeit – durchgeführten Bewertung abweichen. Die Einschätzung hinsichtlich der Seriosität und Vertrauenswürdigkeit von Seiten der Proband*innen, scheint zu großen Teilen von der Bekanntheit des betreffenden Gütezeichens abzu-hängen.
Die vorliegende Bachelorarbeit gibt einen Überblick über verschiedene Java Game Engines und wie diese über ein Konzept in die aktuelle Informatik Vorlesung integriert werden können, um dadurch die Motivation der Studierenden signifikant zu steigern. Dabei wurde in den Grundlagen das Lernpotenzial von Computerspielen untersucht sowie der allgemeine Aufbau von Game Engines definiert. Diese Ergebnisse flossen im Anschluss in die Untersuchung ein und führten zu einer Auswahl der geeigneten Java Game Engine. Über eine SWOT-Analyse, welche nach V. Wollny und H. Paul durchgeführt wurde, konnte eine gut geeignete Engine ermittelt werden. Auf der Basis des Buches von Michael Kölling wurde ein Konzept für die Informatik - Vorlesung entwickelt, welches im letzten Kapitel der Arbeit mit passenden Aufgaben beschrieben wurde. Die Bachelorarbeit ist sowohl für Studierende der Informatik als auch für Lehrende in diesem Bereich interessant und bietet neue Einblicke in ein Nischengebiet.
Die vorliegende Bachelorthesis setzt sich mit dem Einsatz von digitalen Medien in den Bildungseinrichtungen Hochschule und Berufsschule auseinander. Zunächst werden grundlegende Begrifflichkeiten und digitale Medien beschrieben. Anschließend wird der Gerätebesitz Jugendlicher und die Ausstattung der Bildungsinstitute gezeigt. Im Folgenden wird auf den Einfluss der Coronapandemie in Bezug auf die Digitalisierung eingegangen. Anschließend folgen zwei Konzepte, die einen sinnvollen Einsatz von digitalen Medien in der Bildung gewährleisten sollen.
Heutzutage befindet sich die Menschheit in einem Zeitalter des Bewegungsmangels. Körperliche Aktivitäten dringen immer weiter in den Hintergrund. Dadurch wird die Gesundheit deutlich beeinträchtigt. Es entstehen vermehrt Krankheiten wie Diabetes und Schädigungen des Herz-Kreislauf-Systems. An diesem Beispiel lässt sich verdeutlichen, wie wichtig körperliche Bewegung ist. Die gängigste Art ist das Laufen und das Gehen. Dazu wurden Laufschuhe entwickelt. Jedoch ist die Passform oft nicht so ausgestattet, um für eine perfekte Laufperformance und ein möglichst geringes Verletzungsrisiko zu sorgen. Es entsteht ein Spiel zwischen Laufschuh und dem Fuß. Um dieses Spiel zu minimieren bzw. für eine verbesserte Laufperformance zu sorgen werden Gurtsysteme bzw. Schnürsysteme entwickelt. Das Ziel hierbei ist es zu prüfen, ob diese Gurtsysteme auch wirklich einen signifikanten Vorteil erweisen und ob es Unterschiede zwischen den einzelnen Schnürungen, sowie dem Schuh ohne Schnürung gibt.
In dieser Studie wurden 5 Probanden rekrutiert. Im Biomechanik Labor wird jeder Proband einzeln gemessen. Dabei positionieren die messenden Personen einen Schuh an den Probanden. Anschließend wird ein Gurtsystem befestigt. Es handelt sich hierbei um 4 verschiedene Schnürungen, die jeweils einmal um den Schuh gewickelt werden. Die Gurtsysteme sind dieselben, jedoch an einer anderen Position von proximal nach distal entlang des Fußes positioniert. Zusätzlich werden die Bewegungen noch mit dem Schuh ohne das Schnürsystem durchgeführt. Es handelt sich hierbei um 5 verschiedene Bewegungen. Das Gehen, das Laufen, das Springen, sowie das Abstoppen aus dem Gehen und dem Laufen. Ziel dabei ist es die horizontale Bewegung der Ferse nach vorne relativ zur Sohle, sowie die Verschiebung der Ferse relativ zur Sohle in vertikaler Richtung zu untersuchen und rauszufinden, ob es einen grundlegenden Unterschied zwischen den einzelnen Schnürungen gibt. Die einzelnen Messwerte beschreiben den Abstand zwischen dem Marker an der Ferse sowie auf dem Schuh, die gemeinsam ein Koordinatensystem aufspannen.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Abstoppen aus dem Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D3, D3 und D4, sowie D3 und Ohne, signifikant.
Die Messwerte der maximalen vertikalen Fersenbewegung bei der Bewegung Gehen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und Ohne, D2 und Ohne, D3 und Ohne, sowie D4 und Ohne, signifikant.
Die Messwerte der maximalen horizontalen Fersenbewegung bei der Bewegung Laufen zeigen, dass eine Signifikanz beim Friedman-Test vorhanden ist. Hierbei sind bei dem Vorzeichentest die Messungen D1 und D2, D1 und D4, sowie D3 und Ohne, signifikant.
Zu den Messungen Abstoppen aus dem Gehen MVF, Abstoppen aus dem Laufen MHF, Gehen MHF, Laufen MVF, Springen MHF und Springen MVF zeigt das Ergebnis des Friedmann Tests einen niedrigeren Wert als den Kritische Wert von 9,49. Somit haben diese Messungen untereinander keine Signifikanz und werden somit nicht für den Vorzeichentest verwendet.
Patienten mit neurologischen Erkrankungen, die Auswirkungen auf die Muskelaktivität der unteren Extremitäten haben, leiden oft an Gangstörungen in der Schwung- und Standphase. Um diesen Gangstörungen entgegenzuwirken und einzelne Muskeln zu unterstützen oder zu ersetzen, stellt die Versorgung mit Unterschenkelorthesen eine Behandlungsoption dar. Den Ärzten steht dabei eine Vielzahl an Orthesentypen mit verschiedenen mechanischen Eigenschaften zur Verfügung. Zur Beurteilung der Wirksamkeit einer Orthesenversorgung werden dreidimensionale Ganganalysen mit und ohne Orthese durchgeführt. Die Entscheidungsfindung wird durch eine Simulation des Bewegungsapparates, dem muskuloskelettalen Modelling, unterstützt. Aus den Messdaten der Ganganalyse mit Orthese wird mittels der inversen Dynamik auf die bewegungserzeugenden Muskelkräfte im Körper zurückgerechnet. Der-zeit wird das Gesamtmoment um das Sprunggelenk in die Berechnung mit einbezogen, welches sich aus dem internen Moment, erzeugt von Muskeln, Sehnen und Bändern der unteren Extremitäten des Patienten und dem externen Orthesenmoment zusammensetzt. Durch eine isolierte Ermittlung des Unterstützungsmoments einer Unterschenkelorthese kann durch das muskuloskelettale Modelling eine genauere Aussage über die Auswirkungen einer Unterschenkelorthese auf die Muskelaktivität der unteren Extremitäten und die Funktionalität des Bewegungsapparates des Patienten getroffen werden. Zur Bestimmung des Orthesenmoments wird die Rotationssteifigkeit, die wichtigste mechanische Eigenschaft einer Unterschenkelorthese mithilfe einer Testvorrichtung gemessen. Denn diese beschreibt das Widerstandsmoment der Orthese, das sie bei der Deformation in Plantar- oder Dorsalflexion er-zeugt, um eine gewisse Biegung um die Sprunggelenksachse freizugeben. Die Literaturrecherche ergibt, dass die Rotationssteifigkeit einer Unterschenkelorthese auf einem Prüfstand mit einem physischen Ersatzbeinmodell zur Fixierung der Orthese gemessen wird. In der bestehenden Testvorrichtung am Kinderspital Basel werden die Orthesen allerdings ohne Ersatzbeinmodell untersucht. Das Ziel dieser Arbeit ist daher die Ermittlung der Eignung der bestehenden Vorrichtung ohne Ersatzbeinmodell zur Bestimmung der Rotationssteifigkeit. Dazu werden eine steife und drei Karbonfederorthesen auf der Testvorrichtung und am Bein eines gesunden Probanden in vergleichbaren Auslenkungen gemessen. Die Bewegung der Orthese wird mittels dreidimensionalem markerbasiertem Kameramesssystem aufgenommen und die kinetischen Daten über dreidimensionale Kraftmessplatten erfasst.
Für den Vergleich der beiden Testkonditionen werden drei Parameter definiert. Der Erste ist das Deformationsmaß der Orthese. Dieses beschreibt die Deformationslinie des Orthesenschafts in Sagittalebene. Der Vergleich zeigt, dass dieses bei allen getesteten Orthesentypen in starkem Maß zwischen beiden Testkonditionen variiert und damit nicht vergleichbar ist. Der zweite Parameter ist die Betrachtung eines vereinfachten Modells für das Verhalten des Rotationspunkts in der Sagittalebene, um den der Orthesenschaft bei der Verformung rotiert. Hierzu werden Geraden durch die Marker des Schafts und des Fußes gelegt und deren Schnittpunktverhalten bei der Deformation analysiert. Die Bewegung des Schnittpunkts variiert je nach Testkondition, jedoch wird das Maß der Bewegung im Vergleich zu anderen Einflussfaktoren als vernachlässigbar eingestuft. Hier gleichen sich somit die beiden Testkonditionen. Der dritte Parameter ist die Rotationssteifigkeit der Orthese. Hierzu werden mit den Kraftmessplatten die Kräfte gemessen und mit den Positionsdaten der Marker ein Hebelarm und der Deformationswinkel definiert. Die ermittelten Daten weichen zwischen den Testkonditionen in großem Maß voneinander ab. Eine direkte Aussage über die Eignung der Testvorrichtung kann nicht getroffen werden.
Die Ergebnisse zeigen, dass die Messung am Bein des Probanden keine realistischen und da-mit verwertbaren Messdaten zur Bestimmung der Rotationssteifigkeit liefert. Schlussfolgernd sind die Messdaten beider Testkonditionen mit den angewandten Mess- und Berechnungsmethoden nicht vergleichbar. Die Eignung der Testvorrichtung lässt sich somit nur bedingt beurteilen. Einerseits liefert der Aufbau der Vorrichtung und die Messdurchführung Messda-ten zur Bestimmung der Rotationssteifigkeit, andererseits kann noch keine Aussage darüber getroffen werden, ob die Messdaten zu einer qualitativen Ermittlung der Rotationssteifigkeit der Orthese führen können. In zukünftigen Studien muss die Messung am Bein des Proban-den optimiert werden, um Referenzwerte für die Messung auf der Testvorrichtung bereitstellen zu können.
Die Analyse von biomechanischen Parametern erlangt in der Sportwissenschaft und der Biomechanik eine immer größere Bedeutung. Daraus entwickelten sich mit der Zeit neue Analysemethoden, die sich zum Ziel gesetzt haben, eine bessere, schnellere und einfachere Analyse der biomechanischen Parameter zu ermöglichen.
Das Ziel der vorliegenden Arbeit ist es zu evaluieren, ob die Sensor-Technologie für die Analyse von biomechanischen Parametern im Bereich des Skisprungs und Skilanglaufs eingesetzt werden kann und dabei einen Vorteil gegenüber den derzeitig verwendeten Analysemethoden mit sich bringt. Dabei soll ein Lösungskonzept entwickelt werden, welches gezielt die Geschwindigkeiten und Zeiten, im Skisprung und Skilanglauf analysieren kann.
Für die Auswahl der Sensoren, wurden zu Beginn Randbedingungen festgelegt, die ein Sensor erfüllen muss, um für den Einsatz im Skisprung und Langlauf geeignet zu sein. Dabei stehen vor allem die Outdoorfähigkeit, Scanfrequenz und die Reichweite im Fokus der Evaluierung. Auf Basis der Randbedingungen wurden diese mit den Eigenschaften der Sensoren verglichen und eine Vorauswahl getroffen. Dabei kam man zu dem Ergebnis, dass fünf Sensoren für den Einsatz im Skisprung und Skilanglauf geeignet sind. Die Sensoren kommen jeweils aus dem Bereich der LiDAR- (light detection and ranging), RFID- (Radio-Frequency Identification), und Radar-Technologie. Im Anschluss wurde für jeden Sensor ein Lösungskonzept zur Bestimmung von Geschwindigkeiten und Zeiten, unabhängig von dem zu messenden Objekt, erstellt und abschließend auf ihre Verwendbarkeit im Skisprung und Skilanglauf bewertet. Dadurch stellte sich heraus, dass die Kombination aus einem LiDAR-Sensor (LMS5xx) und einem RFID-Sensor (RFU63x) am besten für den Skilanglauf geeignet ist. Für die Verwendung im Skisprung zeigte sich ebenfalls eine Kombination aus dem RFID-Sensor (RFU63x) und einem Radar-Sensor (RMS1000) als bestmögliches Lösungskonzept zur Analyse von Geschwindigkeiten und Zeiten.
Die Arbeit hat gezeigt, dass die Sensor-Technologie in Zukunft eine schnellere, unabhängigere und einfache Methode zur Analyse von biomechanischen Parametern ermöglicht. Dabei muss berücksichtigt werden, dass es sich um eine theoretische Untersuchung handelt, welche als Vorlage für weitere Untersuchungen dienen soll.
are you okay?
(2022)
Die Frage “Wie geht es dir?” ist in unserer Gesellschaft eine Höflichkeitsfloskel geworden. Die meisten Menschen antworten mit einem “Gut, und selbst?” und dann wird über etwas anderes gesprochen. Der Großteil redet nicht allzu oft darüber, was sie wirklich beschäftigt. Aber warum eigentlich nicht? Ist es Scham, Angst vor Ablehnung oder einfach nur „gutes“ Benehmen?
Besonders negative Gefühle, wie Wut und Trauer haben in unserem Leben wenig Platz. Sie werden als nicht gut betrachtet und alles was nicht “gut” ist, sollte laut der Gesellschaft lieber versteckt werden. Dieses Buch steht für mehr Gefühlsbewusstsein und soll einen offeneren Austausch mit sich selbst und anderen anstoßen. Denn auch negative Gefühle sollen einen Platz bekommen und können sanftmütig und bewusst gelebt werden.
Dieses Buch ist eine bunte Mischung aus ausgedachten aber realitätsnahen Geschichten vom Scheitern, Texten von Musikern und Bildern zum Träumen und Interpretieren. Es scheint zuerst ungewöhnlich, ausschließlich deutsche Rapper statt alte Philosophen zu zitieren. Doch die Hip-Hop-Kultur hat einiges zu sagen und bringt alltägliche Probleme und Ängste unverblümt auf den Punkt. Manchmal müssen wir nur etwas genauer hinhören.
Das Ziel ist es, einen Workflow zu erstellen, mit dem Produkte von Kunden im 3D-Format aufbereitet und in einer webbasierten Echtzeit-360°-Anwendung zur Schau gestellt werden. Dabei können Betrachter mit dem Produkt interagieren und sich darüber informieren.
Dabei soll sich der Workflow auf den 3D-Artist richten und der Aufwand des Entwicklers möglichst minimiert werden.
Mit dem Öffnen der Webseite wird eine ThreeJS-Anwendung geladen. Die Anwendung enthält eine Szenendatei, in welcher sich eine GLB-Datei (Graphics Language Binary) des 3D-Modells befindet. Diese Datei wurde in 3DsMax, einem gängigen 3D-Programm, aufbereitet und exportiert. Neben der GLB-Datei enthält die Webseite ein Lichtsetting und ein Environment mit separatem Background.
Among the billions of smartphone users in the world, Android still holds more than 80% of the market share. The applications which the users install have a specific set of features that need access to some device functionalities and sensors that may hold sensitive information about the user. Therefore, Android releases have set permission standards to let the user know what information is being disclosed to the application. Along with other security and privacy improvements, significant changes to the permission scheme are introduced with the Android 6.0 version (API level 23). In this master thesis, the Android permission scheme is tested on two devices from different eras. The evolution of Android over the years is examined in terms of confidentiality. For each device, two applications are built; one focused on extracting every piece of information within the confidentiality scope with every permission declared and/or requested, and the other app focused on getting this type of information without user notification. The resulting analysis illustrates whether how and in what way the Android permission scheme declined or improved over time.
Threat Modeling is a vital approach to implementing ”Security by Design” because it enables the discovery of vulnerabilities and mitigation of threats during the early stage of the Software Development Life Cycle as opposed to later on when they will be more expensive to fix. This thesis makes a review of the current threat Modeling approaches, methods, and tools. It then creates a meta-model adaptation of a fictitious cloud-based shop application which is tested using STRIDE and PASTA to check for vulnerabilities, weaknesses, and impact risk. The Analysis is done using Microsoft Threat Modeling Tool and IriusRisk. Finally, an evaluation of the results is made to ascertain the effectiveness of the processes involved with highlights of the challenges in threat modeling and recommendations on how security developers can make improvements.
Entwicklung und Realisierung eines Konzepts zur Erweiterung des Messbereichs einer Druckmesszelle
(2022)
Die Messung, von Prozessdrücken in industriellen Anlagen, ist heutzutage nicht mehr wegzudenken. Hierbei können während des Betriebs gelegentlich ungewollte Überdrücke auftreten, welche über dem Messbereich der eingesetzten Sensorik liegen. Mit den bisher bekannten Drucksensoren können solche Überdrücke daher nicht detektiert werden. Ziel dieser Arbeit ist die Entwicklung eines Konzepts, welches eine Messbereichserweiterung hervorbringt. Mit diesem sollen Drücke bis zu einer messbereichsspezifischen Grenze detektiert werden können.
Im ersten Schritt werden die Kapazitäten der Messzellen der aktuell bestehenden Sensorelektronik aufgenommen und ausgewertet. Aufgrund der Verläufe der gemessenen Kapazitäten, wird der Fokus auf die Auswertung der Referenzkapazität gelegt. Anschließend folgt das Approximieren des Verlaufs der Referenzkapazität durch geeignete mathematische Funktionen und das Entwickeln eines messbereichsübergreifenden Algorithmus. Hierfür wird die Methode der kleinsten Fehlerquadrate angewandt. Nachdem sich ein vielversprechendes Fitting, mittels zwei Polynomen herauskristallisiert hat, erfolgt die softwareseitige Implementierung des Algorithmus für einen Mikrocontroller auf der Sensorelektronik. Im letzten Teil der Arbeit werden Testmessungen durchgeführt, um die approximierten Polynome zu validieren.
Am Ende der Arbeit entsteht eine funktionierende Messbereichserweiterung zur Detektion von Drücken im Überlastbereich. Hierbei wird eine verhältnismäßig hohe Genauigkeit mit wenigen zusätzlichen Messpunkten erzielt.
Ein Testsystem zum Prüfen neuer Komponenten elektromagnetischer Positionsmesssysteme soll durch eine Eigenkalibrierung des gesamten Systems stetig auf seine Genauigkeit geprüft werden, sodass nur noch eine periodische Rekalibrierung des Referenzgerätes erforderlich ist. Mittels Signal-Routing Software soll über die nationale Instrumentenkarte PCIe-6509 des Computers Spannungssignale an eine Hardware Under Test geleitet werden. Über diese Signale können Transistoren auf der Hardware angesteuert werden, die jeweils einem Relais Spannung übergeben können. Je nachdem welches Relais durchgeschalten werden soll, kann der Messwiderstand des gesamten Testsystems oder das Testsystems kalibriert werden. Um tatsächlich Kalibrierungen durchzuführen, wird eine Software erstellt. Mit der Software können die zu benutzenden Gerätschaften eingelesen und über eine Benutzeroberfläche eine Toleranzprüfung der Komponenten vollzogen werden. Hier gilt es eine Toleranzprüfung für den Messwiderstand zu erstellen und den Code dann auf Komponenten des Testsystems zu erweitern. Dafür wird ein kalibriertes Referenzmessgerät benötigt. Dabei wird ein Digitalmultimeter DAQ6510 verwendet, das über ein Multiplex Modul 7708 mit der Hardware verbunden wird. Um später Komponenten des Testsystems wie Frequenz kalibrieren zu können, wird ebenfalls ein Funktionsgenerator integriert und die Software-Codes darauf erweitert. Besteht das Grundkonzept, werden Funktionstests mit einer Messsystemanalyse erbracht und die Leistungsfähigkeit des Konstruktes beurteilt. Anschließend können neue Entwicklungsansätze und Optimierungskonzepte für weitere Abschlussarbeiten erstellt werden.
Um mit einer Marketing- oder Werbemaßnahme erfolgreich zu sein, muss ein Unternehmen die Bedürfnisse und Wünsche der anzusprechenden Zielgruppen kennen. Da
die Generation Z in den kommenden Jahren im Vergleich zu vorangegangenen Generationen einen immer größeren Anteil der Weltbevölkerung und somit der zukünftigen
Konsument*innen ausmachen wird, stellt sie die Zielgruppe der Zukunft dar. Für diese
Generation ist der Umgang mit dem Internet, Smartphones und Apps alltäglich und hat
sich in ihrem Leben bereits fest etabliert. Die vorliegende Bachelorarbeit behandelt basierend auf dieser Tatsache die Frage, ob Mitglieder der Generation Z noch von klassischer Werbung erreicht werden können und wie ein Unternehmen die eigenen Werbemaßnahmen gestalten sollte, um die Generation Z anzusprechen. Damit Rückschlüsse
auf die zielgruppengerechte Marketingkommunikation eines Unternehmens mit der Generation Z gezogen werden konnten, wurden Werke der Fachliteratur und nationale sowie internationale Studien über das Konsument*innenverhalten der Generation Z herangezogen. Um die Erkenntnisse der Literaturrecherche zu untermauern, wurde zusätzlich eine Gruppendiskussion mit Vertreter*innen der Generation Z durchgeführt. Die
qualitative Studie manifestierte die im Theorie-Teil herausgearbeiteten Informationen
und half somit maßgeblich bei der Beantwortung der Forschungsfragen. Im Rahmen
dieser Arbeit konnte festgestellt werden, dass die Generation Z grundsätzlich nicht mehr
von klassischer Werbung erreicht wird, da sie klassische Medien nur noch selten nutzt.
Um Mitglieder der Generation Z als Zielgruppe für sich zu gewinnen, bedarf es einer
Marketingkommunikation, die vorwiegend online und bestenfalls über Social Media
stattfindet und die Konsument*innen individuell mit relevanten Inhalten anspricht.
Diese Arbeit beschäftigt sich mit der Dynamik der Konsensbildung in sozialen Netzwerken mit unterschiedlichen Strukturen. Dafür wird mittels des Naming Games die Kommunikation mit dem Ziel der Konsensbildung simuliert und analysiert. Es geht dabei um die Frage, welchen Einfluss die unterschiedlichen Netzwerkstrukturen auf die Dynamik der Simulationen haben. Neben den unterschiedlichen Netzwerkstrukturen werden weitere Faktoren gesucht und analysiert, welche die Dynamik der Konsensfindung beeinflussen. Dafür werden die Simulationen unter bestimmten Parametern und Eigenschaften mehrfach wiederholt. Aus diesen mehrfachen Durchführungen wird eine repräsentative Simulation ausgewählt und untersucht. Hinsichtlich der Frage nach dem Einfluss der Netzwerkstruktur auf die Dynamik, konnte festgestellt werden, dass die Dichte des dem Netzwerk zugrundeliegenden Graphen einen erheblichen Einfluss auf die Effizienz der Kommunikation hat. Mit steigender Dichte steigt auch die Effizienz der Kommunikation. Zudem konnten zwei weitere wesentliche Einflussfaktoren ausgemacht werden: sogenannte Autoritäten und Announcements. Bei Autoritäten handelt es sich um Teilnehmer, welche besonders viele weitere Teilnehmer der Simulation kennen und bei Announcements handelt es sich um eine Form der Kommunikation, die zu einem Zeitpunkt zwischen mehr als zwei Teilnehmern stattfinden kann. Das Hinzufügen dieser Parameter führt wieder zu einer veränderten, effizienteren Dynamik.
Die vorliegende Abschlussarbeit wurde intern an der Hochschule Offenburg angefertigt. Gegenstand der Untersuchung ist der Einsatz von cloudbasierten Business-Intelligence-Systemen in der Lehre.
Die Arbeit befasst sich zu Beginn mit der Anbindung einer externen Datenquelle in SAP Data Warehouse Cloud (DWC). Diese basiert auf einer relationalen Datenbank. Hierfür wer- den drei unterschiedliche Lösungen untersucht und miteinander verglichen. Außerdem werden Lernszenarien für die Arbeit mit der SAP Analytics Cloud (SAC) entworfen. Die Lernszenarien beinhalten jeweils ein Vertriebsdashboard, welches zuvor konzipiert und in SAP Analytics Cloud (SAC) implementiert wird. Die Dashboards sollen durch das Absolvieren von Lernszenarien durch Studierende an der Hochschule Offenburg unter Einhaltung von Prinzipien guter Visualisierung nachgebaut werden. Beide Produkte von SAP sind momentan Teil von Laboren an der Hochschule Offenburg, um Prinzipien von Business Intelligence (BI) praktisch anzuwenden. Mit Hilfe von SAP Data Warehouse Cloud (DWC) wird ein Datenmodell entworfen. Dieses wird in SAP Analytics Cloud (SAC) verwendet, um die Daten zu visualisieren. Die Grundlage für die Arbeiten bilden die Daten der Global Bike Group. Hierbei handelt es sich um eine Referenzfirma von SAP, die es ermöglicht, anhand von geschäftlichen Testdaten einen Eindruck von den Funktionen der SAP-Produkte zu erlan- gen.
Die Arbeit orientiert sich an zwei Forschungsfragen. Die erste Forschungsfrage behandelt die Anbindung einer Datenquelle in SAP Data Warehouse Cloud (DWC). Die zweite Forschungsfrage betrifft den Entwurf von Lernszenarien mit unterschiedlichem Umfang und unterschiedlicher Zielgruppe in SAP Analytics Cloud (SAC). Beide Fragen konnten erfolg- reich beantwortet werden. Die Ziele der Arbeit wurden erreicht
Unternehmen verfolgen seit Jahren das Ziel, Marketingkampagnen online zur Vermarktung ihrer Produkte einzusetzen. Um einen wachsenden Umsatz zu generieren, greifen sie insbesondere auf das E-Mail-Marketing und Newsletter als Instrument zurück. Viele lassen dabei allerdings trotz der regelmäßigen Versendung von E-Mails Optimierungsbedarf entstehen. Daher ist es notwendig zu verstehen, wie solche Newsletter-Kampagnen konzipiert sind und wie sie funktionieren.
Das Ziel in der vorliegenden Arbeit ist es zu beantworten, welche Faktoren für eine gelungene Kampagne beachtet werden sollten und aus diesen einen übersichtlichen Leitfaden zu generieren. Dazu wird die folgende Forschungsfrage gestellt: Inwiefern kann das E-Mail-Marketing und der Newsletter genutzt werden, um die B2C Ziele des Unternehmens erfolgreich zu erfüllen und gleichzeitig die Empfänger und Empfängerinnen zufrieden zu stellen?
Um die Forschungsfrage zu beantworten, wurde eine Literaturrecherche sowie eine qualitative Studie in Form eines Experteninterviews durchgeführt. Die theoretische Literaturrecherche unter-suchte, welche Kriterien bei den jeweiligen Prozessschritten erfüllt sein müssen, damit diese den Nutzenden zufriedenstellt. In der qualitativen Studie waren den teilnehmenden Fachleuten offene Fragen zum E-Mail-Marketing Prozess gestellt worden, die im Anschluss ausgewertet wurden. Dadurch wurden die vorab gewonnenen Kenntnisse auf ihre Anwendbarkeit in der Praxis validiert.
Die Recherche und Interview-Aussagen zeigen, dass die Erfolgsfaktoren in allen Prozessschritten verteilt liegen. Besonders die Planung und die Konzeption der Werbemittel haben einen großen Anteil an der Zufriedenheit von Empfangenden Personen. Neben der Einhaltung der Gesetzlage liegt der Fokus auf einer unternehmensspezifischen Zielsetzung und einer umfangreichen Ziel-gruppenanalyse. Adressen variieren in der Qualität und können unterschiedlich generierbar sein. Sie sollten vor der Nutzung und unabhängig von dem Ursprung validiert werden. Bei der Gestal-tung empfiehlt sich der Einsatz von interessanten Texten, emotionalen Bildern und gut platzierten Call-to-Actions. Die Nutzung einer Personalisierung und Individualisierung erhöht die Aufmerksam-keit und die E-Mail sollte abschließend getestet werden. Grundsätzlich muss für eine inhaltliche Relevanz für den Nutzenden gesorgt sein. Hinsichtlich des Versands sollten Frequenz und Zeit-punkt an die individuellen Zielgruppen angepasst werden. Der Einsatz einer Blacklist vor dem Ver-sand und die Aufnahme in eine Whitelist führen beide zu einer verbesserten Resonanz auf Kun-denseite. Ein erfolgreiches Controlling besteht, neben der Vielzahl an Kennzahlen, vor allem aus einem transparenten Tracking dieser. Nur durch ein Zusammenspiel beider kann die Zielerreichung realistisch betrachtet werden. Die regelmäßige Bereinigung des Adressverteilers von Abmeldern und nicht erreichbaren Adressen, sowie das zielgerichtete Anschreiben von Nicht-Reagierern er-höhen die Performance. Software wirkt dabei unterstützend und sollte genutzt werden
Weiterführende Forschung im E-Mail-Marketing Marketings für Newsletter könnte auf eine noch genauere Betrachtung des Controllings oder der Zielgruppenanalyseausgerichtet sein.
Das tiefe Lernen und die daraus entstehenden Technologien bieten eine neue Herausforderung für Unternehmen und privat Personen beiderlei. Deepfakes sind schon seit über vier Jahren im Internet verbreitet und in dieser Zeit wurden hauptsächlich politische Figuren Opfer der Technologie. Diese Arbeit nimmt sich das Ziel, die möglichen Attacken zu beschreiben und Gegenmaßnahmen dafür vorzustellen. Es wird zunächst Social Engineering erläutert und die technischen Grundlagen von Deepfakes gelegt. Daraufhin folgt ein Fallbeispiel, welches genauer aufzeigt, wie auch Unternehmen Opfer von Deepfake Attacken werden können. Diese Attacken fügen einen erheblichen finanziellen sowie Reputationsschaden an. Daher müssen verschiedene technische und organisatorische Maßnahmen gegenüber Deepfakes im Social Engineering Umfeld eingeführt werden. Durch die ständige Entwicklung der Technik werden diese Attacken in der Zukunft an Komplexität und Häufigkeit zunehmen. Unternehmen, Forscher und IT-Sicherheitsspezialisten müssen daher die Entwicklung dieser Attacken beobachten.
Die vorliegende Bachelorarbeit befasst sich mit den Marketing-Kommunikationsstrategien im zweiseitigen Markt am Beispiel einer Immobilienplattform.
Das primäre Ziel dieser Arbeit besteht darin, auf Grundlage der Netzwerkeffekte im zweiseitigen Markt und durch Anwendung von Onlinemarketingmaßnahmen die Positionierung der Plattform Immobilien Rith in den Internetsuchergebnissen zu optimieren.
UAVs (engl. Unmanned Aerial Vehicles) sind in den vergangenen Jahren auch außerhalb militärischer und wissenschaftlicher Nutzung beliebter geworden. Für autonome Fluganwendungen ist die Überwachung der Umgebung zwingend notwendig. In dieser Arbeit wird ein experimenteller Ansatz zur Hinderniserkennung mit Radar- und Lidarsensorik präsentiert. Dieser setzt sich aus der Kollisionsvermeidung der Flugsteuerung px4, einem Nvidia Jetson TX2 als Flugbegleitcomputer und den Sensoren Slamtec RPLidar A2M6 und Texas Instruments AWR1443 Radar zusammen. Insgesamt wurden drei verschiedene Hardwarekomponenten getestet. Zur Auswertung der Versuche wird eine durch Python OS-unabhängige Auswertesoftware entwickelt und implementiert. Die Versuchsplanung setzt sich aus drei Versuchen mit jeweils fünf in Geometrie und Textur unterschiedlichen Hindernissen zusammen. Die Versuchsergebnisse zeigen, dass der eingesetzte Lidar gegenüber dem Radar Vorteile auf kurze Distanz aufweist. Zur Reproduzierbarkeit von Experimenten auf kurzer Distanz wird die Entwicklung eines fixen Messaufbaus empfohlen.
The identification of vulnerabilities is an important element of the software development process to ensure the security of software. Vulnerability identification based on the source code is a well studied field. To find vulnerabilities on the basis of a binary executable without the corresponding source code is more challenging. Recent research has shown how such detection can be performed statically and thus runtime efficiently by using deep learning methods for certain types of vulnerabilities.
This thesis aims to examine to what extent this identification can be applied sufficiently for a variety of vulnerabilities. Therefore, a supervised deep learning approach using recurrent neural networks for the application of vulnerability detection based on binary executables is used. For this purpose, a dataset with 50,651 samples of 23 different vulnerabilities in the form of a standardised LLVM Intermediate Representation was prepared. The vectorised features of a Word2Vec model were then used to train different variations of three basic architectures of recurrent neural networks (GRU, LSTM, SRNN). For this purpose, a binary classification was trained for the presence of an arbitrary vulnerability, and a multi-class model was trained for the identification of the exact vulnerability, which achieved an out-of-sample accuracy of 88% and 77%, respectively. Differences in the detection of different vulnerabilities were also observed, with non-vulnerable samples being detected with a particularly high precision of over 98%. Thus, the methodology presented allows an accurate detection of vulnerabilities, as well as a strong limitation of the analysis scope for further analysis steps.
Reibung und Verschleiß in tribologischen Kontakten verursachen knapp ein Viertel des weltweiten Primärenergiebedarfs. Dies stellt ein enormes Potential zur Minderung von Treibhausgasemissionen und Absenkung von Kosten dar. Aufgrund dessen ist die Optimierung von Reibkontakten ein Kernthema der Tribologie. Hierfür ist der Supraschmierzustand, bei welchem die Reibung aufgrund spezieller Schmiermechanismen annähernd vollständig verschwindet (Reibungszahl 𝜇 ⩽ 0,01), von besonderem Interesse. Die jährlich steigende Anzahl an Veröffentlichungen belegt das hohe wissenschaftliche Interesse an dem Thema. Bisher konnte Supraschmierung jedoch nur für Modellsysteme nachgewiesen werden, das Übertragen auf technische Systeme ist noch nicht gelungen.
Ziele dieser Arbeit waren der Nachweis von Supraschmierung in einem punktförmigen Modellkontakt und die Überführung in den Flächenkontakt eines realen Gleitlagers durch Verwendung von technischer Keramik und/oder DLC-Beschichtungen.
Hierfür wurde zunächst das Schmierverhalten einiger Modellschmierstoffe in einem Stahl/a-C:H:Si- Kontakt untersucht. Die niedrigsten Reibwerte wurden bei Verwendung von Glycerol erzielt. Daher wurde Glycerol als Modellschmierstoff für weitere tribologische Untersuchungen an unterschiedlichen Oberflächen (a-C:H, ta-C, Keramik) verwendet.
Die besten Ergebnisse hinsichtlich Reibung und Verschleiß wurden mit technischer Keramik erzielt. Mit einer Stahl/Si3N4-Paarung wird bei 80 °C Supraschmierung für Gleitgeschwindigkeiten von 0,007 𝑚/𝑠 bis 0,965 𝑚/𝑠 nachgewiesen. Als kleinste Reibungszahl wird 𝜇 = 0,0015 gemessen.
Die geringste Reibung in einem Stahl/DLC-Kontakt wird mit einer a-C:H:Si-Schicht erreicht. Hierbei konnte Supraschmierung bei 80 °C für Gleitgeschwindigkeiten von 0,029𝑚/𝑠 bis 0,484𝑚/𝑠 nachgewiesen werden. Die kleinste Reibungszahl für das System beträgt 𝜇 = 0,0063.
Der Nachweis von Supraschmierung gelingt für anwendungsnahe Betriebsparameter, dies stellt einen Fortschritt gegenüber den meisten Literaturdaten dar. Um die Übertragbarkeit auf technische Systeme zu demonstrieren,werden die besten identifizierten Oberflächen und Schmierstoffe auf einem anwendungsnahen Gleitlagerprüfstand untersucht. Durch Verwendung von a-C:H:Si-beschichteten Wellen und Glycerol als Schmierstoff kann der Reibwert bei Raumtemperatur von 𝜇 = 0,965 im Referenzsystem auf 𝜇 = 0,038 gesenkt werden.
Um die Arbeit fortzusetzen, werden die identifizierten Systeme in axiallagerähnlicher Anordnung (Gleitring/Gleitpad) untersucht.
Um gezielt DLC-Schichten zu entwickeln, sind Reibungssimulationen notwendig. Im nächsten Schritt sollen umfassende Oberflächenanalysen durchgeführt werden, um die nötige Datenbasis für die Simulation zu erstellen.
Die vorliegende Arbeit befasst sich mit der numerischen Simulation von Rissschließeffekten für Risslängen im Übergangsbereich von mikrostrukturell kurzen und mechanisch kurzen Rissen für zwei Probengeometrien. Als wichtige Bewertungsgrößen eines Ermüdungsrisses dienen die Rissöffnungsspannung und die zyklische Rissspitzenöffnung. Im ersten Teil der Arbeit liegt das Hauptaugenmerk auf der Untersuchung des mikrostrukturellen Einflusses in der Rissspitzenumgebung auf die Rissschließeffekte bei Risswachstum. Im hierfür verwendeten Finite-Elemente-Modell wird um die Rissspitze eines Oberflächenrisses in einer quasi unendlich ausgedehnten Platte eine zufällig angeordnete Kornstruktur erzeugt. Zur Beschreibung des mikrostrukturellen Materialverhaltens wird ein Einkristallplastizitätsmodell mit kinematischer Verfestigung eingesetzt. Das Werkstoffverhalten der umliegenden Platte wird mit einem in Abaqus/Standard vorhandenen homogenen von Mises Plastizitätsmodell mit kinematischer Verfestigung beschrieben. Insgesamt werden fünf unterschiedliche Mikrostrukturen simuliert und mit dem rein homogenen Werkstoff verglichen. Die zyklische Belastung erfolgt dehnungskontrolliert ohne Mitteldehnung im Modus I für zwei makroskopische Dehnungsamplituden im Bereich der Fließdehnung und deutlich oberhalb davon. Die Ergebnisse zeigen einen signifikanten Einfluss der Mikrostruktur auf das Rissschließen, hervorgerufen durch unterschiedliche Kornorientierungen, Form und Größe der Körner und durch Korngrenzen. Bei niedriger Belastung zeigen die Mikrostrukturen mehr Rissschließeffekte verglichen zum homogenen Modell. Mit steigender Belastung nimmt bei allen Simulationen das Rissschließen ab. Der relevanteste Rissschließmechanismus ist das plastizitätsinduzierte Rissschließen, welches bei höherer Belastung durch Aufrauen der Rissflanken zusätzlich rauhigkeitsinduziertes Rissschließen verursacht.
Mit einem zweiten Finite-Elemente-Modell wird das Rissschließen und die Entwicklung der zyklischen Rissspitzenöffnung für den viertelskreisförmigen Riss in der dreidimensionalen Corner-Crack-Probe unter spannungskontrollierten isothermen und anisothermen TMF-Beanspruchungen untersucht. Hierfür findet ein temperaturabhängiges Abaqus/Standard von Mises Plastizitätsmodell mit kinematischer Verfestigung und Kriechansatz Anwendung. Alle Simulationen zeigen eine deutliche Beeinflussung der Bewertungsgrößen an der freien Probenoberfläche und im Probeninneren. Das Rissschließen nimmt mit steigender Belastung und mit zunehmend positiven Mittelspannungen ab. Zudem werden bei niedrigeren makroskopischen Belastungen geringere zyklische Rissspitzenöffnungen an der Probenoberfläche als in der Probenmitte beobachtet, was in direktem Zusammenhang mit dem Rissschließen steht. Die thermomechanischen Simulationen zeigen mehr Rissschließen für eine Belastung in Phase, verglichen zu einer gegenphasigen Beanspruchung.
In der heutigen Zeit sind viele Menschen von Rückenschmerzen betroffen. Besonders in der Industrie, beispielsweise im Bereich der Logistik oder der Produktion, kommt es durch die gesundheitlichen Beschwerden zu Arbeits- und Produktionsausfällen. Um den Beschwerden vorzubeugen, werden Exoskelette entwickelt, die das Muskel-Skelett-System unterstützen.
Exoskelette sind am Körper getragene Assistenzsysteme, die mechanisch auf den Körper einwirken. Insbesondere reduzieren sie den Kompressionsdruck im Bereich des unteren Rückens. In diesem Zusammenhang wird mit der vorliegenden Bachelorarbeit die Entlastung der Lendenwirbel durch den Einfluss von Exoskelett-typischen Kräften, die im Bereich des Brustkorbs und der Oberschenkel wirken, untersucht. Dabei beschränkt sich die Untersuchung auf eine Anhebung, wie beispielsweise die Anhebung einer Kiste.
Mithilfe eines markerbasierten und nicht-invasiven 3D-Aufnahmeverfahrens wird eine Hebebewegung ohne Exoskelett aufgenommen. Die experimentelle Aufnahme wird in der Software OpenSim mit einem computerbasierten Skelettmodell verknüpft. Durch das Hinzufügen von Exoskelett-typischen Kräften, die auf das Skelettmodell beim Anheben wirken, wird die Krafteinwirkung während des Tragens eines Exoskeletts simuliert. Dabei entstehen Drehmomente im unteren Rückenbereich, die in dieser Arbeit analysiert werden.
Die Auswertung des nicht-invasiven Verfahrens liefert die Erkenntnis, dass der Einsatz eines Exoskeletts beim Anheben im Bereich der Lendenwirbel zu einer Verringerung der Drehmomente und somit zu einer Verringerung der Belastung des unteren Rückens führt.
In this work, an implementation of the somewhat homomorphic BV encryption scheme is presented. During the implementation, care was taken to ensure that the resulting program will be as efficient as possible i.e. fast and resource-saving. The basis for this is the work of Arndt Bieberstein, who implemented the BV scheme with respect to functionality. The presented implementation supports the basics of the BV scheme, namely (symmetric and asymmetric) encryption, decryption and evaluation of addition as well as multiplication. Additionally, it supports the encoding of positive and negative numbers, various gaussian sampling methods, basically infinitely large polynomial coefficients, the generation of suitable parameters for a use case, threading and relinearization to reduce the size of a ciphertext after multiplications. After presenting the techniques used in the implementation, it’s actual efficiency is determined by measuring the timings of the operations for various parameters.
Der Fokus dieser Arbeit liegt auf den Bewegtbildstrategien von Tageszeitungen in Baden-Württemberg. Es sollte aufgezeigt werden welche strategischen Vorgehensweisen die Lokalzeitungen in Baden-Württemberg verwenden und wie sie diese Umsetzen. Weiter sollten Faktoren extrahiert werden, die als erfolgskritisch angenommen werden können. Herausgefunden wurde, dass alle befragten Zeitungsverlage eine konvergenzinduzierte Cross-Media-Strategie verfolgen, in der die Diversifikation vertikal verläuft. Das heißt die Zeitungen sind meist selbst Produzent des Bewegtbilds und nutzen die wechselseitigen Synergieeffekte der redaktionellen Kompetenzen und multimedialen Distributionskanäle. Weiter kann festgestellt werden, dass Im Bereich Bewegtbild Ansätze einer Nischen- oder Fokusstrategie zu erkennen sind.
Als Erfolgsfaktoren können vor allem die lokale Kompetenz, die Format- und Themenwahl von Videos sowie die Redaktionsorganisation, die stark mit der Nutzung von Synergieeffekten zusammenhängt, angenommen werden.
Mit Hilfe eines Präzisionsmessplatzes soll es ermöglicht werden, automatisierte Tests mit optischen Distanzsensoren der Firma SICK durchzuführen. Hierbei handelt es sich um applikationsbezogene Vergleichsmessungen. Für die Realisierung einer erweiterbaren, automatischen Ansteuerung wird mit LabVIEW eine Software entwickelt, die unterschiedliche Distanzsensoren für Displacement Anwendungen (kurze Reichweite) einbindet. Zur Bewertung von Sensoren werden unterschiedliche Messmodi bereitgestellt. Hierbei werden motorisierte Linearachsen angesteuert, wodurch dynamische 2D-, bzw. 3D Messungen von unterschiedlichen Materialproben ermöglicht werden. Außerdem können Messergebnisse verschiedener Materialproben visuell verglichen werden. Des Weiteren besteht die Möglichkeit, aufgenommene Messdaten zu exportieren.
Mit der realisierten Ansteuerungssoftware ist es möglich, in Zukunft Mitarbeiter der global agierenden Sales & Service Units ressourcenschonend und in einem anwendungsbezogenen Kontext in die Benutzung und Bewertung von Dis-placementsensoren einzuarbeiten. Für diese Maßnahme der betrieblichen Weiterbildung ist eine Lerneinheit konzipiert. Hier geht es hauptsächlich darum, dass Mitarbeiter die Eigenschaften und Konfigurationsmöglichkeiten von Displacementsensoren verstehen und für unterschiedliche Testobjekte anwenden. Für die Lerneinheit sind Unterrichtsmaterialien erstellt sowie ein vollständiger Unterrichtsentwurf erarbeitet. Der Unterrichtsentwurf orientiert sich an dem Perspektivenschema nach Klafki (vgl. 1994, S. 270ff.).
Entwicklung eines Kommunikationskonzepts für Black Forest Formula an der Hochschule Offenburg
(2021)
Die vorliegende Masterthesis befasst sich mit der Entwicklung eines Kommunikationskonzepts für das Black Forest Formula Projekt an der Hochschule Offenburg. Die bisherigen kommunikativen Aktivitäten werden im Rahmen dieser Arbeit überarbeitet und erweitert, sodass ein konsistentes Gesamtkonzept für die Kommunikation entsteht. Hierzu werden die einzelnen Phasen eines Konzeptionsprozesses durchlaufen. Das Ziel ist eine langfristige Planung, welche die Interessen der verschiedenen Gruppen innerhalb und außerhalb des Projekts berücksichtigt, um deren Unterstützung zu sichern. Des Weiteren wird durch die Ausrichtung auf festgelegte Kommunikationsziele eine Verbesserung der internen und externen Kommunikation von Black Forest Formula angestrebt. Die Arbeit richtet sich daher insbesondere an die leitenden Mitglieder des Teams und soll diesen als Handlungsempfehlung dienen. Darüber hinaus ist die Arbeit auch für all jene interessant, die sich mit dem Ablauf und den Methoden zur Entwicklung von Kommunikationskonzepten befassen möchten.
Die Bachelorarbeit erarbeitet, welche Rolle das digital Storytelling für B2C-Unternehmen bei der Kundengewinnung -und bindung einnimmt. Gleichzeitig erörtert sie, ob und wie diese intern in der Organisation vom Geschichtenerzählen profitieren.
Um die Forschungsfragen zu beantworten, wird eine Literaturrecherche durchgeführt. Diese gibt Auskunft über die biologische Wirkung und die ausschlaggebende Struktur von Geschichten.
Durch die Umstrukturierung in der Automobilindustrie hinsichtlich Elektromobilität steigen die technischen und wirtschaftlichen Anforderungen an die Zulieferunternehmen von Automobilherstellern. Um im Wettbewerb konkurrenzfähig zu sein, müssen die jeweiligen Prozesse stetig geprüft und optimiert werden. Anhand dieser Masterarbeit wird daher die Produktion von Komfortaktuatoren bezüglich Wirtschaftlichkeit sowie Kapazitätserweiterung analysiert und demnach ein Konzept zur Fertigungsoptimierung entwickelt.
Für diese Konzeptentwicklung wird zunächst die bestehende Produktion der Komfortaktuatoren anhand der Prozesskette bezüglich des Automatisierungsgrades erforscht. Eine Taktzeitanalyse der Endmontage weist den Engpass am manuellen Handarbeitsplatz auf, an dem die Bestückung des Transferträgers stattfindet. Die Betrachtung des Produktionsvolumens zeigt die Verdopplung der Stückzahlen ab 2024 bei den Aktuatoren mit Getriebelage rechts. Um diese Produktionsstückzahlen zu fertigen und den Engpass auszugleichen, ist eine Automatisierung der bestehenden Endmontage erforderlich. Die wirtschaftliche Investition in die Automatisierung bedeutet eine erhöhte Amortisationszeit, die sich je nach Stückzahlen zwischen acht und 15 Jahre befindet.
Eine geringere Kapitalrückflussdauer kann mit der Erweiterung der Fertigungslinie mit einem höheren Automatisierungsgrad sowie einer geringeren Taktzeit erreicht werden. Der benötigte Platzbedarf für diese Erweiterung der Fertigungslinie wird auf ungefähr 5,7 m abgeschätzt. Mit einer kompakten Anordnung der Fertigungsstationen kann dieser Einbau erfolgen. Für die Entwicklung des Transfersystems wird eine Anforderungsliste erstellt und anhand dieser ein Transfer-Konzept innerhalb der Fertigungslinie entwickelt. Aufgrund der Kostenschätzung und des Platzbedarfs erzielt das Konzept mit einem Transferträger die höhere Wertigkeit. Mit dem in dieser Masterarbeit erarbeiteten planerischen Konzept zur Fertigungsoptimierung wird eine Einsparung der Vorgabezeit von 11,3 min im Vergleich zum aktuellen Stand erzielt. Die Kosten der Neubau-Stationen und die anfallenden Umbaumaßnahmen werden auf etwa 950.000 € geschätzt. Der zeitliche Beginn dieser Erweiterungsmaßnahmen ist auf Anfang 2023 terminiert.
The Project "Schluckspecht" of the University of Offenburg consists of participating in the European marathon called "Shell Eco-Marathon"(SEM) which consists of designing and building from the beginning a vehicle with the greatest possible energy efficiency. The University of Offenburg has participated in this project since 1998.
The team that forms the Schluckspecht project is made up of around 30 students from the faculties of mechanical engineering, process engineering, electrical engineering, medical technology and computer science, as well as the degree in Audiovisual Communication. The team was founded in 1998 and since then students have been developing and building high efficiency vehicles to participate in the European marathon Shell Eco.
In this project, students can put into practice all the theoretical knowledge obtained during their studies. Also can be learned how to work interdisciplinarity as a team, a skill that for now, many companies or require or seek.
The following topics are discussed in the Schluckspecht project, which are also ideal for the work of students:
-Conception construction and production of high efficiency vehicles.
-Computational design and manufacture of lightweight components and sets.
-Development of lightweight components and sets from renewable raw materials.
-Construction and development of special test benches, for example: motor test bench.
-Implementation and optimization of control strategies for autonomous driving
-Mechanical and electrical integration of sensors for autonomous driving
-Ergonomic studies and optimization of the driver's cabin.
The objective of the project is to develop and manufacture research vehicles that make individual mobility as efficient as possible from an energy point of view. To achieve this, current and future issues of the industry are discussed. In this project, both the theoretical and practical part of the light construction of vehicles and the reduction of friction, the variety of propulsion concepts (electric thrusters, fuel cells, diesel/petrol engines, Stirling engines) and autonomous driving are investigated. The services of the University of Offenburg together with some external partners are grouped together to make this wonderful project work.
Der wachsende Trend zur Individualisierung von Produkten wird von immer mehr Unternehmen aufgegriffen und umgesetzt. Mithilfe von Produktkonfiguratoren bieten sie ihren Kund*innen die Möglichkeit, ihr eigenes Produkt nach Wunsch zu kreieren. Die Konfiguratoren stehen mit dieser Interaktion vor der Herausforderung die Nutzer*innen als Nicht-Experten erfolgreich durch den Prozess zu leiten. Ein zentraler Bestandteil der erfolgreichen Umsetzung ist die Benutzerfreundlichkeit und dessen anwendungsorientierte Gestaltung.
Diese Arbeit befasst sich mit der Analyse und Optimierung der Usability des Möbelkonfigurators der mycs GmbH. Das Ziel der Arbeit ist die Aufdeckung von Schwachstellen und die Entwicklung passender Handlungsempfehlungen für die Optimierung der Benutzerfreundlichkeit.
Zu diesem Zweck wird der IST-Zustand des Konfigurators ermittelt und darauf aufbauend ein Usability-Test erstellt und durchgeführt. Die verwendeten Methoden des Tests sind Remote-Usability-Interviews, eine qualitative Nachbefragung und die Think-Aloud-Methode. Die im Anschluss ermittelten Handlungsempfehlungen stellen Lösungen zu den analysierten Schwachstellen des Usability-Tests dar.
Die Ergebnisse der Analyse zeigen Schwachstellen in der Orientierung und Unterstützung von Nutzer*innen. Sie bestätigen zudem die Wichtigkeiten dieser beiden Kriterien für die Auseinandersetzung mit einem Möbelkonfigurator. Die entwickelten Handlungsempfehlungen zeigen einige Verbesserungen der Bereiche mit geringem Umsetzungsaufwand auf.
In dieser Arbeit soll ein digitaler Zwilling für ein Transportband und Anlagenteil der im Labor für Automatisierungssysteme eingesetzten Fischertechnik-Fabrik mit der Industrie 4.0 Software von Siemens NX Mechatronics Component Designer entwickelt und die Anlage virtuell und daraufhin in der Realität in Betrieb genommen werden.